Fuente de la imagen: Generada por la herramienta de IA Unbounded
Recientemente, Sébastien Bubeck, jefe del Grupo de Teoría de Aprendizaje Automático en el Instituto de Investigación de Microsoft Redmond, junto con Li Yuanzhi, ganador del Premio de Investigación Sloan 2023, publicaron un artículo muy preocupante. El documento, titulado "La chispa de la inteligencia artificial general: primeros experimentos con GPT-4", tiene 154 páginas. Algunas buenas personas encontraron en el código fuente de LaTex que el título original era en realidad "Primer contacto con AGI".
La publicación de este artículo marca un hito importante en el campo de la investigación en inteligencia artificial. Proporciona información valiosa sobre nuestra profunda comprensión del desarrollo y la aplicación de la inteligencia artificial general (AGI). Al mismo tiempo, el título original del artículo, "Primer contacto con AGI", también destaca la importancia y la visión de futuro de la exploración hacia la inteligencia artificial general.
Leí pacientemente la versión traducida de este documento. Para ser honesto, medio entiendo y medio no entiendo, y no sé qué está pasando. Permítanme presentarles primero la propuesta central de este documento: GPT-4 presenta una forma de inteligencia general, haciendo florecer la chispa de la inteligencia artificial general. Esto se manifiesta en sus habilidades mentales básicas (como el razonamiento, la creatividad y la deducción), la gama de temas en los que adquiere experiencia (como la literatura, la medicina y la codificación) y la variedad de tareas que puede realizar (como jugar juegos, usar herramientas, explicarse, etc.).
Después de leer este artículo, revisé mi artículo "El futuro se puede esperar | Pintura de inteligencia artificial: que todos se conviertan en artistas". Me hice una pregunta: ¿Es un poco estrecho clasificar modelos grandes como ChatGPT en contenido generado por inteligencia artificial (AIGC) antes? Como indicó el artículo de Microsoft Research, GPT-4 en realidad no es solo AIGC, es más como el prototipo de la inteligencia artificial general.
Antes de explicar lo que significa AGI, permítanme decirles a los lectores de la columna "Futuro esperado" de The Paper las tres palabras ANI, AGI y ASI.
La Inteligencia Artificial (IA) se suele dividir en tres niveles:
① Inteligencia artificial débil (Artificial Narrow Intelligence, ANI);
② Inteligencia General Artificial (AGI);
③ Superinteligencia Artificial (ASI).
A continuación, presentaré brevemente las diferencias y el desarrollo de estos tres niveles.
①Inteligencia artificial débil (ANI):
La IA débil es, con mucho, la forma más común de IA. Se enfoca en realizar una sola tarea o resolver un problema en un dominio específico. Por ejemplo, reconocimiento de imágenes, reconocimiento de voz, traducción automática, etc. Dichos sistemas inteligentes pueden ser mejores que los humanos en ciertas tareas, pero solo pueden funcionar de forma limitada y no pueden manejar los problemas para los que no fueron diseñados. Hay muchos productos y servicios inteligentes en el mercado hoy en día, como asistentes virtuales (Siri, Microsoft Xiaoice, etc.), parlantes inteligentes (Tmall Genie, Xiaoai Speaker, etc.) y AlphaGo, todos los cuales pertenecen a la categoría de débiles inteligencia artificial. La limitación de la inteligencia artificial débil es que carece de una comprensión integral y capacidad de juicio, y solo puede desempeñarse bien en tareas específicas.
Con el desarrollo continuo de big data, algoritmos y poder de cómputo, la inteligencia artificial débil está penetrando gradualmente en todas las áreas de nuestra vida diaria. En los campos de finanzas, atención médica, educación, entretenimiento, etc., hemos sido testigos de muchos casos de aplicación exitosos.
②Inteligencia artificial general (AGI):
La inteligencia artificial general, también conocida como inteligencia artificial fuerte, se refiere a la inteligencia artificial que tiene la misma inteligencia que los humanos y puede realizar todos los comportamientos inteligentes de los humanos normales. Esto significa que AGI puede aprender, comprender, adaptarse y resolver problemas en varios campos al igual que los humanos. A diferencia de ANI, AGI puede completar de forma independiente una variedad de tareas, no solo limitadas a un campo específico. En la actualidad, generalmente se cree que la inteligencia artificial general aún no se ha logrado, pero muchas empresas de tecnología y científicos están trabajando arduamente para acercarse a este objetivo.
③ Súper Inteligencia Artificial (ASI):
La inteligencia súper artificial se refiere a un sistema de inteligencia artificial que supera con creces a la inteligencia humana en varios campos. No solo puede completar varias tareas que los humanos pueden completar, sino que también supera con creces a los humanos en términos de creatividad, capacidad de toma de decisiones y velocidad de aprendizaje. El surgimiento de ASI puede desencadenar muchos avances tecnológicos y cambios sociales sin precedentes, y resolver problemas difíciles que los humanos no pueden resolver.
Sin embargo, ASI también trae consigo una gama de riesgos potenciales. Por ejemplo, puede conducir a la pérdida del valor y la dignidad humanos, desencadenar el abuso y el uso indebido de la inteligencia artificial e incluso puede conducir a la rebelión de la inteligencia artificial y otros problemas.
Resulta que siempre hemos creído que la tecnología de inteligencia artificial, desde la inteligencia artificial débil hasta la inteligencia artificial general y la superinteligencia artificial, pasará por un proceso de desarrollo largo y complicado. En este proceso, tenemos tiempo suficiente para hacer varios preparativos, que van desde leyes y reglamentos hasta la preparación psicológica de cada individuo. Recientemente, sin embargo, tengo la fuerte sensación de que podemos estar a solo unos pasos de tener una inteligencia artificial general, y puede que solo tome 20 años o menos. Si algunos dicen que el proceso solo tomará de 5 a 10 años, no lo descartaría por completo.
OpenAI mencionó en su "Planificación y perspectiva de AGI": "AGI tiene el potencial de brindar nuevas capacidades increíbles para todos. Podemos imaginar un mundo en el que todos podamos obtener casi cualquier ayuda en tareas cognitivas, proporcionando un enorme multiplicador de fuerza para humanos". inteligencia y creatividad”.
Sin embargo, este plan enfatiza un proceso de "transición gradual", en lugar de enfatizar demasiado las poderosas capacidades de AGI. "Dar a las personas, los legisladores y las instituciones el tiempo para comprender lo que está sucediendo, experimentar por sí mismos lo bueno y lo malo de estos sistemas, ajustar nuestra economía y establecer regulaciones".
En mi opinión, el mensaje subyacente transmitido por este pasaje es que la tecnología que conduce a AGI ya existe. Sin embargo, para permitir que la sociedad humana tenga un proceso de adaptación, OpenAI está desacelerando deliberadamente el ritmo del progreso tecnológico. Tienen la intención de equilibrar el progreso tecnológico y la preparación de la sociedad humana, permitiendo más tiempo para discusiones legales, éticas y de adaptación social, y tomando las medidas necesarias para enfrentar los desafíos que puedan surgir.
Hay una frase así en "Las Analectas de la conquista de Zhuanyu por el general de Confucio Ji": "La boca del tigre salió del escorpión". Ahora, todo tipo de GPT, como los tigres, se han escapado de sus jaulas. Como dijo Yuval Noah Harari, autor de "Una breve historia del futuro", la inteligencia artificial es dominar el lenguaje con una habilidad que supera el nivel humano promedio. Al dominar el lenguaje, la inteligencia artificial ya tiene la capacidad de crear relaciones íntimas con cientos de millones de personas a gran escala y tiene la clave para invadir el sistema de civilización humana. Advirtió además: La mayor diferencia entre las armas nucleares y la inteligencia artificial es que las armas nucleares no pueden crear armas nucleares más poderosas. Pero **AI puede producir una IA más poderosa, por lo que debemos actuar rápidamente antes de que la IA se salga de control. **
El 22 de marzo, el Future of Life Institute (Futuro de la Vida) emitió una carta abierta a toda la sociedad titulada "Suspensión de la Investigación de Inteligencia Artificial Gigante: Una Carta Abierta", llamando a todos los laboratorios de inteligencia artificial a suspender de inmediato la comparación de GPT- 4 Entrenamiento de sistemas de IA más potentes con una pausa de al menos 6 meses. Landon Klein, director de política estadounidense en el Future of Life Institute, dijo: "Vemos el momento actual como similar al comienzo de la era nuclear..." Esta carta abierta ha sido apoyada por más de mil personas, incluido Elon. Musk (fundador de Tesla), Sam Altman (CEO de OpenAI), Joshua Bengio (ganador del Premio Turing 2018) y otros personajes famosos.
Si mucha gente se da cuenta de que estamos a punto de entrar en una era de "proliferación nuclear de IA", entonces realmente necesitamos explorar una posibilidad. Esta posibilidad es establecer una organización internacional similar a la Agencia Internacional de Energía Atómica, cuyo objetivo es supervisar a todas las empresas de inteligencia artificial, en función de la cantidad de GPU que utilizan, el consumo de energía y otros indicadores. Los sistemas que exceden los umbrales de capacidad están sujetos a auditoría. A través de organizaciones internacionales como esta, podemos trabajar juntos para garantizar que las tecnologías de IA brinden beneficios a la humanidad, en lugar de daños potenciales.
Algunos científicos defienden que al avanzar en la investigación y aplicación de la inteligencia artificial, es necesario evitar que la capacidad del sistema de inteligencia artificial supere el control humano. Hicieron una serie de metáforas para describir la catástrofe que se estaba desarrollando, incluyendo "un niño de 10 años trató de jugar al ajedrez con Stockfish 15", "el siglo XI trató de luchar contra el siglo XXI" y "Australopithecus trató de luchar contra Homo sapiens". Estos científicos quieren que dejemos de imaginar a AGI como "un pensador inanimado que vive en Internet". En cambio, imagínalos como una civilización alienígena completa que piensa un millón de veces más rápido que los humanos. Es solo que inicialmente estaban confinados a las computadoras.
Sin embargo, algunos científicos son optimistas. En su opinión, el desarrollo y la investigación de la inteligencia artificial deben seguir fomentando el progreso científico y la innovación tecnológica. Compararon que si en la época en que nació el automóvil, si un cochero proponía que el conductor fuera suspendido de conducir por 6 meses. Mirando hacia atrás ahora, ¿es este el comportamiento de una mantis actuando como un carro? Creen que a través de un enfoque de investigación transparente y responsable, se pueden abordar los problemas subyacentes y garantizar la capacidad de control de las tecnologías de IA. Además, es a través de la experimentación y la práctica continuas que podemos comprender y responder mejor a los desafíos que puede traer la inteligencia artificial.
Recientemente, la Organización Mundial de la Salud (OMS) emitió una advertencia sobre la combinación de inteligencia artificial y atención de la salud pública. Señalan que confiar en los datos generados por IA para la toma de decisiones puede estar en riesgo de sesgo o ser mal utilizado. En un comunicado, la OMS dijo que es fundamental evaluar los riesgos del uso de modelos generativos de lenguaje grande (LLM) como ChatGPT para proteger y promover el bienestar humano. Enfatizan que se necesitan pasos para garantizar la precisión, confiabilidad e imparcialidad en el uso de estas tecnologías para proteger el interés público y avanzar en el campo médico.
Muchos países ya han tomado medidas para regular el campo de la inteligencia artificial. El 31 de marzo, la Agencia Italiana de Protección de Datos Personales anunció que el uso de ChatGPT se prohibirá temporalmente a partir de ahora. Al mismo tiempo, los funcionarios de la UE también están trabajando en un nuevo proyecto de ley llamado "Ley de inteligencia artificial (Ley AI)", que incluye: prohibir el uso de servicios de inteligencia artificial específicos y formular normas legales relacionadas.
El Departamento de Comercio de EE. UU. emitió un aviso para solicitar comentarios públicos, que incluyen: si los nuevos modelos de inteligencia artificial que representan un riesgo de daño deben revisarse antes de que puedan publicarse. Al mismo tiempo, el Departamento de Comercio también prometió tomar medidas enérgicas contra los productos de inteligencia artificial dañinos que violan los derechos civiles y las leyes de protección al consumidor.
El 16 de mayo, el CEO y cofundador de OpenAI, Sam Altman, participó por primera vez en la audiencia del Congreso de los EE. UU. y habló sobre los peligros potenciales de la tecnología de inteligencia artificial. Admitió que a medida que avanza la inteligencia artificial, existe preocupación y ansiedad sobre cómo cambiará la forma en que vivimos. Con este fin, cree que la intervención del gobierno puede evitar que la inteligencia artificial "se auto-reproduzca y se autoinfiltre salvajemente". Propuso crear un organismo regulador completamente nuevo que implementaría las salvaguardas necesarias y emitiría licencias para los sistemas de IA, con el poder de revocarlas.
En la audiencia, se le preguntó a Altman cuál era su mayor preocupación sobre el potencial de la inteligencia artificial, pero no dio más detalles, solo dijo que "si esta tecnología sale mal, puede estar muy mal" y puede "causar un daño significativo al mundo". .
Antes de esta audiencia, las medidas regulatorias y de control de China en el campo de la inteligencia artificial también han atraído una atención generalizada. El 11 de abril, con el fin de promover el desarrollo saludable y la aplicación estandarizada de la tecnología de inteligencia artificial generativa, de conformidad con la "Ley de Seguridad de Redes de la República Popular China" y otras leyes y reglamentos, la Administración del Ciberespacio de China redactó el "Management Medidas para los Servicios de Inteligencia Artificial Generativa (Borrador para Comentarios)" ". Este enfoque aclara la actitud de apoyo y estímulo para la industria de la inteligencia artificial generativa, por ejemplo, "El estado apoya la innovación independiente, la promoción y aplicación, y la cooperación internacional de tecnologías básicas como algoritmos y marcos de inteligencia artificial, y alienta la adopción prioritaria de software y herramientas seguras y confiables, recursos informáticos y de datos”.
El proyecto de opinión requiere que el contenido generado por la inteligencia artificial generativa refleje los valores fundamentales del socialismo y no debe contener la subversión del poder estatal, el derrocamiento del sistema socialista, la incitación a dividir el país, socavar la unidad nacional, promover el terrorismo, extremismo, promover el odio étnico, la discriminación étnica, la violencia, la información obscena y pornográfica, la información falsa y el contenido que pueda perturbar el orden económico y social. El borrador de opinión también requiere que los proveedores declaren evaluaciones de seguridad, tomen medidas para prevenir la discriminación y respeten los derechos de privacidad.
Las medidas colectivas tomadas por estos países nos recuerdan que el desarrollo actual de la inteligencia artificial trae grandes oportunidades y desafíos. Necesitamos con urgencia pautas y regulaciones éticas claras para garantizar el uso adecuado y la transparencia de las tecnologías de IA. Nos enfrentaremos a una serie de preguntas importantes: ¿Cómo garantizar la privacidad y seguridad de los datos? ¿Cómo lidiar con el sesgo algorítmico y la injusticia? ¿Cómo garantizar la transparencia y la explicabilidad de la toma de decisiones de la inteligencia artificial? Estos problemas deben ser respondidos a través de regulaciones e instituciones claras.
Mientras escribo esto, mis pensamientos saltan inexplicablemente al primer párrafo del poema titulado "La larga temporada" en el reciente drama doméstico popular "La larga temporada":
chasquear los dedos, dijo
vamos a chasquear los dedos
las cosas lejanas se harán añicos
Las personas frente a mí aún no lo saben.
Aquí, quiero hacer una predicción audaz: cuando llegue 2024 y seleccionemos la palabra del año 2023, ChatGPT será una de las diez palabras más populares, e incluso puede convertirse en la palabra del año o la persona del año. .
Analicemos la palabra "IA". Si A representa Ángel (Ángel), entonces yo puedo representar Diablo (Iblis). Hoy en día, la tecnología de inteligencia artificial se está desarrollando rápidamente, mostrando una sorprendente relación simbiótica entre "ángeles y demonios". Frente a esta realidad, debemos tomar medidas con un objetivo: "disfrutemos de una larga y dorada cosecha de inteligencia artificial, en lugar de caer en un frío invierno sin estar preparados".
(El autor Hu Yi, un trabajador de big data al que le gusta imaginar el futuro.)
Ver originales
El contenido es solo de referencia, no una solicitud u oferta. No se proporciona asesoramiento fiscal, legal ni de inversión. Consulte el Descargo de responsabilidad para obtener más información sobre los riesgos.
Opinión | La espada de doble filo de la inteligencia artificial general: controlar el desarrollo y evitar las crisis
Autor: Hu Yi
Fuente: El Papel
Recientemente, Sébastien Bubeck, jefe del Grupo de Teoría de Aprendizaje Automático en el Instituto de Investigación de Microsoft Redmond, junto con Li Yuanzhi, ganador del Premio de Investigación Sloan 2023, publicaron un artículo muy preocupante. El documento, titulado "La chispa de la inteligencia artificial general: primeros experimentos con GPT-4", tiene 154 páginas. Algunas buenas personas encontraron en el código fuente de LaTex que el título original era en realidad "Primer contacto con AGI".
La publicación de este artículo marca un hito importante en el campo de la investigación en inteligencia artificial. Proporciona información valiosa sobre nuestra profunda comprensión del desarrollo y la aplicación de la inteligencia artificial general (AGI). Al mismo tiempo, el título original del artículo, "Primer contacto con AGI", también destaca la importancia y la visión de futuro de la exploración hacia la inteligencia artificial general.
Leí pacientemente la versión traducida de este documento. Para ser honesto, medio entiendo y medio no entiendo, y no sé qué está pasando. Permítanme presentarles primero la propuesta central de este documento: GPT-4 presenta una forma de inteligencia general, haciendo florecer la chispa de la inteligencia artificial general. Esto se manifiesta en sus habilidades mentales básicas (como el razonamiento, la creatividad y la deducción), la gama de temas en los que adquiere experiencia (como la literatura, la medicina y la codificación) y la variedad de tareas que puede realizar (como jugar juegos, usar herramientas, explicarse, etc.).
Después de leer este artículo, revisé mi artículo "El futuro se puede esperar | Pintura de inteligencia artificial: que todos se conviertan en artistas". Me hice una pregunta: ¿Es un poco estrecho clasificar modelos grandes como ChatGPT en contenido generado por inteligencia artificial (AIGC) antes? Como indicó el artículo de Microsoft Research, GPT-4 en realidad no es solo AIGC, es más como el prototipo de la inteligencia artificial general.
Antes de explicar lo que significa AGI, permítanme decirles a los lectores de la columna "Futuro esperado" de The Paper las tres palabras ANI, AGI y ASI.
La Inteligencia Artificial (IA) se suele dividir en tres niveles:
① Inteligencia artificial débil (Artificial Narrow Intelligence, ANI);
② Inteligencia General Artificial (AGI);
③ Superinteligencia Artificial (ASI).
A continuación, presentaré brevemente las diferencias y el desarrollo de estos tres niveles.
①Inteligencia artificial débil (ANI):
La IA débil es, con mucho, la forma más común de IA. Se enfoca en realizar una sola tarea o resolver un problema en un dominio específico. Por ejemplo, reconocimiento de imágenes, reconocimiento de voz, traducción automática, etc. Dichos sistemas inteligentes pueden ser mejores que los humanos en ciertas tareas, pero solo pueden funcionar de forma limitada y no pueden manejar los problemas para los que no fueron diseñados. Hay muchos productos y servicios inteligentes en el mercado hoy en día, como asistentes virtuales (Siri, Microsoft Xiaoice, etc.), parlantes inteligentes (Tmall Genie, Xiaoai Speaker, etc.) y AlphaGo, todos los cuales pertenecen a la categoría de débiles inteligencia artificial. La limitación de la inteligencia artificial débil es que carece de una comprensión integral y capacidad de juicio, y solo puede desempeñarse bien en tareas específicas.
Con el desarrollo continuo de big data, algoritmos y poder de cómputo, la inteligencia artificial débil está penetrando gradualmente en todas las áreas de nuestra vida diaria. En los campos de finanzas, atención médica, educación, entretenimiento, etc., hemos sido testigos de muchos casos de aplicación exitosos.
②Inteligencia artificial general (AGI):
La inteligencia artificial general, también conocida como inteligencia artificial fuerte, se refiere a la inteligencia artificial que tiene la misma inteligencia que los humanos y puede realizar todos los comportamientos inteligentes de los humanos normales. Esto significa que AGI puede aprender, comprender, adaptarse y resolver problemas en varios campos al igual que los humanos. A diferencia de ANI, AGI puede completar de forma independiente una variedad de tareas, no solo limitadas a un campo específico. En la actualidad, generalmente se cree que la inteligencia artificial general aún no se ha logrado, pero muchas empresas de tecnología y científicos están trabajando arduamente para acercarse a este objetivo.
③ Súper Inteligencia Artificial (ASI):
La inteligencia súper artificial se refiere a un sistema de inteligencia artificial que supera con creces a la inteligencia humana en varios campos. No solo puede completar varias tareas que los humanos pueden completar, sino que también supera con creces a los humanos en términos de creatividad, capacidad de toma de decisiones y velocidad de aprendizaje. El surgimiento de ASI puede desencadenar muchos avances tecnológicos y cambios sociales sin precedentes, y resolver problemas difíciles que los humanos no pueden resolver.
Sin embargo, ASI también trae consigo una gama de riesgos potenciales. Por ejemplo, puede conducir a la pérdida del valor y la dignidad humanos, desencadenar el abuso y el uso indebido de la inteligencia artificial e incluso puede conducir a la rebelión de la inteligencia artificial y otros problemas.
Resulta que siempre hemos creído que la tecnología de inteligencia artificial, desde la inteligencia artificial débil hasta la inteligencia artificial general y la superinteligencia artificial, pasará por un proceso de desarrollo largo y complicado. En este proceso, tenemos tiempo suficiente para hacer varios preparativos, que van desde leyes y reglamentos hasta la preparación psicológica de cada individuo. Recientemente, sin embargo, tengo la fuerte sensación de que podemos estar a solo unos pasos de tener una inteligencia artificial general, y puede que solo tome 20 años o menos. Si algunos dicen que el proceso solo tomará de 5 a 10 años, no lo descartaría por completo.
OpenAI mencionó en su "Planificación y perspectiva de AGI": "AGI tiene el potencial de brindar nuevas capacidades increíbles para todos. Podemos imaginar un mundo en el que todos podamos obtener casi cualquier ayuda en tareas cognitivas, proporcionando un enorme multiplicador de fuerza para humanos". inteligencia y creatividad”.
Sin embargo, este plan enfatiza un proceso de "transición gradual", en lugar de enfatizar demasiado las poderosas capacidades de AGI. "Dar a las personas, los legisladores y las instituciones el tiempo para comprender lo que está sucediendo, experimentar por sí mismos lo bueno y lo malo de estos sistemas, ajustar nuestra economía y establecer regulaciones".
En mi opinión, el mensaje subyacente transmitido por este pasaje es que la tecnología que conduce a AGI ya existe. Sin embargo, para permitir que la sociedad humana tenga un proceso de adaptación, OpenAI está desacelerando deliberadamente el ritmo del progreso tecnológico. Tienen la intención de equilibrar el progreso tecnológico y la preparación de la sociedad humana, permitiendo más tiempo para discusiones legales, éticas y de adaptación social, y tomando las medidas necesarias para enfrentar los desafíos que puedan surgir.
Hay una frase así en "Las Analectas de la conquista de Zhuanyu por el general de Confucio Ji": "La boca del tigre salió del escorpión". Ahora, todo tipo de GPT, como los tigres, se han escapado de sus jaulas. Como dijo Yuval Noah Harari, autor de "Una breve historia del futuro", la inteligencia artificial es dominar el lenguaje con una habilidad que supera el nivel humano promedio. Al dominar el lenguaje, la inteligencia artificial ya tiene la capacidad de crear relaciones íntimas con cientos de millones de personas a gran escala y tiene la clave para invadir el sistema de civilización humana. Advirtió además: La mayor diferencia entre las armas nucleares y la inteligencia artificial es que las armas nucleares no pueden crear armas nucleares más poderosas. Pero **AI puede producir una IA más poderosa, por lo que debemos actuar rápidamente antes de que la IA se salga de control. **
El 22 de marzo, el Future of Life Institute (Futuro de la Vida) emitió una carta abierta a toda la sociedad titulada "Suspensión de la Investigación de Inteligencia Artificial Gigante: Una Carta Abierta", llamando a todos los laboratorios de inteligencia artificial a suspender de inmediato la comparación de GPT- 4 Entrenamiento de sistemas de IA más potentes con una pausa de al menos 6 meses. Landon Klein, director de política estadounidense en el Future of Life Institute, dijo: "Vemos el momento actual como similar al comienzo de la era nuclear..." Esta carta abierta ha sido apoyada por más de mil personas, incluido Elon. Musk (fundador de Tesla), Sam Altman (CEO de OpenAI), Joshua Bengio (ganador del Premio Turing 2018) y otros personajes famosos.
Si mucha gente se da cuenta de que estamos a punto de entrar en una era de "proliferación nuclear de IA", entonces realmente necesitamos explorar una posibilidad. Esta posibilidad es establecer una organización internacional similar a la Agencia Internacional de Energía Atómica, cuyo objetivo es supervisar a todas las empresas de inteligencia artificial, en función de la cantidad de GPU que utilizan, el consumo de energía y otros indicadores. Los sistemas que exceden los umbrales de capacidad están sujetos a auditoría. A través de organizaciones internacionales como esta, podemos trabajar juntos para garantizar que las tecnologías de IA brinden beneficios a la humanidad, en lugar de daños potenciales.
Algunos científicos defienden que al avanzar en la investigación y aplicación de la inteligencia artificial, es necesario evitar que la capacidad del sistema de inteligencia artificial supere el control humano. Hicieron una serie de metáforas para describir la catástrofe que se estaba desarrollando, incluyendo "un niño de 10 años trató de jugar al ajedrez con Stockfish 15", "el siglo XI trató de luchar contra el siglo XXI" y "Australopithecus trató de luchar contra Homo sapiens". Estos científicos quieren que dejemos de imaginar a AGI como "un pensador inanimado que vive en Internet". En cambio, imagínalos como una civilización alienígena completa que piensa un millón de veces más rápido que los humanos. Es solo que inicialmente estaban confinados a las computadoras.
Sin embargo, algunos científicos son optimistas. En su opinión, el desarrollo y la investigación de la inteligencia artificial deben seguir fomentando el progreso científico y la innovación tecnológica. Compararon que si en la época en que nació el automóvil, si un cochero proponía que el conductor fuera suspendido de conducir por 6 meses. Mirando hacia atrás ahora, ¿es este el comportamiento de una mantis actuando como un carro? Creen que a través de un enfoque de investigación transparente y responsable, se pueden abordar los problemas subyacentes y garantizar la capacidad de control de las tecnologías de IA. Además, es a través de la experimentación y la práctica continuas que podemos comprender y responder mejor a los desafíos que puede traer la inteligencia artificial.
Recientemente, la Organización Mundial de la Salud (OMS) emitió una advertencia sobre la combinación de inteligencia artificial y atención de la salud pública. Señalan que confiar en los datos generados por IA para la toma de decisiones puede estar en riesgo de sesgo o ser mal utilizado. En un comunicado, la OMS dijo que es fundamental evaluar los riesgos del uso de modelos generativos de lenguaje grande (LLM) como ChatGPT para proteger y promover el bienestar humano. Enfatizan que se necesitan pasos para garantizar la precisión, confiabilidad e imparcialidad en el uso de estas tecnologías para proteger el interés público y avanzar en el campo médico.
Muchos países ya han tomado medidas para regular el campo de la inteligencia artificial. El 31 de marzo, la Agencia Italiana de Protección de Datos Personales anunció que el uso de ChatGPT se prohibirá temporalmente a partir de ahora. Al mismo tiempo, los funcionarios de la UE también están trabajando en un nuevo proyecto de ley llamado "Ley de inteligencia artificial (Ley AI)", que incluye: prohibir el uso de servicios de inteligencia artificial específicos y formular normas legales relacionadas.
El Departamento de Comercio de EE. UU. emitió un aviso para solicitar comentarios públicos, que incluyen: si los nuevos modelos de inteligencia artificial que representan un riesgo de daño deben revisarse antes de que puedan publicarse. Al mismo tiempo, el Departamento de Comercio también prometió tomar medidas enérgicas contra los productos de inteligencia artificial dañinos que violan los derechos civiles y las leyes de protección al consumidor.
El 16 de mayo, el CEO y cofundador de OpenAI, Sam Altman, participó por primera vez en la audiencia del Congreso de los EE. UU. y habló sobre los peligros potenciales de la tecnología de inteligencia artificial. Admitió que a medida que avanza la inteligencia artificial, existe preocupación y ansiedad sobre cómo cambiará la forma en que vivimos. Con este fin, cree que la intervención del gobierno puede evitar que la inteligencia artificial "se auto-reproduzca y se autoinfiltre salvajemente". Propuso crear un organismo regulador completamente nuevo que implementaría las salvaguardas necesarias y emitiría licencias para los sistemas de IA, con el poder de revocarlas.
En la audiencia, se le preguntó a Altman cuál era su mayor preocupación sobre el potencial de la inteligencia artificial, pero no dio más detalles, solo dijo que "si esta tecnología sale mal, puede estar muy mal" y puede "causar un daño significativo al mundo". .
Antes de esta audiencia, las medidas regulatorias y de control de China en el campo de la inteligencia artificial también han atraído una atención generalizada. El 11 de abril, con el fin de promover el desarrollo saludable y la aplicación estandarizada de la tecnología de inteligencia artificial generativa, de conformidad con la "Ley de Seguridad de Redes de la República Popular China" y otras leyes y reglamentos, la Administración del Ciberespacio de China redactó el "Management Medidas para los Servicios de Inteligencia Artificial Generativa (Borrador para Comentarios)" ". Este enfoque aclara la actitud de apoyo y estímulo para la industria de la inteligencia artificial generativa, por ejemplo, "El estado apoya la innovación independiente, la promoción y aplicación, y la cooperación internacional de tecnologías básicas como algoritmos y marcos de inteligencia artificial, y alienta la adopción prioritaria de software y herramientas seguras y confiables, recursos informáticos y de datos”.
El proyecto de opinión requiere que el contenido generado por la inteligencia artificial generativa refleje los valores fundamentales del socialismo y no debe contener la subversión del poder estatal, el derrocamiento del sistema socialista, la incitación a dividir el país, socavar la unidad nacional, promover el terrorismo, extremismo, promover el odio étnico, la discriminación étnica, la violencia, la información obscena y pornográfica, la información falsa y el contenido que pueda perturbar el orden económico y social. El borrador de opinión también requiere que los proveedores declaren evaluaciones de seguridad, tomen medidas para prevenir la discriminación y respeten los derechos de privacidad.
Las medidas colectivas tomadas por estos países nos recuerdan que el desarrollo actual de la inteligencia artificial trae grandes oportunidades y desafíos. Necesitamos con urgencia pautas y regulaciones éticas claras para garantizar el uso adecuado y la transparencia de las tecnologías de IA. Nos enfrentaremos a una serie de preguntas importantes: ¿Cómo garantizar la privacidad y seguridad de los datos? ¿Cómo lidiar con el sesgo algorítmico y la injusticia? ¿Cómo garantizar la transparencia y la explicabilidad de la toma de decisiones de la inteligencia artificial? Estos problemas deben ser respondidos a través de regulaciones e instituciones claras.
Mientras escribo esto, mis pensamientos saltan inexplicablemente al primer párrafo del poema titulado "La larga temporada" en el reciente drama doméstico popular "La larga temporada":
chasquear los dedos, dijo
vamos a chasquear los dedos
las cosas lejanas se harán añicos
Las personas frente a mí aún no lo saben.
Aquí, quiero hacer una predicción audaz: cuando llegue 2024 y seleccionemos la palabra del año 2023, ChatGPT será una de las diez palabras más populares, e incluso puede convertirse en la palabra del año o la persona del año. .
Analicemos la palabra "IA". Si A representa Ángel (Ángel), entonces yo puedo representar Diablo (Iblis). Hoy en día, la tecnología de inteligencia artificial se está desarrollando rápidamente, mostrando una sorprendente relación simbiótica entre "ángeles y demonios". Frente a esta realidad, debemos tomar medidas con un objetivo: "disfrutemos de una larga y dorada cosecha de inteligencia artificial, en lugar de caer en un frío invierno sin estar preparados".
(El autor Hu Yi, un trabajador de big data al que le gusta imaginar el futuro.)