Categorías
Actualidad

Reflexiones sobre la Alineación y Objetivos de la IA

El pionero en traducción a gran escala reflexiona sobre los objetivos que definimos para la inteligencia artificial, y cómo llegaremos a un consenso sobre su desarrollo… y cuándo y cómo lo haremos.

La reciente crisis en OpenAI, una de las empresas líderes en el campo emergente de la inteligencia artificial, ha puesto de manifiesto un debate interno y en la comunidad más amplia sobre el ritmo adecuado de avance tecnológico y si un desarrollo más pausado podría resultar en una IA más segura.

Como profesor de inteligencia artificial y ética de la IA, opino que este enfoque pasa por alto la cuestión esencial: qué tipo de inteligencia artificial estamos acelerando o frenando.

En mis cuatro décadas de investigación en procesamiento del lenguaje natural y creatividad computacional en IA, contribuí a avances significativos en el aprendizaje automático que me llevaron a crear el primer traductor de idiomas en línea a gran escala del mundo.

Este proyecto dio origen a herramientas como Google Translate y Bing Translator de Microsoft.

Los argumentos en contra del desarrollo de estas IA de traducción son escasos, ya que reducir los malentendidos entre culturas podría ser vital para superar la creciente polarización geopolítica.

No obstante, la IA también tiene su lado negativo. He observado cómo técnicas desarrolladas por nuestra comunidad para fines benéficos, como en procesamiento del lenguaje natural y aprendizaje automático, se utilizan en redes sociales y motores de búsqueda y recomendación para exacerbar los prejuicios y la desinformación, amenazando cada vez más a la democracia.

Recientemente, la IA se ha vuelto más poderosa, elevando las ciberestafas a un nuevo nivel con deepfakes auditivos de colegas o seres queridos para robar dinero.

Las IA manipulan a la humanidad y están a punto de alcanzar un poder aún más impactante para influir en nuestro inconsciente, algo que apenas se ha vislumbrado con grandes modelos lingüísticos como ChatGPT. El «momento Oppenheimer» de la IA es una realidad.

El dilema de «velocidad versus seguridad» no es el único que nos distrae de los problemas esenciales, ocultando las verdaderas amenazas que enfrentamos.

Un aspecto crucial en la seguridad de la IA es la «alineación de la IA», centrada en el desarrollo de métodos para que las IA se alineen con los objetivos humanos.

Hasta el reciente tumulto, Ilya Sutskever y Jan Leike, líder de investigación en alineación de OpenAI, dirigían un programa sobre «superalineación», buscando responder a una pregunta simple pero compleja: «¿Cómo aseguramos que los sistemas de IA, mucho más inteligentes que los humanos, cumplan con los objetivos humanos?».

Sin embargo, en la cuestión de la alineación de la IA, nos enfrentamos a un problema claro que a menudo evitamos abordar:

Alineación… ¿Con cuáles metas humanas?

Durante mucho tiempo, filósofos, políticos y sociedades han debatido sobre complejas elecciones entre diversos objetivos. Por ejemplo:

  • ¿Preferimos la gratificación inmediata o la felicidad a largo plazo?
  • ¿Evitar la extinción, preservar las libertades individuales, fomentar el bien colectivo?
  • ¿Cómo equilibrar los límites de la desigualdad, la igualdad de oportunidades, el nivel de gobernanza, la libertad de expresión frente a discursos dañinos, el grado de manipulación aceptable, la tolerancia a la diversidad, la imprudencia tolerable, y los derechos versus responsabilidades?

No existe un consenso universal sobre estos objetivos, y menos aún sobre temas aún más polémicos como los derechos sobre armas, los derechos reproductivos o los conflictos geopolíticos.

De hecho, el caso de OpenAI demuestra lo difícil que es alinear objetivos, incluso entre un pequeño grupo de sus líderes. ¿Cómo puede la inteligencia artificial alinearse con todos los objetivos humanos?

Si el problema parece evidente, ¿por qué la alineación de la IA es tan importante en la comunidad de IA? Probablemente porque el enfoque dominante en IA es definir una función matemática como «función objetivo», un objetivo cuantitativo hacia el cual la IA debe dirigirse.

Constantemente, el «cerebro artificial» de una IA toma innumerables decisiones para maximizar este objetivo.

Por ejemplo, un estudio reciente mostró que una IA médica superó a los radiólogos humanos al detectar el 99% de las radiografías de tórax anormales, automatizando una parte de su carga de trabajo.

Por lo tanto, los investigadores de IA tendemos a plantear todo en términos de maximizar una función objetivo; es un caso clásico de hábito arraigado.

Para lograr una IA segura, ¡simplemente maximizamos la alineación entre la tecnología y los objetivos humanos! Si pudiéramos definir una función objetivo clara que mida el grado de alineación con todos los objetivos humanos.

En la comunidad de investigación de IA, a menudo ignoramos los riesgos existenciales que surgen de la interacción de la IA con la dinámica compleja y caótica de los factores psicológicos, sociales, culturales, políticos y emocionales de la humanidad; elementos que no se pueden resumir en una simple función matemática.

Las compañías de IA, los investigadores y los reguladores deben priorizar urgentemente la solución de este problema de cómo se espera que actúen las IA frente a dilemas antiguos entre objetivos opuestos sin resolver, así como acelerar el desarrollo de nuevos tipos de IA que puedan ayudar a abordar estos problemas.

Por ejemplo, uno de mis proyectos de investigación incluye una IA que no solo verifica la información, sino que también la reformula automáticamente para reducir los prejuicios implícitos de los lectores. Es esencial acelerar este trabajo debido al avance exponencial de la tecnología de IA.

Mientras tanto, debemos desacelerar la implementación de IA que agrava la inestabilidad sociopolítica, como los algoritmos que promueven las teorías conspirativas.

En cambio, deberíamos acelerar el desarrollo de IA que ayude a reducir los peligrosos niveles de polarización.