Inicio
IA
Inteligencia Artificial
Tecnología
Estudio concluye que el miedo a una IA superinteligente es exagerado
jueves, agosto 15, 2024

Estudio concluye que el miedo a una IA superinteligente es exagerado

¿Representa la IA una verdadera amenaza para la humanidad? Científicos tienen la respuesta

Robots asesinos sobre los que ya no tenemos control, IA con capacidad de autoaprendizaje que pronto será más lista que nosotros, en algún momento todos lo tememos, pero ¿está justificado? Investigadores británicos y alemanes arrojan luz sobre el asunto.

Y son bastante optimistas. ChatGPT y otros LLM (Large Language Models) no pueden aprender ni adquirir nuevas habilidades por sí solos. Mientras no puedan, no suponen una amenaza para la supervivencia de la humanidad, concluyen. Algo extraordinario, dado que expertos de todo el mundo e incluso gobiernos califican la IA de amenaza existencial. Este mismo año, Sam Altman, consejero delegado de OpenAI, calificó la IA de amenaza tan grande para la humanidad como las guerras nucleares y las pandemias.

Estamos al mando

Según científicos de la Universidad de Bath y la Universidad Técnica de Darmstadt, se trata de una exageración. Sostienen que, aunque los LLM tienen una capacidad superficial para seguir instrucciones y son excelentes en el manejo del lenguaje, son incapaces de aprender nuevas habilidades sin instrucciones explícitas. Así pues, los humanos seguimos estando muy por delante de la IA.

Por supuesto, la tecnología avanza rápidamente (los LLM se entrenan con conjuntos de datos cada vez mayores), pero aun así siguen siendo predecibles y seguros, creen los investigadores. Sin embargo, la tecnología siempre puede utilizarse mal, están de acuerdo, por ejemplo para noticias falsas. De hecho, a medida que estos modelos mejoran, generan textos cada vez más sofisticados. También pueden realizar mejor tareas cada vez más complicadas y detalladas, pero es muy poco probable que puedan llegar a razonamientos complejos por sí solos.

La IA necesita información

“Existe el temor de que este tipo de IA sea una amenaza para la humanidad, pero esto es injustificado y obstaculiza la amplia aceptación y el desarrollo de la tecnología. Además, distrae la atención de los problemas realmente serios en los que tenemos que trabajar”, responde el informático Harish Tayyar Madabushi, de la Universidad de Bath.

Estas declaraciones de los gigantes tecnológicos son bastante atrevidas, pero ¿en qué se basan? El equipo dirigido por la profesora Iryna Gurevych, de la Universidad Técnica de Darmstadt, realizó experimentos para comprobar hasta qué punto los LLM son capaces de realizar tareas que nunca antes se habían planteado.

Por ejemplo, los modelos lingüísticos tenían que responder a preguntas sobre situaciones sociales sin haber sido entrenados ni haber recibido nunca información sobre ellas. Investigaciones anteriores afirmaban que esto funcionaba porque los chatbots sabían cosas sobre situaciones sociales por sí mismos, pero los investigadores demuestran ahora que en realidad no se trataba más que del llamado aprendizaje en contexto (ICL): realizaban tareas basándose en unos pocos ejemplos que se les mostraban.

Miles de experimentos

Pero los investigadores no se lo tomaron a la ligera. Realizaron así miles de experimentos y llegaron a la conclusión de que la fuerza de los LLM se explica por su capacidad para seguir instrucciones (el aprendizaje in-context), su buenísima memoria y sus asombrosas habilidades lingüísticas.

“El temor era que, a medida que los modelos se hacen más y más grandes, pueden resolver nuevos problemas que actualmente no podemos predecir. Esto crea la amenaza de que estos modelos más grandes puedan desarrollar habilidades peligrosas, como el razonamiento y la planificación”, afirma el investigador Tayyar Madabushi. “Esto ha dado lugar a muchos debates, por ejemplo en la Cumbre sobre Seguridad de la IA celebrada el año pasado. Pero nuestro estudio demuestra que el temor a que un modelo siga su propio camino y haga algo completamente inesperado, innovador o potencialmente peligroso es infundado”.

Miedo también entre los grandes científicos

No crea que solo los profanos que ven demasiada ciencia ficción temen a la IA. “La preocupación por la amenaza existencial de la IA no se limita a la gente corriente. También las han expresado algunos de los mejores investigadores de IA de todo el mundo”, afirma Tayyar Madabushi. Reitera que estos temores son innecesarios: las pruebas demuestran claramente que los grandes modelos lingüísticos no implican el autodesarrollo de complejas capacidades de razonamiento. “Por supuesto, sigue siendo importante contrarrestar el abuso de la IA. Pensemos en la creación de noticias falsas y en el mayor riesgo de fraude. Sin embargo, es prematuro introducir regulaciones debido a las amenazas existenciales”.

Por otro lado, esto también significa para los usuarios que no deben confiar en ChatGPT para comprender y realizar tareas complicadas, que requieren un razonamiento complejo, sin instrucciones claras. “Excepto para las tareas más sencillas, deberían especificar muy explícitamente lo que quieren del modelo y, preferiblemente, proporcionar también ejemplos”, dice el informático.

Más investigación sobre noticias falsas

La profesora Gurevych añade: “Nuestros resultados no significan que la IA no sea una amenaza en absoluto. Solo demostramos que la temida aparición de habilidades de pensamiento complejas vinculadas a amenazas específicas no está respaldada por pruebas y que podemos controlar muy bien el proceso de aprendizaje de las MLA. Por tanto, las investigaciones futuras deberían centrarse en otros riesgos creados por los modelos, como su capacidad para generar noticias falsas”.

Sin comentarios