3.5 C
Granada
martes, 24 diciembre 2024

¿Por qué sufre alucinaciones la inteligencia artificial?

Ciencia y tecnología¿Por qué sufre alucinaciones la inteligencia artificial?

Antes que nada hay que precisar que lo que sufre alucinaciones no es la inteligencia artificial entendida genéricamente sino los modelos de lenguaje o de generación de imágenes que se han hecho populares últimamente y que están al alcance del público.

Este fenómeno, donde los modelos generativos de IA se inventan información falsa , ha capturado la atención tanto de científicos como del público en general.

¿Qué son las alucinaciones de la IA?

En esencia, una alucinación de IA se produce cuando un modelo generativo, como ChatGPT o cualquier otro sistema avanzado, crea y entrega datos que son falsos. Un ejemplo famoso de esto se observó cuando se le preguntó al chatbot Bard de Google sobre descubrimientos realizados por el Telescopio Espacial James Webb y este proporcionó información incorrecta sobre la fotografía de un exoplaneta. Estos errores no se limitan a los chatbots; se extienden a diversas aplicaciones de IA, afectando la creación de textos, imágenes, código de programación y cualquier campo donde se confía en la IA generativa.

La raíz de las alucinaciones de IA se encuentra en cómo se entrenan estos modelos. Utilizan enormes cantidades de datos, que pueden incluir artículos, libros, publicaciones en redes sociales y más. Si bien son excelentes generando contenido similar al que han visto durante su entrenamiento, esto también puede llevarlos a inferir o generalizar información de manera incorrecta, resultando en afirmaciones plausibles pero falsas. Es decir, que si tú entrenas a una inteligencia artificial con mil ejemplos en los que aparece el nombre de un alimento antes de la palabra cocido, patata cocida por ejemplo, y no le muestras textos en los que se califica así a alguien que está ostensiblemente borracho, el día que le pidas que te explique por qué José Miguel llegó cocido al trabajo, te dirá que es porque ha sido hervido en agua caliente. Podría ser… pero no.

El mismo caso se da si en el entrenamiento ha visto que dos conceptos están entrelazados tres millones de veces y otro sólo está enlazado con una de esas palabras diecinueve veces. Su método estadístico de procesamiento le dirá que use la asociación más frecuente porque, a diferencia de los humanos, no entiende el contexto en el que se dicen las cosas, la entonación o la intención, sólo los fríos datos.

Otro factor de mucho peso es el entrenamiento inadecuado (como en el caso de los soldados nazis racializados de Google Gemini) o los datos sesgados o insuficientes, que dejan al modelo mal preparado para responder a ciertas preguntas con precisión.

Consecuencias de las alucinaciones

Las consecuencias de las alucinaciones de IA pueden ser significativas. Desde la difusión de información falsa hasta la generación de confianza indebida en las respuestas proporcionadas por estas tecnologías, el impacto puede ser amplio. En contextos críticos, como la medicina, la justicia o la seguridad, las implicaciones de recibir información errónea pueden ser particularmente graves. Imagínate que un arquitecto no muy avispado le pide a una inteligencia artificial que le calcule los datos estructurales de un puente de piedra pero como es algo que ya no se hace y no hay documentación disponible al respecto, la inteligencia artificial utilizará los datos de resistencia estructural del cemento o el acero y eso se va a traducir necesariamente en que el puente de piedra se va a caer antes o después. Ya sé que es un caso evidentemente exagerado pero sirve perfectamente para ilustrar que a nivel profesional se debe confiar lo justo en los modelos de lenguaje o de generación de imágenes.

El ridículo monumental que ha hecho Google al lanzar su herramienta de generación de imágenes de Gémini con un sesgo multirracial tan fuerte que hacía que apareciesen esquimales negros o soldados nazis de todas las razas menos arios, ha sido un golpe de imagen durísimo para Google porque aparte de las risas, ha tenido que cerrar el servicio para no seguir haciendo el ridículo y su posición como compañía tecnológica de primer orden ha quedado en entredicho. Ahora sabemos que OpenAI está muy por delante de Google en el desarrollo de la inteligencia artificial y podemos dudar de que los resultados de su búsqueda sean los más adecuados si, tal y como dicen, los están procesando con algoritmos de inteligencia artificial.

El caso de Gemini y sus problemas de excesiva inclusión ponen de manifiesto que los dueños de los modelos pueden influir en los resultados hasta donde quieran. Además, el hecho de que hayan tenido que cerrar el servicio y un mes después todavía no lo hayan reabierto, nos permite hacernos una idea de lo difícil qué es entender exactamente cómo funciona una inteligencia artificial hasta para las propias empresas que las están poniendo en marcha. Posiblemente en Google hayan tenido que revisar todo el material con el que se ha entrenado a su generador de imágenes, repetir el entrenamiento y revisar muy cuidadosamente las instrucciones que se le han dado para evitar que vuelva a producir resultados tan desastrosos o que, a falta de reglas claras, se vaya al otro extremo y produzca resultados ofensivos para algunos colectivos o comunidades.

Para gestionar las alucinaciones, se están desarrollando varias estrategias. Estas incluyen mejorar la calidad y amplitud de los datos de entrenamiento, realizar pruebas en varios puntos durante el entrenamiento del modelo y aplicar estándares similares a los del periodismo para verificar las salidas generadas por los modelos de lenguaje. Otra solución es incorporar modelos dentro de sistemas más amplios que revisen la consistencia, la fiabilidad  y la atribución de la información generada. En el fondo todas estrategias acaban revelando que los modelos débilmente supervisados acaban produciendo excesivas alucinaciones y requieren supervisión humana pero, claro, si al final va a hacer falta la inteligencia humana para producir resultados decentes  ¿en qué lugar queda la inteligencia artificial?

¿Son siempre malas las alucinaciones?

No necesariamente. En contextos creativos, como la generación de nuevos contenidos, historias o incluso música, las alucinaciones pueden ser una fuente de innovación y creatividad. La clave está en el uso que se le dé al modelo: generar contenido novedoso frente a responder preguntas con precisión fáctica. Si se trata de crear canciones que nunca se han escrito o imágenes que nunca se han visto, en realidad lo que se le está pidiendo a los modelos de lenguaje es que alucinen y que creen imágenes nuevas o letras de canciones que no existen pero si se le está pidiendo la receta de unos macarrones a la boloñesa, añadir salsa de soja nos lleva al precipicio gastronómico.

A medida que la tecnología avanza, se espera que la frecuencia y el impacto de las alucinaciones disminuyan. Sin embargo, es poco probable que el problema se elimine por completo debido a las limitaciones inherentes a los datos de entrenamiento y a la comprensión del mundo. Por ello, la supervisión humana y un enfoque en el desarrollo de IA fiable promovido por la competencia entre varias empresas para ver quién es capaz de poner en el mercado la IA que menos alucine, jugarán un papel crucial en la gestión de estas cuestiones.

Últimos posts

Artículo anterior
Artículo siguiente

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí

Artículos más vistos

Horóscopo diario
Menú diario