¿La Inteligencia Artificial "alucina"? Te decimos por qué es peligroso para los humanos

Inteligencia Artificial puede sufrir "alucinaciones"
Inteligencia Artificial puede sufrir "alucinaciones"
|
Foto especial
| 06 Mar, 2025

Una tema que está siendo tendencia en redes sociales son las alucinaciones de la inteligencia artificial (IA) pues se ha convertido en un tema de debate dentro del ámbito tecnológico y científico.

Estas alucinaciones han sido observadas en modelos avanzados de IA que han alertado a expertos en tecnología, quienes aseguran implicaciones que esta “falla” podría tener en varios aspectos de la vida humana.

Inteligencia Artificial y sus alucinaciones / Neurowin
Inteligencia Artificial y sus alucinaciones / Neurowin|

¿Qué es una “alucinación” de la IA?

De acuerdo a un artículo del ingeniero en sistema, Ernesto Spinak, estas alucinaciones son un fenómeno en el que un modelo de lenguaje LLM (Large Language Model), percibe patrones que son inexistentes o imperceptibles para los observadores humanos y como resultado, la IA crea muchos resultados inesperados o incorrectos.

Este fenómeno no es exclusivo de ChatGPT, de acuerdo con la cadena de noticias londinense las “alucinaciones” también se presenta en la IA de Google y otros sistemas de IA similares. Es por ello que tanto Google como OpenAI han pedido a los usuarios que tengan en consideración que la IA puede tener errores, por lo que no deben “confiar ciegamente en las respuestas que ofrece”.

Alucinaciones en Inteligencia Artificial / AoiWai
Alucinaciones en Inteligencia Artificial / AoiWai|

Causa de estas “alucinaciones”

Estos son los motivos por los que la IA produce “alucinaciones”:

Complejidad del lenguaje humano

Dado que el lenguaje humano es complejo y a menudo ambiguo. Los modelos de lenguaje pueden tener dificultades para comprender completamente el contexto o las sutilezas del lenguaje, lo que puede llevarlos a generar textos que pueden parecer incoherentes o incorrectas, que es frecuente con los traductores automáticos.

Problemas con la calidad de los datos de entrada

Si los datos de entrada contienen errores, ruido o información contradictoria, el modelo puede generar resultados incorrectos, esto debido a que los distintos modelos de inteligencia artificial dependen únicamente de sus datos existentes en la web y carecen de acceso a conocimiento externo del mundo real.

Diseño del modelo

Algunos modelos de lenguaje pueden tener limitaciones en términos de la arquitectura o los algoritmos utilizados, lo que podría contribuir a resultados inesperados y equivocados.

Causas de estas alucinaciones / Redes Sociales
Causas de estas alucinaciones / Redes Sociales|

Sesgo de datos de entrenamiento

Debido a que los modelos de lenguaje se entrenan con grandes cantidades de texto de Internet, que pueden contener información errónea, estereotipos y sesgos. Estos sesgos pueden llevar al modelo a generar contenido que se alinee con esos sesgos o prejuicios, pero que sea objetivamente incorrectos.

Errores de sobreajuste

Si un modelo se ajusta demasiado a los datos de entrenamiento específicos, puede tener dificultades para generalizar a nuevas situaciones o contextos, lo que podría manifestarse como “alucinaciones” en las predicciones. Modelos como GPT-4 se optimizan para producir texto coherente y relevante al contexto, pero esta optimización les lleva en ocasiones a inventar información que se ajusta al contexto, aunque no sea cierta.

Ausencia de Verificación Externa

Los modelos carecen de la capacidad de verificar información de fuentes externas. Dependen de los datos de capacitación y no tienen acceso a bases de datos de verificación de hechos en tiempo real.

 

Inferencia contextual

Los modelos de lenguaje infieren el contexto del texto anterior, pero pueden malinterpretar o extrapolar incorrectamente, lo que provoca “alucinaciones”.

“Repetir como loro”

Esto es cuando el LLM simplemente repite información o sesgos presentes en sus datos de capacitación sin un análisis crítico.

Autocontradicción

La autocontradicción ocurre cuando el LLM genera respuestas que contradicen sus propias declaraciones.

Divergencia fuente-referencia

Una causa importante de “alucinaciones en la IA” surge de la divergencia fuente-referencia en los datos de entrenamiento. Esta divergencia puede ocurrir como resultado de métodos heurísticos de recopilación de datos o debido a la naturaleza inherente de ciertas tareas de las redes neurales. Cuando los LLM se capacitan con datos con divergencia entre fuente y referencia, pueden generar texto que carece de base en la realidad y se desvía de la fuente proporcionada.

Explotación a través de indicaciones de jailbreak

Otro factor que contribuye a las “alucinaciones” radica en las elecciones de entrenamiento y modelado realizadas en los modelos neuronales. Los LLM pueden ser vulnerables a la explotación mediante el uso de indicaciones de “jailbreak” insertadas en el prompt. Las indicaciones de jailbreak pueden generar resultados inesperados y no deseados, lo que permite a los LLM generar texto que no se anticipó o predijo originalmente.

Consecuencias de estas “alucinaciones” de la IA

El artículo comparte que “un modelo de IA usado para el cuidado de la salud podría identificar incorrectamente una lesión cutánea benigna como maligna, lo que daría lugar a intervenciones médicas innecesarias”.

Expertos aseguran que las aplicaciones de IA pueden generar texto convincente pero completamente incorrecto o sin sentido.

TAMBIÉN TE PODRÍA INTERESAR: Festival Tecate Emblema 2025 revela su cartel con Will Smith como invitado especial

Notas Relacionadas