Las alucinaciones al alza de la IA han puesto sobre la mesa un supuesto deterioro cognitivo de esta tecnología. Sin embargo, si la IA alucina, es porque nunca fue inteligente en primer lugar.
En los últimos meses han emergido a la superficie múltiples noticias que estarían dando cuenta de un supuesto deterioro cognitivo de la IA, que estaría supuestamente a merced de cada vez más alucinaciones. Hace solo unas semanas fue, por ejemplo, noticia que Meta AI, la IA imbricada en las entrañas de WhatsApp, habría compartido inadvertidamente el número de teléfono de un usuario con un completo desconocido.
De manera similar, «AI Overviews», los resúmenes generados con IA que se abren paso en el motor de búsqueda de Google, acapararon igualmente titulares hace algún tiempo por cometer llamativos dislates como recomendar la adición de pegamento a la pizza.
Los tribunales han sido igualmente testigos de los desatinos de la IA. En un juicio en el que un cliente tomó la determinación de demandar a la aerolínea Avianca por resultar herido durante un vuelo de la compañía sus abogados decidieron apoyarse en ChatGPT para dar forma a la denuncia. Sin embargo, los letrados no se tomaron la molestia de revisar si la información puesta sobre la mesa por el chatbot de OpenAI era de verdad real, el juez se apercibió del error y les ordenó abonar una mula de 5.000 dólares.
Hace solo un par de meses el rotativo The Chicago Sun-Times publicó una lista de libros recomendados para el verano que se había elaborado a todas luces con el soporte de ChatGPT, pues en la lista de marras había títulos de libros totalmente inventados, un yerro que logró poner la cara colorada al diario estadounidense.
Aun cuando la IA evoluciona a pasos agigantados, lo cierto es que el número de usuarios que se lamentan de los errores (a menudo monumentales) cometidos por ChatGPT y compañía parece aumentar por momentos. Así lo evidencian al menos numerosos artículos y publicaciones en las redes sociales.
Y las quejas de los usuarios no serían en modo alguno infundadas. De acuerdo con tests emprendidos por OpenAI, o3 y o4-mini, los últimos modelos de IA de la matriz de ChatGPT, son víctimas de las alucinaciones en el 50% de los casos. Y un estudio de Vectara concluye igualmente algunos modelos de IA parecen efectivamente alucinar más que antes, aunque sugiere que sus errores obedecen al entrenamiento y no tan tanto en el sistema de razonamiento de tales modelos. Pero, ¿están de verdad lastrados los modelos de IA por una suerte de deterioro cognitivo? ¿Es acaso posible este tipo de deterioro en la IA?
A la IA le hemos arrogado unos «superpoderes» que no le corresponden en realidad
Los expertos sugieren que el deterioro cognitivo que estarían sufriendo actualmente los modelos de IA no es realidad tal y que sus alucinaciones son propiciadas en realidad por los datos con los que están entrenados tales modelos, que están en ocasiones desactualizados y pueden ser igualmente sesgados y falsos. «Las alucinaciones en la IA se tornarán menos frecuentes a medida que avancen sus capacidades de razonamiento con sistemas de entrenamiento espoleados por información más precisa y de código abierto», explica Daniel Keller, CEO y cofundador de InFlux Technologies, en declaraciones a HuffPost.
Raj Dandage, CEO y fundador de Codespy AI, admite que la IA está sufriendo un ligero deterioro en el plano cognitivo, pero cree que ese deterioro es más conspicuo en modelos ampliamente utilizados como ChatGPT, que se están quedando huérfanos de datos de verdadera calidad para su adecuado entrenamiento.
Por su parte, Binny Gill, CEO de Kognitos, considera que los fallos de la IA son en mayor medida deudores de los humanos de carne y hueso que de la propia IA. Al fin y al cabo, la IA no hace sino nutrirse de datos que llevan la rúbrica de personas y que en este sentido no son en modo alguno inmunes a los errores.
«La IA no sufre ningún tipo de deterioro cognitivo porque si de verdad lo sufriera, estaríamos asumiendo también que en algún momento fue inteligente y no el caso», asevera Gill.
De las palabras de Gill se infiere, por lo tanto, que a la IA le hemos endilgado unos «superpoderes» que en realidad no tiene. Y aunque a ojos de muchas herramientas de IA sean a bote pronto el epítome de la inteligencia, se nos olvida a menudo que esa inteligencia es huérfana de razonamiento (y no puede, por ende, discernir la verdad de la mentira).
Parece además que la IA no solo no es tan inteligente como parece, sino que su uso está haciendo también más tontos a quienes tienen a bien utilizarla. Un estudio publicado recientemente por el Instituto Tecnológico de Massachusetts (MIT) concluyó, sin ir más lejos, que el empleo de la IA podía traducirse en una merma de la actividad cognitiva y resultar perjudicial a la postre para el desarrollo de un pensamiento verdaderamente crítico.






























