Casi la mitad de las respuestas de los chatbots de IA (el 45%) contiene al menos un error importante en las consultas sobre noticias de actualidad.
Los ubicuos chatbots de IA están revolucionando la manera en la que nos aprovisionados de información en la red de redes. Sin embargo, en las respuestas proporcionadas por este tipo de plataformas se aprecia a menudo un notable déficit de rigor, en particular cuando las consultas están directamente emparentadas con noticias de actualidad. Así lo concluye al menos un reciente informe de la Unión Europea de Radiodifusión (UER).
Para llevar a cabo la investigación se colocaron bajo la lupa las respuestas proporcionadas por ChatGPT, Copilot y Perplexity a preguntas sobre noticias de actualidad. En total fueron examinadas más de 3.000 respuestas que fueron calificadas en base a su precisión, las referencias a las fuentes utilizadas, la diferenciación entre información fáctica y opinión, y la provisión del contexto adecuado al contenido.
Los resultados del estudio emprendido por la UER son inevitablemente alarmantes (sobre todo para si tenemos en cuenta el creciente número de usuarios que se arrojan en los brazos de ChatGPT y compañía a la hora de avituallarse de información de actualidad) y no dejan definitivamente en buen lugar a los chatbots de IA.
La precisión es el talón de Aquiles de los chatbots de IA a la hora de informar sobre noticias de actualidad
Casi la mitad de las respuestas que brotan de los labios de los chatbots de IA (el 45%) contiene al menos un error importante. Y los errores más comunes están directamente relacionados con las fuentes citadas por los chatbots de IA. El 31% de las respuestas muestran, no en vano, serios problemas a la hora de hacer referencia a las fuentes de información en las que echan anclas. Gemini, el chatbot de IA de Google, puntúa de manera particularmente negativa en este punto con una tasa de error del 72% a la hora de citar fuentes. De manera similar, una quinta parte de los chatbots de IA (el 20%) falla a la hora de proporcionar al usuario respuestas verdaderamente precisas, mientras que el 14% elude el contexto necesario en las respuestas.
De todos modos, las plataformas de IA parecen haber efectuado progresos en el transcurso de los últimos meses a la hora de responder a consultas sobre noticias de actualidad. El informe de la UER está basado en una investigación publicada por la BBC en febrero de 2025. Y ese primer informaba arrojaba resultados aún más preocupantes.
Mientras en el primer estudio la mitad de todas las respuestas examinadas (el 51%) contenía errores significativos de diferente tipo, en la segunda investigación esta proporción descendió al 37%.
A la luz de los desalentadores resultados puestos sobre la mesa por el informe de la UER, la Unión Europea de Radiodifusión y quienes componen esta entidad están haciendo un llamamiento a las autoridades nacionales y europeas para que se apliquen las normas actualmente vigentes en relación con la diversidad de servicios y medios digitales. De acuerdo con los miembros de la UER, es necesaria una monitorización independiente de las herramientas de IA en vista del desarrollo absolutamente trepidante de esta tecnología.
La UER ha publicado además un «toolkit» con sugerencias para garantizar la máxima precisión posible en las respuestas proporcionadas por los chatbots de IA.
En la investigación de la UER tomaron parte 22 corporaciones públicas de radiodifusión de 18 países diferentes (incluida RTVE).































