05/11/2025

Hace unos días, un nuevo informe sacudía de nuevo los ya de por si débiles cimientos de la confianza en la inteligencia artificial generativa. Un estudio internacional realizado en los medios de comunicación públicos de 22 países revelaba un hecho preocupante: el 45% de las respuestas proporcionadas por los principales asistentes de IA (ChatGPT, Copilot, Gemini y Perplexity) contenían errores significativos. 

El problema cobra especial relevancia en un escenario donde estas herramientas conviven (y en algunos casos sustituyen) a los buscadores tradicionales. Según datos reportados en octubre de 2025, ChatGPT alcanza los 3.200 millones de usuarios mensuales.  

Su crecimiento exponencial (eran 2.000 millones en marzo) no frena tampoco el de otras plataformas. Gemini podría alcanzar los 450 millones de usuarios, pero su crecimiento podría ser mayor aún, ya que Google está integrando Gemini en todas sus apps y sistemas operativos. 

Más allá de las cifras, lo cierto es que son muchas las personas que hoy dan por buenos los resultados de sus consultas a estos asistentes. Y pueden incurrir en graves errores. El estudio denuncia que el 81% de las respuestas analizadas presentaban algún tipo de problema. 

Noticias con ChatGPT

En torno a un 33% de los casos las citas estaban ausentes, mal atribuidas o alteradas. El 13% de las citas son inventadas o modificadas y persiste uno de los contratiempos ya clásicos de la red. Muchos cargos están desactualizados y buena parte de los datos recogen información obsoleta. 

A ello se le suman otros desafíos para los que la IA aún no parece tener respuesta. La confusión entre opinión y hechos o la pérdida de contexto. La omisión de matices esenciales en temas jurídicos, sanitarios o políticos pueden generar respuestas a medias que generan confusión o eluden relevantes puntos de la misma. 

Estas son algunas de las conclusiones realizadas por un grupo de periodistas profesionales que analizaron 3.000 respuestas valorando la exactitud factual; la fiabilidad de las fuentes y citas; y la capacidad para distinguir hechos de opinión. En la investigación, liderada por la BBC y en la que han participado medios de comunicación públicos como RTVE, se cubrieron 14 idiomas y 22 países, lo que permitió observar patrones transversales de error.   

El análisis demuestra que estos fallos no son incidentes aislados, sino transfronterizos, multilingües y sistémicos. Es decir, comunes a los millones de usuarios que utilizan hoy la inteligencia artificial también para informarse de las noticias. 

asistentes de IA

Como señala Jean Philip De Tender, director de medios en la Unión Europea de Radiodifusión (EBU), el problema de estas distorsiones es que pueden poner en peligro la confianza del público. “Cuando la gente no sabe en qué confiar, acaba sin confiar en nada, y eso puede disuadir la participación democrática”, dijo en la presentación del estudio.  

Por su parte, David Corral, responsable de Relaciones Internacionales y Cooperación en Radiotelevisión Española, insiste en la gravedad de la distorsión generada ya que, en muchos casos, el resultado de las consultas no incluye referencias a la fuente primigenia. “Si damos por bueno lo que nos dicen los asistentes, los medios y las instituciones pueden dejar de tener valor para la sociedad”, advierte, en declaraciones exclusivas a DigitalES. 

Corral, que pone en valor el trabajo desarrollado por sus compañeros de TVE en este estudio, recuerda la necesidad de garantizar un servicio público como el acceso a la información veraz. “Si la información se diluye o no es correcta del todo, nuestro trabajo como medios de comunicación puede ser mal interpretado”, denuncia. 

En esta línea, señala que los asistentes de IA se han convertido en nuevos intermediarios entre los medios de comunicación y los ciudadanos. Por ello, aboga por una mejor relación entre las grandes tecnológicas y los medios que ayude a todos a una mejor comprensión de los contenidos noticiables.   

Dónde intervenir y qué medidas adoptar  

La solución no está, ni de lejos, en demonizar la inteligencia artificial generativa. Está más que probada (de ahí su rápida adopción) su capacidad de crear contenidos originales —como texto, imágenes, música o código— de forma rápida y eficiente, lo que ahorra tiempo y recursos.   

La IAG facilita la automatización de tareas creativas y repetitivas, impulsa la innovación en sectores como la educación, el diseño, la medicina o la ingeniería, y mejora la personalización de productos y servicios. Además, ayuda en la toma de decisiones mediante el análisis de grandes volúmenes de datos y la generación de ideas o soluciones que amplían las capacidades humanas. 

No podemos renunciar al abanico de posibilidades que abre el uso de la inteligencia artificial, y por eso los autores del estudio proponen una serie de indicaciones para resolver los problemas que se han identificado en las respuestas generadas por los asistentes de IA.  

distorsión noticias

Si algo ha demostrado en los últimos tiempos esta tecnología es su capacidad para aprender rápidamente, así que es de prever que, aplicando la fórmula correcta, los resultados puedan ser más ajustados en los próximos tiempos. 

En la producción periodística, sostienen los expertos la conveniencia de establecer revisión humana obligatoria cuando se use IA en tareas de búsqueda o redacción. También la de implementar checklists de verificación editorial (fechas, contexto, citas) y la de mantener identificación clara de género informativo (noticia, análisis, opinión). 

En las publicaciones técnicas, sugieren incorporar metadatos legibles por IA (autor, fecha de actualización, tipo de contenido); aplicar sistemas de trazabilidad (C2PA, watermarks) para autenticar la fuente; controlar robots y permisos de rastreo, evitando usos que alteren citas o contexto. 

En la distribución y relaciones con plataformas, proponen exigir que los asistentes citen fuente, enlace y marca temporal correctamente; solicitar mecanismos de verificación de actualidad (“freshness check”); y favorecer el acceso a contenidos a través de APIs editoriales certificadas, no mediante scraping. 

Por último, en la interfaz y experiencia del usuario, abogan por solicitar que las plataformas implementen disclaimers visibles cuando la información no sea verificada o esté desactualizada.  

Lo cierto es que hoy las distintas cadenas de televisión públicas que han participado en el informe están presionando a los reguladores nacionales y de la UE para que hagan cumplir las leyes vigentes sobre integridad de la información, servicios digitales y pluralismo de los medios de comunicación. También insisten en que es esencial llevar a cabo un seguimiento independiente continuo de los asistentes de IA, dado el acelerado ritmo de desarrollo de esta tecnología. 

¿Será suficiente para lograr una mayor calidad en las respuestas de los asistentes? Solo el tiempo tiene la respuesta, pero cualquier esfuerzo en esta dirección parece acertado para no socavar la confianza en una tecnología que puede aportar muchas cosas positivas al conjunto de la sociedad.