IA Grok pone en tela de juicio la credibilidad de la Agencia EFE por video de ataque a escuela en Irán
Por: Maria Jose Salcedo
2 marzo, 2026

El Consejo de Redacción de Agencia EFE denunció este domingo que la inteligencia artificial Grok difundió información falsa que puso en duda la credibilidad de la agencia al asegurar, sin fundamento, que un video distribuido por el medio sobre un bombardeo a una escuela femenina en Irán correspondía en realidad a imágenes grabadas en 2021 en Kabul, Afganistán.
Según el pronunciamiento del órgano que representa a los periodistas de la agencia, la herramienta tecnológica catalogó erróneamente el material audiovisual como antiguo. Ante esa afirmación, la redacción respondió que las imágenes difundidas “son actuales y están verificadas”, y calificó el señalamiento de la inteligencia artificial como una acusación “rotundamente falsa”.
El episodio generó preocupación dentro de la agencia internacional de noticias por el impacto que este tipo de errores algorítmicos puede tener sobre la credibilidad de los medios y la circulación de información en plataformas digitales.
De acuerdo con el Consejo de Redacción, la inteligencia artificial terminó corrigiendo su afirmación inicial. Sin embargo, la organización cuestionó el funcionamiento del sistema, al considerar que la rectificación no tuvo la misma visibilidad ni el mismo alcance que el mensaje original que cuestionaba el trabajo periodístico.

“Grok acabó rectificando, pero aquí reside el peligro: el algoritmo no ha premiado la rectificación con el mismo alcance que el ataque inicial”, señaló el organismo en su comunicado. En ese sentido, advirtió que el diseño de la plataforma terminó favoreciendo la difusión de la información errónea mientras que la corrección posterior pasó prácticamente desapercibida.
“La mentira voló, mientras que la verdad ha sido silenciada por el diseño de la propia plataforma”, concluyó el Consejo de Redacción.
El pronunciamiento también subrayó que otros medios de comunicación que informaron sobre las mismas imágenes del ataque, entre ellos RTVE y Antena 3, vieron igualmente cuestionada la veracidad de su cobertura debido a la respuesta generada por el sistema de inteligencia artificial.
Para la agencia española, este episodio evidencia los riesgos que puede representar la creciente dependencia de herramientas automatizadas para verificar o interpretar contenidos informativos, especialmente cuando estos sistemas pueden cometer errores que se amplifican rápidamente en entornos digitales.
El Consejo de Redacción advirtió que el periodismo profesional no puede quedar expuesto a interpretaciones erróneas generadas por algoritmos, particularmente cuando estas pueden dañar la reputación de medios que operan bajo estándares editoriales estrictos.
En su declaración, la organización expresó además su respaldo a los cientos de profesionales que integran la redacción de la agencia, y recordó que el trabajo periodístico se rige por principios de verificación, contraste de fuentes y responsabilidad editorial.
“Sabemos que el error humano es posible, pero nuestros periodistas trabajan bajo la ética profesional y el contraste de fuentes”, señaló la entidad.
Finalmente, el Consejo destacó que cada día los reporteros y editores de la agencia producen miles de informaciones verificadas que se distribuyen a medios de comunicación de todo el mundo, y reiteró que el rigor periodístico sigue siendo la principal garantía frente a la desinformación en la era digital.
Destacados
TENDENCIAS










