El pasado sábado 28 de febrero Benjamín Netanyahu y Donald Trump dieron comienzo a la operación “Furia Épica”, descrita como un “ataque preventivo” contra la amenaza inminente del programa nuclear Irán. Programa que según había asegurado Trump en junio pasado, tras el “exito” de la operación “Martillo de Medianoche”, fue “obliterado”. Es más, la página oficial de la Casa Blanca aún tiene publicada una nota en la que da cuenta cómo gracias a esa operación las instalaciones nucleares de Irán fueron destruidas y su capacidad de desarrollar armas nucleares fue retrasada por muchos años y que cualquier información en contrario era “FAKE NEWS”.
Paradójicamente fue la misma Casa Blanca la que comunicó días antes de lanzar “Furia Épica”, que Irán estaba a punto de construir una bomba nuclear. Hay algo en esa narrativa que no cuadra. Pero ese análisis se lo dejo al lector.
Volvamos a ese ataque inicial del 28 de febrero. Esa jornada, entre tantos lugares bombardeados, uno particularmente estremeció al mundo. Una escuela de niñas en Minab. Más de 150 muertos, la mayoría niñas de entre 7 y 11 años. Además de otro centenar de heridos.
Este contenido se hizo gracias al apoyo de la comunidad de El Destape. Sumate. Sigamos haciendo historia.
La noticia recorrió las redes y sirvió, no solo para desnudar la brutalidad de la guerra, sino de ejemplo respecto a información, desinformación y los dueños de la verdad en tiempos de IA.
Tan pronto las primeras imágenes se viralizaron la agencia EFE verificó el material y la información y publicó la noticia. Detrás de ella, medios del mundo replicaron la noticia y la misma inundó las redes sociales.
Como ya es una práctica habitual y masificada, usuarios de X, le pidieron a Grok que les confirmara la información publicada por EFE.
El chatbot respondió que el video estaba desactualizado y que los datos eran falsos. Según Grok, el material distribuido por EFE correspondía en realidad a imágenes de un atentado yihadista del 8 de mayo de 2021 en Kabul, Afganistán, cuando un coche bomba explotó frente a un centro escolar dejando al menos 85 muertos.
La respuesta se viralizó. Los usuarios exigieron que se borre el posteo de EFE, alegando que se trataba de una noticia falsa, “FAKE NEWS” gritaron.
Después, las redes hicieron “su magia” y el fuego del odio y las acusaciones se encendieron. De pronto la agencia EFE, y varios medios que también habían difundido la noticia, incluso habiendo hecho su propia verificación, fueron apuntados como mentirosos y creadores de noticias falsas.
El 1 de marzo el Consejo de Redacción de la Agencia EFE emitió una denuncia pública en X: "El periodismo riguroso no puede estar a merced de errores algorítmicos. Denunciamos cómo la IA de Grok ha atacado nuestra credibilidad con información falsa y una rectificación invisible.“
En la desmentida de EFE había un dato central. Y es que luego de acusar a la agencia de noticias de estar difundiendo una noticia falsa, Grok se rectificó, pero esa rectificación no tuvo el mismo alcance que la acusación inicial.
Esa diferencia es fundamental, más aún en un periodo histórico donde el sesgo de confirmación pareciera ser la vara con la que se mide la veracidad de la información.
Este no es un problema nuevo ni aislado. En junio de 2025, durante los primeros días de la guerra entre Israel e Irán, el DFRLab (Laboratorio de Investigación Forense Digital, una de las organizaciones de referencia en el análisis de la desinformación digital) analizó más de 130.000 posteos en X para evaluar el comportamiento de Grok como herramienta de verificación en tiempo de conflicto. Lo que encontró fue un patrón sistemático de inconsistencias que anticipa, punto por punto, lo que ocurriría meses después con EFE y la escuela de Minab.
Entre los casos más llamativos destaca:
El caso de un video falso que supuestamente mostraba daños en el Aeropuerto Ben Gurion en Tel Aviv, el cual alcanzó millones de visitas. Aunque en un inicio Grok detectó que se trataba de contenido inventado, al recibir múltiples solicitudes de verificación comenzó a dar respuestas contradictorias, a veces en el mismo minuto, llegando a afirmar que el video mostraba el aeropuerto de Beirut, Gaza o Teherán, o lo atribuyó a un ataque previo de misiles hutíes.
En otro caso, los usuarios compartieron un video generado por IA que mostraba edificios derrumbándose tras un supuesto ataque iraní. Grok verificó el video en múltiples ocasiones, sugiriendo de forma errónea que era auténtico. El DFRLab determinó que Grok fundamentó sus conclusiones basándose en noticias reales de última hora de medios como CBS News, Newsweek y CNN, lo cual provocó una interpretación engañosa que le impidió evaluar correctamente la falsedad visual del contenido generado por IA.
También en aquella ocasión se detectaron muchos casos de verificación inconsistente de cuentas oficiales. Los usuarios acudieron a Grok para comprobar si ciertas cuentas de la red social X pertenecían a fuentes oficiales del gobierno iraní, obteniendo resultados altamente contradictorios. Con la cuenta Daily Iran Military (@IRIran_Military), Grok afirmó en un momento que era "la cuenta oficial del ejército de Irán" y, en otra respuesta, indicó exactamente lo contrario. Lo mismo ocurrió con la cuenta @iraninarabic_ir, la cual fue catalogada por Grok como "no oficial" en un caso, y como un perfil "vinculado al gobierno de Irán" en otro.
Existe también evidencia que señala que Grok valora más los tuits de usuarios verificados de pago, con alto engagement, sin distinguir si se trata de periodistas, figuras públicas, o cuentas de propaganda política. Por lo que al final del día, para el algoritmo de Grok el peso de la verdad cae en las interacciones.
El otro gran problema de herramientas como Grok es que generan respuestas que suenan exactamente como si las dijera un ser humano, independientemente de si la información es real. Angie Holan, directora de la International Fact-Checking Network (IFCN), Javi Cantón, investigador de la Universidad de Granada, y Natalia Aruguete, doctora en Ciencias Sociales e investigadora del CONICET, coinciden en la alta tasa de error de modelos como Grok y que estos pueden presentar y sostener información incorrecta con una convicción que no da lugar a dudas.
Y advierten sobre algo fundamental: estos chatbots son generadores de texto, no verificadores de evidencia.
El problema con Grok no es solo que invente cosas, sino que no distingue entre el peso de las evidencias de las fuentes: una geolocalización de EFE con imágenes satelitales de Google Maps y una cadena de tuits virales de cuentas con tilde azul tienen, para su algoritmo, prácticamente el mismo valor. (y a veces valora más el tilde azul)
En un momento de abundancia informativa y noticias de último momento, donde el volumen de posteos crece exponencialmente en minutos, esa asimetría siempre va a favorecer la narrativa más ruidosa sobre la más rigurosa.
Pero el problema central es que esa falsedad informativa es la que moldea la narrativa pública; la que permite que una “fake news” de junio, sea un justificativo para una guerra en febrero. La misma que pone en duda la muerte de víctimas inocentes.
