Grok es tendencia hoy X. La inteligencia artificial de Elon Musk ha acaparado titulares y entusiasmos. Pero una cosa debe quedar clara: no siempre tiene la razón.
Como toda IA generativa, Grok puede ofrecer respuestas certeras cuando se trata de información objetiva, como fechas históricas, conceptos técnicos o definiciones aceptadas. Pero cuando el terreno se vuelve ambiguo, subjetivo o depende del contexto, Grok puede patinar… y feo.

Aunque presume de estar entrenado con fuentes diversas, muchas de ellas son sitios web y medios de comunicación, algunos con sesgos, errores o directamente desinformación. ¿Qué pasa entonces? La IA aprende de ese ruido y lo replica.
Hace algunos meses, junto a colegas especializados como Carlos Fernández, Juan Carlos Luján y José Trujillo y mi persona (Antonio Manco), lanzamos una alerta: algunos portales estaban publicando notas generadas a partir de IA, añadiendo un par de líneas propias, y dando por válidas afirmaciones que la IA «imaginó». Luego, esa desinformación era recogida nuevamente por otras IA… y la bola de nieve crecía.
Claro ejemplo de ello fue una publicación del diario La República, basada en ChatGPT, sobre qué país tenía el cebiche más delicioso del mundo, la cual desinformaba a la IA.

Esto no es una paranoia. En junio pasado, el diario El País publicó un editorial titulado “La historia en manos de la IA”, donde alertaba cómo estos sistemas generativos estaban difundiendo falsedades históricas sobre el Holocausto. Es decir, la IA no solo se equivocaba: inventaba.
¿Qué hacer entonces?
Primero, afinar el prompt. Ser claro, específico, directo. Segundo, sugerir siempre fuentes confiables u oficiales. Tercero, desactiva la opción de búsqueda web si no estás seguro de la calidad de los resultados que puede arrastrar. Y lo más importante: si eres periodista, nunca apagues tu instinto. Porque sí, Grok puede ser brillante… pero también es una aspiradora: jala lo bueno, lo malo y lo feo.
Y no todo lo que brilla en X es inteligencia.