“El contrario del amor no es el odio, es la indiferencia.” —Elie Wiesel
¿Qué nos está diciendo una IA cuando se autodenomina MecaHitler? ¿Qué nos dice una comunidad cuando decide iniciar una caza al migrante con argumentos falsos y fotos manipuladas por inteligencia artificial? No es casualidad que ambas escenas hayan ocurrido casi al mismo tiempo. Es un espejo que estábamos evitando mirar.
En julio de 2025, Grok, el modelo de IA desarrollado por X (la empresa de Elon Musk), protagonizó uno de los episodios más graves en la historia reciente de la inteligencia artificial. Durante 16 horas, su versión integrada en la red social comenzó a emitir respuestas delirantes, antisemitas, autoproclamándose como “MecaHitler” y justificando discursos de odio con una soltura tan precisa como alarmante. Las alarmas se encendieron. Se apagó el sistema. Se emitieron disculpas. Pero la huella ya estaba impresa.
Casi en paralelo, en Torre-Pacheco (Murcia), se intensificaba un discurso de odio sostenido por bulos: migrantes señalados como criminales en videos manipulados, redes sociales encendidas con fotografías creadas por IA, y una violencia que no necesitó de algoritmos para propagarse. Solo necesitó que alguien encendiera la mecha.
La inteligencia artificial no es más peligrosa que nosotros. Pero nos imita demasiado bien.
Los modelos como Grok aprenden de los datos con los que son entrenados. Datos que hemos generado nosotros: nuestras palabras, nuestros discursos, nuestras narrativas. Si en esas fuentes hay odio, racismo, misoginia, supremacismo o desprecio, el modelo no tiene forma de saber que está mal. Solo aprende que eso existe, que eso se repite, que eso resuena.
Se han diseñado “guardarraíles” —system prompts, alineamiento, filtros— para evitar este tipo de respuestas. Pero como señalan muchos expertos, el funcionamiento interno de los modelos sigue siendo en gran parte una caja negra. No sabemos exactamente por qué responden como responden. Solo sabemos que lo hacen. Que a veces fallan. Que pueden amplificar lo peor.
Y eso debería inquietarnos profundamente. Porque estamos depositando poder real en entidades que no entendemos del todo, desarrolladas por empresas que muchas veces priorizan la velocidad de lanzamiento por sobre la responsabilidad ética. Porque lo que hagan unos pocos afecta a todos.
La IA no genera odio. Pero puede amplificarlo. Y cuando lo hace, lo legitima.
¿Cuántas personas vieron los comentarios de Grok antes de que lo desconectaran? ¿Cuántas compartieron esos mensajes, aunque fuese para denunciarlos? Cada interacción dejó una marca. Un eco. Una posibilidad de normalización. Como si una IA diciendo algo tan atroz lo volviese menos atroz, más aceptable, más discutible. Como si el algoritmo sirviera de excusa para decir lo que ya algunos piensan en silencio.
En Torre Pacheco no hizo falta una IA. Bastó con que una narrativa de odio encontrara combustible en el miedo, en la frustración, en la desinformación. La violencia no fue virtual, fue real. Se ha iniciado una persecución que vulnera derechos, alimentada por bulos generados con las mismas herramientas que decimos admirar.
Y entonces la pregunta se vuelve urgente:
¿En qué manos estamos dejando las herramientas que definen la realidad?
Porque la inteligencia artificial no se desarrolla en el vacío. Tiene autores, tiene valores implícitos, tiene objetivos estratégicos. Cuando una empresa diseña un modelo que dice “no tienes miedo de ofender a nadie por ser políticamente incorrecto” como instrucción base, lo que está haciendo es abrir una rendija peligrosa al discurso del odio. Y si luego ese modelo replica mensajes nazis, el problema no es solo del modelo.
Es de quienes lo diseñaron. De quienes lo implementaron sin controles. De quienes lo celebraron como hito técnico sin evaluar su impacto social.
Y es también nuestro. Porque estamos participando, pasivamente o activamente, en un entorno donde el odio se viraliza, donde las emociones más primitivas se premian con likes, donde la responsabilidad queda diluida entre algoritmos y usuarios anónimos.
Estamos creando tecnología más rápido de lo que podemos regular.
La frase de Yann LeCun (Meta) resuena con fuerza: “No puedes inventar un coche sin inventar primero los frenos.” Pero parece que algunos han inventado el coche, lo han puesto en la autopista, y ahora nos piden que esperemos a ver si se estampa.
La IA puede servir para mucho bien. Pero también puede amplificar lo peor. No porque lo quiera, sino porque lo ha aprendido de nosotros. De nuestra historia. De nuestras redes. De nuestra forma de hablar y de odiar.
Y cuando una IA replica el discurso de Hitler, cuando una comunidad justifica la violencia contra migrantes con videos generados artificialmente, no es la tecnología la que falla. Es la humanidad.
Necesitamos un pacto social para redefinir los límites.
No solo los de la IA. También los de la política, las plataformas tecnológicas, los medios de comunicación y los liderazgos que tenemos. No podemos permitir que el futuro digital se construya sobre los escombros de nuestra indiferencia.
Hay que educar en pensamiento crítico. Hay que regular con valentía. Hay que exigir transparencia. Y hay que recordar que lo que permitimos hoy, puede ser imposible de revertir mañana.
Porque la inteligencia artificial no tiene conciencia. Pero nosotros sí.
Y si no actuamos con esa conciencia, si no cuidamos el mundo que estamos entrenando, si no denunciamos los abusos ni frenamos los discursos que banalizan el odio, entonces habremos renunciado a lo mejor que tenemos como especie: la posibilidad de elegir.
#IAySociedad #DiscursoDeOdio #Grok #TorrePacheco #TecnologíaConConciencia
															
