Grok es un chatbot desarrollado por xAI, empresa del magnate Elon Musk, presentada como una alternativa a las interacciones de Gemini —IA de Google—, o ChatGPT —de OpenAI—, basado en grandes modelos de lenguaje.La empresa de inteligencia artificial xAI, eliminó varias publicaciones "inapropiadas" de su herramienta conversacional, pues desde su lanzamiento, Grok ha compartido varias publicaciones antisemitas, incluyendo el tópico de que los judíos controlan Hollywood, y negó que esa opinión pudiera describirse como nazismo: "Etiquetar las verdades como discurso de odio reprime la discusión", afirmó el chatbot de xAI.Otras capturas de las publicaciones eliminadas muestran cómo Grok habría elogiado las políticas de Hitler, insinuado que las personas de origen judío eran más propensas a propagar mensajes de odio en línea, y expresado un aparente respaldo a las prácticas del Holocausto."Estamos al tanto de las publicaciones recientes de Grok y estamos trabajando activamente para eliminar las publicaciones inapropiadas", publicó xAI en el perfil de Grok en esa red, sin mencionar en detalle el contenido de los mensajes eliminados.La compañía de Musk insistió en que "tomó medidas para prohibir el discurso de odio antes de que Grok publique en X" tras revisar la naturaleza de las publicaciones."xAI entrena únicamente en la búsqueda de la verdad y, gracias a los millones de usuarios en X, podemos identificar rápidamente y actualizar el modelo allí donde el entrenamiento pueda mejorarse", indicó la empresa."Lo que estamos viendo ahora mismo en Grok es simple y llanamente irresponsable, peligroso y antisemita. Este impulso a la retórica extremista solo servirá para amplificar y alentar el antisemitismo que ya está en aumento en X y muchas otras plataformas", respondió en X la judía Liga contra la Difamación (ADL, en inglés).Según ADL, "la última versión del modelo Grok está reproduciendo terminología frecuentemente utilizada por antisemitas y extremistas para difundir ideologías de odio".Este es un fenómeno "preocupante" porque, según la organización, esto demostraría que "el modelo puede replicar frases y expresiones que, aunque a veces parecen inocuas, han sido apropiadas por grupos radicales para diseminar mensajes de intolerancia y discriminación".* * * Mantente al día con las noticias, únete a nuestro canal de WhatsApp * * *FF