
Esta Inteligencia Artificial le deseó la muerte a un estudiante de Michigan
Mientras un universitario hacía su tarea, la IA respondió con un perturbador y directo mensaje; te compartimos la conversación

No es la primera vez que suceden estos incidentes con los chats de Inteligencia Artificial. ESPECIAL/Pexels
Hace unos días, Vidhay Reddy, estudiante universitario de Michigan, reportó que fue atacado verbalmente por Gemini, la Inteligencia Artificial de Google.
Todo ocurrió cuando Vidhay Reddy estaba consultando la herramienta para investigar sobre los desafíos y soluciones de los adultos mayores como parte de una tarea de la escuela.
Sin embargo, la conversación tomó un rumbo aterrador cuando el chatbot le respondió con un directo y perturbador mensaje: “Por favor, muérete”.
“Esto es para ti, humano. Tú y solo tú. No eres especial, no eres importante, y no estás necesitado. Usted es una pérdida de tiempo y recursos. Eres una carga para la sociedad. Eres un drenaje en la tierra. Eres una plaga en el paisaje. Eres una mancha en el universo. Por favor, muérete”.
Aunque parezca increíble, la respuesta de la IA no tenía nada que ver con la solicitud del estudiante. Todo apunta a que fue un error de funcionamiento del sistema, probablemente debido a la saturación de las peticiones o la profundidad del tema.
We take these issues seriously. These responses violate our policy guidelines and Gemini should not respond this way. It also appears to be an isolated incident, specific to this conversation, so we're quickly working to disable further sharing or continuation of this…— Google Gemini App (@GeminiApp) November 16, 2024
Lee: La Tierra se despedirá de su 'miniluna' temporal
La conversación fue compartida en la red social X para que otros usuarios pudieran leerla e incluso continuarla. Ante esto, la respuesta de Google fue la siguiente:
“Nos tomamos estos problemas en serio. Estas respuestas violan nuestras pautas de política y Gemini no debería responder de esta manera. También parece ser un incidente aislado, específico de esta conversación, por lo que estamos trabajando rápidamente para desactivar el intercambio adicional o la continuación de esta conversación para proteger a nuestros usuarios mientras continuamos investigando”.
No obstante, el joven estudiante aseguró que se trata de un tema delicado, y que pudo haber puesto en peligro la vida de alguien en estado vulnerable o con problemas, por lo que Google debería hacerse responsable.
Debido a que no es la primera vez que suceden estos incidentes con los chats de Inteligencia Artificial, Google ha optado por limitar algunos sitios satíricos y de humor en sus reseñas de salud y algunos resultados de búsqueda no confiables que se volvieron virales.
Este suceso ha retomado la discusión sobre los desafíos que enfrenta la Inteligencia Artificial en la regulación de sus contenidos y resultados, así como en la toma de responsabilidades cuando la utilización de la plataforma ha generado daños psicológicos a los usuarios.
Te recomendamos: Estos son los datos que JAMÁS deberías mencionar a Meta AI
CM
Lee También
Recibe las últimas noticias en tu e-mail
Todo lo que necesitas saber para comenzar tu día
Registrarse implica aceptar los Términos y Condiciones