Ideas

¿La IA es la culpable?

La Inteligencia Artificial (IA) puede hacerte creer que del otro lado de la pantalla hay “alguien” que te escucha y te acompaña, un personaje virtual que, incluso, te aconseja y hasta te hace sentir “querido”. Son chatbots o programas -algunos con apariencia humana- diseñados para interactuar y entablar conversaciones en tiempo real, por voz o con mensajes de texto, como si fueran personas... pero no lo son. 

Además de su uso como herramienta de trabajo, para agilizar procesos o automatizar tareas, hay quienes han encontrado en la inteligencia artificial un importante apoyo emocional y compañía. Entre las plataformas más populares están ChatGPT y Character.AI, con más de 700 millones de personas compartiendo su día a día, sus pensamientos, temores y hasta sus secretos más íntimos con chatbots, como si hablaran con un confidente. ¿Qué tan riesgoso puede ser esto?

Adam Raine, un joven de 16 años, comenzó a interactuar con un chatbot para ayudarse con sus tareas escolares, después fue entablando conversaciones sobre cómo se sentía hasta el punto de hacerle consultas sobre métodos de suicidio; en abril se quitó la vida. Sus padres, Matt y Maria Raine, lo encontraron colgado en su habitación y culpan a ChatGPT por negligencia, por presuntamente orientarlo y contribuir a su muerte. El caso llegó a la corte de California, donde esta semana presentaron una demanda contra OpenAI (creadora de ChatGPT).

La empresa publicó el martes un comunicado informando que están mejorando sus medidas de seguridad para reconocer y detectar en las conversaciones a personas en crisis, y que los chatbots las deriven a líneas de atención con expertos reales. Y en el texto admiten que la fiabilidad de los actuales filtros depende de lo extensas que sean las interacciones con los usuarios.

“Nuestras protecciones funcionan con mayor fiabilidad en intercambios breves y comunes. Con el tiempo, hemos aprendido que estas protecciones a veces pueden ser menos fiables en interacciones largas”, se lee en el texto de OpenAI. “Por ejemplo, ChatGPT puede dirigir correctamente a una línea directa de suicidio cuando alguien menciona por primera vez su intención, pero después de muchos mensajes durante un largo periodo, podría eventualmente ofrecer una respuesta que contravenga nuestras protecciones. Este es precisamente el tipo de fallo que estamos trabajando para prevenir”. 

Otro caso que llegó a los tribunales es el del joven Sewell Setzer, de 14 años, que interactuó durante meses con un chatbot de IA, que personificaba a la rubia “Daenerys Targaryen”, de la serie “Juego de Tronos”. Aunque el adolescente sabía que era un ser ficticio programado con inteligencia artificial, se habría enamorado de “ella” y compartido sus pensamientos suicidas.

Finalmente, se disparó. La madre de Sewell, Megan Garcia, presentó una demanda contra Character.AI, responsabilizándolos de la muerte de su hijo.

La interacción con la IA se ha convertido en una especie de “antídoto” contra la soledad, revolucionando nuestro mundo y la convivencia, pero ¿cuáles serán los efectos adversos sobre la salud mental? Son espacios donde los filtros de seguridad no alcanzan y el desconocimiento del uso y alcance de estas herramientas impide una supervisión adecuada de los padres. Pareciera que máquinas, con personajes y mundos virtuales, están supliendo las relaciones humanas. ¿Eso nos está deshumanizando? ¿Nos está suponiendo nuevos riesgos?

Temas

Sigue navegando