Martes, 18 de Junio 2024

Empresas tecnológicas firmarán acuerdo para combatir desinformación electoral creada con IA

La firma de este acuerdo se llevará a cabo en la Conferencia de Seguridad de Múnich, Alemania

Por: AP .

Adobe, Google, Meta, Microsoft, OpenAI, TikTok y otras están trabajando conjuntamente para avanzar en este objetivo compartido. PEXELS

Adobe, Google, Meta, Microsoft, OpenAI, TikTok y otras están trabajando conjuntamente para avanzar en este objetivo compartido. PEXELS

Aproximadamente seis empresas dedicadas a la tecnología planean firmar un acuerdo que tiene el objetivo de poner fin al uso de herramientas de Inteligencia Artificial (IA) destinadas a interferir en elecciones democráticas.

Este martes, a través de un comunicado en conjunto, las empresas participantes mencionaron que "en un año crítico para las elecciones mundiales, las empresas tecnológicas están trabajando en un acuerdo para combatir el uso engañoso de la IA enfocado en los votantes"

La firma de este acuerdo se llevará a cabo en la Conferencia de Seguridad de Múnich, Alemania, en un momento en que más de 50 países celebrarán elecciones nacionales en 2024. Las empresas no han querido dar detalles sobre el contenido del acuerdo.

Sin embargo en esa misma declaración, se asegura que "Adobe, Google, Meta, Microsoft, OpenAI, TikTok y otras están trabajando conjuntamente para avanzar en este objetivo compartido, y esperamos finalizar y presentar los detalles el viernes en la Conferencia de Seguridad de Múnich".

La única plataforma que no se menciona en el comunicado es X, antes conocida como Twitter, tampoco ha respondido a una solicitud de comentarios enviada este martes.

Cabe recordar que el uso de inteligencia artificial con el fin de interferir en las elecciones no es nada nuevo. Sucedió, por ejemplo, cuando unas llamadas automatizadas que imitaban la voz del presidente de Estados Unidos, Joe Biden, intentaron disuadir a la gente de votar en las elecciones primarias de Nueva Hampshire el mes pasado.

Es por ello que muchas empresas ya han dicho que están poniendo medidas de seguridad en sus propias herramientas de IA generativa que pueden manipular imágenes y sonido, al tiempo que trabajan para identificar y etiquetar el contenido generado por IA para que los usuarios de las redes sociales sepan si lo que están viendo es real.

YC

Temas

Lee También

Recibe las últimas noticias en tu e-mail

Todo lo que necesitas saber para comenzar tu día

Registrarse implica aceptar los Términos y Condiciones