Gigantes de la tecnología como Meta, Microsoft, Google y OpenAI trabajan en un pacto para actuar conjuntamente contra el contenido generado por Inteligencia Artificial (IA) que busque engañar a votantes en un año de elecciones cruciales en todo el mundo, anunciaron las compañías el martes.

Todavía en negociación por parte de las compañías, el llamado «acuerdo» sobre «deepfakes» (suplantaciones ultrarrealistas con IA) y otros contenidos peligrosos está listo para anunciarse el viernes durante la Conferencia de Seguridad de Munich.

«En un año crítico para las elecciones globales, las compañías tecnológicas están trabajando en un acuerdo para combatir el uso malintencionado de la IA que apunta a votantes», manifestó este martes a la AFP un portavoz de Meta en un comunicado vía correo electrónico.

«Adobe, Google, Meta, Microsoft, OpenAIN, TikTok y otros están trabajando conjuntamente para alcanzar este objetivo compartido», añadió.

Según The Washington Post, el primero que informó de la existencia del proyecto, las compañías acordarán el desarrollo de formas para identificar, etiquetar y controlar imágenes, videos y audios generados por la IA que busquen engañar a los votantes.

La idea surge en momentos en que las grandes compañías de tecnología sufren una fuerte presión debido a los temores sobre el mal uso que despiertan ciertas aplicaciones con IA en un agitado año electoral.

Meta, Google y OpenAI ya acordaron usar una marca de agua estándar que etiquete imágenes generadas por sus aplicaciones, como ChatGPT, Copilot y Gemini (antes Bard).

Ejemplos recientes de convincentes «deepfakes» con IA han aumentado la preocupación por el fácil acceso a esta tecnología.

El mes pasado, una llamada automática que suplantaba al presidente estadounidense Joe Biden llegó a decenas de miles de votantes con un mensaje en el que instaba a la gente a no votar en las primarias de New Hampshire.

En Pakistán, el partido del ex primer ministro Imran ha usado la IA para generar discursos en nombre del líder encarcelado.

arp/nro/ag/nn

© Agence France-Presse