OpenAI ve constantes modelos de IA para interferir en elecciones

 

Por Pavel De Camps Vargas
Ciudadanía RD Media

Comunicador, IT Manager, Consultor #SocialMedia Analytics, #RedesSociales, Manejo de Crisis, Análisis de Reputación Digital

El informe titulado “Influence and Cyber ​​Operations: An Update” de octubre, detalla diversas operaciones de ciberseguridad e influencia, destacando el papel creciente de la inteligencia artificial (IA) en estos contextos.

OpenAI, la compañía detrás del popular modelo de lenguaje ChatGPT, ha publicado un informe ( detallando cómo actores malintencionados han intentado utilizar sus modelos de inteligencia artificial para generar contenido falso destinado a interferir en procesos electorales alrededor del mundo.

Incremento de intentos maliciosos

Según el Departamento de Seguridad Nacional de Estados Unidos, este país ve una creciente amenaza de que Rusia, Irán y China intenten influir en las elecciones del 5 de noviembre.

Según el informe publicado en octubre de 2023, OpenAI detectó y bloqueó más de 20 operaciones a lo largo del año que buscaban influir en las elecciones mediante el uso de sus herramientas de IA. Estas operaciones incluyen la generación de contenido falso (Fake News) que sería difundido por personajes ficticios en redes sociales, la creación de artículos para sitios web y la manipulación de conversaciones en línea.

Casos comprobados

  • Ruanda (Julio de 2023): OpenAI identificó y prohibió varias cuentas de ChatGPT que estaban siendo utilizadas para generar comentarios manipuladores sobre las elecciones en Ruanda. Estas cuentas intentaban influir en la opinión pública mediante la difusión de información falsa y sesgada.
  • Operación Iraní (Agosto de 2023): Se desbarató una operación encubierta proveniente de Irán que produjo comentarios y artículos extensos en redes sociales sobre las elecciones en Estados Unidos, conflictos en Oriente Medio, política en Venezuela y la independencia de Escocia. Aunque la mayoría de estas publicaciones tuvieron poca interacción, el intento de influir en múltiples regiones fue evidente.
  • Video viral falso (septiembre de 2023): Microsoft informó que operaciones de influencia rusas estaban detrás de un video viral que acusaba falsamente a la vicepresidenta Kamala Harris de un atropello y fuga. El video fue ampliamente compartido antes de ser desmentido.

Estadísticas relevantes

  • Detección rápida: Las herramientas de inteligencia artificial de OpenAI lograron detectar actividades maliciosas en cuestión de minutos en muchos casos, mostrando una efectividad superior al 90% en la identificación de contenido generado con finos manipuladores.
  • Redes desarticuladas: Más de 30 dominios web utilizados para campañas de desinformación fueron confiscados por el Departamento de Justicia de EE.UU. UU., muchos de los cuales estaban vinculados a operaciones que intentaban aprovechar modelos de IA para generar contenido falso.

Respuesta de OpenAI y autoridades

OpenAI ha enfatizado que, si bien los actores malintencionados continúan experimentando con sus modelos, no han observado evidencias de avances significativos que les permiten crear malware nuevo o generar audiencias virales de manera efectiva. La compañía está fortaleciendo continuamente sus sistemas de detección y trabajando en colaboración con autoridades internacionales para prevenir el mal uso de sus tecnologías.

Por su parte, funcionarios de inteligencia han advertido que países como Rusia, Irán y China están utilizando la inteligencia artificial para potenciar sus esfuerzos de desinformación. Estas naciones han sido identificadas como las principales fuentes de intentos de interferencia en las elecciones presidenciales de Estados Unidos y otros procesos democráticos alrededor del mundo.

Importancia de la vigilancia y la educación

La proliferación de herramientas de inteligencia artificial accesibles al público ha generado preocupaciones sobre su potencial uso indebido. Expertos en ciberseguridad recomiendan a los usuarios verificar la autenticidad de la información y ser escépticos ante contenido no verificado que circula en redes sociales.

La detección y neutralización de estos intentos por parte de OpenAI subrayan la importancia de la vigilancia y la colaboración entre empresas tecnológicas y autoridades para proteger la integridad de los procesos electorales. Mientras los actores maliciosos continúan buscando nuevas formas de explotar la inteligencia artificial, esfuerzos como los de OpenAI son cruciales para garantizar que la tecnología se utilice de manera ética y responsable.

El informe de OpenAI destaca la necesidad de una colaboración global para abordar los desafíos que presenta el uso malicioso de la inteligencia artificial. Si bien las tecnologías avanzan y ofrecen grandes beneficios, es crucial implementar medidas de seguridad y educar al público para mitigar los riesgos asociados con la desinformación y la interferencia en procesos democráticos.

Redacción
Author: Redacción

CRDMedia es un medio digital de comunicación en República Dominicana, comprometido con la defensa de los derechos de los ciudadanos.

Descubre más desde Ciudadania RD Media

Suscríbete ahora para seguir leyendo y obtener acceso al archivo completo.

Seguir leyendo