Microsoft advierte sobre el riesgo de los deepfakes impulsados por IA

Durante una comparecencia ante legisladores, el vicepresidente de Microsoft, Brad Smith, expresó su preocupación por la proliferación de los deepfakes generados por inteligencia artificial (IA). Estos medios sintéticos, que buscan imitar a una persona, representan un peligro, especialmente en términos de desinformación y operaciones de influencia extranjera. Smith instó a los legisladores a tomar medidas para proteger la seguridad nacional y propuso la implementación de etiquetas que indiquen si una imagen o video fue creado por IA, con el objetivo de educar al público y evitar caer en engaños.

Foto del arresto de Donald Trump creada por una IA que causó un escándalo en EEUU

Los deepfakes, videos, imágenes o audio generados mediante el aprendizaje profundo y redes neuronales, han existido desde 2017, cuando se hizo viral el intercambio de rostros en videos pornográficos. Con el avance tecnológico, los deepfakes se han vuelto más realistas y han sido utilizados en diversos ámbitos, desde entretenimiento hasta campañas de desinformación política. La preocupación por su impacto ha llevado a llamados de regulación y control de la IA, tanto a nivel nacional como internacional.

Además de la preocupación por el uso malicioso de deepfakes por parte de actores extranjeros, se ha revelado que el Comando de Operaciones Especiales de Estados Unidos también planea utilizar esta tecnología en campañas de propaganda. El objetivo sería influir en la opinión y desestabilizar gobiernos no alineados con los intereses estadounidenses. Esto pone de manifiesto la necesidad de una regulación efectiva para prevenir el abuso de los deepfakes y proteger la integridad de la información.

"Necesitamos tomar medidas para protegernos contra la alteración de contenido legítimo con la intención de engañar o defraudar a las personas mediante el uso de IA"
Bradford Lee Smith
Vicepresidente de Microsoft

Conclusión

El vicepresidente de Microsoft advierte sobre el riesgo de los deepfakes generados por IA, destacando su potencial para desinformar y manipular a las personas. Para abordar este problema y proteger la seguridad nacional y la integridad de la información, propone dos aspectos clave:

  1. El etiquetado de contenido generado por la IA.

  2. La necesidad de regulación.

Porque como ya explicamos en su día… «No todo es lo que parece…» 🤨

Comparte este contenido:

Deja un comentario

Calendario Ciberseguridad /24

LIVE WEBINAR | 1/2/2024

Cómo proteger tu Active Directory de ataques Ransomware con Tenable

Alertas de seguridad

Recibe las más importantes a tu email