Microsoft adverteix sobre el risc dels deepfakes impulsats per IA

Durant una compareixença davant de legisladors, el vicepresident de Microsoft, Brad Smith, va expressar la seva preocupació per la proliferació dels deepfakes generats per intel·ligència artificial (IA). Aquests mitjans sintètics que busquen imitar una persona representen un perill, especialment en termes de desinformació i operacions d'influència estrangera. Smith va instar els legisladors a prendre mesures per protegir la seguretat nacional i va proposar la implementació d'etiquetes que indiquin si una imatge o vídeo va ser creada per IA, amb l'objectiu d'educar el públic i evitar caure en enganys.

Foto de l'arrest de Donald Trump creada per una IA que va causar un escàndol als EUA

Els deepfakes, vídeos, imatges o àudio generats mitjançant l'aprenentatge profund i les xarxes neuronals, han existit des del 2017, quan es va fer viral l'intercanvi de cares en vídeos pornogràfics. Amb l'avenç tecnològic, els deepfakes s'han tornat més realistes i han estat utilitzats en diversos àmbits, des d'entreteniment fins a campanyes de desinformació política. La preocupació pel seu impacte ha portat a crides de regulació i control de la IA, tant a nivell nacional com internacional.

A més de la preocupació per l'ús maliciós de deepfakes per part d'actors estrangers, s'ha revelat que el Comando d'Operacions Especials dels Estats Units també té previst utilitzar aquesta tecnologia en campanyes de propaganda. L'objectiu seria influir en l'opinió i desestabilitzar governs no alineats amb els interessos dels Estats Units. Això posa de manifest la necessitat d‟una regulació efectiva per prevenir l‟abús dels deepfakes i protegir la integritat de la informació.

"Necessitem prendre mesures per protegir-nos contra l'alteració de contingut legítim amb la intenció d'enganyar o defraudar les persones mitjançant l'ús d'IA"
Bradford Lee Smith
Vicepresident de Microsoft

Conclusió

El vicepresident de Microsoft adverteix sobre el risc dels deepfakes generats per IA, destacant-ne el potencial per desinformar i manipular les persones. Per abordar aquest problema i protegir la seguretat nacional i la integritat de la informació, proposa dos aspectes clau:

  1. L'etiquetatge de contingut generat per la IA.

  2. La necessitat de regulació.

Perquè com ja vam explicar al seu dia… «No tot és el que sembla…» 🤨

Comparteix aquest contingut:

Deixa un comentari

Calendari ciberseguretat /24

LIVE WEBINAR | 1/2/2024

Com protegir el teu Active Directory d'atacs Ransomware amb Tenable

Alertes de seguretat

Estigues informat, rep-les al teu email
Consulta les últimes alertes