Aumento de los videos generados por IA para propagar malware

A finales del verano del 2021, en el SOC.infordisa ya publicamos un post sobre la peligrosidad del mal uso de las imágenes generadas con la IA. Con el post “No todo es lo que parece” ya hacíamos una reflexión de lo que pueden conllevar todos estos avances.

Aumento mensual del 200-300% de videos en Youtube que contienen enlaces a malware

Desde noviembre de 2022, ha habido un aumento mensual del 200-300% en los videos de Youtube que contienen enlaces a malware como: Vidar, RedLine y Raccoon en sus descripciones. Los videos atraen a los usuarios haciéndose pasar por tutoriales sobre cómo descargar versiones descifradas de software como Photoshop, Premiere Pro, Autodesk 3D Max, AutoCAD y otros productos que son productos con licencia disponibles solo para usuarios pagos.

Por lo general, los videos utilizan una grabación de pantalla o un recorrido en audio de los pasos para descargar e instalar el software. Sin embargo, recientemente ha habido un aumento en el uso de videos generados por IA desde plataformas como Synthesia y D-ID, que se utilizan en los videos. Es bien sabido que los videos que muestran humanos, especialmente aquellos con ciertos rasgos faciales, parecen más familiares y confiables. Por lo tanto, ha habido una tendencia reciente de videos que presentan personajes generados por IA, en todos los idiomas y plataformas (Twitter, Youtube, Instagram), que brindan detalles de reclutamiento, capacitación educativa, material promocional, etc. Y los ciberdelincuentes han adoptado esta táctica.

Youtube como canal de distribución de malware

Con más de 2500 millones de usuarios mensuales activos, Youtube es una plataforma popular y versátil. Desde entretenimiento y reseñas hasta recetas y material educativo, Youtube es utilizado por una amplia gama de usuarios de todos los grupos demográficos.

Si bien Youtube es una manera fácil de llegar a millones de usuarios, las regulaciones y el proceso de revisión de la plataforma dificultan que los actores de amenazas tengan cuentas activas a largo plazo en la plataforma. Una vez que algunos usuarios se han visto afectados, el video generalmente se elimina y la cuenta se bloquea. Por lo tanto, los actores de amenazas siempre están buscando nuevas formas de eludir el algoritmo y el proceso de revisión de la plataforma.

Desde noviembre de 2022, CloudSEK ha observado un aumento mensual de 2 a 3 veces en la cantidad de videos que difunden malware.

Robos de cuentas de youtube

Los actores de amenazas utilizan fugas de datos anteriores, técnicas de phishing y registros de ladrones para apoderarse de las cuentas de Youtube existentes. Se dirigen tanto a usuarios activos (con una cantidad significativa de suscriptores y cargas) y usuarios menos activos.

‍Ha habido varios informes y quejas sobre las adquisiciones de cuentas de Youtube. Los ciberdelincuentes suben inmediatamente 5-6 videos a la cuenta.

Enlaces ofuscados hacia malware

El enlace malicioso para descargar el archivo con malware generalmente se incluye en la descripción del video. Sin embargo, estos enlaces no parecen sospechosos porque los atacantes usan:

  • Acortadores de URL como bit.ly y cutt.ly
  • Enlaces a plataformas de alojamiento de archivos como mediafire.com
  • Enlaces que descargan directamente el archivo zip malicioso

Los sitios web comúnmente vistos que se utilizan en la cadena de infección se enumeran en el cuadro a continuación:

Consejos para evitar ser engañados por la IA

No hace falta decir que evitar la búsqueda de cómo instalar software pirata, es lo primero 😅

Aquí os listamos los consejos para evitar ser engañado con imágenes y videos generados por la Inteligencia Artificial:

  1. Verificar la fuente de la imagen o el video: asegúrate de que provenga de una fuente confiable y legítima.

  2. Investiga la imagen o el video: intenta buscar información adicional sobre la imagen o el video para verificar su autenticidad.

  3. Comprueba la calidad de la imagen o el video: si la calidad de la imagen o el video parece demasiado buena para ser verdad, es posible que haya sido generada por una IA.

  4. Presta atención a los detalles: busca inconsistencias o anomalías en la imagen o el video que pueda indicar que ha sido manipulado por una IA.

  5. Utiliza herramientas de detección de imágenes generadas por IA: existen herramientas en línea que pueden ayudar a determinar si una imagen ha sido generada por una IA. Herramientas como esta.

  6. No confiar en imágenes o videos sin corroborar: no compartas ni tomes decisiones importantes basadas en imágenes o videos sin corroborar su autenticidad.

  7. Mantenerse informado sobre la tecnología de generación de imágenes por IA: la tecnología está en constante evolución, y conocer sus limitaciones y capacidades puede ayudarte a detectar imágenes o videos generados por IA.

Referente al punto 4, a continuación os dejamos un hilo de Twitter del 13 de enero donde se detecta que las imágenes generadas por IA tienen problemas con la cantidad de dedos y dientes de las personas. 😁

Us deixem amb una mostra de video generat amb bones intencions generat amb IA.

Comparte este contenido:

Deja un comentario

Calendario Ciberseguridad /24

LIVE WEBINAR | 1/2/2024

Cómo proteger tu Active Directory de ataques Ransomware con Tenable

Alertas de seguridad

Recibe las más importantes a tu email