Deepfakes y estafas digitales: cómo la IA está siendo usada para suplantar identidades

ESPACIO PREMIUM
728 x 90 px

La evolución de la Inteligencia Artificial ha traído consigo avances impresionantes, pero también ha abierto la puerta a nuevas amenazas digitales. Los deepfakes, videos y audios manipulados con IA para imitar de manera realista a una persona, se han convertido en una herramienta clave para los ciberdelincuentes. Kaspersky alerta sobre el aumento de estafas en las que los atacantes suplantan a celebridades para engañar a los usuarios y obtener información personal o financiera.

El crecimiento de las estafas con Deepfakes

Según el Panorama de Amenazas 2024 de Kaspersky, las estafas mediante mensajes falsos aumentaron un 120% en Colombia, con un incremento significativo en el uso de audios y videos manipulados con IA. Además, una encuesta reveló que 63% de los usuarios no sabe qué es un deepfake, y 72% no sabe cómo reconocerlo, lo que facilita que los ciberdelincuentes exploten esta falta de conocimiento.

Los atacantes utilizan imágenes y voces de personajes famosos para promocionar productos fraudulentos, inversiones falsas o juegos engañosos, logrando que las víctimas ingresen a sitios web maliciosos donde comparten datos personales o realizan compras que nunca reciben.

GOOGLE ADS
(Automático aquí)

Cómo identificar un Deepfake y evitar ser víctima

Los expertos en ciberseguridad recomiendan seguir estos pasos para detectar un video manipulado con IA:

  • Observar los ojos y la boca: Los deepfakes suelen fallar en replicar movimientos naturales. Si la persona parpadea poco o los labios no están sincronizados con el audio, es una señal de manipulación.
  • Revisar la iluminación y sombras: Si la luz en el rostro no coincide con el fondo o el cuerpo, puede tratarse de una edición artificial.
  • Escuchar el audio con atención: Un tono robótico, cortes bruscos o falta de naturalidad pueden indicar que el audio fue generado con IA.
  • Buscar señales visuales: Píxeles borrosos, bordes irregulares o gestos corporales poco naturales pueden evidenciar un deepfake mal hecho.
  • Verificar el origen del video: Antes de compartirlo, revisar si proviene de una fuente oficial. Si solo circula en mensajes reenviados o cuentas sospechosas, es falso.

El uso de deepfakes en estafas digitales demuestra cómo los ciberdelincuentes están aprovechando la IA para perfeccionar sus tácticas. La educación digital y la implementación de medidas de seguridad son esenciales para protegerse de estas amenazas.

Deja un comentario