¿Qué son los deepfakes?
Los Deepfakes son contenidos audiovisuales manipulados mediante inteligencia artificial para que parezcan reales. Este término combina las palabras «deep» (de aprendizaje profundo o deep learning) y «fake» (falso). Los Deepfakes pueden ser vídeos, imágenes o audios generados por algoritmos capaces de imitar con precisión rasgos humanos, movimientos y voces.
Aunque la idea de los Deepfakes no es nueva, cobraron relevancia en 2017 cuando se usaron para manipular vídeos y reemplazar caras en materiales sensibles. Estos contenidos, que a simple vista parecen auténticos, desafían nuestra capacidad para diferenciar lo real de lo falso.
Tipos de deepfakes
Existen principalmente dos tipos de Deepfakes que han ganado popularidad:
Deepfaces
Los Deepfaces se centran en alterar rostros. Usan el aprendizaje automático para reemplazar la cara de una persona en un vídeo o imagen, generando una secuencia completamente falsa pero realista. El resultado puede ser tan convincente que incluso engaña a sistemas avanzados de detección.
Deepvoices
Este tipo de Deepfake manipula la voz de una persona, haciéndola decir cosas que nunca dijo. Los Deepvoices son especialmente peligrosos porque pueden usarse en llamadas telefónicas o mensajes para engañar y cometer fraudes. Un ejemplo famoso ocurrió en 2019, cuando delincuentes lograron estafar a un ejecutivo haciéndole creer que hablaba con su jefe.
¿Cómo se crean los deepfakes?
Crear un Deepfake requiere combinar algoritmos avanzados de inteligencia artificial y grandes cantidades de datos. Existen dos métodos principales:
Mediante algoritmos codificadores y decodificadores
- Análisis de imágenes: El algoritmo recopila miles de imágenes de dos personas para identificar similitudes entre sus rostros.
- Codificación: Reduce las imágenes a características comunes.
- Decodificación: Reconstruye el rostro deseado utilizando las expresiones faciales de otra persona.
- Intercambio: Las imágenes se combinan para crear el archivo manipulado.
Con redes de confrontación generativa (GAN)
Las GANs enfrentan dos algoritmos: uno que genera contenido falso y otro que lo evalúa para determinar si parece real. Este proceso se repite hasta que el resultado es indistinguible de un archivo auténtico.
Usos comunes de los deepfakes
Aunque los Deepfakes tienen aplicaciones legítimas, como en el cine o la educación, su uso malintencionado plantea graves riesgos:
- Propaganda política: Crear vídeos falsos de políticos diciendo o haciendo algo impactante para influir en elecciones.
- Difamación: Usar rostros en contenido sensible para desacreditar a personas.
- Fraudes financieros: Engañar a empleados con audios falsificados de sus superiores para transferir dinero.
- Venganzas personales: Crear contenido falso con fines de intimidación o burla.
¿Por qué son difíciles de detectar?
Los Deepfakes son increíblemente realistas, pero tienen fallos que pueden delatarlos. Aquí hay algunos aspectos que ayudan a identificarlos:
Detalles visuales
- Parpadeo insuficiente: Las personas en los Deepfakes suelen parpadear menos de lo normal.
- Defectos en el rostro: Pequeñas irregularidades, como bordes borrosos, piel artificialmente lisa o expresiones extrañas.
- Desajustes de luz: Iluminación poco natural en comparación con el resto de la escena.
Análisis del sonido
- Sincronización labial: Las palabras no coinciden perfectamente con los movimientos de los labios.
- Calidad del audio: Sonidos artificiales o faltas de tonalidad natural.
Duración del contenido
Los Deepfakes suelen ser cortos, ya que generar contenido largo aumenta el riesgo de errores detectables.
Riesgos y amenazas de los deepfakes
Los Deepfakes representan una amenaza creciente a nivel personal, empresarial y social. Entre sus peligros más destacados se encuentran:
Impacto en la sociedad
- Fake news: Facilitan la propagación de noticias falsas, minando la confianza en los medios.
- Manipulación de la opinión pública: Pueden influir en decisiones grupales o elecciones importantes.
- Desinformación masiva: Al viralizarse en redes sociales, los Deepfakes pueden cambiar percepciones en cuestión de minutos.
Riesgos empresariales
- Ataques de suplantación: Usar Deepvoices para engañar a empleados y robar información confidencial.
- Fraudes financieros: Engañar a través de vídeos falsos para obtener transferencias bancarias.
- Pérdida de reputación: Un contenido falso puede causar daños irreparables a marcas o ejecutivos.
Amenazas personales
- Ciberacoso: Usar Deepfakes para difamar o intimidar.
- Delitos de sextorsión: Crear contenido explícito con rostros manipulados.
- Robo de identidad: Utilizar Deepfakes para acceder a sistemas de reconocimiento facial.
Cómo protegerse de los deepfakes
Aunque la detección de Deepfakes se vuelve cada vez más compleja, estas prácticas pueden ayudar:
- Analizar detalles: Presta atención a la iluminación, el parpadeo y los movimientos faciales.
- Revisar la fuente: Verifica quién compartió el archivo y en qué contexto.
- Contrastar información: Compara con otras fuentes confiables para validar la autenticidad.
- Desconfía de lo sensacionalista: Un contenido demasiado impactante puede ser falso.
- Reproduce a baja velocidad: Observa cuidadosamente cualquier anomalía en la imagen o el sonido.
- Consulta herramientas especializadas: Usa software para analizar la veracidad de los archivos.