Deepfake ¿Has escuchado hablar de esta modalidad de fraude? Puede estar tocando tu puerta

 

En los últimos siete años diversas aplicaciones en redes sociales han popularizado el deepfake utilizando aplicaciones de filtros que intercambian y mezclan caras en imágenes o videos. Y aunque resulte entretenido este tipo de contenido, las amenazas aumentan cuando la IA (inteligencia artificial) sirve de herramienta para cometer delitos.

¿Y cómo pueden considerarse una amenaza este entretenimiento?

 

El riesgo se concretiza producto de la falsificación profunda o deepfake. Esta modalidad, se utiliza a menudo con personajes públicos, conocidos por una generalidad de personas, a quienes inducen a errores con falsos discursos o representando su presencia en lugares donde no nunca han estado.

Por medio de la manipulación de la tecnología de aprendizaje automático o software de inteligencia artificial (IA), utilizan algoritmos y codificadores automáticos para manipular una imagen o video modificando audios y gestos. Mark Zuckerberg, Donald Trump y Hillary Clinton son algunas de las personas que han sido objeto del deepfake.

¿Cuántas clases de deepfake se conocen? Hasta los momentos existen 2 modalidades:

 

  • Deepface: mediante la cual se crean imágenes y videos convincentes de personas que no existen.
  • Deepvoice: la modalidad en la cual se suplanta la voz de una persona en un audio.

Estos hechos constituye un riesgo para la ciberseguridad. El primer delito cibernético impulsado por IA ocurrió en septiembre de 2019, en el cual los estafadores sintetizaron la voz de un CEO de una importante compañía de suministro eléctrico, y convencieron a un ejecutivo de la empresa  para que transfirieran más de 250.000 USD a una cuenta bancaria, violando los protocolos internos de la empresa.

Observemos que el potencial que representa esta herramienta para cometer fraudes, estafas y extorsión, es bastante amplio. Los avances son de tal magnitud, que hoy en día se pueden imitar datos biométricos como huellas dactilares, rostros o voz.

Otro caso de ejemplo, se refiere a la obtención de la custodia de NNA (niños, niñas y adolescentes) de forma ilícita, cuando uno de los padres se encuentra fuera del territorio nacional, para lo cual se hace mano en las audiencias virtuales o mediante videollamada del  deepfake para tergiversar la intervención de los representes del NNA.

¿Cuál ha sido la solución que han dispuesto para controlar este riesgo en el derecho compardo?

 

En España, Noruega, Dinamarca y Francia se han generado debates donde los magistrados apuntan a que es necesario nuevos tipos de leyes y marcos regulatorios, que abarquen el tema deepfake, difamación digital, fraude de identidad, suplantación de funcionario público, derechos de autor o privacidad. Además, le otorgan especial importancia al hecho de que las representaciones gráficas de las personas en los deepfaces no son copias de algún material existente sino que se generan desde cero (0) gracias a la IA.

En Suiza, además de las violaciones del derecho a la propia imagen, ya sea estática o en movimiento, o de la propia voz,  pueden constituir un delito penal de difamación según el artículo 173 y siguientes del Código Penal Suizo (StGB) (SR 311.0). Puede surgir una violación del honor debido al daño a la reputación de la persona en cuestión por declaraciones o representaciones manipuladas o si la persona en cuestión es acusada de un comportamiento reprobable de manera inexacta. Los videos y las imágenes ya no pueden usarse como evidencia en casos judiciales o los periodistas como fuentes sin un escrutinio minucioso.

Como medida de prevención dentro de las corporaciones, Facebook, ahora meta, introdujo una política anti deepfake de la mano de la tecnología y con políticas de gestión de los riesgos relevantes de ciberdelincuencia. La compañía trabaja con más de cincuenta organizaciones de verificación de hechos, académicos, expertos y formuladores de políticas para encontrar nuevas soluciones.

Y aunque la financiación para el desarrollo de estos programas anti deepfake son generadas desde las agencias de seguridad nacional, el mercado no cuenta con tantos desarrolladores privados. Por lo tanto, es una oportunidad comercial para que compañías de ciberseguridad produzcan plataformas confiables y detecten a tiempo la contaminación digital.

 


Es tiempo de gestionar los riesgos, no dejes que te sorprendan.

 

468