Más peligrosos que las famosas ‘fake
news’, los ‘deepfake’ (que podrían calificarse como la siguiente generación de noticias falsas) son vídeos manipulados usando técnicas de inteligencia
artificial. El resultado es extremadamente realista e implican graves riesgos
reputaciones y/o económicos para personajes públicos y/o para marcas empresariales o
políticas.
En los últimos años se han
popularizado las tecnologías de 'deepfake', que permiten modificar el aspecto o
la voz de personas en imágenes o vídeos, lo que puede hacer parecer que han
hecho o dicho cosas fuera de la realidad.
El 'deepfake', o la creación y
difusión de contenidos sintéticos generados mediante la tecnología, es un
fenómeno reciente pero sus posibles efectos ya preocupan a las empresas, como
manifiestan el 74 por ciento de los responsables de TI, según una encuesta de
Tessian.
Ya en el último informe elaborado por
Deeptrace, el 96% de los vídeos falsos siguen siendo de carácter pornográfico,
pero más allá del agravio personal que supone una pornovenganza, otro de los
grandes problemas de los deepfakes es su uso para manipular la información, con
consecuencias que pueden ser mucho más graves que una noticia falsa. Ya se
sabe: una imagen vale más que mil palabras, es más real, y un vídeo se puede
viralizar por todo el mundo en cuestión de minutos.
En el año 2018, un vídeo en el que un
supuesto Barak Obama llamaba imbécil a
Trump dio la vuelta al mundo. Se trataba de una grabación falsa en la
que el actor Jordan Peele y el CEO de Buzzfeed Jonah Peretti intentaban
concienciar del peligro de la información no verificada y de los deepfake.
Ese mismo año, un artículo de Nobbot, la agencia de noticias china Xinhua presentó la versión
digital de un conocido presentador de noticias, del cual se copiaron los
movimientos faciales, la voz y los gestos: el primer locutor de noticias falso.
En España tenemos un ejemplo más
cercano en el tiempo de la aplicación legal de esta técnica con éxito en la
publicidad, como es el caso del anuncio de Cruzcampo protagonizado por la
fallecida Lola Flores, pero más allá de esto, sus efectos también plantean
riesgos para las empresas.
RIESGOS POTENCIALES 'DEEPFAKES' PARA MARCAS COMERCIALES Y POLITICAS
El primer y principal riesgo es la
suplantación de identidad y las estafas. Los ciberdelincuentes pueden utilizar
los 'deepfakes' para atacar a las organizaciones y estafarlas a través de la
suplantación de la voz de personas con cierta autoridad dentro las mismas, como
el CEO u otros cargos dentro de la compañía.
Además, pueden crear vídeos con la
imagen de cualquiera de esos perfiles para ponerse en contacto con los
empleados directamente y solicitarles, a través del teléfono o videollamadas,
que realicen transferencias bancarias, que faciliten ciertos datos o que lleven
a cabo ciertas operaciones comprometidas.
Es el caso de una empresa de Reino
Unido que en 2019 sufrió el ataque de unos ciberdelincuentes que utilizaron un
'software' basado en IA para replicar la voz del CEO de la compañía exigiendo
la transferencia fraudulenta de 243.000 dólares al jefe de la filial inglesa.
Otro posible efecto negativo son los
daños de la reputación corporativa interna y externa. Los 'deepfakes' pueden
servir a los ciberdelincuentes para la difamación de una empresa con el
objetivo de dañar su reputación.
En estos casos, los atacantes crean 'deepfakes'
en los que los ejecutivos hablan de su propia organización y anuncian, por
ejemplo, la insolvencia de la compañía, o con amenazas de enviar material
comprometido a los medios de comunicación o publicarlo en redes sociales.
Internamente, esto puede generar desconfianza entre los trabajadores provocando
una gran incertidumbre y llevarles a tener que cuestionarse la veracidad de
todo.
Hasta ahora, se ha observado la
incapacidad de algunos de los sistemas de ciberseguridad existentes en lo que
se refiere a los 'deepfakes'.
A medida que las falsificaciones se
vuelven más sofisticadas y difíciles de detectar, estas pueden ser capaces de
superar cualquier barrera de seguridad existente, por lo que las empresas
pueden verse obligadas a revisar sus protocolos para garantizar sus procesos
contra el fraude digital.
Además, se incrementa la necesidad de
proteger los datos personales de la plantilla para evitar falsificaciones que
pongan en riesgo la seguridad. Los 'deepfakes' pueden imitar datos biométricos
y potencialmente pueden engañar a los sistemas que dependen del reconocimiento
de rostro o voz.
También es conocido la ausencia de
regulación al respecto,
ya que hoy en día no existe ninguna ley que regule los 'deepfakes'. Las
autoridades sólo pueden catalogar el tipo de delito en el que se esté
incurriendo a través de esta tecnología, como por ejemplo el de estafa,
suplantación de identidad, injurias, calumnias o integridad moral.
Según datos de la consultora Gartner
en 2023, el 20 por ciento de los ataques para intentar robar y hacerse con
cuentas utilizarán 'deepfakes' como parte de estos intentos de acciones
maliciosas.
CÓMO SE VERIFICA UN ATAQUE DEEPFAKE
Ante la avalancha de noticias falsas y
de vídeos manipulados con resultados tan realistas, la tarea periodística de la
verificación de los datos y las fuentes es más necesaria que nunca. Además de
estar surgiendo medios especializados en desmontar bulos y falsas informaciones
que circulan por la red, muchas redacciones están incorporando mecanismos
avanzados de verificación y ofreciendo cursos y formación a sus trabajadores
que también abarcan la formación en inteligencia artificial, pues este
conocimiento ayuda no solo a detectar bulos, sino también a conocer los límites
de la manipulación.
En todo caso, uno de los primeros
pasos a la hora de contrarrestar un vídeo o una imagen es verificar la fuente.
¿Quién ha enviado esto? ¿Es fiable? Rastrear el camino del supuesto
deepfake, ver dónde se compartió por primera vez y quién lo publicó son algunos
pasos básicos que hay dar siempre y que no requieren un conocimiento avanzado,
tan solo sentido común.
El problema es que, aunque se
desmienta una noticia o un vídeo falso, en muchas ocasiones el mal ya está
hecho. Un estudio publicado por científicos del Instituto Tecnológico de
Massachusetts revelaba que las noticias falsas se extienden mucho más rápido
que las verdaderas y tienen un 70% más de posibilidades de ser replicadas.
Una de las explicaciones es que lo que
compartimos en redes sociales tiene mucho más que con las emociones, y parece
que somos más proclives a difundir noticias que nos causan enfado, como sucede
con la mayoría de fake news. Así, que, antes de darle al botón de compartir o
retuitear sin haber profundizado en la información, piénsalo dos veces: podrías
estar contribuyendo a viralizar noticias falsas.
Fuente: Bolsa
Manía.com; Muy Interesante.es