A medida que las herramientas digitales evolucionan, distinguir la verdad de las noticias falsas se vuelve cada vez más difícil.
Hoy en día, partiendo de fotos o vídeos de una persona se pueden simular acciones o elaborar mensajes falsos que comprometan la imagen de cualquiera: las denominadas «deepfakes».
O lo que es lo mismo, la aplicación de una serie de algoritmos de aprendizaje de herramientas de Inteligencia Artificial (IA) para modificar y crear contenido multimedia dirigidos, por ejemplo, a personalidades del ámbito político o empresarial, con el fin de menoscabar su imagen de confianza o de su organización e influir en la opinión pública.
Todos somos posibles víctimas de «deepfakes»
Y es que, en la actualidad, cualquier persona que tenga fotos publicadas sobre sí misma en la Red podría llegar a ser víctima de un «deepfake», tanto por difamación como por extorsión.
Pero los «deepfakes» no solo se limitan a la edición de contenido grabado, sino que tienen capacidad para modular la voz y la imagen en tiempo real, sirviendo como herramienta de suplantación de identidad.
Y eso es algo que muestra la serie británica, “The Capture”, que cuestiona la intersección entre la tecnología, los sistemas de vigilancia, la política internacional, la seguridad nacional y la tecnología «deepfake».
Una ficción que también aborda cómo el uso de estas técnicas de suplantación digital puede difuminar las líneas entre realidad y “lo que vemos o creemos que estamos viendo”..
Y es que, la facilidad con la que se pueden crear y distribuir «deepfakes» plantea un desafío significativo para la seguridad y la privacidad.
¿Se imaginan si lo que estamos viendo en las cámaras de vigilancia de toda una ciudad, es en realidad parte de un simulacro?
¿Se imaginan si un video que muestra claramente como una persona cometió un crimen es parte de un «deepfake»?
¿Se imaginan que una empresa de datos es capaz de elaborar algoritmos capaces de seleccionar las características de un candidato político para conseguir empatizar con un electorado diverso que le proporcione la victoria, incluso destrozándole su vida familiar?
¿Y se imaginan que detrás de todo eso pueda estar equipos de contraespionaje de diferentes agencias de inteligencia?.
Pues estas son es algunas de cuestiones que plantea esta inquietante ficción que nos obliga a reflexionar cómo la tecnología, en manos equivocadas, puede ser utilizada para manipular y controlar a la población.
Uso indebido de la imagen de otros
Además de esto, cualquier ciberdelincuente podría hacerse pasar por un miembro de una organización para obtener información confidencial, o incluso por un candidato en un proceso de selección con el fin de infiltrarse en esta de manera fraudulenta.
Por desgracia, las nuevas herramientas de IA también se emplean para la creación de contenido de entretenimiento y marketing, aprovechando la imagen de celebridades e incluso creando personas completamente artificiales.
La actrizScarlett Johansson denunció públicamente que la voz de «Sky», de OpenAI, era muy similar a la suya y que ella no había dado su consentimiento, por lo que la citada compañía tuvo que retirarla.
Su uso para fines comerciales o de entretenimiento genera ciertos debates alrededor de cuestiones como el consentimiento y derechos del uso de imágenes, la transparencia y la confianza de los negocios a través de sus acciones publicitarias, que pueden llegar a inducir creencias sobre un producto o una marca que no son reales.
¿Qué medidas existen para frenar el deepfake malintencionado?
Recientemente, INCIBE, publicaba un articulo sobre las medidas para protegernos de el uso esta tecnología y cómo los países y organizaciones internacionales están intentando combatirlas.
Noticia Relacionada
En el caso de España, el 15 de marzo de 2024 se publicó en el Boletín Oficial de las Cortes Generales la Proposición de Ley Orgánica de regulación de las simulaciones de imágenes y voces de personas generadas por medio de la inteligencia artificial, cuyo propósito es regular este tipo de prácticas generando un marco de protección para las personas, en línea con el informe Tackling deepfakes in European policy de 2021 del Servicio de Estudios del Parlamento Europeo.
En este sentido, las empresas que hacen uso de esta tecnología deberán prestar especial atención a las nuevas regulaciones que se aprueben en esta materia, ante lo cual, perfiles como el responsable de cumplimiento legal o de protección de datos cobrarán un papel fundamental para garantizar su cumplimiento en todas las actividades.
Más allá de las cuestiones legislativas, a medida que surgen nuevas aplicaciones para generar «deepfakes», también lo hacen aquellas que permiten detectarlos.
De esta manera, se abre un nuevo campo de posibilidades profesionales a caballo entre la inteligencia artificial y la ciberseguridad, dirigidos al desarrollo de software que ayude a prevenir y combatir intentos de difamación, así como mejorar las medidas de protección ante intentos de«phishing»y otras amenazas cibernéticas.