Una investigación realizada por la Oficina de Seguridad Pública de Pingliang (China), detectó un caso de uso de la tecnología de inteligencia artificial para crear información falsa.
La nota en cuestión difundía un supuesto choque de tren en Gansu que habría matado a 9 personas el 25 de abril pasado, lo que se comprobó no era real. Tras las pericias de los oficiales de ciberseguridad se determinó que existían 21 cuentas creadas para compartir ese contenido y que el mismo había alcanzado un total de más de 15.000 clics.
La información falsa fue creada a través del ChatGPT, mediante la recolección de las historias sociales más populares del país asiático. El sujeto acusado introdujo, valiéndose del uso de una VPN, un programa para producir rápidamente varias versiones diferentes de la misma historia falsa, para obtener más “clics” y así incrementar sus ganancias.
El autor fue acusado como perpetrador del delito de “provocación”, que puede tener una pena de hasta cinco años o más en caso de que se apliquen algunas de las agravantes que contempla la ley penal china.
En enero de este año comenzó a regir en China una nueva normativa que regula las deepfakes. Esta ley exige a las empresas que ofrecen servicios la obtención de la identidad real de sus usuarios, obligando a precisar cuándo se trata de videos manipulados, con el objetivo de evitar cualquier tipo de confusión.
Noticia Relacionada
La razón de esta regulación está dada en atención a que las “deepfakes” o ultrafalsos son videos manipulados. En ellos se puede reemplazar el rostro de una persona por la de otra, o falsificar sus declaraciones, teniendo así un resultado ultrarrealista.
La necesidad de regular esta materia se justifica en que esta técnica de inteligencia de artificial es muy utilizada en la actualidad en las redes sociales. En la mayoría de los casos para la creación de videos humorísticos.