Deepfakes: FBI investiga el robo de identidades para conseguir trabajos remotos

Los impostores utilizan rostros y voces falsos para ser contratados. La técnica se utiliza principalmente para postular en el sector tecnológico

Un hombre escribiendo en un teclado de ordenador iluminado.  Fotógrafo: Chris Ratcliffe/Bloomberg
01 de julio, 2022 | 02:29 PM

La contratación de personal de manera remota se ha convertido en una tendencia para muchas empresas que buscan al candidato idóneo para llenar una vacante de trabajo a distancia utilizando menos tiempo y dinero. Sin embargo, la principal agencia de investigaciones estadounidense, el FBI, descubrió un riesgo asociado con este tipo de contrataciones: la suplantación de identidades para entrevistas laborales, mediante el uso de la tecnología conocida como deepfake.

VER +
Las 10 empresas con más ataques de phishing podría ser una de las que estás usando

¿Qué es lo que sucede? El FBI recibió quejas por parte de empresas que afirmaron que hay personas que utilizan sistemas informáticos para modificar su rostro y su voz a la hora de llevar a cabo entrevistas en el marco de postulaciones para trabajos remotos. Estas personas generalmente aspiran a puestos que manejan bases de datos o información confidencial de clientes o de la empresa. La agencia también ha recogido denuncias de robo de información personal que se utiliza en forma complementaria a este accionar.

Los impostores pueden hacerse pasar por otras personas que quizás sí cuentan con el currículo necesario para aspirar al puesto laboral que se busca cubrir.

El FBI dice que han sido empresas las que denunciaron diferentes casos de personas que utilizan sistemas para cambiar el rostro a la hora de realizar las entrevistas, de forma tal que se hacen pasar por otras.

PUBLICIDAD

Las quejas informan acerca del uso de la suplantación de voz o, potencialmente, de la imitación de la voz, durante las entrevistas en línea de los posibles solicitantes”, informa un documento público del FBI.

VER +
Criptoestafadores se hacen pasar por periodistas y proyectos de NFTs en Twitter

El mismo señala que las empresas han descubierto la falsificación a raíz de que las acciones y el movimiento de los labios de las personas entrevistadas a través de la cámara no se coordinan completamente con el audio de quien habla. En ocasiones, acciones como toser o estornudar permitieron descubrir el fraude.

En ese sentido, el FBI no solo ha notado un aumento en quejas sobre el uso de deepfakes, sino también del robo de información de identificación personal que se utiliza para solicitar una variedad de puestos de trabajo remotos.

PUBLICIDAD

Las principales afectadas son empresas que buscan talentos para el área de tecnología y que, sin darse cuenta, están entrevistando a una persona que no es la que dice ser y que podría estar buscando acceder a preciada información clave al ser contratados y luego robarla o hacer un mal uso de ella.

¿Qué es deepfake?

Deepfake es una técnica de inteligencia artificial (IA) que permite editar vídeos falsos de personas que aparentemente son reales, utilizando para ello algoritmos y vídeos o imágenes ya existentes. El resultado final de dicha técnica es un vídeo muy realista, aunque ficticio.

En cuanto a estos casos que se vienen investigando, el FBI aclaró: “Los deepfakes incluyen un video, una imagen o una grabación alterada y manipulada de forma convincente para hacer creer que alguien está haciendo o diciendo algo que en realidad no se ha hecho o dicho”.