Logo de Huffpost

Acepta entrevistarle porque estaba desesperado y necesitaba trabajo y resultó ser un ‘deepfake’: “fue muy espeluznante”

El candidato realmente nunca se mostró como realmente era y usó la inteligencia artificial para cambiar de aspecto: “No tienes ni idea de con quién estás hablando”.


Una mujer enfrente del ordenador asustada
Una mujer enfrente del ordenador asustada |Envato
Esperanza Murcia
Fecha de actualización:

La IA está evolucionando a pasos agigantados e, indudablemente, está transformando el mercado laboral. Tal es el punto que, actualmente, los reclutadores ahora tienen que preocuparse no solo de que el personal seleccionado sea el correcto, sino de que se muestren tal y como son. ¿Cómo es posible esto en una entrevista personal? Porque se están usando filtros ‘deepfake’, pudiendo corroborarlo en primera persona Bettina Liporazzi, jefa de contratación de Make, un estudio digital remoto que contrata a profesionales de todo el mundo.

Para aquellos que lo desconozcan, los ‘deepfakes’, tal y como los describe el Incibe, son “vídeos manipulados para hacer creer a los usuarios que ven a una determinada persona, tanto si es anónima como si es un personaje público, realizando declaraciones o acciones que nunca ocurrieron”. Para la creación de estos vídeos, se utilizan herramientas o programas dotados de tecnología de inteligencia artificial que permiten el intercambio de rostros en imágenes y la modificación de la voz. 

Partiendo de esta base, a mediados de marzo una persona se puso en contacto con Liporazzi, presentándose como un ingeniero de software en paro que necesitaba trabajo. Aunque no estaban buscando dicho perfil, esta quiso conocerle y, tras ver su currículum, le invitó a hacer una videollamada. “Seré sincera, su currículum parecía correcto”, aseguró la reclutadora a HR Brew, en declaraciones recogidas por ‘Fortune’. Aunque, tras la invitación, todo comenzó a volverse más extraño. Y ya comenzó la sospecha de que había algo que no encajaba. 

“No tienes ni idea de con quién estás hablando”

Liporazzi explica que el candidato nunca llegó a aceptar la invitación a Google Meet para realizar la videollamada. Además, aunque finalmente se unió a la entrevista, no encendió la cámara, rechazando todo el rato sus peticiones, alegando que estaba estropeada. Después de que le sugiriera reprogramar la grabación, y hacer la videollamada otro día, la persona candidata le propuso reiniciar el ordenador, para ver si así se solucionaba el problema.

“No conozco a nadie que trabaje a distancia y tenga la cámara estropeada”, señaló Liporazzi, expresando que es algo que hoy no pueden tolerar y que sería inseguro hacerlo. Una vez ante la cámara, la cosa se volvió todavía más extraña: los movimientos oculares y bucales parecían antinaturales y no estaban sincronizados con su forma de hablar. Además, los bordes de su cara se distorsionaban, como si estuvieran usando una versión sofisticada del filtro de intercambio de caras de Snapchat. Unos signos que, como había aprendido días antes Liporazz en una publicación de LinkedIn, demostraban que estaban usando tecnología ‘deepfake’.

“El filtro era básicamente muy similar: los ojos, la boca, todo se parecía bastante. Si no hubiera visto ese post antes, no sé si me habría dado cuenta”, confiesa. Por ello, pidió al candidato que agitara la mano delante de su cara, con lo que se podría alterar el filtro, abandonando este de inmediato la videollamada. Y, aunque solo habían pasado 30 segundos ante la cámara, se estremeció: “Fue espeluznante. No tienes ni idea de con quién estás hablando”.

“Comparto esto para advertir a los demás, no para contar una historia divertida”

Bettina Liporazz fue capaz de capturar algunas de las imágenes de la videollamada y las ha compartido a través de su perfil de LinkedIn para concienciar sobre este fenómeno. “No conozco las intenciones de esta persona/grupo, pero dudo que sean buenas. Comparto esto para advertir a los demás, no para contar una historia divertida. Descubrir que estás en una videollamada con alguien que oculta su identidad por razones desconocidas no es nada divertido, es realmente espeluznante”, denunció.

Además, destacó que hay “muchas personas inocentes” que “podrían caer en esta trampa porque no tienen ni idea de que es remotamente posible (tanto dentro como fuera del lugar de trabajo)”. 

En su caso, la videollamada fue de 7 minutos, y ha lanzado una serie de consejos para detectar que se está ante “un impostor de IA”: “pídeles que enciendan sus cámaras; Que giren la cara hacia un lado; que se pongan la mano delante de la cara, como hice yo en este caso; y que se quiten los filtros/fondo de pantalla. Si de repente abandonan la llamada (como hizo este candidato justo después), supongo que te acabas de ahorrar un dolor de cabeza”, concluyó.

Otras noticias interesantes

Lo más leído