La Inteligencia Artificial ya forma parte del día a día de millones de personas. Ya no solo ayudándoles con tareas en el trabajo, sino asesorándoles en cuestiones personales. Una práctica que tiene sus riesgos y es que estas herramientas, como puede ser ChatGPT, están generando un archivo sin precedentes mediante mecanismos difíciles de comprender y para las que nadie está preparado.
Podría sonar drástico, pero así lo ha asegurado Zoë Hitzig, exinvestigadora de OpenAI, quien ha dimitido tras dos años en la empresa por la estrategia que están adoptando. “Durante varios años, los usuarios de ChatGPT han generado un archivo de franqueza humana que no tiene precedentes, en parte porque la gente creía que estaba hablando con algo que no tenía segundas intenciones”, expuso el pasado mes de febrero para ‘The New York Times’.
Un archivo que, afirma, tiene un objetivo claro aprovechando los pensamientos privados que han ido revelando los usuarios: “La gente les cuenta a los chatbots sus temores médicos, sus problemas de pareja y sus creencias sobre Dios y el más allá. La publicidad construida sobre ese archivo crea un potencial para manipular a los usuarios de formas que no tenemos las herramientas para comprender, y mucho menos para prevenir”.
A raíz de ello, la criminóloga y experta en ciberseguridad María Aperador ha querido aprovechar para alertar a la ciudadanía sobre esta cuestión: “Mucho cuidado con contarle estas cinco cosas de ti a la inteligencia artificial”, invitando a imaginar “todo lo que pueden hacer con la cantidad de datos que han recolectado de todo lo que nosotros le contamos”.
Lo que nunca debes decir a la IA
La primera información ‘prohibida’ es contar a la Inteligencia Artificial problemas de salud mental y datos médicos. Algo que ya hacen un millón de personas a la semana. Tampoco se pueden compartir datos bancarios, contraseñas o números de cuenta. “Parece muy obvio, pero muchas veces al adjuntarle una captura de pantalla a la IA podemos filtrar esa información sin darnos cuenta”, avisa la experta.
En tercer lugar, tampoco se deben adjuntar documentos legales con nombres y apellidos nuestros y de terceras personas. En la misma línea, no debemos compartir nuestra dirección, documento de identidad u otra información personal. La quinta y última información son fotografías personales, explicando Aperador que puede extraer toda la información de las mismas.
“Le contamos nuestros miedos, nuestras dudas, nuestros datos bancarios... porque pensamos que ‘no tiene segundas intenciones’. Pero OpenAI acaba de anunciar que va a meter anuncios”, advierte María Aperador, reiterando que pueden utilizar toda esa información para manipularnos en esos términos, usándola para crear un sistema de anuncios. La experta incide en la importancia de ser conscientes de todos los usos que le pueden dar a nuestros chats, concluyendo que “cuanto más sepas, menos daño podrán hacerte”.

