En numerosas oficinas alrededor del planeta, cada día se produce una situación recurrente: un trabajador inicia sesión en un chatbot de inteligencia artificial, introduce datos (como un documento) y solicita que realice ciertas operaciones, como elaborar resúmenes o redactar textos. Aunque esto podría parecer simplemente una estrategia para aumentar la eficiencia, en realidad, representa un riesgo emergente que muchas compañías aún no han logrado identificar completamente. Y es que, al confiar en la inteligencia artificial, ésta puede transformarse en una amenaza.

«Es algo que las empresas podrían experimentar, aunque sabemos que lo analizan con mucho cuidado. Sin embargo, a nivel de usuarios individuales, hay una gran falta de conocimiento. La gente no se preocupa por estas cuestiones. Simplemente cargan los documentos en estas plataformas sin considerar las consecuencias», indica Javier Aguilera, director general de Ikusi España.

Varios estudios respaldan esta preocupación. Uno de ellos, realizado por la organización sin ánimo de lucro Alianza Nacional de Ciberseguridad (NCA) y la firma de ciberseguridad CybSafe, publicado en septiembre del año pasado, revelaba que el 38% de los trabajadores comparte información confidencial de la empresa con herramientas de IA sin el permiso de sus superiores. Según el mismo estudio, las generaciones más jóvenes tienden a hacerlo con mayor frecuencia.

Otra investigación, que analizó datos de más de tres millones de trabajadores de Cyberhaven, una empresa especializada en la protección de datos, mostraba que más del 94% de las interacciones con Google Gemini en el ámbito laboral provenían de cuentas no corporativas. En el caso de ChatGPT, el porcentaje era del 74%.

Leer  ¡Descubre ya!: Las 5 tecnologías clave para la segunda mitad de 2025

De acuerdo con Cyberhaven, el 83% de todos los documentos legales que se comparten con herramientas de IA se envían desde cuentas no corporativas. Lo mismo ocurre con la mitad de todos los códigos fuente, materiales de I+D y registros de RR.HH. y de empleados. Entre marzo de 2023 y marzo de 2024, el volumen de información que se vertió en todas las herramientas de IA aumentó cinco veces.

«El principal riesgo de hacer algo así es que la información se traslade a la nube, porque puede salir de la empresa y en ese trayecto ser interceptada y robada. El segundo riesgo es que esos datos se utilicen para entrenar al modelo de IA, lo que podría incluso beneficiar a tus competidores», explica Aguilera, quien añade que cuando la información se guarda localmente en un dispositivo, aunque se minimizan algunos riesgos, también es esencial «protegerse» para prevenir el robo de datos.

Por estas razones, es crucial leer la letra pequeña y entender las diferencias entre las distintas plataformas de IA en términos de cómo manejan la información del usuario. Según la empresa de ciberseguridad Surfshark, los 10 principales chatbots de IA recogen algún tipo de datos del usuario, siendo Gemini el que más información acumula. «Mantén siempre la alerta, ya que los datos almacenados en servidores siempre están expuestos a posibles vulnerabilidades», advierte la compañía.

Leer  Abril 2025: Descubre el Misterio Detrás de la Fascinante Luna Rosa

«Las empresas buscan detectar cuándo sus empleados utilizan herramientas no autorizadas para prevenir daños y fugas de datos. Pero cuando a nivel corporativo se permite el uso de uno de estos modelos, también deben asegurarse de que sea seguro, ya que cada uno tiene sus propias políticas. Existe una directriz europea que aborda cuestiones éticas, y en España contamos con una ley de protección de datos. Sin embargo, no existe una normativa específica sobre IA», comenta Aguilera.

El experto sugiere que las empresas deben tener una estrategia clara respecto a este tema, validar los modelos de IA que emplean y realizar pruebas de vulnerabilidad. «Si la información llega a la nube, aunque después se elimine, nadie puede estar completamente seguro de que se haya borrado toda. Algunos chatbots, como ChatGPT, ofrecen modos temporales que, en teoría, son más seguros porque las conversaciones no quedan registradas permanentemente. Pero no podemos estar seguros de hasta qué punto siguen utilizando esa información para entrenar versiones futuras del modelo», concluye.