IA Generativa, un riesgo creciente de fuga de datos corporativos
El uso sin control de IA Generativa en entornos laborales expone datos sensibles y plantea nuevos riesgos de ciberseguridad empresarial.
Recientemente se ha detectado que los sistemas de IA Generativa pueden indexar las conversaciones que han tenido con los usuarios en algunos buscadores web, dejando expuestos los chats de algunas personas en temas íntimos como su vida privada o su salud mental. Este hecho abre la posibilidad a que también se registren y expongan las consultas que los empleados hacen a estas plataformas con información sensible de una empresa.
El uso de la inteligencia artificial avanza como motor de productividad en América Latina; sin embargo, su adopción también plantea desafíos críticos en materia de ciberseguridad: el uso de datos internos, informes sensibles o documentos oficiales en plataformas de IA Generativa abre la puerta a filtraciones de información confidencial, incrementando la exposición de empresas e instituciones frente al cibercrimen, alertó Claudio Martinelli, director general para las Américas en Kaspersky.
Hoy, los equipos de seguridad no solo tienen la presión de resguardar las redes corporativas ante los 467,000 objetos maliciosos que se detectan diariamente, sino también enfrentan una realidad asociada al uso de sistemas de IA por parte de los empleados, quienes para ahorrar tiempo en sus tareas diarias alimentan estas plataformas con reportes confidenciales, bases de datos o documentos. Al hacerlo, comparten información en espacios abiertos que no garantizan la protección ni la privacidad de los datos.
MÁS INFORMACIÓN: Escuelas y familias deben unirse para prevenir riesgos invisibles del mundo digital
“Actualmente, el temor de las empresas también está relacionado con el uso que algunos empleados hacen de plataformas de IA Generativa, compartiendo en ellas datos confidenciales, es decir, usan inteligencia artificial sin inteligencia humana. No se trata de delegar todo a una herramienta, sino de entender los riesgos, cuidar la confidencialidad y entrenar a los empleados para que sepan cómo usar la IA”, destacó Martinelli.
Para que las empresas puedan hacer un desarrollo y despliegue seguro de los sistemas de Inteligencia Artificial, los expertos de Kaspersky recomiendan capacitar en ciberseguridad, efectuar un modelado de amenazas, asegurar infraestructura y nube, blindar la cadena de suministro, realizar pruebas y validaciones periódicas, gestionar reportes de vulnerabilidades, implementar defensas específicas contra ataques a modelos de aprendizaje, mantener actualizaciones constantes y cumplir con estándares internacionales de protección de datos.
LO MEJOR DE TECNOLOGÍA:
Empresas aceleran la adopción de tendencias tecnológicas para ser competitivas
Estafas financieras crecen en Perú: phishing y fraudes se vuelven más sofisticados
Mira más contenidos en Facebook, X, Instagram, LinkedIn, YouTube, TikTok y en nuestros canales de difusión de WhatsApp y de Telegram para recibir las noticias del momento.