La inteligencia artificial (IA) y la nube son piezas claves para la operación de las empresas, y cuando se combinan, si bien funcionan de manera más eficiente, no están excentas de fugas de datos para la ciberdelincuencia si los errores provocan el efecto Jenga, revela un estudio de Tenable.
"México está en una etapa clave de adopción tecnológica donde la inteligencia artificial en la nube puede marcar una diferencia real en la competitividad. Pero, como toda nueva tecnología, trae consigo riesgos", refiere Arturo Barquín, director general de Tenable México, empresa de exposure management.
El informe 2025 de Tenable: El riesgo de IA en la nube destaca hallazgos sobre los servicios de IA que ofrecen tres principales proveedores en la nube:
- Amazon Web Services (AWS).
- Google Cloud Platform (G)
- Microsoft Azure.
Uno de estos hallazas es el efecto Jenga, que se refiere a los errores de configuración que se pueden encontrar en los servicios de AI.
El concepto Jenga aparece en la IA como "la configuración predeterminada con privilegios excesivos de Compute Engine subyacente pone en riesgo las instancias de notebook de Vertex AI".
"Una grave preocupación especialmente en los sistemas de IA que gestionan datos confidenciales", añade.
En términos más simples, se trata de una tendencia de los proveedores en la nube a construir un servicio sobre otro, aplicándolos como bloques de Jenga.
Lo anterior, da como resultado que un único servicio mal configurado se pone en riesgo los servicios sobre él.
"Basta con una pieza débil para poner en riesgo toda la estructura", refirió Arturo Barquin, director general de Tenable Mexico.
De acuerdo con Tenable, más de tres cuartas partes, 77 por ciento, de las organizaciones tienen configurada la cuenta de servicio Compute Engine predeterminada con exceso de privilegios en las instancias de notebook de G Vertex AI Workbench.
Otro de los hallazgos es que tres de cada cuatro cargas de trabajo en la nube que utilizan inteligencia artificial (AI) tienen al menos una vulnerabilidad crítica sin corregir, lo que las convertierte en un objetivo para la ciberdelincuencia.
¿Qué hacer para mitigar los riesgo?
Entre las medidas que se recomiendan par mitigar los riesgos son:
- Gestionar la exposición de sus sistemas y datos de IA.
- Aplique las recomendaciones del proveedor en la nube para sus servicios de IA.
- Clasifique como confidenciales los componentes de IA vinculados a activos de alto impacto para el negocio
- Evite el no autorizado o con privilegios excesivos a los modelos o almacenes de datos de IA basados en la nube.
MRA