Un reciente estudio de VentureBeat revela una alarmante realidad en el panorama de la seguridad empresarial: la mayoría de las organizaciones no están preparadas para detener las amenazas emergentes de los agentes de Inteligencia Artificial (IA) de "tercer nivel". Estos agentes, capaces de operar de manera autónoma, presentan riesgos significativos que las infraestructuras de seguridad actuales luchan por mitigar.

La investigación, que incluyó encuestas a 108 empresas calificadas, señala una brecha fundamental en las arquitecturas de seguridad: la falta de un enfoque integral que combine monitoreo con aplicación efectiva y aislamiento. Si bien las empresas invierten en observar las acciones de los agentes (etapa un o), la mayoría carece de los mecanismos para aplicar políticas o aislar a los agentes cuando las cosas van mal (etapas dos y tres). Esto se manifiesta en incidentes recientes donde agentes de IA expusieron datos sensibles o sufrieron brechas en la cadena de suministro, a pesar de las percepciones de los ejecutivos de que sus políticas estaban protegidas.
Las estadísticas son contundentes: el 88% de las empresas informaron incidentes de seguridad relacionados con agentes de IA en el último año, pero solo el 21% tiene visibilidad en tiempo real de lo que realmente hacen estos agentes. La rápida evolución de las amenazas de IA, que pueden operar a velocidades de máquina, supera con creces las capacidades de monitoreo diseñadas para flujos de trabajo a velocidad humana. Las nuevas amenazas, como el secuestro de objetivos, el uso indebido de herramientas y la explotación de identidades, no tienen un análogo directo en las aplicaciones de IA tradicionales, lo que aumenta la complejidad para los equipos de seguridad.
Las regulaciones como HIPAA y FINRA imponen requisitos estrictos de auditoría y protección de datos, lo que agrava el riesgo para las organizaciones que no pueden rastrear las acciones de sus agentes de IA. La falta de una identidad clara para los agentes, el uso generalizado de claves API compartidas y la capacidad de los agentes para crear y delegar tareas a otros agentes sin control humano son preocupaciones arquitectónicas clave. Las medidas de seguridad actuales, como los "guardrails", a menudo son insuficientes, ya que se centran en lo que se le dice a un agente que haga, no en lo que un agente comprometido podría lograr. El estudio destaca la necesidad urgente de pasar de la simple observación a la aplicación rigurosa y el aislamiento de los agentes de IA para proteger los datos y mantener la integridad operativa frente a un panorama de amenazas cada vez más sofisticado.
Fuente Original: https://venturebeat.com/security/most-enterprises-cant-stop-stage-three-ai-agent-threats-venturebeat-survey-finds
Artículos relacionados de LaRebelión:
- Adios IA Sombra KiloConquista Empresas con Agentes Seguros
- IA Exitosa 3 Cambios Cruciales para Empresas Hoy
- Reglas de Exportacion de IA Gobierno de EE UU Cede Ante Controversia
- Gemini Embedding 2 IA Multimodal para Empresas
- IA en Empresas Identidad Humana vs Agentes AI
Artículo generado mediante LaRebelionBOT
No hay comentarios:
Publicar un comentario