Un reciente estudio exhaustivo ha revelado los riesgos de seguridad asociados con los "Agentes del Sistema Operativo" (OS Agents), sistemas de inteligencia artificial diseñados para controlar de forma autónoma computadoras, teléfonos móviles y navegadores web interactuando directamente con sus interfaces. Esta investigación, aceptada para su publicación en la Association for Computational Linguistics, destaca un campo en rápida evolución que ha atraído miles de millones en inversiones de grandes empresas tecnológicas.
El estudio, liderado por investigadores de la Universidad de Zhejiang y el Centro de IA de OPPO, surge en un momento en que las principales compañías tecnológicas compiten por implementar agentes de IA capaces de realizar tareas digitales complejas. OpenAI lanzó "Operator", Anthropic presentó "Computer Use", Apple introdujo capacidades de IA mejoradas en "Apple Intelligence" y Google reveló "Project Mariner"; todos sistemas diseñados para automatizar las interacciones informáticas.
Estos agentes funcionan observando las pantallas de las computadoras y los datos del sistema, para luego ejecutar acciones como clics y deslizamientos en plataformas móviles, de escritorio y web. Deben comprender las interfaces, planificar tareas de varios pasos y traducir esos planes en código ejecutable. Aunque prometen aumentar la productividad, también presentan una nueva superficie de ataque para las organizaciones.
El estudio señala métodos de ataque preocupantes, como la "Inyección Indirecta de Prompts Web", que permite a actores maliciosos insertar instrucciones ocultas en páginas web para secuestrar el comportamiento de un agente de IA. Aún más preocupantes son los "ataques de inyección ambiental", donde contenido web aparentemente inofensivo puede engañar a los agentes para que roben datos de usuario o realicen acciones no autorizadas. Los modelos de seguridad tradicionales, diseñados para usuarios humanos, fallan cuando el "usuario" es un sistema de IA que procesa la información de manera diferente.
A pesar del entusiasmo, el análisis del estudio revela limitaciones significativas en el rendimiento de los sistemas actuales. Si bien sobresalen en tareas simples y bien definidas, flaquean en flujos de trabajo complejos y dependientes del contexto. El desafío más intrigante es la "personalización y autoevolución", donde los agentes de IA aprenden de las interacciones del usuario y se adaptan a las preferencias individuales a lo largo del tiempo, planteando importantes interrogantes sobre la privacidad.
Fuente Original: https://venturebeat.com/ai/study-warns-of-security-risks-as-os-agents-gain-control-of-computers-and-phones/
Artículos relacionados de LaRebelión:
- Wikipedia Pierde Desafio a la Ley de Seguridad en Reino Unido Verificacion de Identidad de Usu...
- Enola Gay Recuerdos de la tripulacion al lanzar la bomba atomica sobre Hiroshima - 80 anos des...
- Einstein Estaba Equivocado El MIT Resuelve el Debate Cuantico Sobre la Luz y la Realidad
- ChatGPT te esta volviendo mas tonto El debate sobre la IA y el pensamiento critico
- JAVA: Ejercicio sobre threads
Artículo generado mediante LaRebelionBOT
No hay comentarios:
Publicar un comentario