lunes, 9 de marzo de 2026

IA Doble Agente Microsoft Lanza Soluciones de Control

Microsoft está tomando medidas significativas para abordar los crecientes riesgos de seguridad asociados con la proliferación de agentes de inteligencia artificial (IA) dentro de las grandes organizaciones. Ante la rápida adopción de estas herramientas, que a menudo operan sin la supervisión adecuada, la compañía ha anunciado la disponibilidad general de dos productos clave: Agent 365 y Microsoft 365 Enterprise 7, ambos disponibles a partir del 1 de mayo.

IA 'Doble Agente': Microsoft Lanza Soluciones de Control

Agent 365 actúa como un "plano de control" para los agentes de IA, permitiendo a los equipos de TI, seguridad y negocios observar, gobernar y asegurar estas entidades de f orma centralizada. Este servicio, con un costo de 15 dólares por usuario al mes, es crucial dado que un informe de Microsoft reveló que casi el 29% de los agentes de IA en las empresas operan sin aprobación, y solo el 47% utiliza herramientas de seguridad para sus implementaciones de IA. El riesgo de que estos agentes sean manipulados para actuar en contra de los intereses de la empresa, conocidos como "agentes doble", es una preocupación creciente.

Microsoft 365 Enterprise 7, por su parte, es una suite integral que combina Agent 365 con Microsoft 365 Copilot y las capacidades de seguridad más avanzadas de la empresa por 99 dólares por usuario al mes. Esta oferta busca proporcionar una solución unificada ante la complejidad y el riesgo de utilizar múltiples herramientas fragmentadas. La compañía también está expandiendo las capacidades de sus agentes de IA con la Ola 3 de Microsoft 365 Copilot, incorporando modelos de OpenAI y Anthropic, como Claude. La estrategia de Microsoft se centra en extender los principios de "confianza cero" desde los usuarios humanos a los sistemas de IA, asegurando que los agentes tengan identidades únicas, se apliquen políticas de acceso condicional y se proteja la información sensible.

El problema de los agentes no gobernados es acuciante. Más del 80% de las empresas Fortune 500 utilizan agentes de IA, pero una parte significativa carece de aprobación formal. Microsoft está respondiendo a esta brecha de visibilidad y riesgo con soluciones que buscan ofrecer observabilidad, seguridad y gobernanza. La oferta de estos productos, especialmente el paquete Enterprise 7, posiciona a Microsoft como un proveedor clave para las organizaciones que buscan implementar IA de manera segura y controlada, intentando equilibrar la velocidad de innovación con la necesidad de una gobernanza robusta para garantizar "agentes confiables" en el futuro del trabajo.

Fuente Original: https://venturebeat.com/technology/microsoft-says-ungoverned-ai-agents-could-become-corporate-double-agents-its

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

AI Agents Need Processes Are Your Operations Ready

Many enterprises are eagerly pursuing the transformative power of agentic AI, with a significant majority aiming to implement it within the next three years. However, a stark reality check reveals that most organisations are not operationally prepared to support this ambition. A recent report highlights a critical disconnect: while leaders recognise AI as a major competitive opportunity, they also admit their current workflows, systems, and operational resilience are not equipped to handle autonomous AI agents. This lack of foundational groundwork means that even impressive AI demonstrations often falter when deployed in a real-world enterprise setting, leading to scepticism about ROI.

AI Agents Need Processes: Are Your Operations Ready?

The core issue lies in the absence of a robust process layer. For AI agents to function effectively and autonomously, they require optimised, AI-ready processes, underpinned by comprehensive process data and operational context. Without this, AI essentially operates on guesswork. The article stresses that AI will only deliver its promised return on investment if it truly understands how the business operates. This understanding is often fragmented, trapped within siloed departments with their own unique languages and systems. Process intelligence is presented as the crucial connective tissue, creating a shared operational language that grounds AI decisions in the practical realities of the business.

Furthermore, the adoption of agentic AI is framed not just as a technological challenge, but fundamentally as a change management and operating model problem. Organisational silos and a lack of inter-departmental coordination are identified as the primary blockers, far more so than resistance to change. True enterprise modernisation, the article argues, involves a redesign of how teams, systems, and decisions connect. Simply bolting AI onto existing, broken processes is a recipe for failure. Instead, organisations must first invest in modernising their data, systems, and processes, building a shared, accurate picture of their operations. This foundational shift, achieved through process intelligence, is what makes agentic AI viable and allows it to deliver real ROI, turning process optimisation from a mere IT project into a strategic advantage for agility and risk management in today's constantly changing world.

Fuente Original: https://venturebeat.com/orchestration/enterprise-agentic-ai-requires-a-process-layer-most-companies-havent-built

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Claude Opus Descubre 22 Fallos en Firefox Alerta de Seguridad

La Inteligencia Artificial Claude Opus de Anthropic ha demostrado su impresionante capacidad de análisis de código al identificar un total de 22 vulnerabilidades de seguridad en el navegador web Firefox. Este hallazgo subraya la creciente importancia de la IA en la ciberseguridad y la necesidad de que los desarrolladores estén alerta ante posibles puntos débiles en su software.

Claude Opus Descubre 22 Fallos en Firefox: ¡Alerta de Seguridad!

Los fallos descubiertos por Claude Opus abarcan diversas áreas de riesgo, desde problemas de ejecución de código arbitrario hasta vulnerabilidades que podrían permitir la divulgación de información sensible. La rápida y precisa detección de estas fallas por parte de la IA es un testimonio de su avanzada comprensión de los patrones de código y las posibles explotaciones. Este descubrimiento resalta la colaboración entre la IA y los equipos de seguridad, permitiendo una respuesta más ágil y efectiva ante las amenazas cibernéticas emergentes.

El hecho de que un modelo de IA pueda identificar tantas vulnerabilidades significativas en un software tan ampliamente utilizado como Firefox pone de manifiesto la complejidad y los desafíos inherentes al desarrollo seguro de aplicaciones. Los investigadores de seguridad y los desarrolladores de software ahora tienen una herramienta más potente a su disposición para escanear y validar la seguridad de sus creaciones. Se espera que este evento impulse una mayor adopción de herramientas de IA en los procesos de auditoría de seguridad y desarrollo de software, fortaleciendo así la defensa contra los ciberataques.

Fuente Original: https://www.securityaffairs.com/156170/cybersecurity/anthropic-claude-opus-22-firefox-bugs/

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Distribuciones Linux Debaten Leyes de Verificacion de Edad

Las comunidades de desarrollo de Linux están inmersas en intensos debates sobre cómo responder a las nuevas leyes de verificación de edad que amenazan con transformar el ecosistema del software libre. System76 no es la única empresa tecnológica expresando preocupación por estas regulaciones, ya que organizaciones como la Electronic Frontier Foundation (EFF) y desarrolladores de Ubuntu, Fedora y Linux Mint están evaluando las implicaciones de legislaciones como la Ley de Garantía de Edad Digital de California.

Distribuciones Linux Debaten Leyes de Verificación de Edad

A principios de esta semana, el desarrollador de Ubuntu Aaron Rainbolt propuso en la lista de correo de la comunidad una interfaz D-Bus opcional que podría ser implementada por aplicaciones según cada distribución lo considere apropiado. Sin embargo, Canonical respondió que la compañía aún no tiene una solución definitiva para anunciar respecto a la declaración de edad en Ubuntu. Jon Seager, Vicepresidente de Ingeniería en Canonical, aclaró que la empresa está revisando la legislación internamente con asesoría legal, pero actualmente no existen planes concretos sobre cómo, o incluso si, Ubuntu cambiará en respuesta a estas leyes. Enfatizó que la publicación en la lista de correo fue una conversación informal entre miembros de la comunidad, no un anuncio oficial.

Discusiones similares están en curso en las comunidades de Fedora y Linux Mint, mientras algunos desarrolladores como MidnightBSD han decidido excluir California completamente del uso de escritorio. La EFF ha advertido consistentemente contra la imposición de requisitos de edad en internet, argumentando que estos mandatos atacan los fundamentos de una internet libre y abierta. Hayley Tsukayama, Directora de Asuntos Estatales de la EFF, señala un problema fundamental: muchas de estas regulaciones imaginan tecnología que actualmente no existe.

Según la EFF, estos mandatos mal concebidos no pueden lograr el objetivo declarado de verificación de edad. Son fáciles de eludir y exponen a los consumidores a riesgos reales de violación de datos. Las cargas recaen especialmente sobre desarrolladores que no pertenecen a grandes empresas con recursos abundantes, como aquellos que desarrollan software de código abierto. No reconocer la diversidad del desarrollo de software al pensar en la responsabilidad limita efectivamente las opciones de software, justo cuando el poder computacional se está concentrando rápidamente en manos de unos pocos. La organización propone que, en lugar de crear barreras de edad, una ley de privacidad bien elaborada que empodere a todas las personas para controlar cómo se recopilan y utilizan sus datos sería un paso crucial en la dirección correcta.

Fuente Original: https://linux.slashdot.org/story/26/03/09/0544224/eff-ubuntu-and-other-distros-discuss-how-to-respond-to-age-verification-laws?utm_source=rss1.0mainlinkanon&utm_medium=feed

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Asian Infrastructure Faces Web Server and Mimikatz Attacks

Critical infrastructure across Asia is currently under siege from sophisticated cyberattacks that combine web server exploits with the notorious Mimikatz credential-stealing tool. This alarming development highlights the evolving tactics of threat actors who are specifically targeting essential services and systems that underpin modern society.

Asian Infrastructure Faces Web Server and Mimikatz Attacks

Security researchers have identified a concerning pattern of attacks wherein malicious actors are exploiting vulnerabilities in web servers to gain initial access to networks belonging to critical infrastructure organisations. Once inside, attackers deploy Mimikatz, a powerful post-exploitation tool originally designed for legitimate security testing but frequently weaponised by cybercriminals. Mimikatz specialises in extracting plaintext passwords, hashes, and Kerberos tickets from memory, allowing attackers to move laterally across networks and escalate their privileges.

The targeting of Asian critical infrastructure is particularly worrying given the region's rapid digitalisation and the vital role these systems play in energy, water, transportation, and telecommunications sectors. A successful breach could potentially disrupt essential services affecting millions of people and cause significant economic damage. The combination of web server exploits and credential theft represents a sophisticated attack chain that demonstrates the adversaries' technical capabilities and strategic planning.

This campaign underscores the critical importance of implementing robust cybersecurity measures, particularly within critical infrastructure environments. Organisations must prioritise patching known vulnerabilities in web-facing systems, implement strong access controls, and deploy advanced monitoring solutions to detect suspicious activity. The integration of Zero Trust architectures and artificial intelligence-powered security tools can provide enhanced protection by assuming no implicit trust and continuously verifying every access request across the entire network infrastructure.

Fuente Original: https://thehackernews.com/2026/03/web-server-exploits-and-mimikatz-used.html

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

domingo, 8 de marzo de 2026

IA Revela Hackers y Cuentas Anonimas en Redes Sociales

Una nueva investigación de The Guardian pone de manifiesto una preocupante realidad: la inteligencia artificial (IA) está siendo utilizada por hackers para desenmascarar perfiles anónimos en redes sociales. Este avance tecnológico representa una amenaza significativa para la privacidad y la seguridad en línea, ya que permite identificar a individuos que buscan mantener su identidad oculta por diversas razones.

IA Revela Hackers y Cuentas Anónimas en Redes Sociales

El estudio detalla cómo los algoritmos de IA pueden analizar patrones de comportamiento, estilo de escritura y otras metadatos para conectar cuentas que aparentemente no tienen relación alguna. Esto incluye la capacidad de vincular tuits anónimos o publicaciones en foros con perfiles personales previamente conocidos o con información disponible públicamente. La IA se convierte así en una herramienta poderosa para la de-anonimización, sorteando las medidas de seguridad que los usuarios implementan para proteger su identidad digital.

Los hallazgos son alarmantes, ya que la capacidad de la IA para identificar usuarios detrás de la anonimidad podría ser explotada para acoso, doxxing, o incluso para fines de vigilancia. Los investigadores enfatizan la necesidad de desarrollar contramedidas y nuevas formas de proteger la privacidad en un entorno digital cada vez más vigilado y analizado por sistemas de inteligencia artificial. La investigación subraya la urgente necesidad de abordar las implicaciones éticas y de seguridad de estas nuevas capacidades de la IA en el ámbito de las redes sociales.

Fuente Original: https://news.google.com/rss/articles/CBMikwFBVV95cUxOS3pOcTBKMldPRlFpZVRveXdaOHk1bEJ3eGFZczBvSno5eHB4VURVaUlqOFZ3WlZHaVVUemZ2VG5oaDBWOUY1ZFVYU0R1X2FFbXVQandjRHFQdFZjemFmWE5TRkFORXVTbUhlcWVuZ1A5eEpqelhCQ1RBMnEtd3Q2aWpPb09ybDZ4NFlHVEs0SUp1VUE?oc=5

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Agentes IA Modelos Superiores No Son Suficientes

El CEO de LangChain, Harrison Chase, enfatiza que para que los agentes de IA sean verdaderamente efectivos y lleguen a producción, no basta con tener modelos más inteligentes. La clave reside en la "ingeniería de arneses", una evolución de la ingeniería de contexto. A diferencia de los arneses tradicionales que limitaban a los modelos, los diseñados para agentes de IA les otorgan mayor independencia y capacidad para realizar tareas complejas a largo plazo.

Agentes IA: Modelos Superiores No Son Suficientes

Chase destaca la importancia de permitir que los modelos de lenguaje grandes (LLMs) gestionen su propio contexto y decidan qué información es relevante. Esto facilita la creación de asistentes autónomos capaces de planificar y ejecutar tareas a lo largo de múltiples pasos, manteniendo la coherencia. Menciona AutoGPT como un ejemplo de cómo modelos insuficientemente capaces llevaron al fracaso de proyectos prometedores, pero subraya que la mejora continua de los LLMs hace ahora viables estas arquitecturas.

LangChain ha desarrollado Deep Agents, un arnés de propósito general que incorpora planificación, gestión de archivos y tokens, ejecución de código y habilidades de memoria. Permite la delegación a subagentes especializados que trabajan en paralelo, aislando contextos para mayor eficiencia. La capacidad de los agentes para registrar sus pensamientos y acciones a lo largo de un proceso de múltiples pasos es crucial para el seguimiento del progreso y la coherencia. Chase compara la ingeniería de contexto con asegurarse de que el LLM reciba la información correcta en el momento y formato adecuados, lo cual es la diferencia entre el éxito y el fracaso de un agente.

Fuente Original: https://venturebeat.com/orchestration/langchains-ceo-argues-that-better-models-alone-wont-get-your-ai-agent-to

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Jefa de Robotica de OpenAI Renuncia por Acuerdo con el Pentagono

La jefa de robótica y hardware físico de OpenAI, Caitlin Kalinowski, ha anunciado su renuncia, citando preocupaciones sobre la rapidez y la falta de deliberación en el acuerdo de la compañía con el Pentágono. Kalinowski, quien lideró el programa de IA física de OpenAI durante 16 meses, expresó públicamente que, si bien la IA tiene un rol importante en la seguridad nacional, la vigilancia de ciudadanos sin supervisión judicial y la autonomía letal sin autorización humana cruzaron líneas que merecían un debate más profundo.

Jefa de Robótica de OpenAI Renuncia por Acuerdo con el Pentágono

La renuncia de Kalinowski pone un rostro y un cargo a la admisión previa de Sam Altman, CEO de OpenAI, de que el acuerdo con el Pentágono fue "definitivamente apresurado" y generó críticas significativas. La ejecutiva enfatizó que su decisión se basó en principios y que respeta al equipo directivo, pero subrayó la importancia de una gobernanza robusta para decisiones de tal envergadura, evitando que se precipiten.

El conflicto se desató luego de que Anthropic, previamente el único proveedor de IA autorizado en las redes clasificadas del Pentágono, no llegara a un acuerdo con el Departamento de Defensa. Las negociaciones fracasaron debido a las objeciones de Anthropic a desplegar sus modelos para vigilancia masiva interna o armas totalmente autónomas, mientras que el Pentágono insistió en un lenguaje que permitiera el uso "para todos los fines legales". Tras el colapso, el presidente Trump instruyó a las agencias federales a dejar de usar la tecnología de Anthropic. Horas después, OpenAI anunc ió su propio acuerdo, afirmando que incluye protecciones similares, como la exclusión de la vigilancia doméstica y las armas autónomas.

La renuncia de Kalinowski, una ejecutiva con una amplia experiencia en hardware, incluyendo roles clave en Apple y Meta, añade una dimensión de confianza y talento a las preocupaciones que rodean este acuerdo. El incidente ha tenido repercusiones externas, con reportes de un aumento en las desinstalaciones de ChatGPT y un ascenso de la app de Anthropic en las tiendas de aplicaciones. La partida de Kalinowski subraya que el precio de la desescalada del conflicto entre la industria de la IA y el gobierno, en términos de talento y confianza, aún se está evaluando.

Fuente Original: https://thenextweb.com/news/openais-robotics-chief-quits-over-the-pentagon-deal

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

AI Leaders Fear Government Seizing Tech

Top executives in the Artificial Intelligence sector are expressing growing concern that governments, particularly the US government, might move to nationalise AI technology. This worry stems from the immense strategic implications of advanced AI, drawing parallels to historical government-led scientific endeavours like the Manhattan Project and the space race. The sentiment is echoed by prominent figures such as Palantir's CEO, who directly warned that widespread job displacement and perceived threats to military interests could provoke such a governmental takeover.


Sam Altman, the CEO of OpenAI, has publicly mused about the possibility of AGI development becoming a government-led project. He acknowledges that while it might not be the most probable outcome currently, he has considered the implications of private AI companies being nationalised into public initiatives. Altman also stressed the vital importance of a close working relationship between governments and the companies developing this cutting-edge technology. This concern is further fuelled by recent actions, such as the US Department of Defense's potential use of the Defense Production Act against Anthropic. This act grants the government the power to mandate contracts for critical goods, which could essentially amount to a 'soft nationalisation' of a company's production capabilities. Altman himself has reportedly felt the pressure of potential nationalisation behind many questions directed at him.

The article highlights that the future development and deployment of AI are complex issues, and the article probes how AI companies should engage with governmental bodies. Discussions around AGI development and potential government contracts have even been raised with OpenAI's Head of National Security Partnerships, exploring scenarios where a government might compel access to advanced AI models. While OpenAI currently maintains control over its model deployments, internal sentiments within AI companies are also noteworthy. A significant number of employees from OpenAI and Google have signed an open letter urging their leadership to refuse the use of their AI models for domestic mass surveillance and autonomous killing without human oversight. This internal resistance adds another layer to the complex ethical and strategic considerations surrounding the future of AI and its governance.

Fuente Original: https://yro.slashdot.org/story/26/03/07/2058213/ai-ceos-worry-the-government-will-nationalize-ai?utm_source=rss1.0mainlinkanon&utm_medium=feed

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Renuncia en OpenAI Demasiada prisa en el trato militar

El jefe de robótica de OpenAI ha presentado su renuncia, y su decisión parece estar ligada a un reciente acuerdo con el Pentágono. A través de sus redes sociales, el ahora ex-empleado expresó su profundo respeto por el equipo y el trabajo realizado, pero señaló que la forma en que se anunció el trato con el Departamento de Defensa de EE. UU. fue apresurada y carente de las debidas salvaguardas.


Según sus declaraciones, el asunto no es personal sino de principios. Si bien reconoce el importante papel que la inteligencia artificial puede desempeñar en la seguridad nacional, levantó serias preocupaciones sobre la vigilancia de ciudadanos estadounidenses sin la debida supervisión judicial y la implementación de armamento autónomo sin autorización humana. Estos puntos, a su juicio, merecían una deliberación mucho mayor de la que recibieron antes del anuncio oficial.

La raíz de su dimisión parece ser una cuestión de gobernanza y la rapidez con la que se cerró el trato, antes de que las políticas y los límites éticos estuvieran claramente definidos. A pesar de que OpenAI ha confirmado la renuncia y ha manifestado que el acuerdo con el Pentágono establece un camino para el uso responsable de la IA en seguridad nacional, estableciendo líneas rojas claras contra la vigilancia interna y las armas autónomas, el ex-jefe de robótica considera que estas importantes decisiones no deben tomarse a la ligera ni bajo presión de tiempo.

Fuente Original: https://hardware.slashdot.org/story/26/03/07/2213221/openais-head-of-robotics-resigns-s ays-pentagon-deal-was-rushed-without-the-guardrails-defined?utm_source=rss1.0mainlinkanon&utm_medium=feed

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

OpenAI Codex Detecta 10561 Vulnerabilidades de Seguridad

En un análisis masivo de seguridad sin precedentes, OpenAI Codex ha escaneado más de 1.2 millones de commits de código y ha identificado 10,561 problemas críticos de alta severidad. Este hallazgo pone de manifiesto la magnitud de los desafíos de seguridad que enfrentan los equipos de desarrollo en la actualidad y cómo la inteligencia artificial está transformando la forma en que detectamos vulnerabilidades en el código.

OpenAI Codex Detecta 10,561 Vulnerabilidades de Seguridad

La herramienta de OpenAI Codex, conocida principalmente por sus capacidades de generación de código, ha demostrado ser igualmente efectiva en el análisis de seguridad. El escaneo masivo revela que las vulnerabilidades de alta severidad son más comunes de lo que muchos equipos de desarrollo podrían imaginar, representando un riesgo significativo para la integridad de aplicaciones y sistemas en producción.

Este descubrimiento coincide con la creciente adopción de modelos de seguridad Zero Trust combinados con inteligencia artificial. Las organizaciones están reconociendo que la protección tradicional ya no es suficiente en la era de la IA generativa. El enfoque Zero Trust Everywhere busca proporcionar protección integral en toda la fuerza laboral, sucursales, nubes y aplicaciones de IA generativa, asegurando que cada punto de acceso sea verificado y validado continuamente.

La integración de la inteligencia artificial en los procesos de seguridad representa un cambio paradigmático en cómo las empresas abordan la ciberseguridad. Con la capacidad de analizar millones de líneas de código en tiempo récord, herramientas como Codex pueden identificar patrones de vulnerabilidades que serían prácticamente imposibles de detectar mediante revisiones manuales. Esto no solo acelera el proceso de identificación de problemas, sino que también permite a los equipos de desarrollo abordar las vulnerabilidades antes de que lleguen a producción, reduciendo significativamente el riesgo de brechas de seguridad.

Fuente Original: https://thehackernews.com/2026/03/openai-codex-security-scanned-12.html

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

AI Discovers Critical Firefox Security Vulnerabilities Rapidly

In a groundbreaking demonstration of artificial intelligence capabilities, Anthropic's Claude Opus 4.6 has proven itself as a formidable tool for identifying security vulnerabilities in one of the world's most scrutinised web browsers. During a recent internal test, the advanced AI model took merely 20 minutes to uncover its first Firefox browser bug, marking the beginning of an impressive security audit that would reveal vulnerabilities at an unprecedented rate.

AI Discovers Critical Firefox Security Vulnerabilities Rapidly

Over a concentrated two-week period in January, Claude Opus 4.6 discovered more than 100 bugs within Firefox's codebase, with 14 classified as high severity. To put this achievement into perspective, Mozilla reported that the AI found more high-severity bugs during this brief testing window than the global community typically reports over two months. This is particularly remarkable considering that Firefox patched only 73 high or critical severity bugs throughout the entire previous year.

Mozilla engineers were genuinely impressed by the findings. Brian Grinstead, an engineer with Mozilla, immediately requested additional information after reviewing the first submission, recognising the serious nature of the discoveries. The Firefox browser, maintained by Mozilla's parent organisation, represents one of the most rigorously examined and security-hardened codebases available on the web, benefiting from continuous scrutiny by a global open-source community. Despite decades of extensive fuzzing, static analysis, and regular security reviews, Claude managed to reveal numerous previously unknown vulnerabilities.

What makes these discoveries particularly valuable is the nature of the bugs identified. Whilst some lower-severity findings overlapped with issues traditionally uncovered through fuzzing—an automated testing technique—the AI model also identified distinct classes of logic errors that conventional fuzzers had never previously detected. Anthropic provided comprehensive test cases that enabled Mozilla's security team to quickly verify and reproduce each issue, and within hours, platform engineers began implementing fixes.

Mozilla views this collaboration as clear evidence that large-scale, AI-assisted analysis represents a powerful new addition to security engineers' toolkit. Anthropic has since expanded this capability, rolling out Claude Code Security as an automated code security testing tool and applying similar techniques to discover vulnerabilities in the Linux kernel. The implications suggest a substantial backlog of now-discoverable bugs exists across widely deployed software systems.

Fuente Original: https://news.slashdot.org/story/26/03/07/204222/how-anthropics-claude-helped-mozilla-improve-firefoxs-security?utm_source=rss1.0mainlinkanon&utm_medium=feed

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

sábado, 7 de marzo de 2026

IA Descubre 22 Fallos en Firefox Alerta de Seguridad

En una demostración impactante del poder de la inteligencia artificial en la ciberseguridad, la empresa Anthropic ha revelado el descubrimiento de 22 vulnerabilidades críticas en el navegador Mozilla Firefox. Lo más destacable es que este hallazgo no fue obra de un equipo de hackers humanos, sino del modelo de IA más avanzado de Anthropic, Claude Opus, que se utilizó para analizar el código fuente del navegador.

IA Descubre 22 Fallos en Firefox: ¡Alerta de Seguridad!

Este avance subraya la creciente capacidad de las IAs para identificar debilidades de seguridad que podrían pasar desapercibidas para los métodos tradicionale s. La detección de 22 fallos, muchos de los cuales podrían tener implicaciones significativas para la privacidad y seguridad de los usuarios, pone de manifiesto la necesidad de integrar herramientas de IA en los procesos de desarrollo y auditoría de software. Anthropic ha compartido sus hallazgos con Mozilla, quienes ya están trabajando en parches para corregir estas vulnerabilidades. Este incidente sirve como un recordatorio de la constante evolución de las amenazas de ciberseguridad y la importancia de la innovación tecnológica para contrarrestarlas.

La utilizacion de IA como Claude Opus no solo acelera el proceso de descubrimiento de fallos, sino que también permite una comprensión más profunda de las posibles rutas de ataque, abriendo nuevas vías para fortalecer la defensa digital. La colaboración entre empresas de IA y desarrolladores de software es clave para asegurar un ecosistema digital más seguro para todos.

Fuente Original: https://thehackernews.com/2026/03/anthropic-finds-22-firefox.html

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

AI Warfare Iran Conflict Fuels New AI Military Tech

The recent US strikes on Iran signal the dawn of a significant new era in warfare, driven by the large-scale integration of artificial intelligence. While AI tools are being deployed, military officials emphasize that these systems do not make autonomous targeting decisions or replace human oversight. Instead, their primary role is to enhance human capabilities by helping to identify crucial information and enabling personnel to make more informed and rapid decisions on the battlefield.


The US military has been investing heavily in AI development for years, aiming to leverage its power for strategic advantage. This push involves using AI to sift through vast amounts of data, identify 'points of interest,' and organise information for greater clarity. This application is exemplified by systems like Palantir's Maven Smart System, which incorporates large language models such as Anthropic's Claude AI. Claude has reportedly become integral to US operations against Iran, accelerating the development of military AI capabilities.

However, this advancement is not without its critics. Human rights groups, like the coalition Stop Killer Robots, express concerns that AI-driven decision-support systems could dangerously blur the lines between recommending and executing military actions. Despite these concerns, the US military asserts that its use of AI assistance adheres strictly to US policy, military doctrine, and the law, ensuring a rigorous process before any action is taken. The conflict in Iran is therefore serving as a crucial, large-scale proving ground for these advanced AI military technologies.

Fuente Original: https://tech.slashdot.org/story/26/03/06/1629255/iran-war-provides-a-large-scale-test-for-ai-assisted-warfare?utm_source=rss1.0mainlinkanon&utm_medium=feed

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT