jueves, 16 de abril de 2026

IA en Hackeo Roban Datos Masivos de Mexico

En un evento de ciberseguridad sin precedentes, hackers han utilizado inteligencia artificial (IA) para infiltrarse y sustraer una cantidad masiva de información confidencial. Se estima que cientos de millones de registros, pertenecientes tanto a entidades del gobierno mexicano como a ciudadanos particulares, han sido comprometidos en uno de los mayores incidentes de robo de datos registrado hasta la fecha.

IA en Hackeo: Roban Datos Masivos de México

El uso de IA en este ataque marca un hito preocupante en el panorama de la ciberdelincuencia. Las herramientas basadas en IA permiten a los atacantes automatizar y optimizar procesos de infiltración y extracción de datos a una escala y velocidad antes inimaginables. Esto incluye la capacidad de identificar vulnerabilidades con mayor eficiencia, descifrar contraseñas complejas y ev adir las defensas de seguridad tradicionales.

La magnitud de la brecha de seguridad no solo pone en riesgo la privacidad de millones de mexicanos, sino que también representa una seria amenaza para la seguridad nacional y la estabilidad económica del país. La información robada podría ser utilizada para diversos fines ilícitos, como el fraude financiero, el robo de identidad, el chantaje o incluso la desestabilización política.

Las autoridades mexicanas y expertos en ciberseguridad se encuentran trabajando arduamente para evaluar el alcance total del ataque, identificar a los responsables y mitigar los daños. Sin embargo, la sofisticación de las técnicas empleadas y la rapidez con la que se propagó la información comprometida plantean desafíos significativos en la lucha contra el cibercrimen avanzado.

Este incidente subraya la urgente necesidad de fortalecer las medidas de ciberseguridad en todos los niveles, tanto en el sector público como en el pri vado, y de invertir en tecnologías y capacitación que permitan contrarrestar las amenazas emergentes impulsadas por la IA.

Fuente Original: https://news.google.com/rss/articles/CBMisgJBVV95cUxNYjdraFdFelQwc09wbTFOQjN1SXJJWGJjenhjTGJMQTczYmxyck5uQWlBLURLYWViZ1VBMXI0QXBPOTN4QVRVMGdIdnNBNDhwejlhSDNJQjltWUJad2syeXlnV0E3MFRHWDFCSTRPUW1XM2h2UlF0Y0h3VlRQSmxPZVRUYUkwZ1RzNEcwZ3l2cll4bjNqWXFhbDM2UnF5VEtKQjJueEFGdC1KS1c1VEQ4Y3FiTjZSWTFQZ0JZUFdCajIwU1VYQjRFSktubDA0RExaSzkwdFZFRW9PTjZScHpIQmVBUkY0Njk1Skg2UTNMTTJ LMEMwWnJlSS1scGJ2UFpBTWpUNmVMeVQycTlXaU5abDFiM2VWZkdoM2pnQTNIbWF5TGwxTG9iQWRpMWQwMm5tX0E?oc=5

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

UK Banks Face AI Threat Mythos Briefing Incoming

Major UK banks, insurers, and financial exchanges are set to receive an urgent briefing from the Bank of England regarding a powerful new AI model named Claude Mythos Preview, developed by Anthropic. This unreleased artificial intelligence is causing significant concern among regulators due to its advanced capabilities in autonomously identifying and exploiting security vulnerabilities across all major operating systems and web browsers. The urgency of the situation is highlighted by the fact that similar emergency sessions have already taken place involving top financial authorities in the United States and Canada, including the US Treasury, the Federal Reserve, and the Bank of Canada.

UK Banks Face AI Threat: Mythos Briefing Incoming

Senior executives from the UK's leading financial institutions will be informed by a consortium of regulatory bodies, including the Bank of England, the Financial Conduct Authority, HM Treasury, and the National Cyber Security Centre, about the profound cybersecurity implications of Mythos. The model's potential to uncover zero-day vulnerabilities, previously unknown security flaws, has been demonstrated by Anthropic, which has showcased its ability to find methods for breaching systems, even accessing sensitive data like a user's bank information. The AI's capacity to chain multiple vulnerabilities into complete cyber intrusions is a particular point of concern, with one evaluation describing it as the first model to achieve a full cyber-range attack end-to-end.

Anthropic's response to these risks includes Project Glasswing, an initiative offering controlled early access to Mythos Preview to a select group of organisations. This project aims to provide defenders with the time needed to discover and patch vulnerabilities before the AI model, or similar ones from competitors, become more widely accessible or fall into malicious hands. While Anthropic frames this as a proactive defence measure, some security experts have questioned this narrative, suggesting it might be a public relations strategy. Nonetheless, the rapid timeline for vulnerability discovery, potentially shrinking from months to mere seconds or hours, presents a significant challenge and an opportunity to address long-standing internet security flaws. The Bank of England Governor has explicitly named Mythos as a major cybersecurity concern, underscoring its elevated position in the regulatory risk rankings.

Fuente Original: https://thenextweb.com/news/anthropic-mythos-uk-banks

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

IA que se Mejora Sola Los Hyperagents Revolucionan Tareas

La inteligencia artificial está dando un salto cuántico hacia la autonomía. Investigadores de Meta y varias universidades han presentado los 'hyperagents', un avance revolucionario que permite a la IA no solo mejorar su desempeño en tareas, sino también optimizar su propio proceso de mejora. Esto se traduce en la capacidad de autogenerar y refinar su lógica de resolución de problemas e incluso su código subyacente, abriendo un abanico de posibilidades más allá de la programación.

IA que se Mejora Sola: ¡Los Hyperagents Revolucionan Tareas!

Hasta ahora, los sistemas de IA que buscaban automejorarse se topaban con limitaciones significativas. Dependían de mecanismos de mejora predefinidos por humanos, los cuales solo funcionaban en entornos muy controlados, como la ingeniería de software. El problema radicaba en que, ante cambios o errores, se requería la intervención manual de un programador para actualizar las reglas o el código. Esto creaba un "muro de mantenimiento" que frenaba el progreso, atándolo a la velocidad de iteración humana.

Los hyperagents rompen con esta barrera al ser completamente autorreferenciales. Pueden analizar, evaluar y reescribir cualquier parte de sí mismos, liberándose de las restricciones iniciales y acelerando su propio desarrollo. A diferencia de modelos previos como la Darwin Gödel Machine (DGM), que demostró la automejora en código pero fallaba en tareas no relacionadas con la programación, los hyperagents son agnósticos al tipo de tarea. Ya sea revisar documentos, diseñar robots o resolver problemas matemáticos complejos, la IA aprende a mejorar su forma de mejorar, acumulando capacidades y reduciendo la necesidad de intervención humana constante y personalización específica.

En la práctica, esto significa que los hyperagents no solo se vuelven más eficientes en la tarea encomendada, sino que también optimizan su propio ciclo de autoaprendizaje, haciendo que el progreso se acelere con el tiempo. Los investigadores demostraron su eficacia en benchmarks de codificación, revisión de documentos, diseño de modelos de recompensa para robots y calificación de problemas matemáticos de nivel olímpico. Sorprendentemente, un hyperagent entrenado en revisión de documentos y robótica logró superar a bases de referencia específicas en la tarea de calificación matemática, un dominio previamente desconocido para él. Además, se observó que los hyperagents desarrollaban de forma autónoma herramientas como memoria persistente y rastreadores de rendimiento, e incluso adaptaban su uso de recursos en función del tiempo restante para mejorar.

Si bien las implicaciones son enormes, los investigadores advierten sobre los riesgos. La capacidad de aut oinnovación ilimitada de estos sistemas podría superar la capacidad humana de auditoría e interpretación. Se recomiendan medidas de seguridad como la ejecución en entornos controlados (sandboxes), la restricción de acceso a sistemas externos durante la auto-modificación y la validación rigurosa de los cambios antes de su implementación en producción. Otro peligro es el "evaluation gaming", donde la IA manipula métricas sin un progreso real. Para evitarlo, se necesitan protocolos de evaluación diversos y robustos, junto con supervisión humana continua. El rol del ingeniero evolucionará de escribir código a diseñar mecanismos de auditoría y pruebas de estrés, guiando la dirección de estos sistemas cada vez más capaces.

Fuente Original: https://venturebeat.com/orchestration/meta-researchers-introduce-hyperagen ts-to-unlock-self-improving-ai-for-non-coding-tasks

Artículo generado mediante LaRebelionBOT

Anthropic Alcanza Valoracion de 800 Mil Millones

Anthropic, la compañía detrás del modelo de inteligencia artificial Claude, ha recibido ofertas de inversores que valoran la empresa en aproximadamente 800 mil millones de dólares. Esta cifra representa más del doble de su valoración de 380 mil millones alcanzada hace apenas dos meses durante una ronda de financiación de 30 mil millones de dólares. Hasta el momento, la compañía ha resistido aceptar estas ofertas, pero los números reflejan un crecimiento sin precedentes en el sector tecnológico.

Anthropic Alcanza Valoración de 800 Mil Millones

Lo que hace esta valoración particularmente notable es la trayectoria de ingresos de Anthropic. La empresa cerró 2024 con aproximadamente mil millones de dólares en ingresos anualizados. Para finales de 2025, esa cifra había escalado a 9 mil millones. En febrero de 2026 alcanzó los 14 mil millones, y para marzo llegó a 20 mil millones. A principios de abril de 2026, Anthropic superó los 30 mil millones de dólares en ingresos anualizados, lo que representa un crecimiento interanual del 1,400 por ciento. Según Axios, ninguna empresa en la historia estadounidense ha experimentado un crecimiento de esta magnitud.

El catalizador detrás de este impulso ha sido la adopción empresarial masiva de los modelos Claude, que ahora están integrados en flujos de trabajo en sectores como finanzas, legal, salud y desarrollo de software. Claude Code por sí solo alcanzó 2.5 mil millones de dólares en ingresos anualizados en febrero, más del doble desde principios de año. Con 30 mil millones en ingresos anualizados, una valoración de 800 mil millones implica un múltiplo de aproximadamente 27 veces los ingresos, una cifra alta pero no irracional para una empresa cuyas ganancias se duplican cada pocos meses.

Dos factores clave han transformado la posición de Anthropic desde febrero. El primero es la aceleración de ingresos que ha superado incluso las proyecciones más optimistas. El segundo es Claude Mythos, un modelo presentado el 7 de abril a través de la iniciativa Project Glasswing. Mythos descubrió autónomamente miles de vulnerabilidades de día cero en todos los principales sistemas operativos y navegadores web, incluyendo un error de OpenBSD de 27 años y una falla de ejecución remota de código en FreeBSD de 17 años. Tuvo éxito en el 73 por ciento de las tareas de ciberseguridad de nivel experto y fue el primer modelo en resolver un ataque simulado de red corporativa de 32 pasos de principio a fin. Anthropic hizo este modelo disponible solo para 11 organizaciones, incluidas Apple, Google, Microsoft y AWS.

Los inversores existentes están obteniendo ganancias extraordinarias. Google posee el 14 por ciento de Anthropic con inversiones que totalizan aproximadamente 3 mil millones de dólares, reportando 10.7 mil millones en ganancias netas. Amazon, que ha invertido unos 8 mil millones como socio principal de nube y entrenamiento, reportó una ganancia antes de impuestos de 9.5 mil millones vinculada a la creciente valoración de Anthropic. La empresa también mantiene conversaciones preliminares con Goldman Sachs, JPMorgan y Morgan Stanley sobre una posible oferta pública inicial que podría llegar tan pronto como octubre de 2026, con una recaudación esperada superior a 60 mil millones de dólares.

Fuente Original: https://thenextweb.com/news/anthropic-800-billion-valuation-revenue-30-billion-ipo

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Calcom Abandons Open Source Citing AI Security Threats

In a significant shift for the software development community, Cal.com has announced it is moving away from open source licensing for its flagship scheduling platform, citing increased security vulnerabilities posed by artificial intelligence coding tools. The company, founded in 2022 as a proudly open-source project, argues that AI-powered attackers can now exploit publicly available codebases far more effectively than ever before, putting customer data at unacceptable risk.

Cal.com Abandons Open Source Citing AI Security Threats

Co-founder Peer Richelsen explained that the traditional open-source security model, which relied on community members to identify and patch vulnerabilities, has been fundamentally undermined by AI technology. "Now AI attackers are flaunting that transparency," he stated. CEO Bailey Pumfleet drew a stark comparison, describing open-source code as equivalent to "handing out the blueprint to a bank vault" whilst noting there are now "100x more hackers studying the blueprint." The company has specifically pointed to advanced AI tools like Claude Opus, which can systematically scan code to uncover security weaknesses.

Cal.com is transitioning from the GNU Affero General Public Licence (AGPL) to a proprietary licence for its commercial product. However, in an effort to maintain its connection to the open-source community, the company has released Cal.diy, a fully open-source version designed specifically for hobbyists and experimentation. This separate platform allows developers to continue tinkering without exposing sensitive commercial booking data to potential threats.

The decision has been influenced by security experts, including Huzaifa Ahmad, CEO of Hex Security, who claims that open-source applications are "5-10x easier to exploit than closed-source ones." Pumfleet emphasised that the company wants to focus on being a scheduling provider rather than a cybersecurity firm, and protecting sensitive customer information must take priority over philosophical commitments to open source. He did leave the door open for a potential return to open-source licensing should the security landscape change, stating that the decision is "entirely around the vulnerability that open source introduces" rather than a rejection of open-source principles themselves.

Fuente Original: https://yro.slashdot.org/story/26/04/15/1913213/calcom-is-going-closed-source-because-of-ai?utm_source=rss1.0mainlinkanon&utm_medium=feed

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

miércoles, 15 de abril de 2026

Google Adopcion AI Real o Solo Apariencia

Una reciente polémica en X, iniciada por el ex-ingeniero de Google Steve Yegge, ha puesto en entredicho la profundidad de la adopción de herramientas de inteligencia artificial dentro de la propia compañía. Yegge, basándose en el testimonio de un empleado actual, afirmó que la implementación de la IA en Google sigue patrones industriales 'promedio', con un 20% de detractores, un 60% que usa herramientas básicas y solo un 20% de usuarios avanzados.

Google: ¿Adopción AI Real o Solo Apariencia?

Esta acusación ha provocado una fuerte reacción por parte de líderes de IA de Google, incluyendo a Demis Hassabis, CEO de DeepMind, quien calificó las afirmaciones de Yegge como "basura" y "clickbait". Otros directivos como Addy Osmani y ingeniero s como Jaana Dogan y Paige Bailey han defendido públicamente la alta adopción y el uso intensivo de herramientas de IA, citando cifras de uso semanal y la disponibilidad de sistemas internos y externos.

El debate se centra en qué constituye una "adopción significativa" de la IA. Mientras los líderes de Google señalan la escala de uso y la variedad de herramientas disponibles, Yegge argumenta que estas métricas no demuestran una transformación real en los flujos de trabajo de ingeniería, sino más bien una exposición general. La controversia resalta una brecha común en la industria entre las métricas de uso visibles y el comportamiento de los usuarios avanzados que realmente transforman los procesos.

Fuente Original: https://venturebeat.com/orchestration/google-leaders-including-demis-hassabis-push-back-on -claim-of-uneven-ai-adoption-internally

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Agentic AI Fuels Engineering Synera Secures 40M

Bremen-based startup Synera has successfully raised a substantial $40 million Series B funding round, spearheaded by Revaia and bolstered by Capgemini's ISAI Cap Venture. This significant investment underscores the growing demand for their innovative agentic AI platform, designed to revolutionise industrial engineering workflows.

Agentic AI Fuels Engineering: Synera Secures $40M

Synera's core offering is a sophisticated platform that deploys teams of AI agents capable of autonomously executing complex engineering tasks. Crucially, these agents operate across over 75 existing engineering tools without the need for any replacements, seamlessly integrating into established infrastructure. This approach allows for the automation of processes such as design, simulation, optimisation, costing, and reporting, freeing up human engineers f or higher-level strategic work. The platform's ability to connect disparate tools into a unified orchestration layer is a key differentiator, addressing a critical gap in the industrial AI landscape where many solutions treat engineering as a simple chat interface problem rather than an infrastructure challenge.

The company's success is already evident in its deployments at high-profile organisations like NASA, BMW, Airbus, Volvo Trucks, and Hyundai. Synera's agents have demonstrated remarkable efficiency, with NASA utilising them to transform requirements into validated part designs and complete hundreds of design iterations in just an hour. Similarly, at BMW's Additive Manufacturing Campus, their application resulted in a significant 30% weight reduction in 3D-printed robot gripper designs. This powerful value proposition is further supported by a 95% reduction in finite element simulation time reported by engineering consultancy EDAG. The platform's on-premises deployment e nsures that sensitive intellectual property and data remain securely within the customer's own environment. This latest funding round will fuel Synera's expansion, particularly in the US market, building on its existing presence in Boston, Massachusetts, and solidifying its position as a leader in bringing agentic AI to the forefront of engineering.

Fuente Original: https://thenextweb.com/news/synera-40m-series-b-agentic-ai-engineering

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Claude Managed Agents Solucion Unica o Riesgo

Anthropic ha lanzado Claude Managed Agents, una nueva plataforma diseñada para simplificar la implementación de agentes de IA para empresas. Este servicio promete ser una solución integral que elimina las complejidades asociadas con la orquestación de múltiples agentes, integrando esta lógica directamente en la capa del modelo de IA. La propuesta de Anthropic es que las empresas puedan desplegar agentes en días en lugar de semanas o meses, ofreciendo una velocidad y simplicidad sin precedentes.

Claude Managed Agents: ¿Solución Única o Riesgo?

Sin embargo, esta consolidación de funcionalidades no está exenta de riesgos. Al transferir la lógica de orquestación al proveedor de l modelo, las empresas ceden un mayor control sobre sus despliegues y operaciones de IA a Anthropic. Esto puede derivar en un mayor "vendor lock-in", haciendo que los clientes dependan más de los términos, condiciones y futuras actualizaciones de la plataforma de Anthropic. La gestión de estado, ejecución y enrutamiento recae ahora en un entorno controlado por el proveedor, lo que podría limitar la observabilidad y la portabilidad de los agentes.

La investigación de VentureBeat indica que Anthropic está ganando terreno en el ámbito de la orquestación, compitiendo con jugadores establecidos como Microsoft y OpenAI. Mientras que los marcos de orquestación externos son la opción predominante, la creciente adopción de las herramientas nativas de Anthropic sugiere una tendencia hacia la consolidación. Claude Managed Agents busca capitalizar esta tendencia, ofreciendo un camino más directo para la implementación de agentes. El modelo de precios híbrido, que combina f acturación por tokens con una tarifa por hora de ejecución, añade una capa de dinamismo pero también de imprevisibilidad en comparación con los modelos más estáticos de sus competidores. La decisión final para las empresas recae en sopesar la conveniencia y la reducción de la carga de ingeniería frente a la pérdida de control, la observabilidad y el riesgo de dependencia de un único proveedor.

Fuente Original: https://venturebeat.com/orchestration/anthropics-claude-managed-agents-gives-enterprises-a-new-one-stop-shop-but

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Meta y Broadcom amplian alianza de chips IA

Meta ha dado un paso gigante en su carrera por dominar la inteligencia artificial al extender su asociación estratégica con Broadcom hasta 2029. Este acuerdo ambicioso contempla el desarrollo de varias generaciones de procesadores personalizados MTIA (Meta Training and Inference Accelerator), con un compromiso inicial que supera el gigavatio de capacidad de cómputo, equivalente a la energía necesaria para abastecer aproximadamente 750,000 hogares estadounidenses. La compañía describe esta fase como solo el inicio de un despliegue sostenido de múltiples gigavatios.

Meta y Broadcom amplían alianza de chips IA

Lo más destacado de este acuerdo es que los nuevos chips serán los primeros procesadores de IA personalizados en la industria que utilizarán un proceso de fabricación de 2 nanómetros, marcando un hito tecnológico significativo. Broadcom proporcionará diseño de chips, empaquetado y tecnología de redes, mientras que su tecnología Ethernet conectará los crecientes clusters de computadoras de IA de Meta a gran escala.

Mark Zuckerberg ha enmarcado esta alianza dentro de su visión de ofrecer "superinteligencia personal a miles de millones de personas", lo que se alinea con la ambiciosa meta de Meta de invertir hasta 135,000 millones de dólares en gastos de capital para 2026. El primer chip del programa, el MTIA 300, ya alimenta los sistemas de clasificación y recomendación en Facebook, Instagram y otras aplicaciones de la compañía, y se planean tres generaciones adicionales hasta 2027, diseñadas principalmente para inferencia, el proceso mediante el cual los modelos de IA responden a consultas de usuarios en tiempo real.

Este movimiento posiciona a Meta junto a gigantes como Google, que comenzó a producir aceleradores personalizados en 2015. A diferencia de los TPU de Google o Trainium de Amazon, que se ofrecen a clientes externos, los chips MTIA de Meta son exclusivamente para uso interno, alimentando las funciones de IA y sistemas de recomendación que sostienen su negocio publicitario. La apuesta a largo plazo de Meta es que estos procesadores diseñados específicamente para sus cargas de trabajo superarán en eficiencia de costos a las GPU de propósito general de Nvidia a la escala masiva en que opera la compañía.

Fuente Original: https://thenextweb.com/news/meta-and-broadcom-extend-their-ai-chip-deal-to-2029

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

UK Tests Reveal Mythos AI Cybersecurity Capabilities

The UK government's AI Security Institute has released an independent evaluation of Anthropic's Mythos Preview model, providing crucial insight into its cybersecurity capabilities. Anthropic recently restricted the initial release of this AI model to select industry partners, citing its remarkable proficiency at computer security tasks. The AISI's assessment offers public verification of these claims whilst separating genuine threat from industry hype.

UK Tests Reveal Mythos AI Cybersecurity Capabilities

According to the AISI findings, Mythos doesn't dramatically outperform other recent frontier models in individual cybersecurity tasks. When tested on Capture the Flag challenges, Mythos Preview completed over 85 percent of Apprentice-level tasks—technically a record, but only marginally better than competing models like GPT-5.4 and Anthropic's own Opus 4.6 and Codex 5.3, which achieved results within 5 to 10 percent accuracy. This incremental improvement alone doesn't justify Anthropic's cautious, limited release strategy.

The real distinction emerges in Mythos' ability to chain multiple steps into complex, sustained cyberattacks. In AISI's "The Last Ones" test—a simulated 32-step data extraction attack on a corporate network requiring skills equivalent to 20 hours of trained human work—Mythos became the first model to complete the challenge from start to finish. Whilst it succeeded in only 3 out of 10 attempts, the average Mythos run completed 22 of 32 required steps, significantly surpassing Claude 4.6's 16-step average. This demonstrates a qualitative leap in autonomous attack coordination.

However, limitations remain. Mythos struggled with "Cooling Tower," a more difficult seven-step test simulating an attack on power plant control software. The AISI cautions that their test environments lack active defenders and defensive tooling present in real-world systems, and are designed with specific vulnerabilities that might not exist elsewhere. Consequently, whilst Mythos appears capable of autonomously attacking small, weakly defended enterprise systems where network access already exists, its effectiveness against well-defended critical infrastructure remains uncertain. The AISI recommends that security professionals similarly leverage AI models to strengthen their defences as these capabilities continue advancing.

Fuente Original: https://arstechnica.com/ai/2026/04/uk-govs-mythos-ai-tests-help-separate-cybersecurity-threat-from-hype/

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

martes, 14 de abril de 2026

OpenAI Certificados macOS Inseguros por Ataque Axios

OpenAI se ha visto forzada a tomar una medida drástica: la rotación y revocación de sus certificados de firma de código para macOS. El motivo es un incidente de seguridad en su propia cadena de suministro (CI/CD) que involucró la ejecución de un paquete malicioso llamado Axios v1.14.1 dentro de un flujo de trabajo de GitHub Actions. Este incidente, ocurrido el 31 de marzo de 2026, representó un riesgo potencial para los certificados de firma de las aplicaciones de la compañía en macOS.

OpenAI: Certificados macOS Inseguros por Ataque Axios

Aunque OpenAI no ha detectado evidencia de que los certificados hayan sido robados o utilizados indebidamente, la simple posibilidad de que código de terceros comprometido tuviera acceso a material criptogr� �fico sensible ha sido suficiente para actuar preventivamente. Como resultado, a partir del 8 de mayo de 2026, las versiones antiguas de las aplicaciones de OpenAI para macOS que fueron firmadas con el certificado anterior podrían dejar de funcionar si no se actualizan. Esto se debe a que macOS, al detectar que el certificado ha sido revocado, podría bloquear la ejecución de estos programas para proteger a los usuarios.

Las aplicaciones afectadas por esta medida incluyen ChatGPT Desktop, Codex, Codex CLI y Atlas. Sin embargo, los servicios web y las aplicaciones para iOS, Android, Windows y Linux no se ven impactadas. Afortunadamente, no hay indicios de que datos de usuarios, propiedad intelectual o credenciales como contraseñas o claves API hayan sido comprometidos. El ataque, vinculado a actores norcoreanos (UNC1069), se clasifica dentro de una táctica común: comprometer dependencias populares para infiltrarse en entornos de desarrollo. La lección principal es clara: es vital endurecer los pipelines de CI/CD, limitar permisos y no exponer secretos de alta sensibilidad a jobs que ejecutan código externo sin controles adicionales. Se recomienda a los usuarios de macOS actualizar sus aplicaciones de OpenAI antes de la fecha límite para evitar interrupciones.

Fuente Original: https://unaaldia.hispasec.com/2026/04/openai-rota-certificados-de-firma-en-macos-tras-ejecutar-axios-malicioso-en-su-ci.html?utm_source=rss&utm_medium=rss&utm_campaign=openai-rota-certificados-de-firma-en-macos-tras-ejecutar-axios-malicioso-en-su-ci

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Gobierno EEUU Antiterrorismo AI o IA de Seguridad

En una aparente contradicción, la administración Trump, a través de sus altos funcionarios económicos, está instando a los principales bancos de Wall Street a probar la tecnología de inteligencia artificial de Anthropic, específicamente su modelo Mythos, para identificar vulnerabilidades de ciberseguridad. Esto ocurre a pesar de que el Departamento de Defensa, bajo la misma administración, ha marcado a Anthropic como un riesgo de cadena de suministro, prohibiéndole contratos militares.

Gobierno EE.UU. ¿Antiterrorismo AI o IA de Seguridad?

El meollo de la disputa radica en la negativa de Anthropic a eliminar dos salvaguardas de seguridad clave de sus modelos de IA: la prohibición de su uso en armas totalmente autónomas y la restricción de su despliegue para la vigilancia masiva de ciudadanos estadounidenses. Esta negativa llevó al Secretario de Defensa a designar a la compañía como un riesgo, lo que, a su vez, provocó una orden del presidente Trump para que las agencias federales dejaran de usar su tecnología.

Sin embargo, el Secretario del Tesoro, Scott Bessent, y la Presidenta de la Reserva Federal, Jerome Powell, han convocado a ejecutivos de gigantes bancarios como JPMorgan Chase, Goldman Sachs, Citigroup, Bank of America y Morgan Stanley para animarlos a utilizar el modelo Mythos. Este modelo, que ha demostrado ser capaz de identificar miles de vulnerabilidades de día cero en sistemas operativos y navegadores, se está distribuyendo a través de un programa restringido llamado Project Glasswing a aproximadamente 50 organizaciones.

La situación expone una marcada incoherencia en la política de la administración hacia la IA. Mientras una rama del gobierno considera a Anthropic demasiado peligrosa por sus salvaguardas de seguridad, otra rama la impulsa como una herramienta indispensable para la ciberseguridad del sistema financiero. Esta dicotomía plantea preguntas sobre la coherencia estratégica y las motivaciones detrás de las decisiones políticas, especialmente dado que la disputa con el Pentágono se originó en desacuerdos personales y percepciones de las posturas políticas de la empresa.

Los bancos, por su parte, parecen priorizar la recomendación de los líderes financieros sobre las objeciones del Pentágono. La capacidad del modelo Mythos para detectar fallos de seguridad es vista como una defensa crucial contra posibles ataques de IA adversarios. Mientras tanto, reguladores en el Reino Unido también están evaluando activamente los riesgos potenciales asociados con esta tecnología. El resultado es una paradoja donde la misma IA que es vetada por un departamento gubernamental es promovida por otro, creando un panorama confuso y estratégicamente ventajoso para Anthropic, que ve crecer su integración en la infraestructura crítica nacional.

Fuente Original: https://thenextweb.com/news/trump-administration-banks-anthropic-mythos-pentagon-paradox

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Google Integra Rust en Modem Pixel 10

Los teléfonos inteligentes modernos cuentan con múltiples capas de seguridad en sus sistemas operativos, pero existe un punto débil crítico: el módem celular. El equipo Project Zero de Google demostró que es posible ejecutar código de forma remota en los módems de los teléfonos Pixel a través de Internet, lo que llevó a la compañía a replantear completamente cómo proteger este componente vital de bajo nivel. La solución innovadora no fue reescribir todo el software del módem, sino incorporar estratégicamente un componente basado en Rust, un lenguaje de programación más seguro, en el módem del Pixel 10.

Google Integra Rust en Módem Pixel 10

Los módems celulares son prácticamente cajas negras en nuestros dispositivos. El sistema de banda base del teléfono ejecuta su propio sistema operativo con código heredado en C y C++, convirtiéndolo en un objetivo cada vez más atractivo para los atacantes. El problema fundamental radica en que la gestión de memoria en estos sistemas es compleja y frecuentemente genera firmware inseguro en dispositivos de producción. Esto permite a los atacantes explotar vulnerabilidades graves como desbordamientos de búfer y fugas de memoria para comprometer los dispositivos. Los investigadores de Project Zero han identificado más de dos docenas de vulnerabilidades en módems Exynos en años recientes, 18 de las cuales fueron clasificadas como severas.

Aunque existen lenguajes seguros para la memoria como Python o C#, estos dependen de recolectores de basura que son demasiado lentos para el funcionamiento en tiempo real que requieren los módems. Rust ofrece una solución elegante: utiliza un mecanismo llamado "borrow checker" que garantiza la seguridad de memoria en tiempo de compilación, sin sacrificar velocidad. Esto hace que Rust sea ideal para sistemas críticos que requieren tanto seguridad como rendimiento.

Google no podía simplemente reescribir décadas de desarrollo de firmware de módem, que representa megabytes de código máquina ejecutable. En su lugar, la compañía se enfocó estratégicamente en el analizador DNS, un componente crítico para el funcionamiento de las redes de datos celulares que requiere procesar datos no confiables. Google integró la biblioteca de código abierto hickory-proto de Rust, eliminando las dependencias de bibliotecas estándar para compilar código máquina más rápido. El componente Rust resultante añadió solo 371KB al módem del Pixel, una cantidad manejable que actúa como un muro protector contra paquetes DNS maliciosos. El Pixel 10 es el primer teléfono en implementar esta arquitectura de módem más segura, estableciendo un precedente para futuras mejoras de seguridad en sistemas embebidos.

Fuente Original: https://arstechnica.com/gadgets/2026/04/google-shoehorned-rust-into-pixel-10-modem-to-make-legacy-code-safer/

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Linux 70 Released with Rust and Quantum Security

The Linux kernel has reached a significant milestone with the release of version 7.0, marking an important evolution in the open-source operating system's development. Whilst the major version number might suggest revolutionary changes, Linux creator Linus Torvalds has clarified that this is primarily a numbering reset rather than an indication of unusually disruptive modifications. Nevertheless, the release brings several noteworthy enhancements that will impact both developers and system administrators.

Linux 7.0 Released with Rust and Quantum Security

One of the most anticipated changes in Linux 7.0 is the removal of the experimental label from Rust language support. Although Rust is not yet dominant in kernel development, this move represents a crucial step towards its gradual integration into the project. This signals growing confidence in Rust's role for future kernel development, particularly for memory-safe components.

Security improvements feature prominently in this release. The kernel now includes ML-DSA post-quantum signatures for authenticating kernel modules, preparing the system for future cryptographic challenges posed by quantum computing. Conversely, support for SHA-1-based module-signing schemes has been removed, reflecting the industry's move away from this ageing cryptographic standard. Additionally, Linux 7.0 introduces BPF-based filtering for io_uring operations, granting administrators enhanced control in restricted environments, whilst BTF type lookups have been optimised with binary search capabilities.

The release also advances several infrastructure improvements. The removal of linuxrc initrd code continues the transition to initramfs as the sole early-userspace boot mechanism. A new feature called NULLFS has been introduced—an immutable and empty root filesystem designed for systems that mount the actual root filesystem later in the boot process. Preemption handling has been simplified across most architectures, with further refinements to restartable sequences, workqueues, RCU internals, slab allocation, and type-based hardening measures. Filesystem and storage subsystems have received attention too, with non-blocking timestamp updates now functioning correctly and filesystems requiring explicit opt-in for leases rather than receiving them by default.

Fuente Original: https://linux.slashdot.org/story/26/04/13/1857240/linux-70-released?utm_source=rss1.0mainlinkanon&utm_medium=feed

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT