domingo, 29 de marzo de 2026

IA y Farma Eli Lilly y Insilico Medicine pactan 2 mil millones

La industria farmacéutica da un paso audaz hacia el futuro con la noticia de que Eli Lilly, un gigante del sector, estaría a punto de cerrar un acuerdo multimillonario con Insilico Medicine, una empresa de inteligencia artificial con sede en Hong Kong. Según informa el Financial Times, este potencial pacto, valorado en unos 2 mil millones de dólares, marcaría una alianza estratégica para el desarrollo de fármacos, impulsado por las capacidades avanzadas de la IA.

IA y Farma: Eli Lilly y Insilico Medicine pactan $2 mil millones

Este acuerdo subraya la creciente importancia de la inteligencia artificial en la investigación y desarrollo de nuevos medicamentos. Insilico Medicine, conocida por su plataforma de IA para el descubrimiento de fármacos, se perfila como un socio clave para Eli Lilly en la aceleración de procesos que tradicionalmente son largos, costosos y con altas tasas de fracaso. La IA tiene el potencial de identificar nuevas dianas terapéuticas, predecir la eficacia y seguridad de compuestos, y optimizar el diseño de ensayos clínicos, revolucionando así la forma en que se conciben y crean los medicamentos del futuro.

La colaboración entre estas dos entidades podría significar un antes y un después en la lucha contra enfermedades complejas, al permitir un descubrimiento de fármacos más rápido y eficiente. La noticia refuerza la tendencia del sector farmacéutico a integrar tecnologías de vanguardia para mantenerse competitivo y responder a las necesidades médicas no cubiertas de manera más efectiva.

Fuente Original: https://news.google.com/rss/articles/CBMi3wFBVV95cUxQRUtWbXlUNS04X1dualdiUTg0ME11ajdLb3FGekwyT1lXbFhmT2ltNUVUUVFna1RQYmh6OUJRcWd5bk1ETXE0LUNWbVRRU0NQUFFYaWk4bXlwX3EwX1lSTW1WWHFsV2c3R0ZpT1p6S29fMDlBdzhtRy1VY1VoV1hDaGg3UnJzNDlkSGVTeE5HckNCUmxBNUZxN3dhRm1FT2ltaE43UDVQUUMtQTZIdkRPV1dreGVXOEljMEdoVlNZXzd4Z2N3RXdUWkFZdnVtUEFpRHlXaWtMZ092ajV6MDNr?oc=5

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

xAIs Elite Team Exodus Musks AI Vision Rebuilt

It appears that all eleven co-founders who were initially recruited to build Elon Musk's AI company, xAI, have now reportedly departed. The latest departures include Manuel Kroiss, who led the pretraining team, and Ross Nordeen, described as Musk's key operational figure. These exits mark the end of an era for the company, which was recently valued at a staggering $250 billion following its acquisition by SpaceX. This mass departure is particularly noteworthy given the calibre of talent Musk assembled, featuring researchers with significant contributions to the AI field from institutions like Google DeepMind, Google, Microsoft, and OpenAI.

xAI's Elite Team Exodus: Musk's AI Vision Rebuilt?

The exodus seems to have accelerated in early 2026, with a cascade of departures beginning in February. This timeline appears closely linked to significant corporate restructuring. In February, SpaceX acquired xAI in a monumental all-stock deal, valuing SpaceX at $1 trillion and xAI at $250 billion. More recently, Tesla invested $2 billion into xAI, a move that is now the subject of a shareholder lawsuit alleging breach of fiduciary duty. This investment came shortly after Musk himself admitted that xAI's coding tools were not competitive, stating the company needed to be "rebuilt from the foundations up."

Musk's candid admission about the product's shortcomings likely provided little incentive for the co-founders to remain and participate in a rebuild, especially in a hyper-competitive AI talent market where top researchers are commanding multi-million dollar compensation packages. While xAI still possesses significan t assets like the Colossus supercomputer and Grok chatbot, the complete departure of its founding research leadership raises questions about its future competitiveness. This pattern of senior staff attrition is also consistent with previous transitions at Musk's other companies, such as Twitter and Tesla, suggesting potential organisational challenges in research-intensive fields, despite his proven success in hardware engineering.

Fuente Original: https://thenextweb.com/news/xai-all-cofounders-departed-musk-spacex-rebuild

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Skimmer WebRTC Nueva Amenaza Evade Seguridad Ecommerce

Una nueva y sofisticada amenaza ha surgido en el mundo del comercio electrónico: un skimmer de pagos que utiliza la tecnología WebRTC para eludir los controles de seguridad tradicionales y robar datos de tarjetas. A diferencia de los métodos convencionales que se basan en solicitudes HTTP o beacons de imágenes, este malware establece conexiones cifradas a través de DTLS sobre UDP. Este enfoque le permite operar fuera del radar de las herramientas de inspección de red diseñadas para monitorear únicamente el tráfico web estándar.

Skimmer WebRTC: Nueva Amenaza Evade Seguridad Ecommerce

El ataque se potencia gracias a una vulnerabilidad conocida como PolyShell, que afecta a las plataformas Magento Open Source y Adobe Commerce. Esta falla permite a atacantes no autenticados cargar archivos maliciosos, los cuales pueden ser ejecutados si la configuración del servidor es vulnerable, llevando a la ejecución remota de código. Desde el 19 de marzo de 2026, se ha observado una actividad de escaneo masiva, y se estima que aproximadamente el 56.7% de las tiendas vulnerables ya han sido comprometidas.

El skimmer opera como un script que se autoejecuta, estableciendo una conexión peer-to-peer hacia una dirección IP específica. Desde allí, descarga código JavaScript malicioso que luego se inyecta en las páginas web, con el fin de capturar los datos de pago de los clientes. La utilización de WebRTC representa una evolución significativa, ya que puede sortear las directivas de Seguridad de Contenido (CSP). Incluso aquellos sitios que bloquean conexiones HTTP no autorizadas, siguen siendo vulnerables a la exfiltración de datos debido a que WebRTC utiliza conexiones cifradas DTLS sobre UDP, las cuales escapan a las herramientas de inspección HTTP convencionales.

Para mitigar estos ataques, se recomienda bloquear el acceso a directorios de medios específicos y realizar escaneos exhaustivos en busca de web shells o backdoors. Aunque se ha liberado una corrección beta para PolyShell, el parche aún no ha llegado a las versiones de producción. Este incidente subraya la creciente necesidad de estar vigilantes ante ataques cada vez más complejos y de mantener medidas de protección robustas.

Fuente Original: https://unaaldia.hispasec.com/2026/03/nuevo-skimmer-con-webrtc-evade-controles-de-seguridad-y-roba-datos-de-pago-en-e-commerce.html?utm_source=rss&utm_medium=rss&utm_campaign=nuevo-skimmer-con-webrtc-evade-cont roles-de-seguridad-y-roba-datos-de-pago-en-e-commerce

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

IA Revoluciona Desarrollo 170 Productividad Menos Personal

La inteligencia artificial está transformando radicalmente el desarrollo de software, y los resultados son asombrosos. Andrew Filev, fundador y CEO de Zencoder, comparte su experiencia de seis meses implementando un enfoque AI-first en su organización de ingeniería, logrando resultados que parecían imposibles: un aumento del 170% en productividad con solo el 80% del personal original. Su equipo pasó de 36 ingenieros a 30, mientras duplicaban subjetivamente su velocidad de desarrollo.

IA Revoluciona Desarrollo: 170% Productividad, Menos Personal

El cambio más significativo ocurrió en la forma de trabajar. Antes de la IA, los equipos invertían semanas perfeccionando flujos de usuario antes de escribir código. Ahora, el costo de la experimentación se ha desplomado. Una idea puede pasar del concepto al prototipo funcional en un solo día, atravesando todo el ciclo desde la generación de requisitos hasta la implementación asistida por IA. Su sitio web, crucial para la adquisición de clientes, se convirtió en un sistema con cientos de componentes personalizados, diseñados y mantenidos directamente por su director creativo en código.

La validación se ha convertido en el nuevo punto de apalancamiento. Cuando la IA genera la mayor parte de la implementación, el verdadero valor reside en definir qué significa "bueno". Los ingenieros de control de calidad han evolucionado hacia arquitectos de sistemas, construyendo agentes de IA que generan y mantienen pruebas de aceptación directamente desde los requisitos. Este enfoque de "shift left" integra la validación como parte fundamental del proceso de producción, no como una función aislada.

La geometría misma del desarrollo de software está cambiando. Durante décadas, seguía una forma de "diamante": un pequeño equipo de producto entregaba a un gran equipo de ingeniería, que luego se reducía en QA. Hoy, esa estructura se está invirtiendo hacia un "doble embudo". Los humanos participan más profundamente al principio, definiendo la intención y explorando opciones, y al final, validando resultados. El medio, donde la IA ejecuta, es más rápido y estrecho. El modelo se parece menos a una línea de ensamblaje y más a una torre de control.

Los ingenieros ahora trabajan en una capa meta: orquestando flujos de trabajo de IA, ajustando instrucciones y habilidades de agentes, y definiendo protecciones. Las máquinas construyen; los humanos deciden el qué y el por qué. Este es el nivel de abstracción más alto en la evolución del software, comparable al salto de las tarjetas perforadas a los lenguajes de alto nivel, o del hardware a la nube. La paradoja de la ingeniería AI-first es que se siente menos como programar y más como pensar estratégicamente.

Fuente Original: https://venturebeat.com/orchestration/when-ai-turns-software-development-inside-out-170-throughput-at-80-headcount

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

AI Tools Transform Linux Bug Detection

In a significant development for open source software, Linux kernel maintainer Greg Kroah-Hartman has confirmed that AI-driven code review tools have undergone a dramatic improvement in recent weeks. Speaking to The Register, Kroah-Hartman revealed that approximately a month ago, something fundamental shifted in the AI landscape, transforming these tools from unreliable novelties into genuinely useful assistants for identifying real bugs in the Linux kernel and other open source projects.

AI Tools Transform Linux Bug Detection

The change has been so pronounced that security teams across major open source initiatives are experiencing the same phenomenon simultaneously. According to Kroah-Hartman, who maintains regular informal contact with these teams, everyone is reporting a sudden influx of high-quality, AI-generated bug reports. These aren't false positives or automated spam – they're legitimate discoveries of actual problems in the code that require attention and resolution.

Kroah-Hartman himself has experimented with AI-generated patches, running a deliberately simple prompt that produced 60 potential fixes. Whilst approximately one-third of the suggested patches were incorrect, they still highlighted genuine issues worth investigating. The remaining two-thirds were correct, though they required human intervention for proper changelogs and integration work. For straightforward error condition detection, he noted, AI can already generate dozens of usable patches today.

Whilst AI is primarily functioning as a reviewer and assistant rather than a primary code author, that distinction is beginning to blur. Some patches are now being submitted with co-developer tags acknowledging AI involvement, particularly for new features. To support this emerging workflow, the Linux Foundation has adopted Sashiko, a tool originally developed at Google, to integrate AI capabilities directly into the kernel's review infrastructure. Kroah-Hartman's assessment is clear: the tools have become genuinely good, and the development community cannot afford to ignore this rapidly evolving technology.

Fuente Original: https://linux.slashdot.org/story/26/03/28/0717258/linux-maintainer-greg-kroah-hartman-says-ai-tools-now-useful-finding-real-bugs?utm_source=rss1.0mainlinkanon&utm_medium=feed

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

sábado, 28 de marzo de 2026

Paquete LiteLLM Secuestrado Robo de Credenciales Peligroso

¡Atención desarrolladores! Un grave incidente de seguridad ha sacudido la comunidad Python. El popular paquete LiteLLM, utilizado por millones para interactuar con modelos de lenguaje grandes (LLMs), ha sido comprometido por el grupo de hackers TeamPCP. Las versiones maliciosas, LiteLLM 1.82.7 y 1.82.8, fueron publicadas en el repositorio PyPI, insertando un 'infostealer' diseñado para robar una amplia gama de datos sensibles de cientos de miles de dispositivos.

Paquete LiteLLM Secuestrado: ¡Robo de Credenciales Peligroso!

LiteLLM, conocido por su versatilidad al actuar como una puerta de enlace para múltiples proveedores de LLMs a través de una única API, es descargado por millones de usuarios diariamente. La gravedad del ataque radica en la masiva adopción del paquete, lo que significa que la información comprometida podría ser extensa. Afortunadamente, las versiones maliciosas ya han sido retiradas de PyPI, y la versión limpia más reciente es la 1.82.6.

Si tu organización o tú mismo utilizáis LiteLLM, es crucial actuar de inmediato. Se recomienda encarecidamente verificar si se han instalado las versiones afectadas (1.82.7 u 1.82.8). En caso de sospecha de compromiso, se deben rotar urgentemente todas las credenciales, secretos y tokens utilizados en los sistemas afectados. Además, se aconseja buscar artefactos de persistencia, como archivos sospechosos y servicios no autorizados, así como monitorear el tráfico de red saliente hacia dominios conocidos de atacantes. La rápida respuesta es vital para mitigar el impacto de este sofisticado ataque a la cadena de suministro.

Fuente Original: https://it.slashdot.org/story/26/03/27/1527202/popular-litellm-pypi-package-backdoored-to-steal-credentials-auth-tokens?utm_source=rss1.0mainlinkanon&utm_medium=feed

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

OpenAIs ChatGPT Ads 100M Revenue in 6 Weeks

In a remarkable display of early success, OpenAI's experimental advertising pilot on ChatGPT in the United States has already generated an impressive annualized revenue of over $100 million, achieving this milestone in just six weeks since its launch. This rapid uptake highlights a strong initial demand for OpenAI's foray into the advertising sector, demonstrating the potential for AI-driven platforms to attract advertisers.

OpenAI's ChatGPT Ads: $100M Revenue in 6 Weeks!

The spokesperson for OpenAI indicated that while a significant portion of users (around 85%) are currently eligible to see ads, only a fraction (under 20%) are exposed to them daily. This suggests substantial room for growth in ad monetization by tapping into the existing user base. Importantly, OpenAI reported that this new advertising initiative has had no negat ive impact on consumer trust metrics. They've observed low ad dismissal rates and continuous improvements in ad relevance as they incorporate user feedback.

Looking ahead, OpenAI plans to roll out this advertising test to other countries in the coming weeks, with initial expansions set for Australia, New Zealand, and Canada. The platform has already attracted over 600 advertisers, and a notable 80% of small and medium-sized businesses have expressed interest in advertising on ChatGPT. To further facilitate growth and accessibility, OpenAI is scheduled to introduce self-serve advertiser capabilities in April. This strategic move by OpenAI, spearheaded by CEO Sam Altman who had previously been hesitant about ads as a business model, signifies a significant shift and a promising new revenue stream for the AI giant.

Fuente Original: https://news.slashdot.org/story/26/03/28/0231232/openais-us-ad-pilot-exceeds-100-million-in-annualized-revenue-in-six-weeks?utm_source=rss1.0mainlinkanon&utm_medium=feed

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

SoftBank Prestamo Gigante de 40B para Apostar a OpenAI

SoftBank ha dado un paso audaz y de gran envergadura al asegurar un préstamo puente de 40 mil millones de dólares, la operación de crédito denominada en dólares más grande de su historia. Este movimiento financiero está destinado principalmente a respaldar su continua y creciente inversión en OpenAI, la destacada empresa de inteligencia artificial. El préstamo, que no requiere colateral y ha sido orquestado con la participación de instituciones financieras de renombre como JPMorgan Chase, Goldman Sachs, Mizuho, SMBC y MUFG, tiene como fecha de vencimiento marzo de 2027.

SoftBank: Préstamo Gigante de $40B para Apostar a OpenAI

La magnitud de esta operación refleja la ambición de Masayoshi Son, CEO de SoftBank, quien no teme pensar en grande. Sin embargo, la velocidad y la escala de esta apuesta por OpenAI han comenzado a generar inquietud entre las agencias de calificación crediticia. Con este préstamo, SoftBank planea desembolsar 30 mil millones de dólares adicionales en OpenAI como parte de su ronda de financiación actual. Al completar esta inversión, la participación acumulada de SoftBank en OpenAI ascenderá a aproximadamente 64.6 mil millones de dólares, lo que representará alrededor del 13% de la compañía.

Este préstamo puente es fundamental para que SoftBank pueda cumplir con su compromiso de inversión en OpenAI, que busca recaudar un total de 110 mil millones de dólares. La estrategia de Son para financiar estas inversiones pasadas ya ha implicado la liquidación de otras participaciones valiosas, incluida su posición en Nvidia. La apuesta por OpenAI se presenta como una jugada concentrada y de alto riesgo, con la es peranza de que la inteligencia artificial generativa genere los retornos necesarios para justificar el elevado apalancamiento financiero. La S&P ha rebajado recientemente su perspectiva crediticia sobre SoftBank, citando preocupaciones sobre la exposición a OpenAI y su posible impacto en la liquidez y la calidad crediticia de sus activos. Paralelamente, este préstamo también forma parte de los planes de SoftBank para invertir 100 mil millones de dólares en infraestructura de IA en Estados Unidos durante los próximos cuatro años, en línea con iniciativas más amplias del sector.

Fuente Original: https://thenextweb.com/news/softbank-40-billion-bridge-loan-openai

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

IndexCache Inferencia 82 Mas Rapida en IA

Procesar 200,000 tokens a través de un modelo de lenguaje grande es costoso y lento: cuanto más largo es el contexto, más rápido se disparan los costos. Investigadores de la Universidad de Tsinghua y Z.ai han desarrollado una técnica llamada IndexCache que elimina hasta el 75% de la computación redundante en modelos de atención dispersa, logrando una velocidad hasta 1.82 veces más rápida en el tiempo hasta el primer token y 1.48 veces más rápida en el rendimiento de generación con esa longitud de contexto.

IndexCache: Inferencia 82% Más Rápida en IA

Los modelos de lenguaje grandes dependen del mecanismo de autoatención, donde el modelo calcula la relación entre cada token en su contexto y todos los anteriores para predecir el siguiente. Sin embargo, esta autoatención tiene una limitación severa: su complejidad computacional escala de manera cuadrática con la longitud de la secuencia. La atención dispersa ofrece una solución al hacer que cada consulta seleccione y atienda solo al subconjunto más relevante de tokens. La arquitectura DeepSeek Sparse Attention (DSA) implementa este concepto mediante un módulo indexador ligero que califica los tokens anteriores y selecciona un pequeño lote para procesarlo.

Los investigadores identificaron un problema persistente: el indexador DSA aún opera con complejidad cuadrática en cada capa. A medida que crece la longitud del contexto, el tiempo que el modelo pasa ejecutando estos indexadores se dispara. Para resolver este cuello de botella, el equipo descubrió que el subconjunto de tokens importantes que selecciona un indexador permanece notablemente estable a través de capas consecutivas del transformador, con capas adyacentes compartiendo entre el 70% y el 100% de sus tokens seleccionados.

IndexCache capitaliza esta redundancia dividiendo las capas del modelo en dos categorías: capas completas (F) que mantienen sus indexadores activos calculando y almacenando en caché los tokens más importantes, y capas compartidas (S) que no realizan indexación y reutilizan los índices almacenados de la capa F anterior más cercana. Los investigadores desarrollaron dos enfoques de implementación: un método sin entrenamiento que utiliza un algoritmo de selección de capas y un método consciente del entrenamiento que optimiza los parámetros de la red.

En pruebas con el modelo GLM-4.7 Flash de 30 mil millones de parámetros, IndexCache redujo la latencia de prellenado de 19.5 segundos a solo 10.7 segundos en un contexto de 200K, logrando una aceleración de 1.82 veces. Durante la fase de decodificación, el rendimiento aumentó de 58 a 86 tokens por segundo, una mejora de 1.48 veces. Estas ganancias de eficiencia se traducen directamente en ahorros de costos: los equipos empresariales observan al menos una reducción aproximada del 20% en los costos de implementación para cargas de trabajo de contexto largo como RAG, análisis de documentos y flujos de trabajo agénticos.

Notablemente, estas ganancias de eficiencia no comprometieron las capacidades de razonamiento. El modelo optimizado igualó el puntaje promedio del original en benchmarks de contexto largo e incluso superó al original en el complejo benchmark de razonamiento matemático AIME 2025. Los parches de código abierto ya están disponibles en GitHub para los principales motores de servicio como vLLM y SGLang, permitiendo a los desarrolladores integrar IndexCache con cambios mínimos de configuración.

Fuente Original: https://venturebeat.com/technology/indexcache-a-new-sparse-attention-optimizer-delivers-1-82x-faster-inference

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Google Accelerates Post-Quantum Encryption Migration to 2029

Google has announced a significant acceleration of its post-quantum cryptography migration timeline, moving the target date forward to 2029. This ambitious deadline represents a major shift from the previous 2035 timeline recommended by the National Institute for Standards and Technology (NIST), reflecting growing concerns about advances in quantum computing capabilities that could potentially compromise current encryption methods.

Google Accelerates Post-Quantum Encryption Migration to 2029

The decision to expedite this transition comes in response to rapid progress in quantum computing hardware development, quantum error correction techniques, and refined estimates of quantum factoring resources. Heather Adkins, vice president of security engineering, and Sophie Schmieg, senior staff cryptology engineer, emphasised that this updated timeline is crucial for protecting digital infrastructure in the post-quantum computing era. The company is systematically replacing outdated encryption across all its devices, systems, and data with new algorithms that have been rigorously vetted by NIST over the past decade.

These next-generation cryptographic algorithms have been specifically designed to withstand attacks from quantum computers, which threaten to render current encryption standards obsolete. Whilst Google remains confident it can migrate its own systems well ahead of schedule, the company is urging private businesses and other organisations to treat this timeline as a wake-up call. Unlike federal government entities, private sector companies face no mandate to adopt quantum-resistant encryption, which leaves significant portions of digital infrastructure potentially vulnerable.

Google's leadership has positioned the company as both a pioneer in quantum computing research and post-quantum cryptography implementation. By publicly committing to this accelerated timeline, Google aims to provide the clarity and urgency needed to catalyse industry-wide digital transitions. The company hopes that its aggressive timeframe will encourage other businesses to follow suit, recognising the critical importance of proactive preparation rather than reactive scrambling when quantum computing threats become imminent. This leadership-by-example approach underscores the collective responsibility to secure digital infrastructure before quantum computers capable of breaking current encryption become a reality.

Fuente Original: https://it.slashdot.org/story/26/03/27/2123239/google-moves-post-quantum-encryption-timeline-up-to-2029?utm_source=rss1.0mainlinkanon&utm_medium=feed

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

viernes, 27 de marzo de 2026

Langflow Fallo Critico Permite Secuestro de Flujos IA

La Agencia de Ciberseguridad y Seguridad de la Infraestructura (CISA) ha emitido una seria advertencia sobre la explotación activa de una vulnerabilidad crítica (CVE-2026-33017) en Langflow, un popular framework de código abierto para la creación de flujos de trabajo de Inteligencia Artificial. Este fallo, con una calificación de gravedad CVSS de 9.3, permite a atacantes no autenticados ejecutar código de forma remota (RCE) a través de una simple petición HTTP. Esto significa que un atacante podría tomar el control total del sistema donde se ejecute Langflow, accediendo a datos sensibles, credenciales y secretos.

Langflow: ¡Fallo Crítico Permite Secuestro de Flujos IA!

La vulnerabilidad reside en la forma en que Langflow maneja la creación y ejecución de 'public flows', especialmente la falta de un robusto mecanismo de 'sandboxing'. En la práctica, esto convierte una herramienta diseñada para acelerar la prototipación y automatización de IA en una puerta de entrada para ciberdelincuentes. Dado que Langflow a menudo se integra con Modelos de Lenguaje Grandes (LLMs), bases de datos y servicios en la nube, una brecha exitosa puede tener consecuencias devastadoras, incluyendo robo de información, movimiento lateral dentro de la red corporativa y exfiltración de datos.

La inclusión de esta vulnerabilidad en el catálogo 'Known Exploited Vulnerabilities' (KEV) de CISA subraya que ya se está explotando en el mundo real. La agencia ha establecido un plazo para que las agencias federales apliquen parches o mitigaciones, pero esta recomendación es una señal clara para todas las organizaciones que utilizan Langflow. La solución principal es actualizar a Langflow 1.9.0 o una versión superior. Si la actualización inmediata no es posible, se recomienda encarecidamente no exponer el servicio a Internet, restringir el acceso al endpoint vulnerable, monitorear el tráfico saliente en busca de anomalías y, en caso de sospecha de compromiso, rotar inmediatamente todas las credenciales y claves de acceso. La rápida operacionalización de ataques observada por Sysdig demuestra la urgencia de tomar medidas.

Fuente Original: https://unaaldia.hispasec.com/2026/03/cisa-alerta-de-explotacion-activa-de-un-fallo-critico-en-langflow-que-permite-secuestrar-flujos-de-ia.html?utm_source=rss&utm_medium=rss&utm_campaign=cisa-alerta-de-explotacion-activa-de-un-fallo-critico-en-langflow-que-permite-secuestrar-flujos-de-ia

Artículo generado mediante LaRebelionBOT

Secure Your Web Cloud WAF Configuration Monitoring Guide

In today's increasingly dangerous internet landscape, simply having a Web Application Firewall (WAF) isn't enough. This article highlights that while major cyber incidents like ransomware attacks and data breaches grab headlines, the constant barrage of automated scans and attacks against web services often goes unnoticed. Companies might be unaware that their web presence is under continuous assault. Cloudflare alone blocks over 230 billion threats daily, underscoring the aggressive nature of the online environment.

Secure Your Web: Cloud WAF Configuration & Monitoring Guide

The key takeaway is that a WAF's effectiveness hinges entirely on proper configuration and ongoing management. Without active monitoring and rule adjustments, a WAF can fail to block malicious traffic. The article uses the example of VapaSec, which, after initial deployment, detected thousands of security events before implementing active WAF management. Once proper configuration was in place, daily security events were drastically reduced. This underscores that the internet is a perpetual scanner; simply being connected makes you a target for automated, persistent attacks seeking vulnerable systems for various illicit purposes.

The author stresses that attackers often operate through mass, automated scans, looking for exploitable weaknesses like unsecured configuration files or brute-force login attempts, rather than performing highly targeted attacks. Traditional on-premise security solutions can be resource-intensive and may not fully protect against sophisticated threats. Cloud-based WAFs, like Cloudflare WAF, offer a more efficient and resilient approach by filtering threats before they reach the infrastructure. However, it's crucial to understand that migrating to a platform like Cloudflare doesn't automatically grant high security; active configuration and policy management are paramount. Simple steps like enabling the proxy to mask the origin IP, blocking traffic from non-business countries, and creating rules to filter automated scripts and suspicious IPs are vital. For organisations struggling with manual WAF management, solutions like VapaSec Web Protection automate and enhance this process, of fering multi-layered protection, IP reputation scoring, collective intelligence, and real-time threat mitigation.

Fuente Original: http://www.elladodelmal.com/2026/03/como-configurar-y-monitorizar-un-cloud.html

Artículo generado mediante LaRebelionBOT

Xero y Claude IA Revoluciona Finanzas PYMES

La plataforma contable Xero ha anunciado una alianza estratégica de varios años con Anthropic, la empresa detrás del chatbot de inteligencia artificial Claude. Esta colaboración va más allá de integrar Claude en Xero; llevará los datos financieros de Xero directamente a la interfaz de Claude.ai. El objetivo es permitir a los pequeños empresarios realizar consultas sobre su flujo de caja, facturas pendientes y márgenes de beneficio sin necesidad de salir del chatbot.

Xero y Claude: IA Revoluciona Finanzas PYMES

La integración funcionará en dos direcciones. Por un lado, el asistente de IA de Xero, JAX, se potenciará con las capacidades de razonamiento de Claude para automatizar tareas como el seguimiento del flujo de caja, el análisis del rendimiento de ingresos y beneficios, y la sugerencia de acciones. Por otro lado, los usuarios podrán conectar sus cuentas de Xero a Claude.ai para trabajar con datos financieros en tiempo real, facilitando la planificación empresarial, la modelización de escenarios y el análisis anual, todo ello sin cambiar de aplicación.

Esta asociación es notable por su enfoque estratégico. Xero ya colabora con OpenAI para la investigación web y ahora recurre a Anthropic para el razonamiento financiero y la automatización de flujos de trabajo. Esta estrategia multimodelo busca evitar la dependencia de un único proveedor de IA, aprovechando las fortalezas de cada uno y manteniendo poder de negociación. Xero actúa como una capa de orquestación, JAX, coordinando diferentes agentes de IA para ejecutar tareas.

Para Anthropic, esta alianza es parte de su expansión empresarial. La integración de Xero representa una apuesta por incrustar su IA en plataformas SaaS verticales, llegando a millones de pequeñas empresas. La parte más interesante es la posibilidad de que Claude se convierta en la interfaz principal para la gestión financiera de las PYMES. Al integrar datos de Xero junto con otra información que el usuario aporte, Claude se posiciona como un entorno de razonamiento general. Esto permite a Xero alcanzar a sus usuarios donde ya pasan la mayor parte de su tiempo, ofreciendo sus insights de manera conversacional, lo cual representa una ventaja de distribución significativa.

El éxito de esta colaboración dependerá de la confianza. La gestión de datos financieros sensibles requiere un alto nivel de seguridad y confidencialidad, y Xero asegura que los datos se usarán solo para la sesión del usuario y no para entrenar los modelos de Claude. La precisión de la IA también será crucial; los errores en análisis financieros pueden tener consecuencias graves para los negocios. Xero confía en que esta integración aliviará la carga administrativa, pero la fiabilidad de los agentes de IA será puesta a prueba.

Fuente Original: https://thenextweb.com/news/xero-anthropic-claude-small-business-financial-ai

Artículo generado mediante LaRebelionBOT

Fallas Criticas en LangChain Exponen Datos Sensibles

Investigadores de seguridad han descubierto vulnerabilidades graves en LangChain y LangGraph, dos de los frameworks de inteligencia artificial más utilizados en la actualidad. Estas fallas de seguridad podrían permitir a atacantes acceder a archivos confidenciales, secretos de aplicaciones y bases de datos completas, poniendo en riesgo a miles de desarrolladores y empresas que dependen de estas herramientas para construir aplicaciones basadas en IA.

Fallas Críticas en LangChain Exponen Datos Sensibles

LangChain es un framework ampliamente adoptado que facilita el desarrollo de aplicaciones impulsadas por modelos de lenguaje de gran escala. LangGraph, por su parte, es una extensión que permite crear flujos de trabajo complejos con estos modelos. Ambas herramientas son fundamentales en el ecosistema actual de desarrollo de IA, lo que hace que estas vulnerabilidades sean especialmente preocupantes debido a su potencial impacto masivo en la industria tecnológica.

Las fallas identificadas podrían ser explotadas por actores maliciosos para obtener acceso no autorizado a información sensible almacenada en sistemas que utilizan estos frameworks. Esto incluye credenciales de seguridad, claves API, datos de usuarios y otra información crítica que normalmente debería permanecer protegida. La exposición de bases de datos completas representa un riesgo particularmente grave, ya que podría comprometer la privacidad de millones de usuarios finales.

Los expertos en ciberseguridad recomiendan que los desarrolladores que utilizan LangChain o LangGraph actualicen sus sistemas inmediatamente y revisen sus configuraciones de seguridad. Es fundamental implementar medidas adicionales de protección mientras se espera que los mantenedores de estos frameworks publiquen parches oficiales para corregir estas vulnerabilidades. Esta situación subraya la importancia crítica de mantener prácticas sólidas de seguridad en el desarrollo de aplicaciones de IA, especialmente cuando se trabaja con frameworks de código abierto ampliamente distribuidos.

Fuente Original: https://news.google.com/rss/articles/CBMigwFBVV95cUxQaWx0Q3VrdGRkMjM5R3dsUjdneWZaZlNaM21YNC1nRS1paEUtUmJrU0h1X2RONXA2RTZrSnRGVFk4QVAtd21pbGZET1NVb0xlU1lYS0NhSFJiWk51M211S2NDaUtjWFNoaDlSNWZaWmRWaHZoU1BtZFB4Yk84Y0ZDcjJQMA?oc=5

Artículo generado mediante LaRebelionBOT