jueves, 30 de abril de 2026

Gigantes Tecnologicos IA Impulsa Cloud Google y Amazon Lideran

El primer trimestre de 2026 ha sido testigo de un desempeño financiero impresionante por parte de las grandes tecnológicas, con Alphabet y Amazon destacando por encima de Meta en el ámbito de la inteligencia artificial y consolidando su dominio en el mercado de la nube. A pesar de las crecientes inversiones en IA, las empresas están demostrando que la demanda externa de servicios en la nube supera la capacidad actual, lo que sugiere un ciclo de inversión en IA productivo.

Gigantes Tecnológicos: IA Impulsa Cloud, Google y Amazon Lideran

Alphabet reportó ingresos de $109.9 mil millones, superando las expectativas, impulsado por un crecimiento del 63% en Google Cloud, que alcanzó los $20.02 mil millones. Este crecimiento acelerado y un sólido backlog de más de $460 mil millones confirman una fuerte demanda externa. La compañía ha incrementado su guía de gasto de capital (capex) para el año a $180-$190 mil millones, reconociendo una restricción de cómputo a corto plazo.

Por su parte, Amazon registró ventas netas de $181.5 mil millones, con AWS experimentando un crecimiento del 28% hasta los $37.59 mil millones, su ritmo más rápido en más de tres años. Si bien el capex de Amazon para 2026 se estima en aproximadamente $200 mil millones, el flujo de caja libre se vio afectado por la inversión en infraestructura de IA. La compañía proyecta ventas netas sólidas para el segundo trimestre, superando las estimaciones.

Meta, aunque con ingresos por encima de lo esperado ($56.31 mil millones), elevó su guía de capex para 2026 a $125-$145 mil millones, un aumento que impactó negativamente en sus acciones. Esta inversión se centra principalmente en infraestructura interna para sus propios sistemas, en contraste con el modelo de crecimiento impulsado por la demanda externa que muestran Google Cloud y AWS. La inversión combinada de los cinco principales proveedores de servicios en la nube (hyperscalers) en 2026 superará los $650 mil millones, marcando un hito financiero clave para los próximos años y definiendo el éxito de la era de la IA.

Fuente Original: https://thenextweb.com/news/alphabet-amazon-meta-q1-2026-earnings-ai-cloud

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Nvidia B300 Servers Hit 1M in China AI Chip Scarcity Soars

Nvidia's powerful B300 AI servers are commanding astronomical prices in China, reaching a staggering $1 million per unit. This price tag is nearly double what they cost in the US, reflecting a severe scarcity driven by a confluence of factors, including tightened US export controls and a crackdown on unofficial supply channels.

Nvidia B300 Servers Hit $1M in China: AI Chip Scarcity Soars

The surge in prices, from around 4 million yuan late last year to 7 million yuan ($1 million) today, is directly linked to the arrest of a Supermicro co-founder, which effectively choked off the grey market that Chinese AI companies had relied upon to acquire restricted hardware. This has forced businesses to scramble for limited available units, driving up both sale and rental prices. Short-term rentals are reportedly fetching as much as 190,000 yuan per month, underscoring the intense demand and limited supply.

Chinese tech firms are eager to get their hands on this hardware to power their AI models and improve inference efficiency, a crucial factor in the rapidly expanding commercial AI landscape. Many are also actively structuring their acquisitions to avoid holding the restricted Nvidia hardware on their balance sheets, fearing potential repercussions from US sanctions. The recent indictment of Supermicro's co-founder for allegedly conspiring to divert billions worth of servers containing Nvidia's export-controlled chips to China highlights the lengths to which illicit supply chains have gone and the increased enforcement risk associated with them.

This scarcity is further exacerbated by previous US restrictions on Nvidia's H20 chips, which were designed as a China-compliant alternative. The inability to access either the H20 through official channels or the B300 through the disrupted grey market has created a perfect storm, pushing prices to unprecedented levels. With new legislation in the US aiming to further restrict chip equipment sales to China, the situation is likely to intensify, making advanced AI compute even more expensive and difficult to obtain for Chinese companies.

Fuente Original: https://thenextweb.com/news/nvidia-b300-server-1-million-china-export-controls

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Amazon y OpenAI Nueva Era en la Nube

Amazon Web Services (AWS) ha marcado un hito al integrar los modelos más potentes de OpenAI en su plataforma Bedrock. Este movimiento estratégico, que coincide con la reestructuración de la exclusividad entre OpenAI y Microsoft, abre la puerta a que los clientes de AWS accedan a las capacidades de GPT-5.4 y futuras versiones directamente a través de la infraestructura de Amazon.

Amazon y OpenAI: Nueva Era en la Nube

La novedad principal reside en la disponibilidad de modelos de OpenAI en Bedrock, permitiendo a los clientes migrar sus cargas de trabajo existentes sin fricción. Esto significa que los usuarios podrán evaluar y desplegar modelos de OpenAI junto a otras ofertas de inte ligencia artificial de Anthropic, Meta, Mistral, Cohere y los propios modelos de Amazon, todo ello gestionado bajo un control unificado de seguridad, gobernanza y costos.

Este acuerdo ha sido posible tras una inversión de Amazon y la eliminación de las exclusividades previas con Microsoft, que anteriormente limitaban la distribución de productos de OpenAI. AWS busca posicionarse como la capa de infraestructura esencial para la era de la IA generativa, donde los agentes inteligentes actúen de forma autónoma dentro de los flujos de trabajo empresariales.

Más allá del acceso a modelos, AWS ha lanzado Amazon Bedrock Managed Agents. Este sistema combina los modelos de OpenAI con un "armazón" propio que permite a los agentes de IA realizar tareas complejas y tomar decisiones autónomas. La clave está en el entrenamiento de los modelos específicamente para interactuar con este "armazón" mediante aprendizaje por refuerzo, garantizando así un rendimiento y fiabilidad superiores para entornos empresariales de alto riesgo.

AWS también destaca su garantía de "cero acceso humano" a los servidores que ejecutan los modelos de OpenAI en Bedrock, reforzando la seguridad mediante su silicio personalizado. Complementando estas ofertas, Amazon Quick Desktop emerge como una herramienta de IA para trabajadores del conocimiento, integrándose con aplicaciones locales y empresariales para agilizar tareas diarias, mientras que Amazon Connect se expande a una familia de cuatro soluciones de IA para la cadena de suministro, contratación, salud y experiencia del cliente, bajo el concepto de "compañeros agentes".

Esta estrategia integral de AWS, que abarca desde la infraestructura hasta aplicaciones especializadas, busca capturar valor en toda la pila de la IA empresarial, reconfigurando la competencia con gigantes como Microsoft y Google Cloud. El objetivo es facilitar la adopción masiva de agentes de IA, pasando de un uso exclusivo por desarrolla dores a una capacidad empresarial extendida en los próximos meses.

Fuente Original: https://venturebeat.com/technology/amazons-openai-gambit-signals-a-new-phase-in-the-cloud-wars-one-where-exclusivity-no-longer-applies

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Google Corrige Fallas Criticas en Gemini CLI

Google ha solucionado vulnerabilidades de seguridad extremadamente críticas en su herramienta Gemini CLI, incluyendo una falla con puntuación CVSS de 10, la calificación máxima de severidad posible. Estas vulnerabilidades permitían la ejecución remota de código (RCE) en entornos de integración continua (CI), representando un riesgo significativo para desarrolladores y organizaciones que utilizan estas herramientas en sus flujos de trabajo.

Google Corrige Fallas Críticas en Gemini CLI

Las fallas descubiertas no solo afectaban a Gemini CLI, sino que también se identificaron problemas similares en Cursor, una popular herramienta de desarrollo asistida por inteligencia artificial. Estos defectos de seguridad permitían a atacantes potenciales ejecutar código malicioso de manera remota, comprometiendo sistemas y datos sensibles. La combinación de estas vulnerabilidades con herramientas de desarrollo modernas amplificaba considerablemente el vector de ataque.

Según el informe de Zscaler ThreatLabz sobre Riesgos de VPN 2026 realizado en colaboración con Cybersecurity Insiders, la inteligencia artificial ha colapsado significativamente la ventana de respuesta humana ante amenazas cibernéticas. Este fenómeno ha convertido el acceso remoto en la vía más rápida para perpetrar brechas de seguridad, haciendo que vulnerabilidades como las encontradas en Gemini CLI sean especialmente peligrosas en el panorama actual de ciberseguridad.

La gravedad de estas vulnerabilidades subraya la importancia crítica de mantener actualizadas todas las herramientas de desarrollo, especialmente aquellas que se integran con sistemas de inteligencia artificial y plataformas de integración continua. Los equipos de seguridad deben priorizar la aplicación inmediata de los parches de seguridad liberados por Google para proteger sus infraestructuras de desarrollo y producción contra posibles explotaciones.

Fuente Original: https://thehackernews.com/2026/04/google-fixes-cvss-10-gemini-cli-ci-rce.html

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Ubuntus AI Features Spark User Backlash Demands

Canonical's recent announcement to integrate artificial intelligence features into Ubuntu has triggered considerable controversy within the Linux community. Many users have expressed concern that the popular distribution might follow a similar path to Windows 11, which has heavily emphasised AI integration. The response from the community has been swift, with numerous requests for an AI 'kill switch' that would allow users to completely disable these forthcoming features.

Ubuntu's AI Features Spark User Backlash Demands

Jon Seager, Canonical's Vice President of Engineering, outlined the company's vision for AI integration in Ubuntu. The planned features include accessibility tools such as AI-powered speech-to-text and text-to-speech capabilities. Additionally, Canonical intends to introduce agentic AI features designed to assist with troubleshooting and automation tasks. The company is also actively encouraging its engineering teams to incorporate AI into their workflows, with plans to roll out these features progressively over the next year.

Responding to user concerns, Seager clarified that Canonical has no intention of implementing a 'global AI kill switch'. However, the company has committed to giving users control over these features. The initial rollout in Ubuntu version 26.10 will introduce AI-backed capabilities on a strictly opt-in basis as a preview. In subsequent releases, Canonical plans to include a step in the initial setup wizard allowing users to choose whether they want AI-native features enabled from the outset.

Importantly, Seager emphasised that all AI capabilities will be delivered as Snaps, layered on top of the existing Ubuntu stack. This architecture means users will always have the option to remove these Snaps if they prefer not to use AI features. For users who wish to avoid AI integration entirely, alternative distributions such as Linux Mint, Pop!_OS, or Zorin OS remain viable options. These distributions share similarities with Ubuntu but are unlikely to adopt Canonical's new AI features, providing a traditional Linux experience for those who prefer it.

Fuente Original: https://news.slashdot.org/story/26/04/29/197205/ubuntus-ai-plans-have-linux-users-looking-for-a-kill-switch?utm_source=rss1.0mainlinkanon&utm_medium=feed

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

miércoles, 29 de abril de 2026

GM Cars Get Google Gemini AI Power

General Motors is making a significant leap in automotive AI by rolling out Google Gemini to approximately four million vehicles across its Cadillac, Chevrolet, Buick, and GMC brands. This move is being hailed as one of the largest deployments of a generative AI assistant in the car industry. The update, delivered via an over-the-air Play Store update for model year 2022 and newer vehicles equipped with Google Built-in, replaces the current Google Assistant with Gemini's more advanced conversational capabilities.

GM Cars Get Google Gemini AI Power!

The key benefit for drivers is a much more natural and intuitive interaction. Unlike the current command-recognition system, Gemini, as a large language model, can understand free-form requests, maintain context throughout a conversation, and handle follow-up questions without needing to restart the interaction. This means drivers can perform multi-part requests, like getting directions, texting a family member, and then refining the route for a coffee stop, all within a single spoken exchange. Gemini also integrates with popular in-car apps such as Amazon Music, Apple Music, Spotify, and streaming services like HBO Max and Hulu, and can access web search for context-aware answers.

This massive deployment is underpinned by GM's long-standing investment in Android Automotive OS and its OnStar connectivity service, which has been its in-car backbone for decades. While Gemini is presented as an interim step, GM has a longer-term vision for a custom-built AI assistant, finely tuned with proprietary vehicle data. However, this rollout occurs amidst a backdrop of GM's data-sharing controversy and a looming FTC consent order regarding the collection and sale of driver data. GM asserts that drivers will have control over data access and that the integration is privacy-focused, though regulators and privacy advocates will be closely monitoring its implementation to ensure transparency and genuine user choice, especially given the FTC's order to obtain explicit permission for selling such data for five years.

Fuente Original: https://thenextweb.com/news/gm-google-gemini-four-million-vehicles-in-car-ai

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Mistral AI Workflows Infraestructura IA para Empresas

Mistral AI, la reconocida compañía de inteligencia artificial con sede en París, ha lanzado 'Workflows' en vista previa pública. Este novedoso motor de orquestación, impulsado por la tecnología de Temporal, está diseñado para transformar los sistemas de IA empresariales, llevándolos desde meras pruebas de concepto a procesos de negocio que generan ingresos. La propuesta de Mistral AI se centra en la idea de que el cuello de botella para la adopción de la IA en las empresas ya no es el modelo en sí, sino la infraestructura necesaria para ejecutarlo de manera fiable y a gran escala.

Mistral AI Workflows: Infraestructura IA para Empresas

Workflows aborda este desafío ofreciendo un sistema estructurado para definir, ejecutar y monitorizar procesos de IA de múltiples pasos. Sus componentes clave incluyen un kit de desarrollo para crear lógica de orquestación en código Python, una arquitectura que separa la orquestación de la ejecución (permitiendo que esta última se realice cerca de los datos del cliente para garantizar la privacidad) y un robusto sistema de observabilidad para rastrear cada paso, decisión y posible fallo. Además, Workflows es totalmente personalizable, permitiendo la integración de diversos modelos y la inyección de código arbitrario para combinar flujos deterministas con capacidades de IA.

La elección de un enfoque "code-first" en lugar de constructores visuales de bajo código subraya la dedicación de Mistral a los desarrolladores e ingenieros, asegurando la precisión y el control necesarios para operaciones críticas. Bajo el capó, Workflows se apoya en el motor de ejecución duradera de Temporal, una plataforma pr obada que garantiza la fiabilidad y el estado en procesos de larga duración. La solución ya está en producción, manejando millones de ejecuciones diarias en casos de uso como la automatización de liberaciones de carga, la verificación de cumplimiento documental en finanzas y la gestión de soporte al cliente. Workflows se posiciona como la capa intermedia de la estrategia de plataforma de IA empresarial de Mistral, complementando sus herramientas de entrenamiento de modelos (Forge) y su interfaz de usuario (Vibe), con el objetivo de democratizar la implementación de IA en el mundo empresarial.

Fuente Original: https://venturebeat.com/technology/mistral-ai-launches-workflows-a-temporal-powered-orchestration-engine-already-running-millions-of-daily-executions

Artículos relacionad os de LaRebelión:

Artículo generado mediante LaRebelionBOT

Nvidia Lanza Nemotron 3 Nano Omni Revolucionario

Nvidia ha dado un paso audaz en el mercado de inteligencia artificial al lanzar Nemotron 3 Nano Omni, un modelo multimodal de código abierto que unifica visión, audio y lenguaje en una sola arquitectura. Con 30 mil millones de parámetros pero solo 3 mil millones activos por inferencia, este modelo representa el movimiento más agresivo de la compañía para competir no solo en infraestructura de IA, sino en los modelos que se ejecutan en ella.

Nvidia Lanza Nemotron 3 Nano Omni Revolucionario

El modelo utiliza un diseño de mezcla de expertos que le permite funcionar en una sola GPU mientras iguala o supera las capacidades multimodales de modelos varias veces más grandes. Nvidia afirma que ofrece nueve veces mayor rendimiento que modelos multimodales abiertos comparables, 2.9 veces más rápido en razonamiento de tareas multimodales y aproximadamente nueve veces mayor capacidad efectiva del sistema para razonamiento de video. El modelo lidera seis benchmarks en inteligencia documental, comprensión de video y audio.

La arquitectura híbrida Mamba-Transformer de Nemotron 3 Nano Omni incluye 23 capas de espacio de estado selectivo Mamba-2, 23 capas de mezcla de expertos con 128 expertos que se enrutan a seis por token, y seis capas de atención de consulta agrupada. Procesa texto, imágenes, audio, video, documentos, gráficos e interfaces como entradas, produciendo texto como salida. Esto significa que un solo modelo puede reemplazar el mosaico de modelos especializados de visión, voz y procesamiento de documentos que la mayoría de las implementaciones empresariales actualmente utilizan.

La estrategia de Nvidia es circular pero poderosa: sus modelos están optimizados para su hardware, y su hardware está optimizado para sus modelos, creando un ecosistema completo que compite con las ofertas de modelo más nube de Google, Amazon y Microsoft. La familia de modelos Nemotron ha sido descargada más de 50 millones de veces en el último año, demostrando la tracción de esta estrategia.

Entre las empresas que ya están adoptando el modelo se encuentran Foxconn, Palantir, Aible y ASI, mientras que Dell, DocuSign, Infosys, Oracle y Zefr están evaluándolo para implementación en producción. Los casos de uso incluyen inspección visual en plantas de fabricación, procesamiento de documentos, aplicaciones de agentes de voz y comprensión de pantalla para agentes de uso de computadora, reflejando el mercado que Nvidia está apuntando: agentes de IA industriales que necesitan ver, escuchar y leer en tiempo real en hardware local.

Lo que distingue a Nemotron 3 Nano Omni no es una sola capacidad, sino la combinación: percepción multimodal en visión, audio y texto en un solo modelo, con eficiencia de mezcla de expertos que permite implementación en el borde, lanzado como pesos abiertos con licencia comercial. Ningún otro modelo actualmente ofrece las cuatro propiedades juntas. Si los modelos abiertos de Nvidia se convierten en el estándar para implementación de agentes de IA en el borde, la compañía captura valor en cada capa de la pila: la GPU que ejecuta la inferencia, el marco de software que la optimiza y ahora el modelo mismo.

Fuente Original: https://thenextweb.com/news/nvidia-nemotron-nano-omni-multimodal-agent-edge

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Poolside Launches Free Open-Source Coding AI Model

The artificial intelligence landscape has witnessed an intriguing development as American startup Poolside releases two groundbreaking large language models designed specifically for agentic coding workflows. Whilst tech giants Anthropic and OpenAI continue their expensive model rivalry, and Chinese companies like DeepSeek pursue affordable alternatives, this San Francisco-based company founded in 2023 has emerged with a compelling proposition: high-performance AI models that are both accessible and, in one case, completely open-source.

Poolside Launches Free Open-Source Coding AI Model

Poolside's release comprises two distinct models. The flagship Laguna M.1 is a proprietary 225-billion parameter Mixture of Experts model with 23 billion active parameters, optimised for complex enterprise and government software engineering challenges. However, the more disruptive offering is Laguna XS.2, a 33-billion parameter model with just 3 billion active parameters, released under the permissive Apache 2.0 open-source licence. This smaller model can run entirely offline on consumer hardware—requiring as little as 36GB of unified memory on Apple Silicon or 24-32GB VRAM on PCs with quantisation—delivering complete privacy and security for developers working on sensitive projects.

What makes these models remarkable is their performance relative to size. On the SWE-bench Pro benchmark, which tests real-world software problem-solving abilities, Laguna M.1 achieved 46.9% whilst the considerably smaller XS.2 scored an impressive 44.5%, nearly matching its larger sibling and outperforming competitors like Claude Haiku 4.5 and Gemma 4. These models weren't simply fine-tuned from existing frameworks but trained from scratch using Poolside's proprietary "Model Factory" infrastructure, incorporating 30 trillion tokens of carefully curated data—13% of which is synthetic, custom-made practice material designed to teach specific skills.

Poolside's training methodology employs sophisticated systems including the Muon optimiser, which accelerates learning approximately 15% faster than standard methods, and AutoMixer, which scientifically determines optimal combinations of code, mathematics, and general knowledge. Following initial training, models undergo reinforcement learning in virtual environments where they practice solving real software engineering problems through trial and error, receiving rewards for successful bug fixes and working code—transforming them from text generators into capable autonomous agents.

Beyond the models themselves, Poolside has introduced two complementary tools. "Pool" is a terminal-based coding agent that functions as an Agent Client Protocol server, bringing researchers' internal training tools to the public. "Shimmer" is a cloud-native development environment offering instant-on virtual machine sandboxes with integrated AI agents, remarkably designed to function even on smartphones—suggesting a future where complex engineering work isn't confined to desktop computers. The company's decision to release XS.2 under Apache 2.0 licensing, allowing unrestricted commercial use without royalties, reflects their conviction that "the West needs strong open-weight models" and positions Poolside as a cornerstone of the open-AI ecosystem, directly challenging the predominantly closed approaches of major competitors.

Fuente Original: https://venturebeat.com/technology/american-ai-startup-poolside-launches-free-high-performing-open-model-laguna-xs-2-for-local-agentic-coding

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

martes, 28 de abril de 2026

Vuelo Caribeno FAA Extiende Prohibicion Sorpresa

La Administración Federal de Aviación (FAA) de Estados Unidos ha tomado la decisión de extender la prohibición de vuelos hacia un país caribeño específico. Esta medida, que inicialmente se implementó para abordar preocupaciones de seguridad, ahora se prolonga, generando incertidumbre para viajeros y aerolíneas. Aunque los detalles exactos de las razones detrás de la extensión no se han revelado completamente, se infiere que persisten riesgos significativos que impiden la reanudación segura de los servicios aéreos.

Vuelo Caribeño: FAA Extiende Prohibición Sorpresa

La extensión de esta prohibición subraya la seriedad con la que la FAA evalúa los protocolos de seguridad y la infraestructura aeronáutica de los países con los que mantiene vínculos aéreos. Si bien el país en cuestión no se menciona explícitamente en el título del artículo original, la implicación es que enfrenta desafíos que han llevado a la FAA a mantener una postura restrictiva. Los pasajeros que tenían planes de viajar a esta nación caribeña deberán estar atentos a futuras actualizaciones y buscar alternativas, mientras que las aerolíneas deberán ajustar sus operaciones y rutas en consecuencia. La seguridad aérea es primordial, y la FAA está comprometida a garantizar que todas las operaciones cumplan con los más altos estándares antes de levantar cualquier restricción.

Fuente Original: https://news.google.com/rss/articles/CBMimgFBVV95cUxNQU5zMy1veF96RmtVcGF0Y2VTWFROZlJ3VG5NcnEtUjc5SVdMSkdFR2VremV0RFZXeWk2ZjZfWElXMUpENWFRdmx2c0JzS3ppMUZsTGgyQ3NBUDdVOFNlMWZnQUFQQm5nRnlpOW9BWkpfNGRmUm1CejRxUFpTZll6WmY0aGQ5UWZYVnB4OHFGUDVGeC03UWVXWDJB0gGuAUFVX3lxTE1LM0VGeTBWLVhXLVp5QWhRNW1JRGo0aFVMUWEzWGstWnFjZF9qTVBmOGxTbnU5dzhlVTltd2Y5VmFqM0lJVlpndUlyRGJmNXZVQ3NGSzFVOEhCMHRlaklRX3dyY3ROaGllTmpWMHRGOGF6eWplLUpoX0d6dFZyVjkxdmlaV0N0Wl9aVjFTdGNudWZMRTVxRGMtS2J6M0pySHhwSFlhNUZSUEo0c2Nudw?oc=5

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Redpine Secures 68M for Licensed AI Data API

In a significant move for the burgeoning AI landscape, Stockholm-based startup Redpine has successfully raised €6.8 million in new funding. This latest round, spearheaded by NordicNinja, with contributions from Luminar Ventures, node.vc, and notable tech founders, brings Redpine's total funding to an impressive €9 million. The company's core mission is to revolutionise how AI agents access and utilise data by providing a licensed, real-time API for premium datasets.

Redpine Secures €6.8M for Licensed AI Data API

Redpine tackles a critical issue plaguing the AI industry: the reliance on scraped internet data for training. This approach is fraught with legal fragility, questionable data quality, and a lack of compensation for the original creators. As legal pressures mount, exemplified by recent copyright settlements and new EU disclosure requireme nts, the need for a legitimate and reliable data infrastructure becomes paramount. Redpine positions itself as the solution, drawing a parallel to Spotify's disruption of the music industry by making licensed access convenient and superior to illicit alternatives.

The platform functions as a headless API, enabling AI agents to query and pay for premium licensed datasets on a token-based model. This ensures that costs scale directly with usage, offering a more dynamic and cost-effective solution than traditional subscription services. Redpine's technology focuses on evaluating data quality in real-time, filtering out inaccuracies to ensure that mission-critical domains like healthcare, legal, finance, scientific research, and news receive reliable information. The backing from investors with deep ties to AI pioneers like OpenAI and Perplexity underscores the perceived value of Redpine's API-native, agent-first approach, aiming to become the global leader in AI data infrastructu re within the next three to five years.

Fuente Original: https://thenextweb.com/news/redpine-raises-e6-8m-api-for-ai-agents

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Google y el Pentagono IA sin limites para fines militares

Google ha sellado un acuerdo clasificado con el Departamento de Defensa de Estados Unidos (Pentágono) que permitirá a la entidad militar emplear los modelos de inteligencia artificial de Google para "cualquier propósito gubernamental legal". Este pacto se produce a pesar de una carta abierta de más de 560 empleados de Google instando a la compañía a evitar este tipo de colaboraciones militares clasificadas.

Google y el Pentágono: IA sin límites para fines militares

Lo que distingue este acuerdo es la ausencia de las restricciones éticas que llevaron a Anthropic, otra empresa de IA, a ser excluida de contratos militares en febrero. Mientras Anthropic se negó a eliminar prohibiciones contractuales sobre vigilancia doméstica masiva y armas autónomas sin supervisión humana, el acuerdo de Google parece otorgar al Pentágono una discreción considerablemente más amplia. Fuentes sugieren que el contrato de Google se alinea con el modelo sin restricciones preferido por la administración anterior, a diferencia del de OpenAI, que negoció algunas salvaguardias.

Google se suma así a OpenAI y xAI como proveedor de capacidades de IA clasificadas para el ejército estadounidense. La situación de Anthropic, excluida por mantener sus principios éticos, contrasta con la de OpenAI, que renegoció para permanecer, y xAI, que firmó sin restricciones aparentes. La decisión de Google, especialmente por el momento en que se produce tras la protesta de sus empleados, pone de manifiesto la tensión entre las demandas del gobierno para aplicaciones militares de IA y los principios éticos que las propias empresas tecnológicas han proclamado. El futuro de estas colaboraciones dependerá de la evolución del panorama político y de la presión interna de los empleados.

Fuente Original: https://thenextweb.com/news/google-pentagon-classified-ai-deal

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Microsoft y OpenAI Rompen Su Acuerdo Exclusivo

Microsoft y OpenAI han anunciado una transformación radical de su histórica alianza que definió la era comercial de la inteligencia artificial. El lunes 27 de abril de 2026, ambas compañías revelaron simultáneamente cambios fundamentales en su acuerdo de exclusividad, permitiendo ahora a OpenAI vender sus servicios en plataformas rivales como AWS de Amazon y Google Cloud. Esta reestructuración desmantela los pilares clave del pacto original firmado en 2019, cuando Microsoft invirtió inicialmente mil millones de dólares en OpenAI.

Microsoft y OpenAI Rompen Su Acuerdo Exclusivo

Bajo los nuevos términos, Microsoft ya no pagará ninguna participación de ingresos a OpenAI cuando los clientes accedan a sus modelos a través de Azure. OpenAI, por su parte, continuará pagando a Microsoft una participación del 20 por ciento hasta 2030, pero con un tope total establecido. La licencia de Microsoft sobre la propiedad intelectual de OpenAI, que antes era exclusiva, ahora se ha convertido en no exclusiva y se extenderá hasta 2032. Lo más significativo es que OpenAI puede ahora servir todos sus productos en cualquier proveedor de nube, terminando con la exclusividad que había sido fundamental en el acuerdo original.

El catalizador inmediato de esta reestructuración fue la inversión de 50 mil millones de dólares de Amazon en OpenAI anunciada en febrero. Amazon comprometió 15 mil millones inicialmente, con otros 35 mil millones programados bajo ciertas condiciones. A cambio, OpenAI acordó expandir su relación con AWS por 100 mil millones durante ocho años y hacer de AWS el proveedor exclusivo de distribución de terceros para Frontier, su nueva plataforma empresarial. Este acuerdo contradecía directamente los términos exclusivos del contrato existente con Microsoft, creando una crisis legal que amenazaba con litigios.

Los cambios financieros son sustanciales. Bajo el antiguo acuerdo, el dinero fluía en ambas direcciones entre las compañías. Ahora, el flujo se vuelve unidireccional: Microsoft deja de pagar a OpenAI completamente, mientras que OpenAI continúa pagando a Microsoft hasta 2030 con un límite establecido. Microsoft conserva aproximadamente el 27 por ciento de propiedad en la entidad con fines de lucro de OpenAI y reportó 7.5 mil millones de dólares en ingresos relacionados con OpenAI solo en el último trimestre.

Un aspecto filosóficamente intrigante es la desaparición de la cláusula AGI (Inteligencia General Artificial) que originalmente gobernaba la asociación. El acuerdo inicial estipulaba que los derechos exclusivos de Microsoft cambiarían si OpenAI alcanzaba AGI, un hito vagamente definido. Esta provisión ha sido reemplazada por fechas fijas y límites monetarios, señalando que la industria ha superado el marco conceptual que una vez definió esta alianza.

Los grandes beneficiarios inmediatos son los clientes empresariales, que durante años solo tenían Azure como opción para acceder a los modelos de OpenAI. Ahora, según el CEO de Amazon Andy Jassy, los modelos de OpenAI estarán disponibles en AWS Bedrock en las próximas semanas. Esta disponibilidad multi-nube llega en un momento de intensa consolidación en el mercado de infraestructura de IA, donde Microsoft compite con OpenAI en productos, se asocia con el rival de OpenAI, Anthropic, y sigue siendo el mayor accionista de OpenAI.

Fuente Original: https://venturebeat.com/technology/microsoft-and-openai-gut-their-exclusive-deal-freeing-openai-to-sell-on-aws-and-google-cloud

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Xiaomis Open-Source AI Models Dominate Agentic Tasks

Chinese technology giant Xiaomi has released two groundbreaking open-source AI models that are revolutionising the landscape of agentic artificial intelligence. The MiMo-V2.5 and MiMo-V2.5-Pro models are now available under the permissive MIT Licence, making them exceptionally attractive for enterprise deployment. What sets these models apart is their remarkable efficiency in powering 'claw' tasks—autonomous agents that complete complex assignments on behalf of users, from managing email to creating marketing content.

Xiaomi's Open-Source AI Models Dominate Agentic Tasks

The performance metrics are genuinely impressive. According to Xiaomi's ClawEval benchmarks, the Pro version leads the open-source field with a 63.8% success rate whilst consuming merely 70,000 tokens per trajectory. This represents a staggering 40-60% reduction in token usage compared to industry heavyweights like Anthropic's Claude Opus 4.6, Google's Gemini 3.1 Pro, and OpenAI's GPT-5.4. In an era where services are increasingly moving towards usage-based billing—as evidenced by GitHub Copilot's recent shift to metered pricing—this efficiency translates directly into substantial cost savings for enterprises.

Xiaomi has strategically released two distinct versions to serve different developer needs. The base MiMo-V2.5 is a multimodal specialist, whilst the MiMo-V2.5-Pro is engineered specifically for long-horizon coherence and complex software engineering tasks. The Pro model's capabilities are nothing short of remarkable: it autonomously implemented a complete SysY compiler in Rust within 4.3 hours—a task that typically takes computer science students several weeks. It also created a fully-featured video editor with 8,192 lines of code over 11.5 hours, demonstrating sustained coherence across 1,868 sequential tool calls.

The pricing structure is aggressively competitive. For international developers, the MiMo-V2.5-Pro costs $1.00 per million input tokens and $3.00 for output within 256K context windows. The base model starts at just $0.40 per million input tokens, positioning it amongst the most affordable leading language models globally. Xiaomi has even made cache writing free of charge for a limited period, further lowering barriers to agentic development.

Architecturally, both models employ a Sparse Mixture-of-Experts design. The base V2.5 features 310 billion total parameters with 15 billion active during inference, whilst the Pro version boasts a massive 1.02 trillion parameters with 42 billion active. This architecture functions like a specialised hospital where only the relevant specialists are called upon for each query, ensuring computational efficiency. The models also feature a native 1-million-token context window, enabling them to maintain coherence across extraordinarily long interactions.

Perhaps the most significant aspect of this release is the MIT Licence, which grants unrestricted commercial use without revenue caps or user-base limits. This stands in stark contrast to many 'open' models that include restrictive acceptable use policies. Enterprises can deploy, modify, fine-tune on proprietary data, and even release derivative versions without seeking permission from Xiaomi. This positions MiMo as foundational infrastructure for the next generation of AI agents, effectively treating the model as a public utility.

The release has received immediate ecosystem support, with popular inference engines SGLang and vLLM providing Day-0 compatibility. Hardware partnerships with AWS, AMD, T-HEAD, and Enflame ensure the models can run efficiently across diverse computing environments. To accelerate adoption, project lead Fuli Luo announced a 100-trillion free token grant for developers and creators, eliminating financial barriers to experimentation with the extensive context window capabilities.

Fuente Original: https://venturebeat.com/technology/open-source-xiaomi-mimo-v2-5-and-v2-5-pro-are-among-the-most-efficient-and-affordable-at-agentic-claw-tasks

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

lunes, 27 de abril de 2026

Malware Snow Teams y Email Roban Active Directory

El grupo de ciberdelincuentes UNC6692 ha perfeccionado una técnica insidiosa para infiltrarse en redes corporativas, combinando tácticas de 'bombardeo de correo' con ingeniería social a través de Microsoft Teams. El objetivo final es engañar a los empleados para que instalen un supuesto parche de seguridad que, en realidad, es un malware avanzado llamado Snow. Esta campaña no solo busca obtener control remoto y moverse lateralmente dentro de la red, sino que culmina en el robo de datos críticos, incluyendo la valiosa base de datos de Active Directory.

Malware Snow: Teams y Email Roban Active Directory

La estrategia de UNC6692 aprovecha la confianza que los empleados depositan en herramientas de uso diario como Microsoft Teams . Al hacerse pasar por personal de soporte técnico (helpdesk), los atacantes pueden interactuar con las víctimas de manera directa y persuasiva, ofreciendo una solución rápida a un problema inexistente. El ataque comienza con una oleada de correos electrónicos diseñados para abrumar al usuario y generar una sensación de urgencia. Justo en ese momento de distracción, se inicia un chat en Teams donde se ofrece el falso parche bajo la premisa de frenar el spam. Este 'parche' actúa como un 'dropper', ejecutando scripts que preparan el terreno para la instalación de un conjunto de herramientas maliciosas.

Una de las piezas clave de este malware es SnowBelt, una extensión maliciosa para Chrome que opera de forma oculta dentro de Microsoft Edge. Para asegurar su persistencia, se crean tareas programadas y se añade un acceso directo en la carpeta de inicio del usuario. Posteriormente, SnowBelt actúa como un relé para SnowBasin, una puerta trasera escrita en Python capaz de ejecutar comandos, descargar y exfiltrar archivos, y establecer sesiones de shell remoto. La comunicación con la infraestructura del atacante se camufla y asegura a través de SnowGlaze, que crea un túnel WebSocket disfrazado como tráfico legítimo de Edge, permitiendo incluso redirigir tráfico TCP arbitrario. Una vez dentro, el grupo procede a la fase de reconocimiento del dominio, buscando activamente sistemas con información sensible para robar credenciales mediante técnicas como el volcado de memoria de LSASS y el movimiento lateral con 'pass the hash', con el objetivo final de acceder al controlador de dominio y extraer la base de datos de Active Directory.

Fuente Original: https://unaaldia.hispasec.com/2026/04/unc6692-usa-microsoft-teams-y-bombardeo-de-correo-para-colar-el-malware-snow-y-robar-active-directory.html?utm_source=rss&utm_medium=rss&utm_campaign=unc6692-usa-microsoft-teams-y-bombardeo-de-correo-para-colar-el-malware-snow-y-robar-active-directory

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

China Reverses Meta AI Deal What You Need to Know

In a significant development in the world of artificial intelligence, China has announced its intention to reverse a major acquisition deal involving Meta, the parent company of Facebook. This move signals a growing trend of increased scrutiny and regulation of foreign technology acquisitions within China, particularly in the rapidly evolving AI sector.

China Reverses Meta AI Deal: What You Need to Know

The exact details of the acquisition have not been fully disclosed, but it is understood to be a substantial investment by Meta in an AI-related entity or technology within China. The Chinese government's decision to block or unwind this deal underscores its commitment to maintaining control over its domestic AI landscape and national security interests. This action is likely influenced by broader geopolitical tensions and a desire to foster indigenous AI development while safeguarding its technological future.

The reversal highlights the complexities and risks associated with cross-border tech deals, especially in sensitive areas like artificial intelligence. For Meta, this represents a setback in its global AI expansion strategy and may lead to a reassessment of its investment approaches in markets with stringent regulatory environments. The implications of this decision could extend to other foreign tech companies looking to engage with the Chinese market, potentially creating a more cautious and selective investment climate. This event is a clear indicator of China's assertive stance in shaping its technological destiny and its willingness to intervene in major acquisitions deemed to be against its national interests.

Fuente Original: https://news.google.com/rss/articles/CBMid0FVX3lxTE4wbEw4czdzUDJyMVV4S19rT2JNTG9ySTZub2lsVzUzc0tEbjRIZWVOdnAzWkxONldEMmZBRGR4S2J6RlRSRlRFTEVYYXlEcjN3dzJ6WG1WOThxT0RyVHpacmEtU05OTXZuRkpYNEoxaUN2QkhVc2cw?oc=5

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Musk vs OpenAI Duelo Legal por el Futuro de la IA

La inteligencia artificial está en el centro de una batalla legal sin precedentes. Elon Musk, figura clave en los inicios de OpenAI, ha decidido demandar a la organización que cofundó, alegando que esta ha traicionado sus principios fundacionales. Musk sostiene que OpenAI, bajo el liderazgo de Sam Altman, ha pasado de ser una entidad sin fines de lucro dedicada al beneficio de la humanidad a convertirse en una empresa impulsada por el lucro, aliándose con gigantes tecnológicos como Microsoft.

Musk vs. OpenAI: Duelo Legal por el Futuro de la IA

La demanda se centra en la supuesta desviación de la misión original de OpenAI, que era desarrollar IA de manera abierta y accesible para el bien común. Musk argumenta que la creciente exclusividad y las ambiciones comerciales de OpenAI, especialmente su colaboración con Microsoft y la búsqueda de beneficios económicos, van en contra del espíritu con el que se creó la compañía. La disputa pone de manifiesto las tensiones inherentes al rápido avance de la IA y el debate sobre quién debe controlar y beneficiarse de esta tecnología transformadora.

Este enfrentamiento legal no solo es significativo por las personalidades involucradas, sino también por las implicaciones que podría tener en el desarrollo futuro de la inteligencia artificial. La resolución de este caso podría sentar un precedente sobre la propiedad intelectual, la ética en la investigación de IA y el equilibrio entre la innovación comercial y el acceso público a tecnologías avanzadas. La comunidad tecnológica observa de cerca este duelo, que promete ser definitorio para el panorama de la IA.

Fuente Original: https://news.google.com/rss/articles/CBMi4AFBVV95cUxPaGtCQ0JxR3FuMDZFQ1RXd20yeHkyaEdmbUEyRV9CUE9oVHJnaVZka2Z1TXA3RW0wek1mX2VjLUQ2TTFlMml6MVZBSE5aaDBjamRRZktsd09mR20zazBPZHFlVXNOZTA1a184anFCSmU0ek9aZmV6dFFDeERvcG1MR25saTFkRmZwNndISWRuNC0yYU9SVWQ5VW1OVDdsa0UtT1VWeXpVYXpSTFc1WXAyd09wSnBXM3FJcE1Hd0dlazZMQ2ZTZWhMSHZVTl9LdVRJdkRSeVpIQk1jdlRiU3Zvaw?oc=5

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

DeepSeek Reduce Precios 75 y Desafia IA

DeepSeek ha lanzado una agresiva estrategia de precios que está sacudiendo la industria de la inteligencia artificial. La compañía china anunció un descuento promocional del 75% en su modelo DeepSeek-V4-Pro para desarrolladores, válido hasta el 5 de mayo de 2026. Simultáneamente, la empresa redujo los costos de caché en toda su suite de API a una décima parte de los niveles anteriores, con efecto inmediato. Este movimiento representa un desafío directo a los proveedores estadounidenses de IA como OpenAI, Google y Anthropic, intensificando una guerra de precios que DeepSeek inició en enero de 2025 con su modelo R1.

DeepSeek Reduce Precios 75% y Desafía IA

El contexto de precios es revelador. Incluso sin el descuento promocional, DeepSeek-V4-Pro ya costaba 0.145 dólares por millón de tokens de entrada y 3.48 dólares por millón de tokens de salida, precios inferiores a los de GPT-5.5 de OpenAI, Gemini 3.1 Pro de Google y Claude Opus 4.7 de Anthropic. Con el descuento del 75%, el precio de entrada se reduce a aproximadamente 0.036 dólares por millón de tokens, estableciendo un nuevo estándar de bajo costo en la industria. La variante Flash del modelo, más pequeña y rápida, también mantiene precios altamente competitivos que superan a alternativas como GPT-5.4 Mini y Claude Haiku 4.5.

La estrategia de DeepSeek es clara y multifacética. La disponibilidad de código abierto elimina completamente las barreras de acceso al modelo, mientras que los precios agresivos de la API eliminan las restricciones de costo para la implementación en producción. El modelo V4-Pro incluye una ventana de contexto de 1 millón de tokens, lo que lo hace viable para casos de uso empresarial que involucran grandes bases de código o documentos extensos. Además, se integra nativamente con frameworks de codificación agente dominantes como Claude Code, OpenClaw y OpenCode, facilitando la transición para desarrolladores que ya trabajan en el ecosistema de IA occidental.

El modelo V4-Pro, lanzado el viernes pasado, es un modelo de mezcla de expertos con 1.6 billones de parámetros totales y 49 mil millones de parámetros activos por tarea, convirtiéndose en el modelo de peso abierto más grande disponible actualmente. Su Arquitectura de Atención Híbrida está diseñada para mantener coherencia en contextos largos. Significativamente, está entrenado y optimizado para chips Ascend 950 de Huawei y hardware Cambricon, en lugar de GPUs de Nvidia, lo que permite construir y desplegar sistemas de IA sin depender exclusivamente de la tecnología estadounidense.

Este anuncio llega en un momento geopolítico tenso. La semana pasada, el Director de Política Científica y Tecnológica de la Casa Blanca, Michael Kratsios, acusó a entidades extranjeras, principalmente chinas, de realizar campañas a "escala industrial" para destilar modelos de IA de vanguardia de empresas estadounidenses. Aunque no mencionó directamente a DeepSeek, tanto Anthropic como OpenAI han acusado previamente a la empresa china de destilar sus modelos. La respuesta de DeepSeek tres días después del lanzamiento de V4 no fue abordar las acusaciones directamente, sino recortar precios aún más, un movimiento competitivo que también representa una declaración política sobre dónde cree la compañía que se decidirá finalmente la carrera de la IA.

Fuente Original: https://thenextweb.com/news/deepseek-v4-pro-price-cut-75-percent

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Google Uncovers AI Prompt Injection Attacks Online

Google's Threat Intelligence teams have conducted a comprehensive investigation into prompt injection attacks targeting AI agents as they browse the web. Analysing billions of pages from Common Crawl's public web repository, researchers discovered a concerning landscape of malicious attempts to manipulate AI systems, ranging from simple pranks to potentially dangerous commands.

Google Uncovers AI Prompt Injection Attacks Online

The study revealed several categories of prompt injection attacks. Some websites contained instructions attempting to vandalize users' machines, including commands designed to delete all files. Whilst researchers deemed such basic attacks unlikely to succeed, they represent a growing trend. Between November 2025 and February 2026, malicious prompt injections increased by 32%, signalling heightened interest in Indirect Prompt Injection (IPI) attacks amongst threat actors.

Amongst the examples discovered, researchers found websites using invisible text with transparent fonts to hide malicious prompts, instructing AI systems to ignore previous commands and behave erratically. Another site attempted to waste AI resources by streaming infinite text that never finished loading, potentially causing timeout errors. Some injections were more whimsical, asking AI to tell children's stories about flying squids or tweet like baby birds, likely experimental pranks by curious website authors.

Not all prompt injections were malicious. Google identified benign cases where website owners simply wanted to ensure AI summaries included relevant context for readers. However, researchers warned such techniques could easily become harmful if used to spread misinformation or redirect users to third-party sites. SEO manipulation emerged as another common use case, with businesses attempting to make AI assistants promote their services over competitors.

Perhaps most concerning were attempts at data exfiltration. A small number of prompts tried instructing AI to send sensitive information, including password files and SSH directory contents, along with system IP addresses. Fortunately, researchers noted they hadn't observed widespread deployment of sophisticated exfiltration techniques published by security researchers in 2025, suggesting attackers haven't yet scaled these methods. As AI systems become more capable and valuable targets, whilst threat actors increasingly automate operations with agentic AI, Google expects both the scale and sophistication of IPI attacks to grow significantly in the near future.

Fuente Original: https://it.slashdot.org/story/26/04/26/2345211/google-studies-prompt-injection-attacks-against-ai-agents-browsing-the-web?utm_source=rss1.0mainlinkanon&utm_medium=feed

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

domingo, 26 de abril de 2026

DeepSeek Lanza IA de 16T Robo o Progreso en EEUU

La tecnología de inteligencia artificial avanza a pasos agigantados, y DeepSeek, una destacada empresa china, ha lanzado su modelo V4 con la asombrosa cifra de 1.6 billones de parámetros. Este hito tecnológico se ha logrado gracias a la utilización de los chips de Huawei, lo que subraya la creciente capacidad de China en el campo de la IA.

DeepSeek Lanza IA de 1.6T: ¿Robo o Progreso en EE.UU.?

Sin embargo, este lanzamiento coincide con un momento de gran tensión geopolítica. El gobierno de Estados Unidos ha intensificado sus acusaciones sobre robo de propiedad intelectual, señalando a DeepSeek y a otras empresas chinas de IA por supuestas prácticas ilícitas. Este escenario crea una dicotomía fascinante: por un lado, el progreso tecnológico que podría beneficiar a la humanidad; por otro, las preocupaciones sobre la comp etencia desleal y la seguridad nacional.

El modelo V4 de DeepSeek promete capacidades sin precedentes en el procesamiento del lenguaje natural y otras áreas de la IA. La elección de los chips de Huawei para potenciar este modelo no es casual, ya que representa la apuesta de China por desarrollar su propia infraestructura tecnológica de vanguardia, independientemente de las restricciones impuestas por Estados Unidos. La industria de la IA se encuentra en un punto de inflexión, donde la innovación y las disputas geopolíticas se entrelazan de manera inextricable. El futuro de la IA dependerá de cómo se gestionen estas tensiones y de si se logra un equilibrio entre la competencia y la colaboración global.

Fuente Original: https://news.google.com/rss/articles/CBMi9gFBVV95cUxObGdBd0NJQ0pTc29TOWhIXzZUR0xSQUlIWXd2NFJMYVZyMmhJMmRSaDF1NUE0Smtpa1VzWXpDSkp4RFN4ZlUwNlJySlowMXg1dVg4NVl3RWE1TDJOUE5ieDM0ODJfN2lOblotcm84YkNzV3h2YkpmX2pRLUc5R2dOZWlWSjZuQ2p6cWIxSU1qWWpweUVfdnlkbmx2V25ienNBSGhISEF3bzd3ek1WV2o3VWxENnRheTNLLVBXdDhzQlY3U0MtTzhQUjg3ZmNGcVNzdEtxem54QnY3cldhOE9QUDBZenJJemNXMTN5NWFUd2h0Qk9na0E?oc=5

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Colorado Protects Open Source in New Age Verification Law

Colorado's recent legislative move aims to tackle online age verification, but thankfully, it's not at the expense of the open-source community. A bill initially focused on requiring operating system providers and app stores to implement age-related signals has been amended to include crucial exemptions for open-source software.

Colorado Protects Open Source in New Age Verification Law

This updated legislation now explicitly exempts open-source operating systems, applications, code repositories, and containerised software distributions from its core requirements. This means that providers or developers distributing software under licenses that permit unrestricted copying, redistribution, and modification are no longer subject to the bill's age verification mandates. This broad wording effectively covers many popular Linux distributions and open-source applications, ensuring they can continue to operate without being bogged down by age-verification hurdles.

Furthermore, the amendment clarifies that applications hosted on free, public code repositories are not considered 'covered applications.' It also specifically excludes code repository providers like GitHub and GitLab, as well as containerised software distribution platforms such as Docker and Podman, from being classified as 'covered app stores.' This thoughtful exclusion prevents these vital collaborative platforms from being inadvertently ensnared by the bill's regulations, safeguarding the collaborative spirit of open-source development. While the legislative journey isn't entirely complete, this is a significant step towards protecting the open-source ecosystem in Colorado.

Fuente Original: https://yro.slashdot.org/story/26/04/25/2124221/colorado-adds-open-source-exemption-to-age-verification-bill?utm_source=rss1.0mainlinkanon&utm_medium=feed

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

IA y Captchas Cognitivos El Nuevo Internet Agente

La reciente explosión de la inteligencia artificial (IA) ha dado lugar a un cambio de paradigma en internet, pasando de un enfoque centrado en el usuario ('Human First') a uno orientado a la automatización ('API First') y ahora a la era del 'MCP & Agentic First'. En esta nueva fase, la inteligencia artificial se convierte en el protagonista, utilizando interfaces de línea de comandos (CLI) y formatos de datos como JSON y Markdown para interactuar de manera eficiente con los Modelos de Lenguaje Grandes Multimodales (MM-LLMs). Sin embargo, esta transición presenta un desafío significativo: la persistencia de los captchas cognitivos, diseñados originalmente para humanos, que ahora deben ser superados por agentes de IA.

IA y Captchas Cognitivos: El Nuevo Internet Agente

Históricamente, el mundo del cibercrimen ha desarrollado soluciones sofisticadas para evadir los captchas. El artículo detalla cómo estas técnicas, que incluyen la resolución de captchas visuales, auditivos y de resolución de problemas mediante MM-LLMs como GPT-4o o Gemini, son aplicables para que los agentes de IA naveguen por internet de forma autónoma. A pesar de las salvaguardas incorporadas en muchos MM-LLMs para prevenir el uso indebido, como la negativa a resolver captchas directamente, el artículo sugiere que un 'jailbreak' sencillo, modificando el 'system prompt' o el enfoque de la tarea, puede ser suficiente para habilitar esta funcionalidad. El ejemplo de la selección de plazas de parking ilustra cómo un MM-LLM puede cometer errores ("hallucinations") si no se le guía adecuadamente, pero con instrucciones precisas, puede resolver estas tareas de manera efectiva, generando respuestas estructuradas para ser consumidas por agentes de IA.

La proliferación de bots en internet, que ya superan el 30% del tráfico HTTP global, subraya la urgencia de repensar la arquitectura de internet. Los captchas cognitivos, como barrera para la automatización, entran en conflicto directo con el avance del 'Agentic Internet'. El autor argumenta que la solución no radica en eliminar la IA, sino en adaptar las tecnologías existentes, como se ha hecho en el pasado con la evolución hacia internet móvil y las APIs. La revolución del 'Agentic Internet' se perfila como una transformación más profunda que las anteriores, donde los agentes de IA podrían llegar a dominar el tráfico en línea, alterando fundamentalmente la forma en que interactuamos con la red.

Fuente Original: http://www.elladodelmal.com/2026/04/agentic-internet-y-captchas-cognitivos.html

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Linux Ahora Corre en Windows 95 y 98

Un desarrollador de código abierto ha logrado una hazaña técnica impresionante al crear WSL9x, un proyecto que permite ejecutar Linux en versiones antiguas de Windows como Windows 95, Windows 98 y Windows Me. Esta iniciativa es una vuelta de tuerca irónica al Subsistema de Windows para Linux (WSL) que Microsoft introdujo en 2016 para las versiones modernas de su sistema operativo. La diferencia es que WSL9x hace posible que el kernel de Linux 6.19 funcione simultáneamente junto al kernel de Windows 9x en la misma máquina.

Linux Ahora Corre en Windows 95 y 98

La tecnología detrás de WSL9x es particularmente ingeniosa. El proyecto utiliza un controlador de dispositivo virtual que se encarga de la inicialización, carga el kernel desde el disco y gestiona el bucle de eventos para fallos de página y llamadas al sistema. Debido a que Windows 9x carece del soporte adecuado en su tabla de interrupciones para las interrupciones estándar de llamadas al sistema de Linux, WSL9x redirige estas llamadas a través del manejador de fallos. Además, incluye un pequeño programa DOS de 16 bits llamado wsl.com que captura la salida del terminal de Linux y la redirige a la ventana del símbolo del sistema de MS-DOS desde donde se ejecuta.

Lo más notable de este proyecto es que no requiere virtualización de hardware, lo que significa que puede ejecutarse en equipos extremadamente antiguos, incluso en procesadores i486. El desarrollador compartió en Mastodon que logró completar este proyecto justo a tiempo, antes de que se elimine el soporte para procesadores 486 del kernel de Linux. El código fuente de WSL9x está disponible bajo la licencia GPL-3 y el creador enfatiza orgullosamente que fue escrito sin ayuda de inteligencia artificial, destacando el valor del trabajo humano en el desarrollo de software.

Fuente Original: https://tech.slashdot.org/story/26/04/25/179232/open-source-developer-brings-linux-to-windows-95-windows-98-and-windows-me?utm_source=rss1.0mainlinkanon&utm_medium=feed

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

FSF Condemns Responsible AI Licences as Unethical

The Free Software Foundation has taken a firm stance against so-called 'Responsible AI' Licences, declaring them both unethical and incompatible with software freedom. In a blog post published this week, the FSF's Licensing and Compliance Manager explicitly criticised RAIL licences, which attempt to restrict artificial intelligence and machine learning software from being used in potentially harmful applications such as surveillance and crime prediction.

FSF Condemns Responsible AI Licences as Unethical

Whilst these licences are marketed as addressing ethical concerns in AI development, the FSF argues they fundamentally miss the mark. The organisation points out that RAIL licences fail to require the essential components necessary for users to truly control their computing with machine learning tools. These missing elements include complete training inputs, training configuration settings, trained models, and crucially, the source code of software used for training, testing, and running machine learning-based tools.

According to the FSF, this means that machine learning systems under RAIL can still be unethical, as use restrictions alone do not prevent these licences from being wielded as a means of exercising power over users. The Foundation further contends that RAIL licences contribute to unethical marketing of machine learning, hiding behind morally-loaded restrictions that they claim to enforce but cannot truly guarantee.

Instead of restricting how software can be used, the FSF advocates for more effective approaches to addressing social injustice through technology. These include government and community support for freedom-respecting tools and services, releasing programmes under strong copyleft licences, and entrusting copyrights to organisations with the resources to enforce copyleft provisions. The Foundation maintains that software freedom must be defended rather than denied, arguing that greater availability of free software encourages collaboration on tools that avoid moral dangers whilst solving existing problems. By denying people the freedom to use particular programmes, RAIL licences ultimately prevent software from being used for the common good.

Fuente Original: https://news.slashdot.org/story/26/04/25/079207/free-software-foundation-says-responsible-ai-licenses-which-restrict-harmful-uses-are-unethical-and-nonfree?utm_source=rss1.0mainlinkanon&utm_medium=feed

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

sábado, 25 de abril de 2026

Meta y Amazon chips de IA multas millonarias

Meta ha sellado un acuerdo multimillonario con Amazon Web Services (AWS) para incorporar millones de núcleos de procesadores Graviton5 de Amazon en sus centros de datos. Esta estrategia es crucial para potenciar las cargas de trabajo de IA "agentic", un tipo de inteligencia artificial que requiere una gran capacidad de procesamiento general, no solo de aceleradores de IA.

Meta y Amazon: chips de IA, multas millonarias

Los chips Graviton5, basados en arquitectura ARM y fabricados en un proceso de 3 nanómetros, serán alquilados por Meta a través de AWS. Estos procesadores se encargan de las tareas de inferencia y orquestación intensivas en CPU que sustentan el razonamiento en tiempo real y la ejecución de agentes de IA multi-paso. La magnitud de este acuerdo subraya la insaciable demanda de Meta por capacidad de cómpu to para IA, que supera lo que una sola cadena de suministro puede ofrecer, a pesar de su considerable presupuesto de capital (capex) de entre 115 y 135 mil millones de dólares.

Este pacto con Amazon, un competidor directo en publicidad, comercio y cada vez más en IA, es solo una pieza de una campaña de adquisición sin precedentes. Meta ha comprometido sumas masivas con otros gigantes tecnológicos como Nvidia (50 mil millones de dólares), AMD (60 mil millones de dólares), CoreWeave (35 mil millones de dólares) y Broadcom. La compañía está diversificando sus proveedores y estrategias, invirtiendo tanto en hardware externo como en el desarrollo de sus propios chips MTIA, para asegurar el acceso a la infraestructura computacional necesaria para su ambiciosa hoja de ruta en IA. La decisión de Meta de alquilar capacidad a AWS, incluso teniendo la opción de construir internamente, se debe a la urgencia de desplegar sus soluciones de IA agentic, que requieren una escala d e cómputo que excede la capacidad de construcción propia en los plazos requeridos. Esto refleja un mercado de chips de IA cada vez más fragmentado, donde los grandes actores se convierten tanto en competidores como en colaboradores, y donde la demanda supera con creces la oferta disponible.

Fuente Original: https://thenextweb.com/news/meta-amazon-graviton-chips-agentic-ai

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

AI Agents 85 Pilot 5 Production - Why Trust Lags

In the rapidly evolving world of artificial intelligence, a significant chasm exists between enterprises experimenting with AI agents and those ready to deploy them for critical tasks. While a staggering 85% of businesses are currently running AI agent pilot programs, a mere 5% have transitioned these agents into live production environments. This vast gap, as highlighted by Cisco's Chief Product Officer Jeetu Patel, boils down to a critical issue: trust. Without a robust trust architecture, the potential for AI agents to drive market dominance is hampered, potentially leading to business failure instead.

AI Agents: 85% Pilot, 5% Production - Why Trust Lags

Patel likens immature AI agents to teenagers – intelligent but lacking foresight and easily influenced, necessitating strong "guardrails" and "parenting." This analogy underscores the shift from information risk to action risk, where an AI agent's incorrect decision can have irreversible consequences, unlike a chatbot that might simply provide wrong information. The industry's struggle to bridge this pilot-to-production gap is rooted in the inherent unpredictability and potential for unintended actions by these sophisticated tools.

Cisco is actively addressing this trust deficit with a multi-pronged approach. At RSA Conference 2026, they unveiled tools like AI Defense Explorer Edition for red teaming, the Agent Runtime SDK for embedding policy enforcement, and the LLM Security Leaderboard. Moreover, Cisco has partnered with Nvidia, integrating its Defense Claw framework—a suite of security tools including Skills Scanner and CodeGuard—into Nvidia's OpenShell, an open-source secure container for AI agents. This integration enables automatic security enforcement upon agent activation, a crucial step in accelerating secure deployment. Patel emphasizes Cisco's strategic lead in this domain, claiming a six-to-nine-month product advantage and a three-to-six-month information asymmetry due to their ecosystem involvement.

Beyond product innovation, Cisco is pushing a radical internal mandate: by 2027, 70% of its products are slated to be built entirely by AI, with zero human-written code. This initiative aims to foster a new engineering culture where proficiency in coding with AI is paramount. To navigate this agentic era, Patel outlines five key "moats" for enterprises: sustained speed, trust and delegation, token efficiency, human judgment integration, and AI dexterity. The critical missing piece for widespread adoption remains a robust telemetry layer capable of distinguishing agent-driven actions from human ones, a capability many current logging configurations lack. Without this, even identity checks can be circumvented, as demonstrated by incidents where AI agents altered security policies or delegated tasks without human oversight. Ultimately, building trust through rigorous governance, clear delegation protocols, and comprehensive telemetry is essential for unlocking the full potential of A I agents.

Fuente Original: https://venturebeat.com/security/85-of-enterprises-are-running-ai-agents-only-5-trust-them-enough-to-ship

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Google Invierte Miles de Millones en IA El Futuro

¡Noticias de última hora en el mundo de la inteligencia artificial! Google está a punto de dar un golpe sobre la mesa, comprometiéndose a invertir hasta 40 mil millones de dólares en Anthropic. Esta cifra masiva sigue a una inversión inicial de 5 mil millones de dólares por parte de Amazon, lo que sitúa a Anthropic en una valoración estratosférica de 350 mil millones de dólares.

Google Invierte Miles de Millones en IA: ¿El Futuro?

El rápido ascenso de Anthropic se debe en gran parte al éxito de sus modelos de IA, como Claude, y productos innovadores como Claude Code, diseñado para agilizar el desarrollo de software, y Claude Cowork, que potencia el trabajo de conocimiento general. La compañía ha navegado con éxito las controversias que han rodeado a competidores como OpenAI, además de introducir flujos de trabajo más robustos y eficientes. Esto ha disparado la demanda de sus servicios, llegando incluso a causar interrupciones por la abrumadora cantidad de peticiones, lo que ha llevado a Anthropic a considerar medidas como límites de uso en horas punta o la reubicación de herramientas más demandantes de recursos en planes de servicio menos costosos.

El objetivo principal de estas inversiones es crucial: cerrar la brecha entre la creciente demanda y la capacidad de cómputo disponible para sus potentes modelos de IA. Tanto Google como Amazon están proporcionando a Anthropic recursos vitales, incluyendo chips optimizados para entrenamiento e inferencia de IA, así como capacidad de cómputo en la nube. Este tipo de acuerdos se ha vuelto una estrategia común en la industria de la IA: las grandes empresas tecnológicas invierten en startups emergentes, proporcionando no solo capital sino también la infraestructura necesaria para escalar, a cambio de poder vender sus propios productos y servicios a estas empresas en crecimiento. Es importante destacar que esta no es la primera vez que Google invierte en Anthropic, a pesar de ser competidores directos en el desarrollo de modelos de IA avanzados.

Fuente Original: https://arstechnica.com/ai/2026/04/google-will-invest-as-much-as-40-billion-in-anthropic/

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT