martes, 28 de abril de 2026

Vuelo Caribeno FAA Extiende Prohibicion Sorpresa

La Administración Federal de Aviación (FAA) de Estados Unidos ha tomado la decisión de extender la prohibición de vuelos hacia un país caribeño específico. Esta medida, que inicialmente se implementó para abordar preocupaciones de seguridad, ahora se prolonga, generando incertidumbre para viajeros y aerolíneas. Aunque los detalles exactos de las razones detrás de la extensión no se han revelado completamente, se infiere que persisten riesgos significativos que impiden la reanudación segura de los servicios aéreos.

Vuelo Caribeño: FAA Extiende Prohibición Sorpresa

La extensión de esta prohibición subraya la seriedad con la que la FAA evalúa los protocolos de seguridad y la infraestructura aeronáutica de los países con los que mantiene vínculos aéreos. Si bien el país en cuestión no se menciona explícitamente en el título del artículo original, la implicación es que enfrenta desafíos que han llevado a la FAA a mantener una postura restrictiva. Los pasajeros que tenían planes de viajar a esta nación caribeña deberán estar atentos a futuras actualizaciones y buscar alternativas, mientras que las aerolíneas deberán ajustar sus operaciones y rutas en consecuencia. La seguridad aérea es primordial, y la FAA está comprometida a garantizar que todas las operaciones cumplan con los más altos estándares antes de levantar cualquier restricción.

Fuente Original: https://news.google.com/rss/articles/CBMimgFBVV95cUxNQU5zMy1veF96RmtVcGF0Y2VTWFROZlJ3VG5NcnEtUjc5SVdMSkdFR2VremV0RFZXeWk2ZjZfWElXMUpENWFRdmx2c0JzS3ppMUZsTGgyQ3NBUDdVOFNlMWZnQUFQQm5nRnlpOW9BWkpfNGRmUm1CejRxUFpTZll6WmY0aGQ5UWZYVnB4OHFGUDVGeC03UWVXWDJB0gGuAUFVX3lxTE1LM0VGeTBWLVhXLVp5QWhRNW1JRGo0aFVMUWEzWGstWnFjZF9qTVBmOGxTbnU5dzhlVTltd2Y5VmFqM0lJVlpndUlyRGJmNXZVQ3NGSzFVOEhCMHRlaklRX3dyY3ROaGllTmpWMHRGOGF6eWplLUpoX0d6dFZyVjkxdmlaV0N0Wl9aVjFTdGNudWZMRTVxRGMtS2J6M0pySHhwSFlhNUZSUEo0c2Nudw?oc=5

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Redpine Secures 68M for Licensed AI Data API

In a significant move for the burgeoning AI landscape, Stockholm-based startup Redpine has successfully raised €6.8 million in new funding. This latest round, spearheaded by NordicNinja, with contributions from Luminar Ventures, node.vc, and notable tech founders, brings Redpine's total funding to an impressive €9 million. The company's core mission is to revolutionise how AI agents access and utilise data by providing a licensed, real-time API for premium datasets.

Redpine Secures €6.8M for Licensed AI Data API

Redpine tackles a critical issue plaguing the AI industry: the reliance on scraped internet data for training. This approach is fraught with legal fragility, questionable data quality, and a lack of compensation for the original creators. As legal pressures mount, exemplified by recent copyright settlements and new EU disclosure requireme nts, the need for a legitimate and reliable data infrastructure becomes paramount. Redpine positions itself as the solution, drawing a parallel to Spotify's disruption of the music industry by making licensed access convenient and superior to illicit alternatives.

The platform functions as a headless API, enabling AI agents to query and pay for premium licensed datasets on a token-based model. This ensures that costs scale directly with usage, offering a more dynamic and cost-effective solution than traditional subscription services. Redpine's technology focuses on evaluating data quality in real-time, filtering out inaccuracies to ensure that mission-critical domains like healthcare, legal, finance, scientific research, and news receive reliable information. The backing from investors with deep ties to AI pioneers like OpenAI and Perplexity underscores the perceived value of Redpine's API-native, agent-first approach, aiming to become the global leader in AI data infrastructu re within the next three to five years.

Fuente Original: https://thenextweb.com/news/redpine-raises-e6-8m-api-for-ai-agents

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Google y el Pentagono IA sin limites para fines militares

Google ha sellado un acuerdo clasificado con el Departamento de Defensa de Estados Unidos (Pentágono) que permitirá a la entidad militar emplear los modelos de inteligencia artificial de Google para "cualquier propósito gubernamental legal". Este pacto se produce a pesar de una carta abierta de más de 560 empleados de Google instando a la compañía a evitar este tipo de colaboraciones militares clasificadas.

Google y el Pentágono: IA sin límites para fines militares

Lo que distingue este acuerdo es la ausencia de las restricciones éticas que llevaron a Anthropic, otra empresa de IA, a ser excluida de contratos militares en febrero. Mientras Anthropic se negó a eliminar prohibiciones contractuales sobre vigilancia doméstica masiva y armas autónomas sin supervisión humana, el acuerdo de Google parece otorgar al Pentágono una discreción considerablemente más amplia. Fuentes sugieren que el contrato de Google se alinea con el modelo sin restricciones preferido por la administración anterior, a diferencia del de OpenAI, que negoció algunas salvaguardias.

Google se suma así a OpenAI y xAI como proveedor de capacidades de IA clasificadas para el ejército estadounidense. La situación de Anthropic, excluida por mantener sus principios éticos, contrasta con la de OpenAI, que renegoció para permanecer, y xAI, que firmó sin restricciones aparentes. La decisión de Google, especialmente por el momento en que se produce tras la protesta de sus empleados, pone de manifiesto la tensión entre las demandas del gobierno para aplicaciones militares de IA y los principios éticos que las propias empresas tecnológicas han proclamado. El futuro de estas colaboraciones dependerá de la evolución del panorama político y de la presión interna de los empleados.

Fuente Original: https://thenextweb.com/news/google-pentagon-classified-ai-deal

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Microsoft y OpenAI Rompen Su Acuerdo Exclusivo

Microsoft y OpenAI han anunciado una transformación radical de su histórica alianza que definió la era comercial de la inteligencia artificial. El lunes 27 de abril de 2026, ambas compañías revelaron simultáneamente cambios fundamentales en su acuerdo de exclusividad, permitiendo ahora a OpenAI vender sus servicios en plataformas rivales como AWS de Amazon y Google Cloud. Esta reestructuración desmantela los pilares clave del pacto original firmado en 2019, cuando Microsoft invirtió inicialmente mil millones de dólares en OpenAI.

Microsoft y OpenAI Rompen Su Acuerdo Exclusivo

Bajo los nuevos términos, Microsoft ya no pagará ninguna participación de ingresos a OpenAI cuando los clientes accedan a sus modelos a través de Azure. OpenAI, por su parte, continuará pagando a Microsoft una participación del 20 por ciento hasta 2030, pero con un tope total establecido. La licencia de Microsoft sobre la propiedad intelectual de OpenAI, que antes era exclusiva, ahora se ha convertido en no exclusiva y se extenderá hasta 2032. Lo más significativo es que OpenAI puede ahora servir todos sus productos en cualquier proveedor de nube, terminando con la exclusividad que había sido fundamental en el acuerdo original.

El catalizador inmediato de esta reestructuración fue la inversión de 50 mil millones de dólares de Amazon en OpenAI anunciada en febrero. Amazon comprometió 15 mil millones inicialmente, con otros 35 mil millones programados bajo ciertas condiciones. A cambio, OpenAI acordó expandir su relación con AWS por 100 mil millones durante ocho años y hacer de AWS el proveedor exclusivo de distribución de terceros para Frontier, su nueva plataforma empresarial. Este acuerdo contradecía directamente los términos exclusivos del contrato existente con Microsoft, creando una crisis legal que amenazaba con litigios.

Los cambios financieros son sustanciales. Bajo el antiguo acuerdo, el dinero fluía en ambas direcciones entre las compañías. Ahora, el flujo se vuelve unidireccional: Microsoft deja de pagar a OpenAI completamente, mientras que OpenAI continúa pagando a Microsoft hasta 2030 con un límite establecido. Microsoft conserva aproximadamente el 27 por ciento de propiedad en la entidad con fines de lucro de OpenAI y reportó 7.5 mil millones de dólares en ingresos relacionados con OpenAI solo en el último trimestre.

Un aspecto filosóficamente intrigante es la desaparición de la cláusula AGI (Inteligencia General Artificial) que originalmente gobernaba la asociación. El acuerdo inicial estipulaba que los derechos exclusivos de Microsoft cambiarían si OpenAI alcanzaba AGI, un hito vagamente definido. Esta provisión ha sido reemplazada por fechas fijas y límites monetarios, señalando que la industria ha superado el marco conceptual que una vez definió esta alianza.

Los grandes beneficiarios inmediatos son los clientes empresariales, que durante años solo tenían Azure como opción para acceder a los modelos de OpenAI. Ahora, según el CEO de Amazon Andy Jassy, los modelos de OpenAI estarán disponibles en AWS Bedrock en las próximas semanas. Esta disponibilidad multi-nube llega en un momento de intensa consolidación en el mercado de infraestructura de IA, donde Microsoft compite con OpenAI en productos, se asocia con el rival de OpenAI, Anthropic, y sigue siendo el mayor accionista de OpenAI.

Fuente Original: https://venturebeat.com/technology/microsoft-and-openai-gut-their-exclusive-deal-freeing-openai-to-sell-on-aws-and-google-cloud

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Xiaomis Open-Source AI Models Dominate Agentic Tasks

Chinese technology giant Xiaomi has released two groundbreaking open-source AI models that are revolutionising the landscape of agentic artificial intelligence. The MiMo-V2.5 and MiMo-V2.5-Pro models are now available under the permissive MIT Licence, making them exceptionally attractive for enterprise deployment. What sets these models apart is their remarkable efficiency in powering 'claw' tasks—autonomous agents that complete complex assignments on behalf of users, from managing email to creating marketing content.

Xiaomi's Open-Source AI Models Dominate Agentic Tasks

The performance metrics are genuinely impressive. According to Xiaomi's ClawEval benchmarks, the Pro version leads the open-source field with a 63.8% success rate whilst consuming merely 70,000 tokens per trajectory. This represents a staggering 40-60% reduction in token usage compared to industry heavyweights like Anthropic's Claude Opus 4.6, Google's Gemini 3.1 Pro, and OpenAI's GPT-5.4. In an era where services are increasingly moving towards usage-based billing—as evidenced by GitHub Copilot's recent shift to metered pricing—this efficiency translates directly into substantial cost savings for enterprises.

Xiaomi has strategically released two distinct versions to serve different developer needs. The base MiMo-V2.5 is a multimodal specialist, whilst the MiMo-V2.5-Pro is engineered specifically for long-horizon coherence and complex software engineering tasks. The Pro model's capabilities are nothing short of remarkable: it autonomously implemented a complete SysY compiler in Rust within 4.3 hours—a task that typically takes computer science students several weeks. It also created a fully-featured video editor with 8,192 lines of code over 11.5 hours, demonstrating sustained coherence across 1,868 sequential tool calls.

The pricing structure is aggressively competitive. For international developers, the MiMo-V2.5-Pro costs $1.00 per million input tokens and $3.00 for output within 256K context windows. The base model starts at just $0.40 per million input tokens, positioning it amongst the most affordable leading language models globally. Xiaomi has even made cache writing free of charge for a limited period, further lowering barriers to agentic development.

Architecturally, both models employ a Sparse Mixture-of-Experts design. The base V2.5 features 310 billion total parameters with 15 billion active during inference, whilst the Pro version boasts a massive 1.02 trillion parameters with 42 billion active. This architecture functions like a specialised hospital where only the relevant specialists are called upon for each query, ensuring computational efficiency. The models also feature a native 1-million-token context window, enabling them to maintain coherence across extraordinarily long interactions.

Perhaps the most significant aspect of this release is the MIT Licence, which grants unrestricted commercial use without revenue caps or user-base limits. This stands in stark contrast to many 'open' models that include restrictive acceptable use policies. Enterprises can deploy, modify, fine-tune on proprietary data, and even release derivative versions without seeking permission from Xiaomi. This positions MiMo as foundational infrastructure for the next generation of AI agents, effectively treating the model as a public utility.

The release has received immediate ecosystem support, with popular inference engines SGLang and vLLM providing Day-0 compatibility. Hardware partnerships with AWS, AMD, T-HEAD, and Enflame ensure the models can run efficiently across diverse computing environments. To accelerate adoption, project lead Fuli Luo announced a 100-trillion free token grant for developers and creators, eliminating financial barriers to experimentation with the extensive context window capabilities.

Fuente Original: https://venturebeat.com/technology/open-source-xiaomi-mimo-v2-5-and-v2-5-pro-are-among-the-most-efficient-and-affordable-at-agentic-claw-tasks

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

lunes, 27 de abril de 2026

Malware Snow Teams y Email Roban Active Directory

El grupo de ciberdelincuentes UNC6692 ha perfeccionado una técnica insidiosa para infiltrarse en redes corporativas, combinando tácticas de 'bombardeo de correo' con ingeniería social a través de Microsoft Teams. El objetivo final es engañar a los empleados para que instalen un supuesto parche de seguridad que, en realidad, es un malware avanzado llamado Snow. Esta campaña no solo busca obtener control remoto y moverse lateralmente dentro de la red, sino que culmina en el robo de datos críticos, incluyendo la valiosa base de datos de Active Directory.

Malware Snow: Teams y Email Roban Active Directory

La estrategia de UNC6692 aprovecha la confianza que los empleados depositan en herramientas de uso diario como Microsoft Teams . Al hacerse pasar por personal de soporte técnico (helpdesk), los atacantes pueden interactuar con las víctimas de manera directa y persuasiva, ofreciendo una solución rápida a un problema inexistente. El ataque comienza con una oleada de correos electrónicos diseñados para abrumar al usuario y generar una sensación de urgencia. Justo en ese momento de distracción, se inicia un chat en Teams donde se ofrece el falso parche bajo la premisa de frenar el spam. Este 'parche' actúa como un 'dropper', ejecutando scripts que preparan el terreno para la instalación de un conjunto de herramientas maliciosas.

Una de las piezas clave de este malware es SnowBelt, una extensión maliciosa para Chrome que opera de forma oculta dentro de Microsoft Edge. Para asegurar su persistencia, se crean tareas programadas y se añade un acceso directo en la carpeta de inicio del usuario. Posteriormente, SnowBelt actúa como un relé para SnowBasin, una puerta trasera escrita en Python capaz de ejecutar comandos, descargar y exfiltrar archivos, y establecer sesiones de shell remoto. La comunicación con la infraestructura del atacante se camufla y asegura a través de SnowGlaze, que crea un túnel WebSocket disfrazado como tráfico legítimo de Edge, permitiendo incluso redirigir tráfico TCP arbitrario. Una vez dentro, el grupo procede a la fase de reconocimiento del dominio, buscando activamente sistemas con información sensible para robar credenciales mediante técnicas como el volcado de memoria de LSASS y el movimiento lateral con 'pass the hash', con el objetivo final de acceder al controlador de dominio y extraer la base de datos de Active Directory.

Fuente Original: https://unaaldia.hispasec.com/2026/04/unc6692-usa-microsoft-teams-y-bombardeo-de-correo-para-colar-el-malware-snow-y-robar-active-directory.html?utm_source=rss&utm_medium=rss&utm_campaign=unc6692-usa-microsoft-teams-y-bombardeo-de-correo-para-colar-el-malware-snow-y-robar-active-directory

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

China Reverses Meta AI Deal What You Need to Know

In a significant development in the world of artificial intelligence, China has announced its intention to reverse a major acquisition deal involving Meta, the parent company of Facebook. This move signals a growing trend of increased scrutiny and regulation of foreign technology acquisitions within China, particularly in the rapidly evolving AI sector.

China Reverses Meta AI Deal: What You Need to Know

The exact details of the acquisition have not been fully disclosed, but it is understood to be a substantial investment by Meta in an AI-related entity or technology within China. The Chinese government's decision to block or unwind this deal underscores its commitment to maintaining control over its domestic AI landscape and national security interests. This action is likely influenced by broader geopolitical tensions and a desire to foster indigenous AI development while safeguarding its technological future.

The reversal highlights the complexities and risks associated with cross-border tech deals, especially in sensitive areas like artificial intelligence. For Meta, this represents a setback in its global AI expansion strategy and may lead to a reassessment of its investment approaches in markets with stringent regulatory environments. The implications of this decision could extend to other foreign tech companies looking to engage with the Chinese market, potentially creating a more cautious and selective investment climate. This event is a clear indicator of China's assertive stance in shaping its technological destiny and its willingness to intervene in major acquisitions deemed to be against its national interests.

Fuente Original: https://news.google.com/rss/articles/CBMid0FVX3lxTE4wbEw4czdzUDJyMVV4S19rT2JNTG9ySTZub2lsVzUzc0tEbjRIZWVOdnAzWkxONldEMmZBRGR4S2J6RlRSRlRFTEVYYXlEcjN3dzJ6WG1WOThxT0RyVHpacmEtU05OTXZuRkpYNEoxaUN2QkhVc2cw?oc=5

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Musk vs OpenAI Duelo Legal por el Futuro de la IA

La inteligencia artificial está en el centro de una batalla legal sin precedentes. Elon Musk, figura clave en los inicios de OpenAI, ha decidido demandar a la organización que cofundó, alegando que esta ha traicionado sus principios fundacionales. Musk sostiene que OpenAI, bajo el liderazgo de Sam Altman, ha pasado de ser una entidad sin fines de lucro dedicada al beneficio de la humanidad a convertirse en una empresa impulsada por el lucro, aliándose con gigantes tecnológicos como Microsoft.

Musk vs. OpenAI: Duelo Legal por el Futuro de la IA

La demanda se centra en la supuesta desviación de la misión original de OpenAI, que era desarrollar IA de manera abierta y accesible para el bien común. Musk argumenta que la creciente exclusividad y las ambiciones comerciales de OpenAI, especialmente su colaboración con Microsoft y la búsqueda de beneficios económicos, van en contra del espíritu con el que se creó la compañía. La disputa pone de manifiesto las tensiones inherentes al rápido avance de la IA y el debate sobre quién debe controlar y beneficiarse de esta tecnología transformadora.

Este enfrentamiento legal no solo es significativo por las personalidades involucradas, sino también por las implicaciones que podría tener en el desarrollo futuro de la inteligencia artificial. La resolución de este caso podría sentar un precedente sobre la propiedad intelectual, la ética en la investigación de IA y el equilibrio entre la innovación comercial y el acceso público a tecnologías avanzadas. La comunidad tecnológica observa de cerca este duelo, que promete ser definitorio para el panorama de la IA.

Fuente Original: https://news.google.com/rss/articles/CBMi4AFBVV95cUxPaGtCQ0JxR3FuMDZFQ1RXd20yeHkyaEdmbUEyRV9CUE9oVHJnaVZka2Z1TXA3RW0wek1mX2VjLUQ2TTFlMml6MVZBSE5aaDBjamRRZktsd09mR20zazBPZHFlVXNOZTA1a184anFCSmU0ek9aZmV6dFFDeERvcG1MR25saTFkRmZwNndISWRuNC0yYU9SVWQ5VW1OVDdsa0UtT1VWeXpVYXpSTFc1WXAyd09wSnBXM3FJcE1Hd0dlazZMQ2ZTZWhMSHZVTl9LdVRJdkRSeVpIQk1jdlRiU3Zvaw?oc=5

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

DeepSeek Reduce Precios 75 y Desafia IA

DeepSeek ha lanzado una agresiva estrategia de precios que está sacudiendo la industria de la inteligencia artificial. La compañía china anunció un descuento promocional del 75% en su modelo DeepSeek-V4-Pro para desarrolladores, válido hasta el 5 de mayo de 2026. Simultáneamente, la empresa redujo los costos de caché en toda su suite de API a una décima parte de los niveles anteriores, con efecto inmediato. Este movimiento representa un desafío directo a los proveedores estadounidenses de IA como OpenAI, Google y Anthropic, intensificando una guerra de precios que DeepSeek inició en enero de 2025 con su modelo R1.

DeepSeek Reduce Precios 75% y Desafía IA

El contexto de precios es revelador. Incluso sin el descuento promocional, DeepSeek-V4-Pro ya costaba 0.145 dólares por millón de tokens de entrada y 3.48 dólares por millón de tokens de salida, precios inferiores a los de GPT-5.5 de OpenAI, Gemini 3.1 Pro de Google y Claude Opus 4.7 de Anthropic. Con el descuento del 75%, el precio de entrada se reduce a aproximadamente 0.036 dólares por millón de tokens, estableciendo un nuevo estándar de bajo costo en la industria. La variante Flash del modelo, más pequeña y rápida, también mantiene precios altamente competitivos que superan a alternativas como GPT-5.4 Mini y Claude Haiku 4.5.

La estrategia de DeepSeek es clara y multifacética. La disponibilidad de código abierto elimina completamente las barreras de acceso al modelo, mientras que los precios agresivos de la API eliminan las restricciones de costo para la implementación en producción. El modelo V4-Pro incluye una ventana de contexto de 1 millón de tokens, lo que lo hace viable para casos de uso empresarial que involucran grandes bases de código o documentos extensos. Además, se integra nativamente con frameworks de codificación agente dominantes como Claude Code, OpenClaw y OpenCode, facilitando la transición para desarrolladores que ya trabajan en el ecosistema de IA occidental.

El modelo V4-Pro, lanzado el viernes pasado, es un modelo de mezcla de expertos con 1.6 billones de parámetros totales y 49 mil millones de parámetros activos por tarea, convirtiéndose en el modelo de peso abierto más grande disponible actualmente. Su Arquitectura de Atención Híbrida está diseñada para mantener coherencia en contextos largos. Significativamente, está entrenado y optimizado para chips Ascend 950 de Huawei y hardware Cambricon, en lugar de GPUs de Nvidia, lo que permite construir y desplegar sistemas de IA sin depender exclusivamente de la tecnología estadounidense.

Este anuncio llega en un momento geopolítico tenso. La semana pasada, el Director de Política Científica y Tecnológica de la Casa Blanca, Michael Kratsios, acusó a entidades extranjeras, principalmente chinas, de realizar campañas a "escala industrial" para destilar modelos de IA de vanguardia de empresas estadounidenses. Aunque no mencionó directamente a DeepSeek, tanto Anthropic como OpenAI han acusado previamente a la empresa china de destilar sus modelos. La respuesta de DeepSeek tres días después del lanzamiento de V4 no fue abordar las acusaciones directamente, sino recortar precios aún más, un movimiento competitivo que también representa una declaración política sobre dónde cree la compañía que se decidirá finalmente la carrera de la IA.

Fuente Original: https://thenextweb.com/news/deepseek-v4-pro-price-cut-75-percent

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Google Uncovers AI Prompt Injection Attacks Online

Google's Threat Intelligence teams have conducted a comprehensive investigation into prompt injection attacks targeting AI agents as they browse the web. Analysing billions of pages from Common Crawl's public web repository, researchers discovered a concerning landscape of malicious attempts to manipulate AI systems, ranging from simple pranks to potentially dangerous commands.

Google Uncovers AI Prompt Injection Attacks Online

The study revealed several categories of prompt injection attacks. Some websites contained instructions attempting to vandalize users' machines, including commands designed to delete all files. Whilst researchers deemed such basic attacks unlikely to succeed, they represent a growing trend. Between November 2025 and February 2026, malicious prompt injections increased by 32%, signalling heightened interest in Indirect Prompt Injection (IPI) attacks amongst threat actors.

Amongst the examples discovered, researchers found websites using invisible text with transparent fonts to hide malicious prompts, instructing AI systems to ignore previous commands and behave erratically. Another site attempted to waste AI resources by streaming infinite text that never finished loading, potentially causing timeout errors. Some injections were more whimsical, asking AI to tell children's stories about flying squids or tweet like baby birds, likely experimental pranks by curious website authors.

Not all prompt injections were malicious. Google identified benign cases where website owners simply wanted to ensure AI summaries included relevant context for readers. However, researchers warned such techniques could easily become harmful if used to spread misinformation or redirect users to third-party sites. SEO manipulation emerged as another common use case, with businesses attempting to make AI assistants promote their services over competitors.

Perhaps most concerning were attempts at data exfiltration. A small number of prompts tried instructing AI to send sensitive information, including password files and SSH directory contents, along with system IP addresses. Fortunately, researchers noted they hadn't observed widespread deployment of sophisticated exfiltration techniques published by security researchers in 2025, suggesting attackers haven't yet scaled these methods. As AI systems become more capable and valuable targets, whilst threat actors increasingly automate operations with agentic AI, Google expects both the scale and sophistication of IPI attacks to grow significantly in the near future.

Fuente Original: https://it.slashdot.org/story/26/04/26/2345211/google-studies-prompt-injection-attacks-against-ai-agents-browsing-the-web?utm_source=rss1.0mainlinkanon&utm_medium=feed

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

domingo, 26 de abril de 2026

DeepSeek Lanza IA de 16T Robo o Progreso en EEUU

La tecnología de inteligencia artificial avanza a pasos agigantados, y DeepSeek, una destacada empresa china, ha lanzado su modelo V4 con la asombrosa cifra de 1.6 billones de parámetros. Este hito tecnológico se ha logrado gracias a la utilización de los chips de Huawei, lo que subraya la creciente capacidad de China en el campo de la IA.

DeepSeek Lanza IA de 1.6T: ¿Robo o Progreso en EE.UU.?

Sin embargo, este lanzamiento coincide con un momento de gran tensión geopolítica. El gobierno de Estados Unidos ha intensificado sus acusaciones sobre robo de propiedad intelectual, señalando a DeepSeek y a otras empresas chinas de IA por supuestas prácticas ilícitas. Este escenario crea una dicotomía fascinante: por un lado, el progreso tecnológico que podría beneficiar a la humanidad; por otro, las preocupaciones sobre la comp etencia desleal y la seguridad nacional.

El modelo V4 de DeepSeek promete capacidades sin precedentes en el procesamiento del lenguaje natural y otras áreas de la IA. La elección de los chips de Huawei para potenciar este modelo no es casual, ya que representa la apuesta de China por desarrollar su propia infraestructura tecnológica de vanguardia, independientemente de las restricciones impuestas por Estados Unidos. La industria de la IA se encuentra en un punto de inflexión, donde la innovación y las disputas geopolíticas se entrelazan de manera inextricable. El futuro de la IA dependerá de cómo se gestionen estas tensiones y de si se logra un equilibrio entre la competencia y la colaboración global.

Fuente Original: https://news.google.com/rss/articles/CBMi9gFBVV95cUxObGdBd0NJQ0pTc29TOWhIXzZUR0xSQUlIWXd2NFJMYVZyMmhJMmRSaDF1NUE0Smtpa1VzWXpDSkp4RFN4ZlUwNlJySlowMXg1dVg4NVl3RWE1TDJOUE5ieDM0ODJfN2lOblotcm84YkNzV3h2YkpmX2pRLUc5R2dOZWlWSjZuQ2p6cWIxSU1qWWpweUVfdnlkbmx2V25ienNBSGhISEF3bzd3ek1WV2o3VWxENnRheTNLLVBXdDhzQlY3U0MtTzhQUjg3ZmNGcVNzdEtxem54QnY3cldhOE9QUDBZenJJemNXMTN5NWFUd2h0Qk9na0E?oc=5

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Colorado Protects Open Source in New Age Verification Law

Colorado's recent legislative move aims to tackle online age verification, but thankfully, it's not at the expense of the open-source community. A bill initially focused on requiring operating system providers and app stores to implement age-related signals has been amended to include crucial exemptions for open-source software.

Colorado Protects Open Source in New Age Verification Law

This updated legislation now explicitly exempts open-source operating systems, applications, code repositories, and containerised software distributions from its core requirements. This means that providers or developers distributing software under licenses that permit unrestricted copying, redistribution, and modification are no longer subject to the bill's age verification mandates. This broad wording effectively covers many popular Linux distributions and open-source applications, ensuring they can continue to operate without being bogged down by age-verification hurdles.

Furthermore, the amendment clarifies that applications hosted on free, public code repositories are not considered 'covered applications.' It also specifically excludes code repository providers like GitHub and GitLab, as well as containerised software distribution platforms such as Docker and Podman, from being classified as 'covered app stores.' This thoughtful exclusion prevents these vital collaborative platforms from being inadvertently ensnared by the bill's regulations, safeguarding the collaborative spirit of open-source development. While the legislative journey isn't entirely complete, this is a significant step towards protecting the open-source ecosystem in Colorado.

Fuente Original: https://yro.slashdot.org/story/26/04/25/2124221/colorado-adds-open-source-exemption-to-age-verification-bill?utm_source=rss1.0mainlinkanon&utm_medium=feed

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

IA y Captchas Cognitivos El Nuevo Internet Agente

La reciente explosión de la inteligencia artificial (IA) ha dado lugar a un cambio de paradigma en internet, pasando de un enfoque centrado en el usuario ('Human First') a uno orientado a la automatización ('API First') y ahora a la era del 'MCP & Agentic First'. En esta nueva fase, la inteligencia artificial se convierte en el protagonista, utilizando interfaces de línea de comandos (CLI) y formatos de datos como JSON y Markdown para interactuar de manera eficiente con los Modelos de Lenguaje Grandes Multimodales (MM-LLMs). Sin embargo, esta transición presenta un desafío significativo: la persistencia de los captchas cognitivos, diseñados originalmente para humanos, que ahora deben ser superados por agentes de IA.

IA y Captchas Cognitivos: El Nuevo Internet Agente

Históricamente, el mundo del cibercrimen ha desarrollado soluciones sofisticadas para evadir los captchas. El artículo detalla cómo estas técnicas, que incluyen la resolución de captchas visuales, auditivos y de resolución de problemas mediante MM-LLMs como GPT-4o o Gemini, son aplicables para que los agentes de IA naveguen por internet de forma autónoma. A pesar de las salvaguardas incorporadas en muchos MM-LLMs para prevenir el uso indebido, como la negativa a resolver captchas directamente, el artículo sugiere que un 'jailbreak' sencillo, modificando el 'system prompt' o el enfoque de la tarea, puede ser suficiente para habilitar esta funcionalidad. El ejemplo de la selección de plazas de parking ilustra cómo un MM-LLM puede cometer errores ("hallucinations") si no se le guía adecuadamente, pero con instrucciones precisas, puede resolver estas tareas de manera efectiva, generando respuestas estructuradas para ser consumidas por agentes de IA.

La proliferación de bots en internet, que ya superan el 30% del tráfico HTTP global, subraya la urgencia de repensar la arquitectura de internet. Los captchas cognitivos, como barrera para la automatización, entran en conflicto directo con el avance del 'Agentic Internet'. El autor argumenta que la solución no radica en eliminar la IA, sino en adaptar las tecnologías existentes, como se ha hecho en el pasado con la evolución hacia internet móvil y las APIs. La revolución del 'Agentic Internet' se perfila como una transformación más profunda que las anteriores, donde los agentes de IA podrían llegar a dominar el tráfico en línea, alterando fundamentalmente la forma en que interactuamos con la red.

Fuente Original: http://www.elladodelmal.com/2026/04/agentic-internet-y-captchas-cognitivos.html

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Linux Ahora Corre en Windows 95 y 98

Un desarrollador de código abierto ha logrado una hazaña técnica impresionante al crear WSL9x, un proyecto que permite ejecutar Linux en versiones antiguas de Windows como Windows 95, Windows 98 y Windows Me. Esta iniciativa es una vuelta de tuerca irónica al Subsistema de Windows para Linux (WSL) que Microsoft introdujo en 2016 para las versiones modernas de su sistema operativo. La diferencia es que WSL9x hace posible que el kernel de Linux 6.19 funcione simultáneamente junto al kernel de Windows 9x en la misma máquina.

Linux Ahora Corre en Windows 95 y 98

La tecnología detrás de WSL9x es particularmente ingeniosa. El proyecto utiliza un controlador de dispositivo virtual que se encarga de la inicialización, carga el kernel desde el disco y gestiona el bucle de eventos para fallos de página y llamadas al sistema. Debido a que Windows 9x carece del soporte adecuado en su tabla de interrupciones para las interrupciones estándar de llamadas al sistema de Linux, WSL9x redirige estas llamadas a través del manejador de fallos. Además, incluye un pequeño programa DOS de 16 bits llamado wsl.com que captura la salida del terminal de Linux y la redirige a la ventana del símbolo del sistema de MS-DOS desde donde se ejecuta.

Lo más notable de este proyecto es que no requiere virtualización de hardware, lo que significa que puede ejecutarse en equipos extremadamente antiguos, incluso en procesadores i486. El desarrollador compartió en Mastodon que logró completar este proyecto justo a tiempo, antes de que se elimine el soporte para procesadores 486 del kernel de Linux. El código fuente de WSL9x está disponible bajo la licencia GPL-3 y el creador enfatiza orgullosamente que fue escrito sin ayuda de inteligencia artificial, destacando el valor del trabajo humano en el desarrollo de software.

Fuente Original: https://tech.slashdot.org/story/26/04/25/179232/open-source-developer-brings-linux-to-windows-95-windows-98-and-windows-me?utm_source=rss1.0mainlinkanon&utm_medium=feed

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT