domingo, 1 de marzo de 2026

Cuidado con ClawJacked Ataques IA a tu Alcance

El mundo de la inteligencia artificial (IA) está en auge, y con él, surgen nuevas vulnerabilidades. Recientemente, se ha descubierto una peligrosa falla de seguridad denominada 'ClawJacked' que podría tener implicaciones serias para la privacidad y seguridad de tus agentes de IA locales.

Cuidado con ClawJacked Ataques IA a tu Alcance

Esta vulnerabilidad, descubierta por investigadores de seguridad, aprovecha la forma en que algunas aplicaciones de IA interactúan con el navegador web, específicamente a través de WebSockets. Los sitios web maliciosos, utilizando este fallo, podrían tomar el control de agentes de IA que operan en tu máquina local, exponiendo información sensible y permitiendo a cciones no deseadas.

La complejidad de la falla radica en su capacidad para eludir las medidas de seguridad convencionales. Al tratarse de una comunicación directa entre el navegador y la aplicación de IA, se crea una puerta trasera para que actores malintencionados obtengan acceso. Esto significa que incluso si crees que tus interacciones con la IA están aisladas, podrían estar en riesgo si visitas una página web comprometida.

Las implicaciones de 'ClawJacked' son amplias. Los atacantes podrían utilizar esta falla para extraer datos confidenciales procesados por tus agentes de IA, como información personal, financiera o secretos comerciales. Peor aún, podrían instruir a tu agente de IA para realizar acciones perjudiciales o suplantar tu identidad en línea, aprovechando la confianza que depositas en tu asistente digital. Se enfatiza la importancia de la arquitectura 'Zero Trust', que promueve la verificación continua de cada acceso, independientemente de la ub icación o el usuario, para mitigar riesgos en la era de la GenAI y proteger la fuerza laboral, sucursales y la nube.

Fuente Original: https://thehackernews.com/2026/02/clawjacked-flaw-lets-malicious-sites.html

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

ChatGPT expone correos corporativos Riesgos OAuth Entra ID

Una reciente investigación pone de manifiesto un grave riesgo de seguridad en entornos empresariales que emplean Microsoft Entra ID. El estudio, liderado por la firma de ciberseguridad Red Canary, revela cómo la concesión de permisos OAuth a aplicaciones como ChatGPT puede derivar en un acceso continuo y persistente a datos corporativos sensibles, específicamente el correo electrónico, sin necesidad de reautenticación.

ChatGPT expone correos corporativos Riesgos OAuth Entra ID

El mecanismo detrás de este problema reside en el sistema OAuth, que permite a los usuarios autorizar aplicaciones externas para acceder a sus cuentas sin compartir directamente sus credenciales. En el escenario analizado, un empleado autorizó a ChatGPT a través de su cuenta profesional, otorgándole permisos que incluían la lectura del correo electrónico (Mail.Read) mediante Microsoft Graph. Una vez concedido este consentimiento, la aplicación puede establecer una identidad persistente, un "service principal", que mantiene el acceso a través de tokens. Esto significa que la aplicación puede seguir accediendo a la información en segundo plano, eludiendo la necesidad de verificaciones de seguridad adicionales, como contraseñas o autenticación multifactor.

El informe subraya que este tipo de permisos suelen ser otorgados por los usuarios sin requerir aprobación administrativa, lo que amplía considerablemente la superficie de ataque. Los ciberdelincuentes podrían explotar esta vulnerabilidad si logran que un usuario autorice una a plicación maliciosa que se haga pasar por legítima. La buena noticia es que los equipos de seguridad tienen herramientas para mitigar este riesgo. Mediante la revisión de los registros de auditoría, es posible detectar acciones sospechosas como la adición de "service principals" o el consentimiento a aplicaciones. Identificar estas actividades permite revocar el acceso y eliminar la autorización de forma inmediata, protegiendo así la información corporativa. En definitiva, la clave no está en la herramienta en sí, sino en la correcta gestión de los permisos, la supervisión continua y la revisión periódica de las aplicaciones integradas en el entorno empresarial.

Fuente Original: https://unaaldia.hispasec.com/2026/03/una-investigacion-revela-como-el-consentimiento-oauth-a-chatgpt-en-entra-id-puede-exponer-el-correo-corporativo.html?utm_source=rss&utm_medium=rss&utm_campaign=una-investigacion-revela-como-el-consentimiento-oauth-a-chatgpt-en-entra-id-puede-exponer-el-correo-corporativo

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Trump Bans Anthropic AI from US Government Agencies

President Donald Trump has issued a directive for all federal agencies to immediately halt the use of Anthropic's artificial intelligence tools. This significant move follows weeks of intense disagreements between Anthropic and high-ranking officials concerning the military applications of AI technology.

Trump Bans Anthropic AI from US Government Agencies

The core of the dispute appears to stem from the Department of Defense's attempt to modify an existing agreement with Anthropic and other AI firms. The Pentagon sought to remove restrictions on AI deployment, aiming for "all lawful use" of the technology. However, Anthropic raised strong objections, citin g concerns that such broad permissions could lead to the AI being used for full control of lethal autonomous weapons or for extensive surveillance of US citizens. While the Pentagon maintains it currently has no plans for such applications, Trump administration officials have expressed strong opposition to a civilian tech company dictating military AI usage.

Anthropic, which secured a substantial $200 million deal with the Pentagon last year, has been a key player in developing custom AI models for the US military, known as Claude Gov. These models have fewer restrictions than their commercial counterparts. The company's stance has garnered support from some within the tech industry, with employees from OpenAI and Google signing an open letter criticising their own companies' decisions to relax restrictions on military AI. OpenAI CEO Sam Altman echoed Anthropic's concerns regarding autonomous weapons and mass surveillance, suggesting a "red line" that should not be crossed.

The public friction escalated after reports indicated that military leaders used Claude to aid in planning an operation. While Anthropic denies raising concerns or interfering, the situation has led to public exchanges between officials and the AI company. Defense Secretary Pete Hegseth gave Anthropic until Friday to commit to the revised contract terms. Despite the conflict, Hegseth reportedly praised Anthropic's products and expressed a desire to continue the partnership. Some experts view the dispute as a clash over perceived risks rather than immediate, concrete disagreements, noting that current AI usage aligns with both parties' stated objectives.

Fuente Original: https://arstechnica.com/tech-policy/2026/02/trump-moves-to-ban-anthropic-from-the-us-government/

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Antartida Observatorio Neutrino Gigante Mejora su Vision

¡La Antártida esconde secretos cósmicos y nuestro observatorio de neutrinos, IceCube, acaba de dar un gran paso para desvelarlos! Con miles de sensores ya sumergidos en el hielo, este gigantesco laboratorio subglacial busca las esquivas partículas subatómicas llamadas neutrinos. Recientemente, científicos han completado una ambiciosa mejora, perforando seis nuevos pozos de más de kilómetro y medio de profundidad para instalar cientos de detectores de luz adicionales.

Antartida Observatorio Neutrino Gigante Mejora su Vision

Esta actualización, que ha sido planeada durante siete largos años, tiene como objetivo principal mejorar la capacidad de IceCube para detectar neutrinos de menor energía. Cuando estas partículas interactúan con la materia, producen partículas cargadas que emiten una tenue luz azul, conocida como radiación Cherenkov. Los nuevos sensores son cruciales para captar esta señal, permitiendo a los científicos "hacer mediciones mucho mejores" en los próximos años, según Erin O'Sullivan, portavoz del proyecto.

El sueño de los investigadores va más allá: aspiran a expandir el volumen del detector por un factor de diez, transformando IceCube de un simple observador a un "verdadero telescopio". Esto permitiría no solo detectar unos pocos puntos de origen de neutrinos, sino obtener una visión mucho más completa del universo. El desafío técnico de la instalación es considerable: perforar pozos tan profundos toma casi dos días, y el rápido re-congelamiento del hielo exige que los instrumentos se instalen rápidamente antes de que el agujero se cierre, imposibilitando su inserc ión. ¡Es una carrera contra el tiempo y la naturaleza helada de la Antártida para capturar la luz de los neutrinos!

Fuente Original: https://science.slashdot.org/story/26/02/28/0632201/antarcticas-massive-neutrino-observatory-gets-an-upgrade?utm_source=rss1.0mainlinkanon&utm_medium=feed

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

IA y Guerra La Amenaza de EEUU a Anthropic

La tensión entre el gobierno de EE.UU. y Anthropic ha escalado drásticamente. Tras un estancamiento en las negociaciones contractuales, el Departamento de Guerra de EE.UU. ha ordenado a todas las agencias federales cesar inmediatamente el uso de la tecnología de IA de Anthropic. La raíz del conflicto reside en las exigencias de Anthropic de prohibir la vigilancia masiva doméstica y el uso de armas totalmente autónomas, peticiones que el Secretario de Guerra, Pete Hegseth, ha tachado de "arrogancia" y "traición".

IA y Guerra La Amenaza de EEUU a Anthropic

Hegseth ha declarado que el Departamento de Guerra exige "acceso total y sin restricciones" a los modelos de Anthropic para "todos los propósitos legales" en defensa de la República. Acusa a Anthropic de intentar "forzar la sumisión" del ejército estadounidense con una retórica de "altruismo efectivo" que prioriza la "ideología de Silicon Valley" sobre las vidas americanas. Como represalia, el Departamento de Guerra designará a Anthropic como un "riesgo de cadena de suministro para la seguridad nacional", lo que prohibiría cualquier actividad comercial con la empresa a contratistas, proveedores y socios militares.

Anthropic, por su parte, ha reafirmado su postura, declarando que "ninguna cantidad de intimidación o castigo" cambiará su posición y que impugnarán legalmente cualquier designación de riesgo en la cadena de suministro. La empresa argumenta que esta medida sin precedentes, reservada históricamente para adversarios extranjeros, es "legalmente insostenible" y sentaría un "peligroso precedente". Defienden sus peticiones iniciales, señalando que los modelos actuales de IA no son lo suficientemente fiables para armas autónomas y que la vigilancia masiva doméstica viola derechos fundamentales.

En un giro paralelo, OpenAI ha anunciado un acuerdo con el Departamento de Guerra para desplegar sus modelos en redes clasificadas. El CEO de OpenAI, Sam Altman, destacó que este acuerdo mantiene las prohibiciones contra la vigilancia masiva y exige "responsabilidad humana" en el uso de la fuerza, principios que según él, el Departamento de Guerra comparte y ha incorporado en su acuerdo y políticas. OpenAI aboga por un enfoque de "desescalada" hacia "acuerdos razonables" y anima al Departamento de Guerra a ofrecer los mismos términos a otras empresas de IA.

Fuente Original: https://tech.slashdot.org/story/26/02/28/2028232/us-threatens-anthropic-with-supply-chain-risk-designation-openai-signs-new-war-department-deal?utm_source=rss1.0mainlinkanon&utm_medium=feed

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Sam Altman Clarifies OpenAI Pentagon Deal Anthropic Threats

Sam Altman has stepped onto X.com (formerly Twitter) to address recent developments concerning OpenAI's deal with the US Department of War and the implications for AI competitor Anthropic. The situation escalated after the Department of War's negotiations with Anthropic failed, leading to a threat to designate Anthropic's technology as a 'Supply-Chain Risk to National Security.' Subsequently, a deal was struck with OpenAI, but Altman insists it includes strict prohibitions against domestic mass surveillance and mandates human responsibility for autonomous weapon systems.

Sam Altman Clarifies OpenAI Pentagon Deal Anthropic Threats

Altman expressed strong disapproval of the Department of War's proposed designation for Anthropic, calling it a 'very bad decision' that could harm the AI industry and the country. He revealed that OpenAI's willingness to expedite their deal was partly an effort to de-escalate the situation and set a positive precedent. While acknowledging the Department of War's critical mission, Altman believes private companies shouldn't wield more power than elected governments, yet stressed the necessity of assisting them. He admitted to some concern about future disputes over legality but remains hopeful for a resolution, highlighting the rush to sign as a de-escalation tactic and a move to foster healthier competition.

When differentiating OpenAI's deal from Anthropic's, Altman pointed to a 'layered approach to safety' employed by OpenAI, involving technical safeguards and expert involvement, rather than solely relying on contractual prohibitions. He also clarified that while the terms differed from Anthropic's rejected proposal, they are now available to other AI labs. OpenAI stated they would cease operations if rules were violated but expressed trust in the US government's adherence to law. The deal's value is minor compared to OpenAI's revenue, with the primary motivation being national interest rather than financial gain. OpenAI detailed that their contract limits deployment to cloud APIs, preventing direct integration into weapon systems, and allows for embedded engineers and ongoing safety refinements, offering more robust oversight than static contract language.

Fuente Original: https://news.slashdot.org/story/26/03/01/0233230/sam-altman-answers-questions-on-xcom-about-pentagon-deal-threats-to-anthropic?utm_source=rss1.0mainlinkanon&utm_medium=feed

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

sábado, 28 de febrero de 2026

Pentagono Alerta Riesgo IA Disputa Militar Anthropic

El Pentágono ha emitido una seria advertencia sobre los riesgos de seguridad asociados con Anthropic, una destacada empresa de inteligencia artificial, designándola como un riesgo para la cadena de suministro. Esta decisión surge de una disputa subyacente relacionada con el uso militar de la IA, un tema cada vez más crucial en el panorama de la defensa global.

Pentagono Alerta Riesgo IA Disputa Militar Anthropic

La designación de Anthropic como un riesgo para la cadena de suministro por parte del Pentágono subraya las crecientes preocupaciones sobre la dependencia de tecnologías de IA críticas y la necesidad de asegurar su integridad y fiabilidad, especialmente en aplicaciones militares. Si bien los detalles específicos de la disputa no se han revelado públicamente, la acción sugiere divergencias significativas en las políticas, protocolos de seguridad o la confianza en la tecnología de IA desarrollada por Anthropic para propósitos de defensa.

Este acontecimiento pone de relieve la complejidad de integrar la IA en operaciones militares y la importancia de una evaluación rigurosa de los proveedores y sus tecnologías. La seguridad y la soberanía tecnológica se convierten en factores primordiales cuando la inteligencia artificial se alinea con las capacidades de defensa nacional. La decisión del Pentágono podría tener repercusiones significativas en el futuro de la colaboración entre el gobierno y las empresas de IA, impulsando una mayor diligencia y escrutinio en el desarrollo y despliegue de sistemas de IA par a aplicaciones sensibles. La era de la IA exige un enfoque de 'confianza cero' para garantizar la resiliencia en todos los frentes, desde la fuerza laboral hasta las operaciones en la nube y las aplicaciones de IA generativa.

Fuente Original: https://thehackernews.com/2026/02/pentagon-designates-anthropic-supply.html

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

OpenAI Lands Pentagon AI Deal Amidst Rival Ban

In a dramatic turn of events, OpenAI has secured a significant agreement with the Pentagon, allowing the deployment of its artificial intelligence models within classified military systems. This development occurred just hours after President Donald Trump issued a directive for federal agencies to halt the use of competing AI company, Anthropic's, technology.

OpenAI Lands Pentagon AI Deal Amidst Rival Ban

The announcement, made by OpenAI CEO Sam Altman, confirms the finalised terms with the Department of Defense. This deal emerges from an escalating tension between the Trump administration and Anthropic concerning the application of AI in military contexts. Earlier on the same day, Trump had mandated an immediate cessation of Anthropic products' use across all federal agencies. Defence Secretary Pete Hegseth further classified Anthropic as a "supply chain risk to national security," a designation typically used to restrict specific technologies in defence contracts. This action mirrors past restrictions imposed on foreign tech firms like Huawei and ZTE, compelling military contractors to certify their work is free from Anthropic's AI tools, with a six-month grace period for phasing out their systems.

The core of the dispute revolves around the extent to which AI companies can dictate military usage of their systems. Anthropic had sought contractual assurances that its Claude model would not be employed for domestic mass surveillance or autonomous weapons. While the Pentagon stated these were not intended uses, it maintained the necessity of retaining access for all lawful purposes. Following failed negotiations, the administration's move against Anthropic was swiftly followed by Altman's announcement of OpenAI's Pentagon deal, which he stated adheres to OpenAI's safety principles against domestic mass surveillance and for human oversight in the use of force. It remains to be seen how OpenAI's safeguards substantively differ, though Pentagon officials argue existing U.S. law already covers these prohibitions. The situation highlights the growing entanglement of AI in national security, with major AI players like OpenAI, Anthropic, and Google securing defence agreements, while c oncerns about AI's ethical and security implications intensify.

Fuente Original: https://thenextweb.com/news/openai-signs-pentagon-ai-deal-after-trump-orders-anthropic-ban

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Militar USA Dron de Frontera Derribado por Laser

Un incidente insólito ha sacudido la seguridad fronteriza de Estados Unidos. En un suceso que pone de manifiesto los desafíos de la identificación de amenazas aéreas, el ejército estadounidense empleó un arma láser para derribar un dron que consideró "aparentemente amenazante" cerca de la frontera con México. Sin embargo, la investigación posterior reveló que el dron en cuestión pertenecía a la propia Patrulla Fronteriza y Aduanas (CBP), lo que generó un caso de identidad equivocada y la consecuente intervención de la Administración Federal de Aviación (FAA).

Militar USA Dron de Frontera Derribado por Laser

Este error obligó a la FAA a cerrar temporalmente un sector del espacio aéreo alrededor de Fort Hancock, una medida que, si bien no afectó a los vuelos comerciales, subraya la sensibilidad de las operaciones de defensa en la zona. Es importante destacar que el ejército está obligado a notificar formalmente a la FAA cada vez que realiza acciones contra drones dentro del espacio aéreo estadounidense. Este incidente marca la segunda ocasión en dos semanas que se dispara un láser en la región; la vez anterior, fue la CBP quien utilizó el arma sin impactar ningún objetivo, lo que provocó el cierre del aeropuerto de El Paso.

La FAA, CBP y el Pentágono confirmaron conjuntamente el evento, declarando que el ejército "empleó autoridades de sistemas contrain-drones para mitigar un sistema aéreo no tripulado aparentemente amenazante que operaba dentro del espacio aéreo militar". La declaración conjunta tam bién hizo referencia a la iniciativa del gobierno para abordar las amenazas de drones provenientes de cárteles mexicanos y organizaciones terroristas extranjeras en la frontera sur, citando la detección de 27.000 drones en los últimos seis meses de 2024. Ante este suceso, la senadora Tammy Duckworth ha solicitado una investigación independiente, criticando la "incompetencia" de la administración actual.

Fuente Original: https://tech.slashdot.org/story/26/02/27/2133209/us-military-accidentally-shoots-down-border-protection-drone-with-laser?utm_source=rss1.0mainlinkanon&utm_medium=feed

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Spotify Obsoleto El Fin del Streaming Musical

Parece que el modelo de negocio del streaming musical, tal como lo conocemos, está en serios aprietos. Según un análisis reciente, la industria musical en general, a excepción de las propias compañías de streaming, alberga un profundo descontento hacia plataformas como Spotify. Se argumenta que estas plataformas explotan a los artistas, dificultan la creación de comunidades y, a pesar de todo, luchan por ser rentables de manera sostenible.

Spotify Obsoleto El Fin del Streaming Musical

La clave del problema radica en los márgenes de beneficio. Plataformas como Apple, Amazon y Google pueden permitirse tener servicios de música que no sean altamente rentables porque los utilizan como estrategia para vender otros productos más lucrativos, como iPhones o suscripciones Prime. Sin embargo, para empresas dedicadas exclusivamente al streaming, como Spotify, la situación es insostenible. Cuando los márgenes se reducen drásticamente, los primeros en sufrir las consecuencias son los artistas, quienes reciben pagos ínfimos por sus creaciones.

Ante este panorama, surge la pregunta: ¿qué reemplazará a los servicios de streaming si están al borde de la obsolescencia? La respuesta apunta hacia la propiedad directa y la formación de comunidades íntimas. Los artistas que logren prosperar en los próximos años serán aquellos que se alejen de la dependencia de las plataformas y enfoquen sus esfuerzos en construir su propia base de fans. Esto implica captar datos de contacto (como números de teléfono), fomentar la interacción en servido res privados de Discord y generar ingresos a través de la venta directa de merchandising de alta calidad, vinilos y entradas para conciertos. El futuro parece inclinarse hacia la creación de "micro-comunidades" en lugar de apuntar a una "audiencia masiva", lo que permitiría a los artistas mejorar significativamente sus ingresos promedio por fan (ARPF).

Fuente Original: https://entertainment.slashdot.org/story/26/02/27/1941205/the-death-of-spotify-why-streaming-is-minutes-away-from-being-obsolete?utm_source=rss1.0mainlinkanon&utm_medium=feed

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Europes Deep-Tech Puzzle Funding Innovations Future

Europe is facing a significant paradox in its innovation landscape. While the continent boasts ample capital and a growing number of successful 'unicorns' – particularly in Sweden, a leader per capita – it struggles to effectively channel investment into the foundational "SciTech" startups. These are the companies pioneering advancements in critical fields like semiconductors, life sciences, and energy, which are essential for long-term competitiveness and addressing global challenges. The issue isn't a lack of money, but rather a deficiency in the legal courage and analytical expertise needed to identify and nurture these high-potential, yet often technologically uncertain, ventures.

Europes Deep-Tech Puzzle Funding Innovations Future

The core of the problem lies in how investors perceive and manage risk. Many are comfortable evaluating commercial risks, but struggle with technological uncertainty – the fundamental question of whether a scientific breakthrough can be engineered into a scalable product. This leads to a 'wait-and-see' attitude, where investors defer decisions until external validation, creating a cycle of dependency and potentially delaying or pushing promising startups towards premature acquisition. This contrasts with the historical approach in places like Silicon Valley, where early investment in the analytical process to reduce technological uncertainty was common and supported by favourable legal and fiscal structures that rewarded long-term commitment.

To unlock Europe's full deep-tech potential, a shift in mindset and policy is crucial. This involves reforming capital gains taxation to incentivise long-term investment, introducing flexible corporate structures tailored to SciTech financing, and implementing milestone-based stock options to reward early specialist contributions. The focus needs to move from simply providing capital to building durable financing chains capable of guiding SciTech ventures from lab to market. By modernising these frameworks, Europe can align its abundant entrepreneurial talent with the strategic necessity of deep-tech innovation for its future competitiveness.

Fuente Original: https://thenextweb.com/news/europes-deep-tech-paradox

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

viernes, 27 de febrero de 2026

Dohdoor Backdoor Ataque a Educacion y Salud USA

Una nueva amenaza cibernética, identificada como UAT-10027, está poniendo en jaque a instituciones educativas y sanitarias en Estados Unidos. El modus operandi de este grupo de hackers se centra en la distribución de un sofisticado backdoor conocido como 'Dohdoor', capaz de infiltrarse sigilosamente en las redes corporativas, abriendo la puerta a un sinfín de actividades maliciosas.

Dohdoor Backdoor Ataque a Educacion y Salud USA

La campaña de UAT-10027 se caracteriza por su sigilo y persistencia. Utilizan técnicas avanzadas para evadir las defensas de seguridad tradicionales, permitiendo que el backdoor Dohdoor permanezca indetectado durante largos periodos. Una vez dentro, los atacantes puede n controlar remotamente los sistemas, robar información sensible, interrumpir operaciones críticas e incluso desplegar ransomware. El sector educativo y sanitario son objetivos particularmente vulnerables debido a la naturaleza crítica de sus servicios y la gran cantidad de datos personales y confidenciales que manejan.

Los investigadores de seguridad han emitido una alerta crucial, instando a las organizaciones a revisar exhaustivamente sus infraestructuras de seguridad, actualizar sus sistemas y estar vigilantes ante cualquier actividad inusual. La implementación de medidas de seguridad robustas, la concienciación del personal sobre las amenazas de phishing y la segmentación de red son pasos esenciales para mitigar el riesgo de ser la próxima víctima de UAT-10027 y su peligroso backdoor Dohdoor.

Fuente Original: https://thehackernews.com/2026/02/uat-10027-target s-us-education-and.html

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Government Spy Tech Buys Now Secreted Away

It appears the US government has deliberately made it more difficult for the public and investigative journalists to track its purchases of sensitive surveillance technology. The previous, albeit dated, online portal, FPDS.gov, served as a crucial and remarkably effective tool for transparency, allowing users to identify a wide array of government contracts, including those for phone hacking devices, vast amounts of location data, and sophisticated software like Palantir installations.

Government Spy Tech Buys Now Secreted Away

This invaluable resource has now been replaced by SAM.gov, a new platform that many find significantly less functional and user-friendly. According to experts like Dave Maass from the Electronic Frontier Foundation, while FPDS.gov may have had a basic design, its straightforward interface was highly robust and essential for quickly discerning government spending on everything from spy tools to other operational needs. It was the go-to site for researchers and journalists to understand who was selling what to the government and how these deals were structured. The shift to SAM.gov has, by all accounts, made it substantially harder to perform these vital oversight functions.

The move has raised concerns about a deliberate effort to obscure the details of government expenditure on powerful surveillance capabilities, potentially hindering public scrutiny and accountability. Investigative journalists and watchdog groups relied heavily on FPDS.gov to uncover critical information about government contracts, and its diminished successor is seen as a significant setback for transparency in this sensitive area.

Fuente Original: https://yro.slashdot.org/story/26/02/26/1722205/the-government-just-made-it-harder-to-see-what-spy-tech-it-buys?utm_source=rss1.0mainlinkanon&utm_medium=feed

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT

Ficcion Especulativa Impacto Bursatil Sin Precedentes

¿Alguna vez te has preguntado si las historias de ciencia ficción o las visiones distópicas pueden realmente sacudir los cimientos del mercado de valores? Pues parece que sí. Un fascinante análisis realizado por FT Alphaville ha rastreado cómo los mercados bursátiles estadounidenses han reaccionado en los días de lanzamiento de obras notables de ficción especulativa a lo largo de la historia. La premisa es atrevida: ¿cuánto puede una obra de imaginación influir en las finanzas del mundo real?

Ficcion Especulativa Impacto Bursatil Sin Precedentes

La metodología, aunque admiten que podría ser considerada simplista, se centró en los movimientos diarios del S&P 500 para lanzamientos posteriores a 1986 y del DJIA para los anteriores. Los resultados son sorprendentes. Coronando la lista como la obra con el mayor impacto negativo individual se encuentra la icónica película 'The Matrix', cuyo estreno en marzo de 1999 coincidió con una caída del 1.11% en el índice. Muy de cerca le sigue una entrada más contemporánea: el artículo 'The 2028 Global Intelligence Crisis' de Citrini, que provocó una bajada del 1.04%.

Sin embargo, no todo es pesimismo. El lado positivo de la balanza lo ocupa la película 'Her' (2013), una emotiva historia sobre un hombre y su relación con una IA. Su lanzamiento se asoció con la mayor ganancia registrada en el estudio, un impresionante +1.66%. Este análisis, aunque lúdico, abre una ventana a la curiosa interconexión entre la cultura popular, la tecnología emergente y la economía g lobal, sugiriendo que a veces, la ficción es un espejo que anticipa o influye en nuestra realidad.

Fuente Original: https://slashdot.org/story/26/02/26/1744240/which-piece-of-speculative-fiction-had-the-greatest-single-day-stock-market-impact?utm_source=rss1.0mainlinkanon&utm_medium=feed

Artículos relacionados de LaRebelión:

Artículo generado mediante LaRebelionBOT