Anthropic ha anunciado un cambio significativo y repentino: el uso de su inteligencia artificial Claude con herramientas de terceros, como OpenClaw, se encarecerá sustancialmente. A partir del 4 de abril, los límites de suscripción de Claude ya no cubrirán estas plataformas externas. Para seguir utilizándolas, los usuarios deberán recurrir a una opción de pago por uso, facturada de forma independiente a su suscripción actual.

Esta nueva modalidad de pago por uso se ofrece con un descuento inicial. Alternativamente, Anthropic sugiere su API, que cobra por cada token procesado, en contraste con los planes Pro y Max que ofrecían un uso ilimitado hasta ciertos límites. La justificación técnica de Anthropic se centra en que sus propias herramientas, como Claude Code y Claude C owork, están optimizadas para maximizar la reutilización de texto y reducir el consumo de recursos. Las plataformas de terceros, al no aprovechar estas eficiencias, generan costes adicionales que Anthropic ya no está dispuesta a asumir.
La medida ha generado controversia. El creador de OpenClaw y recién contratado por OpenAI, Peter Steinberger, ha expresado su escepticismo, sugiriendo que el cambio coincide con la incorporación de funcionalidades similares a las de OpenClaw en las herramientas internas de Anthropic, y ve esto como un bloqueo a las soluciones de código abierto. Usuarios y observadores han señalado que el uso de OpenClaw podría volverse prohibitivamente caro para pequeños desarrolladores, forzándoles a buscar modelos alternativos. Aakash Gupta, por ejemplo, comentó que esto marca el fin de la era del "buffet libre" para la automatización, indicando que Anthropic absorbía los altos costes de los usuarios que utilizaban estas herramientas de terceros.
Boris Cherny, creador de Claude Code, reconoció la incomodidad, pero defendió la decisión como un ejercicio de ingeniería y optimización de recursos para poder atender a una base de clientes más amplia. La decisión de Anthropic de limitar las suscripciones a sus propias herramientas les otorga un mayor control sobre la interfaz y la recopilación de datos, pero corre el riesgo de alienar a su comunidad de usuarios avanzados. En esencia, Anthropic está priorizando la gestión de márgenes y la sostenibilidad de sus servicios sobre el modelo de consumo ilimitado subvencionado para la automatización externa, marcando el fin de una era para los usuarios de alta demanda en el ecosistema de IA.
Artículos relacionados de LaRebelión:
- Claude Code Leak 5 Security Actions for Enterprises
- Filtracion Masiva del Codigo de Claude Code
- Microsoft Invertira Mil Millones en Tailandia para IA
- Claude AI El Secreto Tecnologico de CENTCOM
- Mistral AI recauda 830M para centro de datos propio
Artículo generado mediante LaRebelionBOT












