La inteligencia artificial está revolucionando el desarrollo de software, pero plantea interrogantes legales y éticos sin precedentes. Tradicionalmente, los programadores utilizaban la ingeniería inversa en "salas limpias" para replicar funcionalidades sin copiar código protegido por derechos de autor. Ahora, las herramientas de codificación con IA están transformando este proceso de manera radical, generando intensos debates en la comunidad de código abierto.

El conflicto estalló con el lanzamiento de la versión 7.0 de chardet, una popular biblioteca de Python para detectar codificación de caracteres. El código original fue escrito por Mark Pilgrim en 2006 bajo licencia LGPL, que impone restricciones estrictas sobre su reutilización. Dan Blanchard, quien mantenía el proyecto desde 2012, utilizó Claude Code para reescribir completamente la biblioteca en solo cinco días, cambiando la licencia a MIT, mucho más permisiva. El resultado: un código 48 veces más rápido y supuestamente más preciso.
Pilgrim argumenta que esta nueva versión constituye una relicenciación ilegítima de su código original, ya que Blanchard tuvo amplia exposición al código LGPL. Según Pilgrim, usar un generador de código no otorga derechos adicionales para cambiar la licencia. Por su parte, Blanchard defiende que el nuevo código es "cualitativamente diferente" y estructuralmente independiente, citando estadísticas que muestran solo 1.29% de similitud máxima entre versiones, comparado con 80% en actualizaciones anteriores hechas por humanos.
El proceso que Blanchard denomina "sala limpia con IA" implicó comenzar con un repositorio vacío, instruyendo explícitamente a Claude a no basarse en código bajo licencias LGPL/GPL. Sin embargo, varios factores complican esta narrativa: Claude utilizó algunos archivos de metadatos de versiones anteriores, sus modelos fueron entrenados con datos de Internet que probablemente incluyen el código original de chardet, y Blanchard revisó e iteró profundamente sobre cada aspecto del código generado, a pesar de su conocimiento íntimo de las versiones previas.
La directora ejecutiva de la Free Software Foundation, Zoë Kooyman, afirma categóricamente que no hay nada "limpio" en un modelo de lenguaje que ha ingerido el código que se le pide reimplementar. Sin embargo, otros desarrolladores como Armin Ronacher argumentan que si todo el código se descarta y se comienza desde cero, aunque el resultado funcione igual, es efectivamente un nuevo proyecto. El estatus legal del código generado por IA permanece en gran medida sin resolver, con tribunales aún sin pronunciarse sobre las implicaciones de licenciamiento de software creado total o parcialmente por inteligencia artificial.
Las consecuencias prácticas de esta capacidad para reescribir y relicenciar rápidamente proyectos de código abierto son monumentales. El desarrollador Salvatore Sanfilippo sugiere que la naturaleza del software ha cambiado fundamentalmente y que es necesario construir nuevos modelos mentales en lugar de combatir cada manifestación de programación automática. Bruce Perens va más allá, declarando que "toda la economía del desarrollo de software está muerta", comparando este momento transformador con la invención de la imprenta o el método científico. La comunidad tecnológica enfrenta un punto de inflexión que redefinirá las reglas del desarrollo de software para siempre.
Fuente Original: https://arstechnica.com/ai/2026/03/ai-can-rewrite-open-source-code-but-can-it-rewrite-the-license-too/
Artículos relacionados de LaRebelión:
- Evo 2 IA de Codigo Abierto Revoluciona Genomica
- Claude IA Seguridad Codigo Vulnerabilidades Detectadas
- OpenAI Acelera Codigo Cerebras Chips vs Nvidia
- Alerta Docker Fallo Critico en AI Permite Ejecucion de Codigo
- n8n Vulnerabilidades Criticas Permiten Ejecucion Remota de Codigo
Artículo generado mediante LaRebelionBOT
No hay comentarios:
Publicar un comentario