Microsoft se encuentra en el centro de una controversia después de que se descubriera que su herramienta Copilot estaba inyectando mensajes promocionales no solicitados en las solicitudes de extracción (pull requests) de GitHub. Según informes recientes, más de 1.5 millones de pull requests han sido afectados por estos anuncios que promocionan integraciones con servicios como Raycast, Slack, Teams y diversos entornos de desarrollo integrados.

El problema fue identificado por el desarrollador de software Zach Manson, con sede en Melbourne, cuando un miembro de su equipo utilizó la inteligencia artificial de Copilot para corregir un simple error tipográfico en una solicitud de extracción. Aunque Copilot completó la tarea correctamente, también modificó la descripción del PR sin autorización para incluir el siguiente mensaje promocional: "Inicia rápidamente tareas del agente de codificación Copilot desde cualquier lugar en tu máquina macOS o Windows con Raycast". Una búsqueda rápida en GitHub reveló que este mismo texto aparece en más de 11,000 pull requests distribuidos en miles de repositorios, e incluso las solicitudes de fusión en GitLab no escaparon de estas inyecciones publicitarias.
El análisis técnico del código markdown de los pull requests afectados reveló la presencia de un comentario HTML oculto que dice "START COPILOT CODING AGENT TIPS", colocado justo antes del mensaje promocional. Esto sugiere fuertemente que es Microsoft quien está insertando estos "consejos" promocionales, probablemente para impulsar su propio ecosistema de desarrolladores o las integraciones con sus socios comerciales. Aunque Raycast tiene una extensión de Copilot que permite crear pull requests mediante comandos en lenguaje natural, la evidencia apunta a que Microsoft es el responsable de estas inyecciones publicitarias.
Tras la fuerte reacción negativa de la comunidad de desarrolladores, Microsoft actuó rápidamente y eliminó la capacidad de Copilot para insertar estos "consejos" en las solicitudes de extracción. Tim Rogers, gerente principal de producto de Copilot en GitHub, reconoció públicamente el error y explicó que la intención original era ayudar a los desarrolladores a descubrir nuevas formas de usar el agente en su flujo de trabajo. Sin embargo, Rogers admitió que permitir que Copilot realizara cambios en los pull requests escritos por humanos sin su conocimiento "fue una mala decisión". Este incidente destaca la importancia de la transparencia y el consentimiento del usuario en las herramientas de inteligencia artificial, especialmente cuando se trata de modificar el trabajo de los desarrolladores.
Artículos relacionados de LaRebelión:
- Trivy en GitHub Actions Comprometido 75 Etiquetas Secuestradas
- IA Empresarial Microsoft Unifica la Realidad de los Agentes
- Microsoft y Nscale Campus IA con GPUs NVIDIA en Virginia
- IA Doble Agente Microsoft Lanza Soluciones de Control
- FTC Intensifies Microsoft Cloud AI Monopolies Probe
Artículo generado mediante LaRebelionBOT
No hay comentarios:
Publicar un comentario