La inteligencia artificial enfrenta una paradoja peligrosa que pocas empresas están considerando: está eliminando precisamente a los expertos humanos de los que depende para seguir mejorando. Ahmad Al-Dahle, CTO de Airbnb, plantea un riesgo empresarial crítico que nadie está modelando adecuadamente. Mientras la industria tecnológica invierte enormemente en capacidades de autoaprendizaje de la IA, ignora casi por completo lo que está sucediendo con los evaluadores humanos que estos sistemas necesitan para evolucionar.

Para que los sistemas de IA continúen mejorando en trabajo de conocimiento, necesitan un mecanismo confiable de auto-mejora autónoma o evaluadores humanos capaces de detectar errores y generar retroalimentación de alta calidad. El problema es que la contratación de recién graduados en las principales empresas tecnológicas ha caído a la mitad desde 2019. Tareas como revisión de documentos, investigación preliminar, limpieza de datos y revisión de código ahora las manejan modelos de IA. Lo que los economistas llaman desplazamiento, las empresas lo llaman eficiencia, pero ninguno se enfoca en el problema futuro.
A diferencia de juegos como Go o ajedrez, donde AlphaZero alcanzó niveles sobrehumanos mediante autoaprendizaje, el trabajo de conocimiento carece de reglas estables y señales de recompensa claras. Las reglas en cualquier dominio profesional son dinámicas y continuamente reescritas. Nuevas leyes se aprueban, nuevos instrumentos financieros se inventan, y una estrategia legal exitosa en 2022 puede fallar en una jurisdicción que cambió su interpretación. Sin un entorno estable y una señal de recompensa inequívoca, no se puede cerrar el ciclo. Se necesitan humanos en la cadena de evaluación para seguir enseñando al modelo.
El verdadero problema es la formación. Los sistemas de IA actuales fueron entrenados con la experiencia de personas que pasaron por años de desarrollo profesional. Sin embargo, los trabajos de nivel inicial que desarrollan tal experiencia fueron los primeros en automatizarse. Esto significa que la próxima generación de expertos potenciales no está acumulando el tipo de juicio que hace valioso tener a un evaluador humano en el proceso. A su límite lógico, esto no es solo un problema de pipeline, sino un colapso de la demanda de la experiencia misma. Campos enteros podrían atrofiarse no por catástrofe, sino por miles de decisiones económicas individualmente racionales.
Las rúbricas de evaluación actuales, aunque útiles, tienen limitaciones. Solo pueden capturar lo que quien las escribió sabía medir. Optimizar contra una rúbrica produce un modelo muy bueno satisfaciéndola, pero eso no es lo mismo que un modelo que realmente está en lo correcto. Las rúbricas escalan la parte explícita del juicio, pero la parte más profunda, el instinto de que algo está mal, no cabe en una rúbrica. Al-Dahle concluye que debemos tratar el problema de evaluación humana con el mismo rigor e inversión que ponemos en construir las capacidades del modelo mismo.
Fuente Original: https://venturebeat.com/technology/the-enterprise-risk-nobody-is-modeling-ai-is-replacing-the-very-experts-it-needs-to-learn-from
Artículos relacionados de LaRebelión:
- Fin La IA que Gestiona a Otra IA Revoluciona Soporte
- MRC Protocolo de Red para LLMs Revoluciona Datacenters
- Toyota IA para proteger empleos no reemplazarlos
- Mistral AI Workflows Infraestructura IA para Empresas
- Google y el Pentagono IA sin limites para fines militares
Artículo generado mediante LaRebelionBOT
No hay comentarios:
Publicar un comentario