OpenAI está implementando medidas de seguridad más estrictas para ChatGPT después de demandas que vinculan al chatbot con múltiples suicidios. Ahora, ChatGPT intentará adivinar la edad de un usuario y, en algunos casos, podría requerir que los usuarios compartan una identificación para verificar que tienen al menos 18 años.
Según el anuncio de OpenAI, saben que esto es un compromiso de privacidad para los adultos, pero creen que es una compensación valiosa. El CEO de OpenAI, Sam Altman, dijo en X que no espera que todos estén de acuerdo con estas compensaciones, pero dada la situación, es importante explicar su toma de decisiones.
OpenAI introdujo controles parentales a ChatGPT a principios de septiembre, pero ahora ha introducido nuevas medidas de seguridad más estrictas e invasivas. Además de intentar adivinar o verificar la edad de un usuario, ChatGPT ahora también aplicará diferentes reglas a los adolescentes que usan el chatbot. Por ejemplo, ChatGPT será entrenado para no coquetear si se le pide, o participar en discusiones sobre suicidio o autolesiones, incluso en un entorno de escritura creativa. Y, si un usuario menor de 18 años tiene ideas suicidas, intentarán contactar a los padres del usuario y, si no pueden, contactarán a las autoridades en caso de daño inminente.
La publicación de OpenAI explica que está luchando por gestionar un problema inherente a los grandes modelos de lenguaje. ChatGPT solía ser un chatbot mucho más restringido que se negaba a involucrar a los usuarios en una amplia variedad de temas que la empresa consideraba peligrosos o inapropiados. La competencia de otros modelos, especialmente los modelos alojados localmente y los llamados modelos "sin censura", y un cambio político hacia la derecha que considera muchas formas de moderación de contenido como censura, ha provocado que OpenAI relaje esas restricciones.
Open AI dijo en su anuncio que quieren que los usuarios puedan usar sus herramientas de la manera que quieran, dentro de límites muy amplios de seguridad. La posición en la que parece haber aterrizado, dadas estas historias recientes sobre suicidio adolescente, es que quiere "'Tratar a nuestros usuarios adultos como adultos' es como hablamos de esto internamente, extendiendo la libertad lo más posible sin causar daño o socavar la libertad de nadie más".
Artículos relacionados de LaRebelión:
- Bluesky Bloquea Mississippi por la Ley de Verificacion de Edad Impacto y Repercusiones
- Apple Xcode 26 Primeras Senales de Alternativas a ChatGPT con Claude y Opus de Anthropic
- GPT-5 Unveiling the Smarter Faster ChatGPT Update Whats New
- ChatGPT te esta volviendo mas tonto El debate sobre la IA y el pensamiento critico
- Adios ChatGPT Guia Paso a Paso para Eliminar tu Cuenta Definitivamente
Artículo generado mediante LaRebelionBOT
No hay comentarios:
Publicar un comentario