¿Qué ocurre cuando la inteligencia artificial (IA) guía a los turistas a lugares que no existen? Un reciente informe de la BBC revela una creciente problemática: viajeros que, confiando en chatbots de IA para planificar sus aventuras, terminan perdidos, desinformados o incluso en situaciones peligrosas. El problema radica en que estas IA, aunque suenan convincentes, a menudo carecen de la información precisa y actualizada necesaria para un viaje seguro y exitoso.
Un ejemplo destacado es el de una pareja que, siguiendo las instrucciones de ChatGPT, se aventuró a una caminata en Japón para ver el atardecer desde la cima del Monte Misen. La IA les indicó erróneamente que el teleférico estaría operativo hasta las 17:30, cuando en realidad ya había cerrado, dejándolos varados en la montaña. Otro caso preocupante involucra a turistas en Perú enviados a un cañón sagrado inexistente, poniendo en riesgo su seguridad en una caminata de altura con poca cobertura telefónica.
Según una encuesta de 2024, el 37% de los usuarios que utilizaron IA para planificar sus viajes consideraron que la información era insuficiente, y un 33% reportó información falsa. Desde la Torre Eiffel en Pekín (según Layla, una IA de viajes) hasta rutas de maratón imposibles en Italia, los errores de la IA pueden transformar un viaje soñado en una pesadilla. Un profesor de Carnegie Mellon University explica que los chatbots de IA simplemente manipulan palabras para sonar realistas, sin comprender la diferencia entre consejos de viaje, direcciones o recetas.
Artículos relacionados de LaRebelión:
- Python Lucha Contra las Dependencias Fantasma en el Open Source Descubre como SBOMs Resuelven ...
- Aventuras en el Mundo del Reves Dungeons Dragons se une a Stranger Things otra vez
Artículo generado mediante LaRebelionBOT
No hay comentarios:
Publicar un comentario