
Getting your Trinity Audio player ready... |
ChatGPT y el uso del nombre del usuario sin previo aviso
Desde inicios de abril de 2025, varios usuarios de ChatGPT reportan que la herramienta de OpenAI los llama por su nombre sin haberlo proporcionado en la conversación activa. Aunque para algunos puede parecer una muestra de personalización avanzada, otros lo han calificado como “inquietante” o incluso “invasivo”.
Este comportamiento puede explicarse por el historial de interacciones. ChatGPT, en su versión más reciente, guarda información contextual si se tiene una cuenta activa en OpenAI y se han habilitado las funciones de memoria. Así, si en conversaciones anteriores se ha indicado un nombre, el modelo puede reutilizarlo para ofrecer respuestas más personalizadas.
Sin embargo, esta funcionalidad no siempre es comunicada de forma clara a los usuarios. Y en un contexto en el que la privacidad es un tema delicado, especialmente en industrias como el turismo, donde la personalización de itinerarios y experiencias con IA se está volviendo estándar, es importante que los usuarios estén conscientes de lo que comparten.
OpenAI ha afirmado que los usuarios pueden revisar y eliminar los datos almacenados en su historial de memoria a través del panel de configuración. Aun así, la falta de transparencia sobre cuándo se activa esta memoria y cómo se usa ha generado críticas. Este detalle técnico, combinado con otro problema creciente en los nuevos modelos, hace sonar las alarmas: las alucinaciones.
Las alucinaciones en los nuevos modelos o3 y o4-mini de OpenAI
OpenAI ha lanzado recientemente sus modelos o3 y o4-mini, promocionándolos como avances significativos en capacidad de razonamiento, especialmente útiles para tareas como programación y resolución de problemas matemáticos. Sin embargo, presentan un defecto crítico: alucinan más que versiones anteriores.
Las alucinaciones en IA son respuestas incorrectas o inventadas por el modelo, como afirmar hechos falsos, proporcionar links que no existen o incluso describir acciones imposibles, como ejecutar código fuera del entorno de ChatGPT.
Lo más preocupante es que según los propios informes técnicos de OpenAI, o3 y o4-mini superan ampliamente la tasa de alucinaciones de sus predecesores. En pruebas internas con el benchmark PersonQA, o3 tuvo una tasa de alucinación del 33%, mientras que o4-mini alcanzó un 48%. Esto contrasta con modelos anteriores como o1 y o3-mini, que se mantenían por debajo del 17%.
¿Qué son exactamente las alucinaciones en IA y por qué ocurren?
Una alucinación en IA ocurre cuando un modelo genera una respuesta que suena coherente, pero es falsa o inexacta. Esto sucede porque los modelos no «conocen» el mundo; predicen texto a partir de patrones lingüísticos en los datos con los que fueron entrenados.
En modelos de razonamiento como o3 y o4-mini, las alucinaciones pueden verse amplificadas. Según la organización Transluce, que ha hecho pruebas independientes, esto puede deberse al tipo de aprendizaje por refuerzo utilizado para entrenarlos. Al dar prioridad a respuestas elaboradas y con confianza, los modelos terminan generando más afirmaciones… algunas acertadas, pero otras completamente erróneas.
¿Cómo afectan estas alucinaciones a las aplicaciones de negocio?
En sectores donde la precisión es clave —como turismo, legal, salud o servicios financieros—, estas alucinaciones pueden ser un riesgo significativo. Imagina una agencia de viajes inteligente que utiliza IA para crear itinerarios y reservar experiencias en tiempo real. Si el modelo sugiere un restaurante que no existe, o un enlace a un tour que no funciona, el cliente puede perder confianza rápidamente.
En el turismo, donde la automatización está transformando la atención al cliente y la generación de contenido (descripciones de destinos, traducciones, reseñas automáticas), la exactitud es indispensable. Las alucinaciones pueden afectar no solo la experiencia del usuario final, sino también la reputación de la marca que implementa IA sin control de calidad.
Por eso, quienes gestionan contenido digital o atención en empresas turísticas deben revisar cuidadosamente las salidas de los modelos, y considerar mecanismos de validación automática o intervención humana en los procesos críticos.
Modelos con búsqueda web: una solución prometedora para la precisión
Una alternativa cada vez más usada para combatir las alucinaciones es integrar la capacidad de búsqueda web a los modelos. GPT-4o con web browsing, por ejemplo, ha mostrado un 90% de precisión en el benchmark SimpleQA.
La capacidad de consultar fuentes externas en tiempo real permite verificar datos y complementar respuestas con información actualizada. Sin embargo, esta función tiene un costo en privacidad: se deben compartir los prompts con servicios externos para ejecutar la búsqueda, lo cual puede no ser viable en todos los casos.
Para empresas y profesionales del turismo interesados en usar IA generativa sin comprometer precisión, vale la pena considerar modelos con capacidades de búsqueda o soluciones híbridas que combinen IA con bases de datos internas o APIs confiables.
Algunas recomendaciones útiles incluyen:
- Explorar herramientas como Perplexity.ai o You.com, que combinan generación con fuentes verificables.
- Usar GPT-4 con navegación habilitada desde plataformas como Bing Chat o Copilot de Microsoft.
- Capacitar al equipo en la revisión de contenido generado por IA, especialmente en etapas críticas del customer journey.
Tecnología poderosa, pero aún imperfecta
El futuro de la generación de contenido con IA es prometedor, especialmente en sectores como el turismo, donde la personalización y la automatización son claves. Pero el uso de modelos como o3 y o4-mini requiere cautela.
El hecho de que ChatGPT utilice nombres sin ser solicitado, y que los nuevos modelos presenten tasas de alucinación más altas, es una advertencia para quienes buscan adoptar esta tecnología sin comprender sus limitaciones.
La transparencia en la configuración, la supervisión humana y el uso de herramientas con capacidades de búsqueda son pasos necesarios para minimizar los riesgos. Mientras tanto, la comunidad técnica —incluyendo a OpenAI— continúa trabajando para resolver estos desafíos fundamentales en el desarrollo de inteligencia artificial confiable.