ChatGPT puede utilizar datos de conversaciones y archivos de usuarios para entrenar su inteligencia artificial, advierte la OCU
Aunque ChatGPT ofrece opciones para limitar el uso de datos personales, la privacidad total no está completamente garantizada para sus usuarios.

ChatGPT, el popular chatbot de inteligencia artificial desarrollado por OpenAI, se ha convertido en una herramienta de consulta cotidiana para millones de usuarios. Sin embargo, la forma en la que la plataforma maneja y utiliza la información compartida por los usuarios ha sido motivo de preocupación, especialmente en materia de privacidad. Según ha advertido la Organización de Consumidores y Usuarios (OCU), los datos de las conversaciones y archivos enviados a través de ChatGPT, tanto en su versión gratuita como en las de pago (Plus y Pro), pueden ser empleados por OpenAI para seguir entrenando y perfeccionando sus modelos de IA.
Esto significa que, a menos que se tomen medidas concretas, cualquier información introducida en el chat podría ser reutilizada con estos fines. Solamente los entornos empresariales de la plataforma (Team y Enterprise) ofrecen garantías contractuales de que la información de los usuarios no será utilizada para entrenar la inteligencia artificial, marcando una diferenciación clara en el nivel de protección ofrecido a empresas frente a usuarios individuales.
No obstante, existe una opción en la configuración de usuario que permite limitar este acceso. Para hacerlo, es necesario ingresar a la cuenta de ChatGPT, dirigirse a la sección de configuración y desactivar la casilla “Mejorar el modelo para todos”. Al realizar este sencillo ajuste, las conversaciones seguirán estando disponibles en el historial del usuario, pero no serán utilizadas para entrenamiento del modelo de IA. Además, se puede optar por los chats temporales, los cuales desaparecen pasados 30 días y no se emplean en la mejora de la IA.
A pesar de estas opciones, la OCU recalca que esto no implica una protección absoluta de la privacidad. OpenAI continúa recopilando ciertos datos personales esenciales para el funcionamiento del servicio, la seguridad y el cumplimiento de normativas legales. Entre estos datos se incluyen la información de la cuenta (nombre, correo electrónico, método de pago), información de uso, detalles técnicos como dirección IP o tipo de navegador, y metadatos de las sesiones. Incluso desactivando la opción de entrenamiento, parte de esta información puede seguir siendo recogida y utilizada para otros fines operativos y de cumplimiento normativo.
Por otra parte, la reciente normativa establecida por la Unión Europea sobre inteligencia artificial refuerza la protección de los usuarios frente a prácticas abusivas. La legislación europea prohíbe expresamente la manipulación de personas vulnerables, el uso de sistemas de puntuación social (social scoring), la predicción de delitos basada únicamente en perfiles personales, así como la recolección y procesamiento masivo de datos biométricos como imágenes faciales. Además, se restringe el reconocimiento biométrico en tiempo real en espacios públicos, salvo casos muy excepcionales, como amenazas terroristas.
En conclusión, aunque existen pasos concretos que los usuarios pueden seguir para limitar el uso de sus datos en ChatGPT, la privacidad completa no está garantizada. Desactivar el entrenamiento de modelo es recomendable si se busca mayor protección, pero es fundamental ser conscientes de que, en la era digital, cierta cantidad de información personal seguirá siendo recogida por motivos operativos y regulatorios.