Tanto la versión gratuita ChatGPT Free como dos de sus versiones de pago, ChatGPT Plus y ChatGPT Pro, usan por defecto la información compartida por el usuario para entrenar sus modelos de inteligencia artificial (IA), algo sobre lo que la Organización de Consumidores y Usuarios (OCU) quiere advertir, también a los vecinos de Ceuta, para proteger al máximo la privacidad.
Si bien a medida que avanzan los días son más las personas que utilizan ChatGPT no solo para resolver dudas, sino también para automatizar tareas o procesar documentos, el peligro están en la información que comparten al hacer uso de esta herramienta.
Y es que incluso en algunas versiones de pago, sin el usuario estar plenamente consciente de ello, esta información “podría estar siendo utilizada para entrenar la inteligencia artificial (IA) de estas herramientas pertenecientes a la compañía OpenAI”.
Privacidad de datos solo con Team y Enterprise
Esta es la alerta que hace la Organización de Consumidores y Usuarios explicando que “las únicas versiones de ChatGPT que garantizan, por defecto, la privacidad de los datos compartidos por el usuario son las versiones de pago Team y Enterprise”.
La OCU asegura que el resto, tanto la versión Free como las otras dos versiones de pago, Plus y Pro, “pueden usar en su interacción con los usuarios las conversaciones registradas e incluso los archivos compartidos para mejorar la precisión y la capacidad de estos modelos de IA”
Si bien se deja claro que el uso de esta información no es con fines comerciales, la Organización de Consumidores y Usuarios mantiene la recomendación de desactivar esta opción.
¿Cómo dejar de compartir información?
La OCU explica a los usuarios que para desactivar esta función es necesario seguir cuatro pasos:
- Acceder a la cuenta personal de ChatGPT desde desde aquí.
- Clicar en la foto de perfil (arriba a la derecha) y seleccionar Configuración.
- En el menú emergente, ir a la opción Controles de datos.
- Y desactivar la casilla Mejorar el modelo para todos.
¿Qué datos permanecen intactos?
No obstante, aunque la Organización de Consumidores y Usuarios indica que desactivar la opción de entrenamiento de tres de las versiones de ChatGPT “contribuye a proteger la privacidad, muchos datos seguirán siendo recopilados por motivos operativos, de seguridad y legales”.
Sobre esta información, explica la organización que se trata de los datos básicos de la cuenta, es decir el nombre, email, método de pago, entre otros.
Además de esto, “los datos de uso (número de interacciones, funciones empleadas…), los datos técnicos (dirección de IP, navegador, sistema operativo…), los metadatos de la sesión (duración, longitud de los mensajes…) y los datos necesarios para cumplir con la normativa y responder a requerimientos legales”.
¿Cuáles son las prácticas prohibidas en interacción con la IA?
Igualmente, la OCU recuerda que desde febrero la normativa de la Unión Europea sobre IA prohíbe varias prácticas en su interacción con el usuario, que podrían afectar a otros usos, como son:
- La manipulación a personas para explotar las vulnerabilidades del usuario por edad, discapacidad o condición socioeconómica
- El social scoring: la clasificación de personas en base a su comportamiento social o características personales.
- La predicción de delitos basándose únicamente en el perfil de una persona o sus rasgos de identidad.
- La recopilación masiva de imágenes faciales de la web o de sistemas de videovigilancia para bases de datos de reconocimiento facial.
- Inferir emociones en entornos laborales y educativos, excepto por razones médicas o de seguridad.
- Deducir rasgos sensibles, como son la raza, la religión, la orientación sexual o las opiniones políticas.
- Y el reconocimiento biométrico en tiempo real en espacios públicos con el fin de aplicar una ley, salvo en algún supuesto como ataques terroristas.
“Por la novedad de estas medidas, OCU insta a las administraciones para que se informe de ello a los consumidores, de modo que puedan denunciar cualquier práctica que pudiera atentar contra sus derechos fundamentales”, igualmente pide “recursos suficientes para la nueva Agencia Española de Supervisión de Inteligencia Artificial (AESIA), el organismo que se encargará de velar por el cumplimiento de la normativa y la protección de los usuarios”.