MARCOS RAMALLO SEBASTIÁN | Fotografía: PIXABAY
Pese a ser la aplicación de consumo que más ha crecido hasta la fecha, su forma de alimentarse de nuestros datos personales ha traído consecuencias
Cuando OpenAI lanzó GPT-3 en julio de 2020, todo era diferente. Esta herramienta pretendía ser la más didáctica y novedosa hasta el momento. Su objetivo no era otro que recoger datos y utilizarlos para entrenar el modelo lingüístico. Sin embargo, con el tiempo se ha ido demostrando que, para crear el sistema generativo de texto, se utilizan millones de páginas de Internet, entradas de Reddit y libros, etc, y estos mismos recogen parte de la información personal que el usuario comparte en Internet.
Esta es la razón por la que la autoridad de protección de datos de Italia emitió el 31 de marzo una sentencia provisional de emergencia por la que ordena a OpenAI que deje de utilizar los datos personales de millones de italianos que forman parte de sus datos de entrenamiento. El organismo regulador, Garante per la Protezione dei Dati Personali, afirma que OpenAI carece de autoridad legal para explotar la información privada de los individuos en ChatGPT. En respuesta, OpenAI ha bloqueado el acceso a su chatbot en Italia mientras responde a las preguntas de las autoridades y realiza más investigaciones.
La acción se ha convertido en la primera de un regulador occidental contra ChatGPT y pone de relieve la preocupación por la privacidad en torno al desarrollo de modelos generativos masivos de IA, que a menudo se entrenan con enormes cantidades de datos de Internet. El regulador de datos presenta ahora la misma reclamación en relación con el uso de la información personal de los ciudadanos que los artistas y las empresas de medios de comunicación han hecho en relación con los desarrolladores de IA generativa que utilizan su trabajo sin autorización.
Otros países de Europa están trabajando en la misma línea. Las autoridades de datos de Francia, Alemania, Irlanda y ahora España, se han puesto en contacto con el Comité Europeo de Protección de Datos (EDPB, por sus siglas en inglés) para solicitar información adicional sobre sus conclusiones en los días transcurridos desde que Italia anunció su investigación.
¿Por qué es un problema?
En primer lugar, OpenAI no pregunta sobre el uso de nuestros datos. Se trata de una flagrante invasión de la privacidad, especialmente cuando los datos son sensibles y pueden utilizarse para localizarnos, identificar a nuestros seres queridos o identificarnos a nosotros mismos.
El uso de los datos puede comprometer lo que se conoce como integridad contextual, incluso cuando los datos están a disposición del público. Esta es una idea fundamental en los debates sobre la ley de privacidad. La información sobre las personas no debe hacerse pública fuera del contexto en el que se creó.
Además, OpenAI no ofrece ningún proceso para que los clientes consulten o soliciten la eliminación de sus datos personales. El Reglamento General Europeo de Protección de Datos (RGPD), que garantiza este derecho, sigue siendo objeto de debate para determinar si ChatGPT cumple sus criterios. Este «derecho al olvido» es crucial en situaciones en las que la información es poco fiable o engañosa, como suele ocurrir con ChatGPT.
La información que ChatGPT recibe de los usuarios en forma de preguntas plantea otro riesgo para la privacidad. Corremos el riesgo de revelar accidentalmente información privada cuando pedimos a la herramienta que realice tareas o responda a consultas.
Por ejemplo, un programador podría pedir a la herramienta que verificara una sección de código, mientras que un abogado podría pedirle que revisara un borrador de acuerdo de divorcio. Junto con los artículos redactados, el acuerdo y el código se almacenan en la base de datos de ChatGPT. De este modo, pueden incorporarse a las respuestas a las preguntas de otras personas y utilizarse para seguir formando a la herramienta.
Por otro lado, OpenAI recopila también otros datos sobre los usuarios. La política de privacidad de la empresa establece que recopila información sobre las direcciones IP de los usuarios, los tipos de navegador y la configuración, así como información sobre cómo interactúan con el sitio, incluidos los tipos de material que utilizan, los servicios que utilizan y las actividades que realizan. OpenAI afirma que, con el fin de promover sus objetivos comerciales, puede compartir la información personal de los usuarios con terceros no identificados sin su consentimiento.
¿Es hora de frenar?
Según algunos expertos, la materialización de avances tecnológicos que pueden revolucionar nuestra forma de trabajar, aprender, escribir e incluso pensar es lo que convierte a ChatGPT en el punto de inflexión de la IA. A pesar de sus ventajas potenciales, debemos tener en cuenta que OpenAI es una organización privada con ánimo de lucro cuyos objetivos y exigencias empresariales no siempre coinciden con los de la comunidad en general.
Los riesgos para la privacidad asociados a ChatGPT deberían servir de advertencia. Y como usuarios de un número cada vez mayor de tecnologías de IA, es imprescindible extremar la precaución a la hora de decidir qué datos dar a estos programas.