La privacidad de los datos en torno a ChatGPT y otras IA

En los últimos días, hemos observado numerosas noticias entorno al cierre de la herramienta de inteligencia artificial Chat GPT en nuestro país vecino Italia y la problemática con su política de tratamiento de datos en todo el mundo.

De hecho, en España, la Agencia Española de Protección de Datos ha iniciado las oportunas investigaciones sobre un posible incumplimiento en materia de protección de datos de la herramienta en nuestro país.

Pero, antes de nada, ¿Qué es Chat GPT?

Definido por la propia herramienta, Chat GPT es un modelo de lenguaje artificial de gran tamaño entrenado por OpenAI, basado en la arquitectura GPT (Generative Pre-trained Transformer) 3.5. capaz de generar texto coherente y natural en respuesta a una entrada de texto proporcionada por un usuario.

Ahora bien, ¿Deberían preocuparse las empresas por los datos que sus empleados introducen en ChatGPT o en cualquier otra plataforma similar?

A medida que más y más trabajadores disfrutan de las ventajas de ChatGPT, algunos directivos de empresas están cada vez más preocupados por el hecho de que los empleados introduzcan información sensible en la herramienta. Esto ha llevado a muchas empresas a limitar o prohibir a sus empleados su uso.

Una de las múltiples razones que preocupa a las empresas, es que puede poner en riesgo el control de la información de los clientes y de la propia empresa, tanto es así, que en las propias FAQ, ChatGPT afirma explícitamente: “por favor, no compartas ninguna información sensible en tus conversaciones”.

El rechazo que ha generado en Italia y en muchas empresas del resto del mundo, ha suscitado el debate sobre si las herramientas de IA que generan lenguaje están preparadas para un uso generalizado. Así mismo, las empresas tendrán que considerar detenidamente hasta qué punto y con qué rapidez adoptan las nuevas tecnologías basadas en IA.

Los propios desarrolladores de ChatGPT también afirman que, como parte de su compromiso con una IA segura y responsable, revisan las conversaciones para mejorar sus sistemas y garantizar que el contenido cumple las políticas y los requisitos de seguridad.

La política de privacidad de ChatGPT establece que la información personal recopilada se utiliza para llevar a cabo investigaciones y para desarrollar nuevos programas y servicios, entre otras cosas.

Las empresas tienden a día de hoy a preocuparse más por la fuga de datos, y una de sus formas habituales es a través de los propios empleados que comparten o publican datos de la empresa de manera consciente o inconsciente en un sitio web, como podrías tener información de identificación personal en las conversaciones de ChatGPT.

Entonces, ¿Esto significa que debemos seguir los pasos de Italia y de algunas empresas en prohibir el uso de la herramienta? No lo sé… lo que sí significa, sin embargo, es que los directivos deberían recordar y concienciar a sus empleados sobre las políticas de privacidad de datos de la empresa y crear un plan o manual sobre cómo utilizar este tipo de herramientas de IA que han llegado para quedarse.

Guillermo Caro

Abogado

gcaro@monlexabogados.es

Lectura relacionada:
Compartir este artículo

Autor

Monlex Abogados, con más de 30 años en Derecho Mercantil y Asistencia Legal, ha sido esencial en ayudar a las empresas turísticas en su expansión global. El bufete es parte de una red global en más de 20 países y miembro de HISPAJURIS, la principal red de bufetes de abogados de España.
Palabras relacionadas

Mantente informado con consejos legales de Monlex

No hay spam, sólo enviamos actualizaciones sobre nuestras áreas de práctica

¿Requiere asistencia legal?

Reciba asesoramiento legal personalizado de nuestros expertos en MONLEX.