El avance más llamativo de 2023 es sin duda el meteórico ascenso de ChatGPT, el modelo lingüístico desarrollado por OpenAI capaz de generar textos a partir del conocimiento disponible en Internet.
En medio del crecimiento de esta tecnología, la cuestión de la privacidad es más relevante que nunca. Los algoritmos y la inteligencia artificial desempeñan un papel cada vez más importante en nuestra vida cotidiana, proporcionando una ayuda inestimable en tareas que van desde el reconocimiento de voz a la generación de contenidos.
Pero a medida que dependemos cada vez más de estas tecnologías, nos planteamos preguntas sobre su impacto en nuestra privacidad y sobre cómo utilizan y protegen nuestros datos personales. En este contexto, echemos un vistazo a lo que ocurre con la privacidad cuando interviene la IA.
Inteligencia artificial
ChatGPT es un modelo desarrollado por OpenAI, su entrenamiento inicial comenzó en 2019 y su primera publicación data de 2020. OpenAI continúa desarrollando y actualizando su modelo para mejorar su rendimiento. OpenAI es capaz de generar texto basado en conocimiento textual antes de 2021.
En el momento de escribir estas líneas, ChatGPT es capaz de producir textos con un notable sonido humano. También puede generar algunas respuestas creativas sorprendentes. El progreso de la IA es exponencial. La actual generación de chatbots ya ha superado la prueba de Turing.
El test de Turing es una prueba de inteligencia creada por el matemático e informático británico Alan Turing en 1950. Consiste en una conversación en un canal de comunicación en la que un ser humano juzga si el interlocutor es otro ser humano o una máquina. Si el juez no puede determinar con certeza si el interlocutor es una máquina, se considera que la máquina ha superado la prueba y tiene una inteligencia artificial capaz de hacerse pasar por un ser humano. La prueba de Turing se considera un elemento fundamental en la historia de la IA y sigue siendo objeto de debate.
Con el tiempo, los chatbots impulsados por inteligencia artificial se aplicarán a todo tipo de trabajos y tareas. Es sólo cuestión de tiempo que la interacción con la IA se convierta en parte integrante de nuestra vida cotidiana. Esta proliferación no hará sino acelerar aún más su desarrollo.
Somos conscientes de que, a pesar de todo el revuelo mediático que rodea al ChatGPT, los problemas de privacidad que plantea la IA han recibido relativamente poca atención. Sin embargo, sin datos no existiría la IA.
Entrenar una IA requiere muchos datos y muchos humanos
Así es, porque realmente se trata de entrenar.
Se dice que la inteligencia artificial se entrena porque implica proporcionarle muchos datos para que aprenda a realizar tareas específicas de forma autónoma. Durante este entrenamiento, la IA es capaz de sacar conclusiones de los datos que recibe y utilizarlos para mejorar su rendimiento. Esta forma de aprendizaje automático requiere una preparación previa metódica para que la IA pueda adaptarse con el tiempo.
Por lo tanto, se necesitan grandes cantidades de datos para entrenar la mayoría de los modelos de Inteligencia Artificial. De hecho, cuanta más información se dé a la IA para procesar, más capaz será de detectar patrones, anticiparse y crear algo completamente nuevo.
Hay que eliminar la información
Antes de que la Inteligencia Artificial pueda entrenarse con los datos, hay que limpiarlos, lo que significa formatearlos correctamente y crear moderadores (no sabemos hasta qué punto). Cabe señalar que OpenAI recurrió a cientos de personas en Kenia para limpiar los datos del GPT-3, algunas de las cuales afirman haberse sentido traumatizadas por este trabajo, ya que la naturaleza de la información a clasificar podía ser chocante, dañina, violenta o sangrienta.
Auto, la IA de la nave espacial Axiom, es el principal antagonista de la banda sonora de la película de animación WALL-E, de los estudios Disney Pixar, estrenada en 2008.
Es más, no tenemos forma de saber si cierta información proporcionada a la IA como parte de su entrenamiento ha sido alterada o simplemente excluida del modelo.
Para que se haga una idea de lo que esto significa, considere que toda la Wikipedia en inglés, que contiene alrededor de 6 millones de artículos, representó sólo el 0,6 por ciento de los datos de entrenamiento de GPT-3. ChatGPT es sólo una variante. ChatGPT es sólo una variante.
Más información: ¿Cuánto espacio ocupan nuestros datos?
La IA tiene sus límites
Una IA entrenada con datos sólo aprenderá a gestionar situaciones utilizando todos los elementos a su disposición. Si sus datos no son representativos, la IA creará sesgos en su toma de decisiones.
Por ejemplo, en 2018, Amazon descubrió que su IA para clasificar solicitudes de empleo penalizaba a las mujeres porque su modelo contenía principalmente datos de CV masculinos.
Del mismo modo, si la IA se enfrenta a una situación que nunca ha visto en sus datos de entrenamiento, no sabrá qué hacer. Es lo que ocurrió con un vehículo autónomo de Uber que mató a un peatón que no pudo identificar porque la persona estaba fuera de un paso de peatones.
Como recordatorio, el objetivo principal de los captchas es centrarse en lo que ocurre en la carretera: semáforos, pasos de peatones, bocas de incendios, puentes, bicicletas, motos, autobuses, etc. Se trata precisamente de entrenar a los modelos de IA de conducción automática para que reconozcan estos elementos.
¿Círculo vicioso o virtuoso?
La integración de la IA en un gran número de productos de consumo conllevará una enorme presión para recopilar aún más datos con el fin de entrenarla cada vez más, aunque eso signifique no pedir permiso.
Un ejemplo notable es Clearview AI, que ha estado recopilando imágenes de personas de la web (gracias, redes sociales) y utilizándolas para entrenar su IA de vigilancia facial sin el permiso de las personas afectadas. Su base de datos contiene unos 20.000 millones de imágenes.
Clearview está sujeta a todo tipo de demandas, multas y órdenes de cese y desistimiento debido a su flagrante desprecio por la privacidad de las personas. También ha tenido que pagar numerosas multas y se ha resistido a borrar datos, a pesar de las órdenes de organismos reguladores de muchos países.
Sobre todo, tenemos que darnos cuenta de que cuanto más utilicemos la IA, más querrán las empresas recopilar nuestros datos personales para, por ejemplo, nuestro futuro asistente de voz, que será más rápido a la hora de entendernos e influirnos para ofrecernos respuestas más pertinentes.
A medida que las distintas inteligencias artificiales se apliquen a nuevas funciones, se encontrarán expuestas a información cada vez más sensible.
El problema es que la omnipresencia de la IA puede hacer que la recopilación de datos sea casi imposible de evitar.
OpenAI parece esforzarse por respetar la privacidad de los usuarios de ChatGPT. A partir de mayo de 2023, la empresa ha introducido la posibilidad de desactivar el historial de chat, lo que significa que las conversaciones iniciadas cuando el historial de chat está desactivado no se utilizarán para entrenar y mejorar sus modelos. Además, están trabajando en una nueva oferta de suscripción ChatGPT Business para profesionales y empresas, que no utilizará por defecto los datos de los usuarios finales para el entrenamiento.
También han facilitado la exportación de los datos de los usuarios para una mayor transparencia. Es un paso en la dirección correcta, pero ¿es realmente suficiente? ¿Es esto un cambio de juego o simplemente una forma de OpenAI de ganarse nuestra confianza mientras sigue recopilando datos a granel?
Hay que tener en cuenta que, una vez recogidos los datos, es muy fácil utilizarlos para fines que las personas nunca consintieron, ya que el principio se basa en cotejar la información. Compartimentar esta información sería un problema para el desarrollo, la eficacia y la pertinencia de la IA.
Para concluir: ¿qué nos depara el futuro de la privacidad con la IA?
Ya no es un secreto cómo navegamos por Internet -excepto, por supuesto, si utilizamos una VPN (red privada virtual)-, pero la cantidad total de datos recopilados aumentará a medida que la IA y los chatbots mejoren y se generalicen.
Así que, por ahora, todos vemos en OpenAI una herramienta fabulosa y pienso especialmente en los estudiantes, que se lo están pasando en grande con ella. Pero esto es sólo el principio. Vemos ChatGPT del mismo modo que los primeros internautas veían Internet en sus inicios.
En estos momentos, todo el mundo está un poco preocupado por cómo los grandes grupos pueden influir sutilmente en nuestra toma de decisiones y crear burbujas de filtros de las que es casi imposible escapar sin la ayuda de la IA.
La Inteligencia Artificial es una herramienta poderosa que puede dar lugar a todo tipo de novedades, pero también a muchos abusos de la privacidad de sus usuarios. La cuestión de si se utilizará y desarrollará de forma responsable sigue abierta.
¿Imagina que se diseñara y desarrollara un modelo de IA con el objetivo de controlar a la población? ¿Le parece impensable? Y sin embargo, todos hemos comprado algo en Internet y nos hemos visto influidos por algoritmos, nos guste o no.