En los últimos años, la inteligencia artificial (IA) ha dejado de ser una simple innovación tecnológica para convertirse en un pilar fundamental de la sociedad moderna. Desde asistentes virtuales hasta sofisticados sistemas de análisis de datos, su impacto es innegable. Sin embargo, mientras celebramos sus avances, hay cada vez una preocupación más apremiante: ¿somos realmente conscientes del precio que pagamos por estos beneficios?
Empresas como OpenAI, Google y Meta han sido señaladas por entrenar sus modelos de IA con información obtenida sin el consentimiento expreso de los usuarios. Esto ha encendido el debate sobre si enfrentamos una nueva forma de extracción de datos no regulada, disfrazada de progreso tecnológico. Como usuario, debemos preguntarnos: ¿realmente sabemos qué información nuestra está siendo utilizada y con qué propósito?
Para que la IA funcione de manera efectiva, necesita enormes volúmenes de datos. Y aquí radica el problema: muchas veces, estos datos no provienen de fuentes explícitamente autorizadas por los usuarios. OpenAI ha sido demandada por haber utilizado libros sin licencia para entrenar sus modelos de lenguaje. Diversos autores han alegado que sus obras fueron utilizadas sin su consentimiento en el entrenamiento de ChatGPT. Además, en 2024, ocho periódicos estadounidenses presentaron una demanda contra OpenAI y Microsoft, acusándolos de infringir derechos de autor al utilizar artículos de prensa sin autorización.
Meta, por su parte, ha sido objeto de presión en la Unión Europea para modificar sus políticas de recopilación de datos, con el fin de cumplir con normativas como el Reglamento General de Protección de Datos (GDPR). La compañía ha tenido que ajustar la forma en que obtiene y utiliza la información de sus usuarios debido a la creciente preocupación por la privacidad.
Las grandes empresas tecnológicas defienden estas prácticas bajo el concepto de «uso justo», argumentando que el acceso a estos datos es fundamental para el desarrollo de la IA. Sin embargo, la falta de transparencia sobre cómo se recopila y utiliza la información – un problema conocido como opacidad algorítmica (black box AI)- sigue generando incertidumbre y rechazo.
Más allá de la recopilación de datos, otro de los efectos más alarmantes de la IA es la hiperpersonalización. Hoy, los algoritmos son capaces de analizar, segmentar y predecir el comportamiento de los usuarios con una precisión inquietante. La publicidad dirigida es un ejemplo claro: la IA sabe qué queremos comprar antes de que lo decidamos. Es por ello que, cuando pensamos o mencionamos algo en una conversación casual, poco después lo vemos aparecer «mágicamente» en nuestro teléfono, ya sea en un anuncio o en una sugerencia de contenido. Aunque la idea de que nuestros dispositivos nos «escuchan» sigue siendo objeto de debate, lo cierto es que el análisis masivo de nuestros patrones de búsqueda, interacciones y ubicación permite anticipar nuestros deseos con una precisión asombrosa.
Pero la recopilación de datos no es el único problema. Esta tecnología ya se usa en procesos de selección laboral, seguros médicos y préstamos bancarios, entre otros, donde se ha demostrado que puede generar sesgos perjudiciales que afectan a ciertas poblaciones de manera desproporcionada.
Además, la manipulación de la información es una amenaza creciente. Los algoritmos pueden amplificar discursos polarizantes y distorsionar la opinión pública, influyendo en elecciones y en la percepción de la realidad de millones de personas. Este fenómeno ha sido objeto de estudio en el impacto de la IA en la difusión de desinformación y noticias falsas.
En teoría, este nivel de personalización podría mejorar la experiencia del usuario. Pero también plantea un riesgo evidente: la erosión del derecho a la privacidad y la autonomía personal. Si la IA puede prever nuestras preferencias e incluso nuestras decisiones antes de que las tomemos, ¿seguimos siendo realmente dueños de nuestra información y de nuestras elecciones?
Frente a estos desafíos, gobiernos y organismos internacionales han comenzado a debatir la necesidad de regular la IA y el uso de datos. Europa ha tomado la delantera con el Reglamento General de Protección de Datos (GDPR) y la propuesta de la Ley de IA, que busca establecer controles estrictos sobre la recopilación de información personal. En contraste, Estados Unidos ha sido más permisivo, autorizando que las grandes empresas tecnológicas operen con menos restricciones. Aunque con la anterior administración comenzó a presionar a las big tech para que fueran más transparentes en el uso de los datos de los usuarios.
China, irónicamente, ha impuesto regulaciones estrictas en la recopilación y almacenamiento de datos para el desarrollo de la IA dentro de su territorio. Sin embargo, este país es conocido por utilizar la tecnología para la vigilancia masiva de su población, lo que plantea un dilema sobre la relación entre control gubernamental y privacidad.
La gran pregunta es: ¿podemos encontrar un equilibrio entre innovación y privacidad? Por un lado, imponer regulaciones demasiado estrictas podría frenar el desarrollo de la IA y limitar su potencial. Pero la ausencia de control nos deja en un escenario donde las empresas tecnológicas tienen carta blanca para utilizar nuestros datos como mejor les parezca y les sea de mayor utilidad.
Cada interacción con la tecnología implica ceder una parte de nuestra privacidad, y en muchos casos lo hacemos sin cuestionarlo ni cuestionarnos. ¿Realmente sabemos cómo se están usando nuestros datos? ¿Es justo que las empresas lucren con nuestra información sin nuestro consentimiento?
Si bien la innovación tecnológica no debe ser sofocada, tampoco debemos permitir que el desarrollo de la IA avance sin controles. Es imperativo establecer un marco legal y ético que garantice que el poder de esta tecnología se utilice de manera responsable. Mayor transparencia en el uso de datos, regulaciones que equilibren innovación y privacidad, y opciones claras para que los usuarios decidan si desean que sus datos sean utilizados en el desarrollo de IA, son medidas fundamentales para evitar que esta tecnología se convierta en una amenaza para nuestra autonomía digital.
El avance de la inteligencia artificial es imparable, pero su impacto en nuestra privacidad dependerá de las decisiones que se tomen hoy. Si seguimos ignorando el problema, podríamos encontrarnos en un futuro donde la IA sepa todo sobre nosotros… y nosotros no sepamos nada sobre ella.
Maria Paz Aliaga Barrantes, Asociada y Miembro del Área de Derecho y Nuevas Tecnologías de Torres y Torres Lara Abogados
Fuente: Expreso