TYTL

Contacto: (51-1) 618-1515

Email: contacto@tytl.com.pe

Edificio Lima Central Tower, Av. El Derby N° 254, Piso 14, Oficina 1404 – Surco – Lima – Perú

Entrevista | La otra cara de la Inteligencia Artificial, los potenciales riesgos para usuarios y empresas

Protección de la identidad Durante el último año se popularizó el uso de aplicativos de IA para crear llamativos diseños y avatares con base en la fotografía del usuario, algo que, según el especialista, merece de toda la atención por la cantidad de riesgos y potenciales peligros para la seguridad de la información personal del usuario y sus empresas. “Hay que tener mucho cuidado y ser muy diligente al momento que se leen los términos y condiciones, porque uno puede estar facultando para que las personas se queden y sean licenciatarios de tu imagen. (…) Es un tema muy delicado porque tu das tu imagen y tienen que procesar tu fotografía y es muy probable que utilicen datos biometricos tuyos y si eso de alguna forma se llega a perder, y cae en manos equivocadas, puede haber un tipo de suplatanción de identidad, en esta época con el tema del Deepfake que ha aumentado muchísimo. La Inteligencia Artificial ayuda a que sea mucho más sencilla”, mencionó. Por estos motivos, la política de privacidad tiene que ser atendida con detenimiento para saber qué es lo que está pasando con las fotografías personales. Implicancias legales En esa línea, hoy más que nunca es relevante ver la manera como se pueden resolver los problemas que vienen surgiendo -y pueden incrementarse- producto del mal uso de la Inteligencia Artificial. “El primer reto (a nivel regulatorio) es crear normas que sigan con el principio de neutralidad tecnológica, que regulen conductas y no tecnologías. Porque si se hace una mala práctica de como regular y terminas prohibiendo, al final generará un mercado negro, y no va a funcionar”, mencionó el abogado. Por otro lado, según Morales, para el tema de los aplicativos que realizan diseños con base en fotografías como Lensa, es importante señalar que, “pese a que no existe un marco legal específico, no significa que no exista un marco regulatorio aplicable”. “La Ley de Derechos de autor, para estos casos en específico, las obras requieren de un creador y ese creador tiene que ser un humano porque una obra se define como una creación propia del intelecto humano, pero acá no hay un proceso humano, completamente automatizado, propio de la IA, lo que sucedería es que estas obras que se crean son de dominio público. Lo que veo para muchas empresas es regularla a través de los términos y condiciones, todo lo que se genere a partir de la IA, será propiedad de la empresa que ha creado”, destacó. Lo cual podría ir en contra de las intenciones de peruanos que ven con buenos ojos la Inteligencia Artificial para crear imágenes y retratos como una potencial alternativa de inversión y posterior comercio. “Muchas veces lo que hace estos sistemas de inteligencia artificial es utilizar estilos. Pero si solo usa una obra y con base en eso la transforma, si podríamos estar ante una infracción de derechos de autor. (…) Algo que también se ha podido ver en el caso de ChatGPT, uno no podría saber por qué de verdad tiene tanta información, pero no sabe si está sacando un extracto de una obra, protegida por derechos de autor, o simplemente la está duplicando”, mencionó. Contra las vulnerabilidades Para aprovechar el potencial de estas herramientas, pese a los riesgos, cada vez son más las entidades bancarias que utilizan la IA como un medio para brindar mejor respaldo y seguridad a los usuarios y empresas. De acuerdo a Aldo Madruga, gerente corporativo de Gestión de Riesgo Fraude del Banco Pichincha, en el caso de los bancos, se han hecho grandes inversiones en este tipo de herramientas con IA para prevenir otras maneras de hacer ciberfraudes. “Tecnologías relacionadas con la biometría, contraseñas robustas y para monitorear y detectar cuando hay eventos de fraudes, con base en un patrón del cliente, alguna transacción de gran probabilidad de ser fraudes”, señaló. En esa línea, la IA es una alternativa para salvaguardar la información, pero si se utiliza de forma irresponsable por parte de los usuarios, terminará siendo contraproducente para las operaciones. “La inteligencia artificial ayuda a detectar estos comportamientos anómalos, se confirma con cliente, se pueden bloquear tarjetas, entre otras medidas. No obstante, mayoritariamente en un 90% o más, los fraudes que ocurren entran por negligencias y/o descuido de los clientes”, finalizó. Leer la nota completa aquí. Fuente: Gestión. Alejandro Morales Cáceres, Abogado Asociado Senior y Líder del área de Derecho y Nuevas Tecnologías de TYTL Abogados.]]>

COMPARTIR