TYTL

Contacto: (51-1) 618-1515

Email: contacto@tytl.com.pe

Edificio Lima Central Tower, Av. El Derby N° 254, Piso 14, Oficina 1404 – Surco – Lima – Perú

La regulación de la Inteligencia Artificial en el Perú: Aspectos clave que debería contener su Reglamento

El 05 de julio de 2023 se publicó la Ley N° 31814, Ley que promueve el uso de la inteligencia artificial (“IA”). De acuerdo con el artículo 1°, esta norma tiene por objeto promover el uso de la inteligencia artificial en el marco del proceso nacional de transformación digital privilegiando a la persona y el respeto de los derechos humanos con el fin de fomentar el desarrollo económico y social del país, en un entorno seguro que garantice su empleo ético, sostenible, transparente, replicable y responsable.

Al respecto, esta ley en su título preliminar establece los siguientes principios para el desarrollo y uso de la IA:

  • Estándares de seguridad basados en riesgos: Se promueve un enfoque basado en riesgos para el uso y desarrollo de la inteligencia artificial.
  • Enfoque de pluralidad de participantes: Se promueve la participación de personas naturales y jurídicas u organizaciones, instituciones públicas y privadas en el debate para el desarrollo de políticas orientadas a la regulación sobre el uso de la inteligencia artificial en el país.
  • Gobernanza de internet: Se promueve el desarrollo y aplicación de principios, normas, reglas, procedimientos de toma de decisión y programas que determinan la evolución y el uso de internet por parte del Estado, instituciones del sector privado y la sociedad civil participando desde sus respectivos roles.
  • Sociedad digital: Se valora la información y el conocimiento obtenido mediante el acceso, uso y desarrollo de tecnologías digitales en todas sus dimensiones, y se impulsa la seguridad, la confianza, la economía digital, la conectividad digital, el talento, la innovación, la educación y la identidad digital, así como el aprovechamiento de las tecnologías emergentes en favor del bienestar social y económico de la ciudadanía.
  • Desarrollo ético para una inteligencia artificial responsable: Se considera que la ética es la base fundamental para identificar de forma precisa el marco de responsabilidades en el uso de este tipo de sistemas que conforman la industria 4.0.
  • Privacidad de la inteligencia artificial: La inteligencia artificial no debe transgredir la privacidad de las personas, debe actuar de manera segura para lograr un impacto positivo y de bienestar en los ciudadanos.

Dentro de los aspectos positivos de la Ley que promueve el uso de la IA encontramos los siguientes:

  • Es importante mencionar que esta norma no es “meramente declarativa” y más bien pretende ser una ley habilitadora, pues cuenta con regulación mínima que se basa en principios, que sirven como base para desarrollar reformas más complejas en ámbitos específicos como la afectación de derechos constitucionales, los delitos cometidos por IA, la responsabilidad civil, la protección de datos personales, la propagación de información falsa, los derechos de autor, entre otros.
  • La norma establece un sistema regulatorio centrado en un enfoque normativo basado en los riesgos. Este enfoque tiene por fin no imponer restricciones innecesarias al comercio, pues la intervención jurídica se adapta a aquellas situaciones concretas en las que existe un motivo de preocupación justificado o en las que es posible anticipar razonablemente que se producirá un problema en un futuro próximo. Asimismo, este enfoque permite al ordenamiento jurídico adaptarse de manera dinámica a medida que evoluciona la tecnología y surgen nuevas actividades que puedan afectar los derechos fundamentales y libertades de las personas.
  • La Secretaría de Gobierno y Transformación Digital (SGTD) de la Presidencia del Consejo de Ministros es la autoridad técnico-normativa responsable de supervisar el uso y desarrollo de la IA y tecnologías emergentes. El artículo 4° establece que la SDTD, en el marco de la transformación digital, desarrolla y articula acciones para promover e impulsar: (a) El desarrollo de la IA y su adopción como herramienta; (b) La creación y el fortalecimiento de la infraestructura digital; (c) El desarrollo de una infraestructura de datos; (d) La adopción de lineamientos éticos para el uso de la IA; y (e) La creación de un ecosistema de colaboración en el uso de la IA.
  • Si bien lo estipulado en el artículo 2° de la Ley es declarativo, su enfoque es fundamental pues se señala que es de interés nacional la promoción del talento digital en el aprovechamiento de las tecnologías emergentes y nuevas tecnologías en favor del bienestar social y económico, así como el fomento del desarrollo y uso de la inteligencia artificial para la mejora de los servicios públicos, de la educación y los aprendizajes, la salud, la justicia, la seguridad ciudadana, la seguridad digital, la economía, la inclusión, los programas sociales, la seguridad y la defensa nacional, así como para toda otra actividad económica y social a nivel nacional. Esto significa que el Perú en vez de rechazar esta tecnología más bien quiere impulsar y aprovechar los beneficios que trae consigo esta tecnología.

De otro lado, dentro de los aspectos negativos de la norma encontramos los siguientes:

  • Se define a la IA como “Tecnología emergente de propósito general que tiene el potencial de mejorar el bienestar de las personas, contribuir a una actividad económica global sostenible positiva, aumentar la innovación y la productividad, y ayudar a responder a los desafíos globales clave”. El problema con esta definición es que es poco técnica y asume a esta tecnología como positiva per se, obviando que esta tecnología también puede ser utilizada para cuestiones que afecten negativamente los derechos fundamentales de las personas. Esta es una definición sesgada que se “positiviza” en nuestro ordenamiento jurídico, lo que puede llevar a una comprensión inadecuada o incompleta de la IA y obliga a tomarla como cierta.
  • Se introducen como principios la “gobernanza de internet” y la “sociedad digital”; sin embargo, no se explica cómo estos principios están relacionados y deben ser enfocados cuando se desarrollen o se lleven a cabo actividades utilizando sistemas de inteligencia artificial.
  • Ningún artículo en específico desarrolla o incorpora medidas de promoción efectivas. La Ley evita abordar problemas de fondo de esta tecnología como, por ejemplo, el sesgo algorítmico que puede afectar derechos fundamentales como el derecho a la igualdad, el derecho a la libertad de pensamiento, el derecho a libertad de trabajo, entre otros.

En este contexto, consideramos que el Reglamento de la Ley N° 31814 deberá desarrollar los siguientes aspectos:

  1. Catalogar los distintos tipos de riesgo que existen entre los usos de la IA: A modo de ejemplo, el 16 de junio de 2023, el Parlamento Europeo aprobó la Ley de Inteligencia Artificial en donde se proponen los siguientes niveles de riesgo:
    • Riesgo Inadmisible: Los sistemas de IA prohibidos (riesgo inadmisible) son los que implican un elevado riesgo para la seguridad, la vida y los derechos fundamentales de los ciudadanos de la Unión Europea. Entre los riesgos expresamente recogidos en la propuesta tenemos los siguientes: (i) Manipulación cognitiva del comportamiento de personas o grupos vulnerables específicos: por ejemplo, juguetes activados por voz que fomentan comportamientos peligrosos en los niños; (ii) Puntuación social: clasificación de personas en función de su comportamiento, estatus socioeconómico o características personales; (iii) Sistemas de identificación biométrica en tiempo real y a distancia, como el reconocimiento facial. En el Perú, se tendrá que analizar cuáles son aquellos riesgos que nuestra sociedad no está dispuesta a tolerar y prohibir determinados usos.
    • Riesgo Alto: Aquellos usos que afecten negativamente a la seguridad o a los derechos fundamentales se considerarán de alto riesgo y se dividirán en dos categorías. Todos los sistemas de IA de alto riesgo serán evaluados antes de su comercialización y a lo largo de su ciclo de vida. Estas evaluaciones de riesgos deben tener en cuenta los posibles efectos negativos en los derechos fundamentales de las personas.
    • Riesgo Limitado: Son aquellos a los que, por entrañar un riesgo limitado, solo se les imponen obligaciones relativas a la transparencia en su uso a fin de que los usuarios estén conscientes de que están interactuando con una máquina y podrán tener la opción de continuar o retroceder.
    • Riesgo Mínimo: La Comisión Europea explica que «la gran mayoría de los sistemas de IA entran en esta categoría». Por lo tanto, el proyecto de reglamento no interviene, ya que estos sistemas representan un riesgo mínimo o nulo para los derechos o la seguridad de los ciudadanos. Por ejemplo, al uso gratuito de aplicaciones como videojuegos habilitados para IA o filtros de spam.
  2. Transparencia Algorítmica: Frente al aumento en la toma de decisiones automatizadas y la posible presencia de sesgos algorítmicos, la transparencia algorítmica surge como una alternativa para garantizar que estas decisiones algorítmicas no afecten los derechos fundamentales de las personas. Al respecto, por transparencia algorítmica nos referimos a la práctica de hacer que los algoritmos y la codificación de los sistemas de IA sean comprensibles, visibles y accesibles para que las personas puedan comprender cómo funcionan, qué datos utilizan y cómo toman decisiones. Implica revelar información sobre el diseño, funcionamiento y resultados de los algoritmos utilizados en diversas aplicaciones y sistemas, especialmente aquellos que tienen un impacto significativo en la vida de las personas.La transparencia algorítmica busca abordar preocupaciones relacionadas con la opacidad, el sesgo y la toma de decisiones automatizadas que pueden afectar a las personas de maneras no deseadas o injustas. Esto significa que los algoritmos deben ser visibles, conocibles, auditables y explicables, a las personas que utilizan, regulan, y son afectadas por los sistemas que emplean estos algoritmos.Las empresas que desarrollen o utilicen sistema de IA deben, por lo tanto, informar a los usuarios: (i) Quién está involucrado en el desarrollo, gestión e implementación de un sistema de IA y a quién contactar para una revisión humana de una decisión; (ii)Las razones que llevaron a una decisión, entregadas en un formato accesible y no técnico a fin de contar con un sustento que justifique la decisión automatizada; (iii) Dar una explicación sobre qué datos se han utilizado en una decisión particular y cómo; (iv) Brindar una explicación acerca de los pasos tomados en el diseño e implementación de un sistema de IA para garantizar que las decisiones que apoya son generalmente imparciales y justas; (v) Describir cuáles han sido los pasos tomados en el diseño implementación de una IA para maximizar la precisión, confiabilidad, seguridad y solidez de sus decisiones y comportamientos.
  3. Medidas de Promoción: Si bien el nombre de la Ley N° 31814 es “Ley que promueve el uso de la IA” no se definen acciones concretas de promoción. En ese sentido, resulta importante que existan medidas de promoción efectivas. Por ejemplo, una forma de promover el uso responsable de la IA sería desarrollando un “sandbox” regulatorio. El gobierno de España, a través de la Secretaría de Estado de Digitalización e Inteligencia Artificial, perteneciente al Ministerio de Asuntos Económicos y Transformación Digital, el 27 de junio de 2022, presentó en Bruselas el proyecto piloto para poner en marcha el primer sandbox regulatorio de la Unión Europea sobre Inteligencia Artificial. El sandboxtiene por fin acercar a las autoridades competentes a las empresas desarrolladoras de Inteligencia Artificial para definir de forma conjunta buenas prácticas que sirvan de base para la implementación de la futura regulación europea de Inteligencia Artificial (Artificial Intelligence Act), y garantizar que se puede aplicar en el tiempo previsto, de dos años. En principio, esto dará lugar a (i) un informe de buenas prácticas y conclusiones obtenidas; (ii) guías técnicas de ejecución y supervisión basadas en la evidencia y la experimentación que faciliten a las entidades el cumplimiento del futuro Reglamento de Inteligencia Artificial.Otra medida de promoción puede ser la adhesión a programas de Compliance respecto al uso de sistemas de IA en una organización y otorgar beneficios a todas las organizaciones que cuenten con uno. Esto tendría por fin promover el uso responsable de la IA en las organizaciones con el objetivo de incentivar la innovación pero tomando en consideración los derechos fundamentales que pudiesen ser afectados con el uso de esta tecnología.
  4. Ética: El reto del “ethics by design” radica en determinar qué perspectiva ética se debe incorporar en el diseño de tecnologías, productos y sistemas. Esto implica cuestionarse cómo definir y aplicar principios éticos en nuestro contexto actual. El reglamento debería definir cuáles son los estándares y marcos éticos a los que nuestro ordenamiento jurídico se adhiere a fin de que el mercado sepa cuáles son las directrices y principios éticos para el desarrollo y uso de la IA.

A modo de conclusión, si bien la Ley que promueve el uso de la IA en Perú establece principios fundamentales que deben guiar el desarrollo y uso de la inteligencia artificial, como la seguridad basada en riesgos y la privacidad; el reglamento debería ser más específico y detallado. Esto incluye la catalogación de riesgos, la transparencia algorítmica, así como las medidas concretas de promoción, como la implementación de sandboxes regulatorios.

Alejandro Morales Cáceres, Abogado Asociado Principal y Líder del área de Derecho y Nuevas Tecnologías de TyTL Abogados.

 

Leer la nota completa aquí.

 

COMPARTIR