TYTL

Contrataciones, despidos y ascensos: así impactará el nuevo reglamento de inteligencia artificial en las empresas

Reglas claras sobre la IA. Con el nuevo reglamento, las compañías que usen inteligencia artificial en sus procesos laborales deberán avisar a los trabajadores cuando un algoritmo participe en contrataciones o evaluaciones, explicar los criterios aplicados y garantizar siempre la revisión humana de las decisiones.

El Gobierno publicó el reglamento de la Ley N.º 31814 que promueve el uso de inteligencia artificial (IA) en favor del desarrollo económico y social del país. Y aunque el documento aborda desde innovación hasta gobernanza digital, hay un punto que toca directamente a las empresas del sector privado, habida cuenta que la IA ya no podrá decidir sola quién entra, quién asciende o quién se va de una empresa.

En primer lugar, el uso de IA en contrataciones, selección de personal y relaciones laborales es considerada en la categoría de «riesgo alto». Esto significa que cualquier decisión apoyada en algoritmos deberán contar con una supervisión humana, evitando así que la máquina tenga la última palabra.

Recursos Humanos y su nueva tarea en la era de la IA

El nuevo marco normativo plantea obligaciones para las organizaciones que empleen IA en su gestión humana. En diálogo con La República, el abogado Alejandro Morales del estudio Torres y Torres Lara, indicó que el reglamento pone especial énfasis en que las empresas no deleguen totalmente sus procesos de contratación a la tecnología. «El reglamento tiene un componente muy humano para actividades de riesgo alto como la contratación laboral, donde debe haber supervisión humana asegurando que las decisiones sean éticas, justas y respetuosas», manifestó.

En la práctica, por ejemplo, una empresa que use IA para filtrar miles de CV en segundos o para medir la productividad de un call center tendría que hacerlo bajo reglas estrictas. No bastaría con apretar «enter» y dejar que la máquina decida. El área de recursos humanos tendrá que revisar los resultados, auditar el algoritmo y justificar que no haya sesgos por edad, género o procedencia.

Como advierte el especialista, «las empresas tendrán que documentar cómo funcionan sus sistemas de inteligencia artificial, qué datos utilizan y qué impactos pueden tener. Esa es la manera de demostrar diligencia ante cualquier fiscalización».

El área de recursos humanos, en particular, deberá vigilar los algoritmos con los que trabaja. «En recursos humanos, por ejemplo, habrá que validar que los sistemas estén entrenados con data correcta y que no generen sesgos algorítmicos», apuntó.

Además, el reglamento prohíbe expresamente el uso de IA para inferir emociones en el trabajo, por ejemplo, softwares que midan el ánimo de los empleados frente a una cámara, o para analizar datos sensibles como afiliación sindical, religión u orientación sexual.

Otra novedad es que el reglamento obliga a informar a las personas cuando una decisión importante esté apoyada por IA. En el ámbito laboral, esto significa que los trabajadores deberían ser notificados y recibir explicaciones claras si un algoritmo participó en su contratación, evaluación, ascenso o despido.

Antes de poner en marcha un sistema de riesgo alto, la empresa deberá realizar una evaluación de impacto para detectar posibles sesgos y riesgos. Esos hallazgos tendrán que documentarse y conservarse por tres años. Y además se exigirán auditorías periódicas para asegurar que el sistema no se desvíe.

Para una gran corporación esto puede significar contratar consultoras especializadas o reforzar sus equipos de compliance. Para una pyme que quiera usar IA en sus contrataciones, implicará diseñar protocolos claros y, probablemente, capacitar a su personal de RR.HH.

Consecuencias
El especialista recordó que el reglamento no crea un régimen sancionador nuevo, pero sí activa las normas ya vigentes. «El reglamento no impone ningún tipo de sanción por la no implementación, pero lo que sí genera es que genera obligaciones. Entonces, si a través de un sistema de inteligencia artificial hay una afectación a la protección de datos personales, entrará a tallar la Autoridad Nacional de Protección de Datos Personales», mencionó.

En ese escenario, advierte Morales, que se pueden aplicar multas. «Si un chatbot termina discriminando a un consumidor, obviamente el Indecopi va a tallar. Indecopi va a investigar sobre el principio de transparencia, a ver si es que se ha seguido todo lo necesario para cumplir con el principio de no discriminación», apuntó.

Cabe mencionar que el reglamento no entra en vigor de inmediato. El decreto supremo en mención establece que comenzará a aplicarse 90 días hábiles después de su publicación en El Peruano, es decir, hacia inicios de 2026. Sin embargo, la implementación será gradual. El Poder Ejecutivo, Legislativo y Judicial tendrán un año para adecuarse, mientras que gobiernos regionales, locales y empresas públicas dispondrán de hasta tres años según su nivel de complejidad.

En el caso del sector privado, los plazos varían entre uno y cuatro años según el rubro como salud, educación, justicia, seguridad, finanzas, transporte, comercio, agricultura, energía y minería, entre otros.

Alejandro Morales Cáceres, Socio y Líder del Área de Derecho y Nuevas Tecnologías de TYTL Abogados 

 

 

COMPARTIR