Salir de casa se ha vuelto, para muchos, un ejercicio de cautela. Robos, extorsiones y asesinatos alimentan una sensación de inseguridad que golpea a miles de familias. Ante este escenario, surge una pregunta inevitable: ¿qué más se puede hacer para enfrentar la delincuencia? En esa búsqueda, varias municipalidades han puesto su atención en las cámaras de videovigilancia con reconocimiento facial. Sin embargo, el debate no es solo técnico o policial, sino también jurídico y ciudadano, lo que nos obliga a reflexionar sobre los límites del poder público cuando este actúa en nombre de la seguridad.
La promesa de estas tecnologías es atractiva. Identificar rostros en segundos y generar alertas inmediatas parece una respuesta eficaz frente a una delincuencia cada vez más organizada. Para muchas autoridades locales, representan una oportunidad para mejorar la prevención y la reacción, pero esa misma capacidad es la que plantea el principal desafío jurídico.
La Inteligencia Artificial (IA), entendida como sistemas capaces de realizar tareas que normalmente requieren de inteligencia humana, empleando para ello algoritmos y grandes cantidades de información para imitar las funciones cognitivas, ha llegado para quedarse. Día con día gana terreno en diversos ámbitos del conocimiento y en la práctica profesional.
Hoy en día no sorprende que la IA sea utilizada por millones de personas, pues, su alcance permite obtener información, procesar grandes cantidades de datos, generar respuestas y obtener potenciales soluciones. Sin embargo, estas siempre requieren revisión humana, pues no debemos olvidar que la IA es producto de la inteligencia humana.
Dicho esto, la experiencia demuestra que la IA también es empleada en el desarrollo de actividades profesionales; lo que ha permitido que la IA pueda ir sofisticándose cada vez más y más, llevando a crear programas que se adaptan a espacios particulares y a actividades (o profesiones) mas específicas.
Esto sin duda no es ajeno al arbitraje, tanto para quienes litigan como para quienes tienen la importante labor de resolver conflictos a través de este mecanismo de solución de controversias; pues creemos – la mayoría coincidirá con nosotros – que el tiempo es el principal activo con el que contamos, por lo que sí hay algo que permita hacer más eficiente nuestras tareas, ahorrando tiempo, es lógico que lo empleemos, pero con mucho cuidado y responsabilidad.
En el caso particular de quienes deciden, la IA puede cumplir un rol importante para analizar y clasificar pruebas (más aún en los arbitrajes en los que la carga documental es abundante); redactar borradores de laudos, hasta sistemas que permitan ordenar doctrina o jurisprudencia relevante en segundos. No obstante, su uso plantea interrogantes sobre imparcialidad, transparencia y el rol humano en la toma de decisiones.
Sobre esto último, no debemos perder de vista que, uno de los principales criterios para designar a un árbitro es la confianza, ya sea en su experiencia, en sus conocimientos técnicos o del sector en el que se desarrolla la controversia o de su imparcialidad; sin embargo, si el factor humano comienza a ceder espacio a la IA en la toma de decisiones, ¿podríamos seguir manteniendo la misma confianza en quien designamos?
Al respecto, nos permitimos hacer algunas breves anotaciones. No debemos perder de vista que, así como los árbitros pueden incurrir – involuntariamente o no – en algunos sesgos, la IA también puede caer en sesgos algorítmicos (de datos o algorítmicos) que no son otra cosa que errores en los sistemas de inteligencia artificial, debido a datos de entrenamiento que reflejan prejuicios (por ejemplo, culturales, de género, económicos, sociales, entre otros), lo que puede llevar a que la IA los reproduzca y genere resultados injustos.
Asimismo, creemos que el uso (desmedido) de IA puede hacer perder transparencia a las decisiones, pues el proceso lógico en la toma de una decisión requiere todo un camino, una trazabilidad que va desde el análisis de los argumentos (orales y escritos), la revisión y ponderación de las pruebas, la aplicabilidad de la norma y todo ello debe ser revisado punto por punto por quienes deciden; pues, es justamente esta la razón por la cual se les encomienda esta labor (además de recibir un pago por dicha tarea).
Si todo este camino es transitado a través de IA, se pierde el valor humano agregado en el análisis; confiar en la IA a ciegas resta transparencia en la decisión.
Asimismo, existen riesgos de vulnerabilidad en el acceso a datos, que pudieran afectar la integridad del proceso.
En consecuencia, ¿es incorrecto emplear la IA en el arbitraje, sobre todo para la toma de decisiones? Creemos que – conforme a lo expuesto – responder categóricamente con un “si” o un “no” sería un error; pues, todo depende del uso responsable y cuidadoso que se haga de esta herramienta, pero sí, consideramos que es importante tener en cuenta que la IA debe servir como un asistente para automatizar tareas (en favor de la eficiencia), pero nunca para sustituir la motivación y el juicio humano (que es la imparcialidad que se espera de quien juzga).
Manuel F. Nagatome Espinoza, Abogado Asociado del Área de Contratación Pública, Arbitraje y Derecho Administrativo de TYTL Abogados
