El avance constante hacia la digitalización ha incrementado exponencialmente el uso de la inteligencia artificial, convirtiéndola en una poderosa herramienta que es usada en diversos sectores, creando grandes mejoras y reducción de tiempos. El sector financiero a nivel mundial no ha sido ajeno, al empezar a usar algoritmos para el monitoreo de transacciones de sus clientes y así poder detectar operaciones sospechosas vinculadas al lavado de activos y financiamiento del terrorismo.
Pero esta tecnología que promete eficiencia, rapidez y precisión, también plantea nuevos retos y cuestionamientos legales y éticos. ¿Estamos frente a una solución revolucionaria para prevenir operaciones de lavado de dinero o ante una Caja de Pandora que podría generar más problemas de los que resuelve?
Hasta hace unos pocos años, los bancos utilizaban sistemas de monitoreo con reglas fijas. Por ejemplo, si una persona realizaba transferencias mayores a cierto monto o enviaba dinero a países incluidos en listas negras, el sistema emitía una alerta. Sin embargo, los lavadores de dinero conociendo el funcionamiento de los sistemas de monitoreo de los bancos empezaron a mejorar sus técnicas para no activar las alertas predecibles.
Además, esos sistemas de monitoreo generaban falsos positivos, es decir, alertas que terminaban no siendo realmente operaciones sospechosas. Esto generaba retrasos, consumía mayor tiempo, recursos y desgastaba al equipo de cumplimiento, quienes deben revisar manualmente operaciones que no representan un riesgo real.
Con la llegada de la Inteligencia Artificial (IA), el escenario cambia. Ahora es posible entrenar algoritmos para que aprendan a detectar patrones de comportamiento financiero, identificar desviaciones y anticiparse al uso de nuevas técnicas de las organizaciones criminales. En ese sentido, en lugar de usar reglas fijas, los modelos de IA evolucionan constantemente a partir de los datos que analizan.
Por ejemplo, si una persona con ingresos estables y movimientos financieros normales comienza de pronto a recibir transferencias frecuentes de distintas cuentas en el extranjero, el sistema puede identificar ese cambio de comportamiento y generar una alerta con mayor probabilidad de acierto que de la forma tradicional.
Teniendo en cuenta ello, no hay duda de que los sistemas basados en IA pueden mejorar la eficiencia en la detección de operaciones sospechosas, reducen los falsos positivos, agilizan los reportes y permiten concentrar el esfuerzo del personal de Cumplimiento en operaciones verdaderamente riesgosas. Incluso, pueden detectar patrones que el ojo humano no alcanzaría a ver.
Sin embargo, no todo es color de rosa. Una de las preocupaciones que trae consigo el uso de la IA es la falta de transparencia, pues muchos algoritmos funcionan como una «caja negra». Ni los oficiales de cumplimiento ni los reguladores pueden entender exactamente por qué se generó una determinada alerta o cuál fue el criterio que la IA usó para lanzar una alerta.
Esto plantea un riesgo en términos de cumplimiento legal. En Perú, la normativa aplicable a los sujetos obligados exige que el oficial de cumplimiento que efectúe un reporte sustente el motivo del mismo. Si el sistema de IA no permite justificar el por qué de una alerta, podría no ser aceptado como evidencia válida o incluso generar que el sujeto obligado sea sancionado.
Otro tema no menos importante es la responsabilidad. Si un sistema automatizado no detecta una operación que posteriormente se prueba como ilícita y es el único mecanismo que usan para detectar operaciones sospechosas, la entidad financiera no estaría efectuando una gestión adecuada del riesgo y tendrían que asumir la responsabilidad.
Si bien la normativa peruana permite que se pueda tercerizar ciertos servicios relacionados a la identificación y verificación de la información de sus clientes, aún no regula con precisión el uso de estas tecnologías. No existe un marco normativo que establezca estándares mínimos para validar modelos de IA, auditar sus decisiones o delimitar responsabilidades.
Asimismo, el uso intensivo de datos para alimentar estos sistemas abre una puerta a riesgos de privacidad. Las entidades deben asegurar que cumplen con la Ley de Protección de Datos Personales y que no vulneran los derechos de sus clientes bajo el pretexto de «prevención».
La situación en Perú: ¿estamos listos?
En Perú, si bien algunos de los principales bancos ya están explorando el uso de IA, muchos aún no cuentan con la infraestructura ni el conocimiento para implementarla de forma efectiva y segura. Las Fintech, por su parte, ven en estas herramientas una manera de escalar sus operaciones sin aumentar significativamente sus costos de cumplimiento, pero corren el riesgo de usar soluciones sin una evaluación real del riesgo que trae consigo.
Cabe resaltar que la SBS no ha emitido lineamientos específicos sobre el uso de IA en el monitoreo transaccional. Esto deja un vacío normativo que puede traducirse en inseguridad jurídica.
La clave no está en elegir entre el uso de la tecnología o personas, sino en entender que la IA debe ser una herramienta que potencie el criterio humano, no que lo reemplace. Los oficiales de cumplimiento seguirán siendo una pieza fundamental para interpretar los hallazgos, entender el contexto de cada cliente y tomar decisiones informadas.
El futuro está en el uso modelos mixtos que combinen automatización con supervisión experta, y que integren el cumplimiento normativo desde el momento que se diseñe el sistema.
Finalmente debemos señalar que la inteligencia artificial puede convertirse en una aliada poderosa en la lucha contra el lavado de activos en el Perú, siempre que se utilice con responsabilidad, transparencia y dentro de un marco normativo claro. De lo contrario, podríamos estar abriendo la puerta a nuevos riesgos que comprometan la efectividad del sistema.
Johana Benites Iriarte, Abogada Asociada Senior y Líder del área de Servicios Financieros de Torres y Torres Lara Abogados.