El uso de la Inteligencia Artificial para combatir el lavado de dinero

En la era digital de hoy, luchamos por prevenir nuevos riesgos de delitos financieros con tecnologías antiguas. ¿Pueden las soluciones de Inteligencia Artificial (IA) producir un mayor impacto?

Combatir el lavado de dinero es un desafío clave para la industria de servicios financieros. Los actuales procesos de cumplimiento en materia de Prevención de Lavado de Dinero (PLD) están dominados por altos niveles de tareas manuales, repetitivas y saturadas de datos que son ineficientes para prevenir y detectar operaciones con recursos de procedencia ilícita.

Dado el bajo impacto de los esfuerzos actuales en materia de PLD, combinado con la creciente complejidad de las amenazas y el creciente volumen de datos para analizar, ahora es el momento de explorar las capacidades de la IA, que tiene el potencial para permitir el desarrollo en la supervisión por parte de las autoridades y cumplimiento por parte de los sujetos obligados en materia de PLD y proporcionar un medio para escalar y adaptarse a la amenaza latente de lavado de dinero.

A pesar de este potencial, la creciente conciencia y el número de aplicaciones de IA ha encendido el debate sobre la efectividad de estas soluciones y hasta qué punto se debería confiar en la IA y, en última instancia, reemplazar el análisis humano y la toma de decisiones. Si bien el sigilo hacia una adopción más amplia de la IA es fácil de entender, el cerebro humano es posiblemente el sistema más impredecible que existe. De hecho, existe un sentimiento creciente de que la combinación del conocimiento y los procesos humanos con la IA puede generar mejores resultados y nuevas formas de trabajo que son más efectivas que la implementación de cualquiera de ambos en forma aislada.

Con el fin de explorar y aprovechar mejor el potencial de la IA, la industria de servicios financieros necesita continuar desarrollando su comprensión de las capacidades, riesgos y limitaciones de la IA y, lo que es más importante, establecer un marco ético a través del cual el desarrollo y el uso de la IA se puedan gobernar, sin olvidar que la eficacia y el impacto de estos modelos emergentes deben probarse previamente al lanzamiento en el mercado.

Hoy día, las consecuencias económicas de lavado de dinero en todo el mundo se estiman entre el 2% y el 5% del PIB mundial. A pesar de los vastos recursos desplegados por las instituciones financieras para prevenir y combatir el lavado de dinero, el enfoque actual no está dando los resultados esperados.

Mientras la industria de servicios financieros lucha por contener los costos de cumplimiento, también espera que los volúmenes de datos y la complejidad de las amenazas sigan aumentando. Como resultado, existe un creciente reconocimiento de la necesidad de innovación en materia de PLD y la adopción de la última tecnología.

A medida que las capacidades de inteligencia artificial han aumentado en los últimos años, como lo demuestran los ejemplos de la vida real, como los asistentes virtuales y la robótica, su potencial transformador ha cautivado la imaginación de las empresas que buscan reducir los costos, administrar el riesgo de manera más efectiva y aumentar la productividad. El potencial de la IA para ayudar al cumplimiento normativo tampoco ha escapado a los inversores; lo cual ha elevado la demanda de servicios en firmas de RegTech.

Abordar el costo de cumplimiento con IA.

La IA puede generar eficiencias significativas en los puntos críticos de operación, como la debida diligencia del cliente y el monitoreo de transacciones. Por ejemplo, los controles de monitoreo transaccional de PLD emiten, en muchos casos, altos niveles de alertas o falsos positivos y, por ende, cargas de trabajo considerables. El problema de los costos se amplía aún más por las ineficiencias en el proceso de investigación, lo que crea una división importante entre los esfuerzos empleados y el impacto de los controles de monitoreo de transacciones.

La IA ofrece oportunidades inmediatas para reducir significativamente el costo operativo sin perjudicar la efectividad al introducir técnicas de aprendizaje automático en diferentes etapas del proceso de monitoreo de transacciones. La IA también se está aplicando cada vez más a la debida diligencia de los clientes y los controles de detección mediante el procesamiento de lenguaje natural y las técnicas de minería de datos.

KYC integrado - Devolviendo la esencia a la PLD con IA

La creciente comprensión de cómo la IA podría aplicarse e integrarse con la actividad humana está impulsando un nuevo pensamiento en materia de PLD. Se están abriendo oportunidades que podrían conducir a un cambio fundamental en el enfoque para conocer a su cliente (KYC). Quizás en la próxima ola de transformación veremos una mayor integración de los procesos de evaluación de riesgos, monitoreo, investigación y diligencia debida, y la IA ayudará a romper los paradigmas y ofrecer una base más contextual para determinar el riesgo y detectar actividades inusuales o sospechosas de manera eficiente.

En esta perspectiva, la IA podría aportar mayor amplitud, escala, frecuencia y calidad a las revisiones periódicas de KYC de una manera que integre mejor el análisis de monitoreo transaccional. Los modelos de riesgo y detección evaluarían y aprenderían de un conjunto más rico de insumos y producirían resultados en el contexto del perfil y el comportamiento del cliente. Al aprovechar la capacidad de aprendizaje dinámico de IA junto con investigadores expertos, este modelo podría usarse para incrementar las operaciones, proporcionar control de calidad e incluso para entrenar nuevos recursos.

Las instituciones financieras se encuentran en una posición clave para explorar oportunidades y generar confianza en las aplicaciones de IA para un adecuado cumplimiento en materia de PLD. Sin embargo, muchas organizaciones se encuentran al comienzo de su viaje de IA y, por lo tanto, pueden no estar conscientes o bien equipadas para manejar los nuevos riesgos y desafíos de implementar estas nuevas tecnologías. Entonces, ¿cuáles son las dimensiones clave de la generación de confianza en las soluciones de IA en materia de PLD?

  1. Gobierno corporativo robusto

Establecer un gobierno y controles sólidos sobre el diseño, desarrollo y despliegue de IA es fundamental para el uso seguro y eficaz en el cumplimiento en materia de PLD. El buen gobierno proporciona los medios para evaluar y gestionar el riesgo, promueve un desafío eficaz e impulsa los niveles necesarios de comprensión y documentación para informar la toma de decisiones efectiva a lo largo del ciclo de vida de una solución de IA.

  1. Definir los criterios de alcance, objetivos y éxito desde el principio.

La base para desarrollar soluciones de PLD habilitadas para la IA debe comenzar con una clara declaración de objetivos para garantizar que el diseño y la implementación estén alineados con el uso previsto y se integren de manera efectiva en los procesos de negocios.

Definir cómo se ve el éxito puede ser muy difícil en materia de PLD, ya que los resultados y los conjuntos de datos pueden ser muy subjetivos. La importancia de establecer indicadores y parámetros de desempeño claros, que se vinculen con una declaración de riesgo bien definida, será fundamental para hacer un seguimiento de si los resultados de la IA están cumpliendo los objetivos a un nivel de riesgo aceptable.

  1. Hacer el diseño transparente.

La capacidad de auditar el cumplimiento en materia de PLD es una piedra angular del marco normativo actual o reto corporativo en aquellos países en donde no es obligatoria la auditoria, por lo que la transparencia de la IA y sus algoritmos subyacentes son de suma importancia. La IA y machine learning (aprendizaje automático) son un campo amplio con diversos niveles de complejidad y transparencia. En el extremo más complejo del espectro, el aprendizaje profundo puede resultar un área difícil para generar confianza, en comparación con los procesos existentes. En la actualidad, muy pocas de las soluciones en PLD que se están probando en bancos han avanzado más allá de la regresión, debido a estos desafíos.

El proceso de diseño debe considerar las diferentes capacidades y adecuación de IA para los objetivos previstos y el uso del modelo, así como las características de los datos de entrada o insumo, así como documentar a detalle la especificación técnica, las limitaciones y restricciones del mismo.

  1. Colaborar para definir la práctica líder.

La incorporación exitosa de la IA en el ecosistema de cumplimiento requiere compromiso y colaboración entre múltiples partes interesadas: empresas, proveedores, reguladores, supervisores. Los esfuerzos de colaboración pueden sustentar una adopción más amplia e identificación de beneficios adicionales, pero también pueden establecer estándares para la gobernabilidad y los controles adecuados para administrar el desarrollo y la implementación de soluciones habilitadas para la IA.

Una mayor colaboración y orientación pueden ayudar a impulsar la innovación y el despliegue de la IA. Una adopción más amplia, respaldada por la convergencia normativa, también ayudará a evitar asimetrías en la efectividad del control que podrían, de otro modo, alejar la actividad ilícita de las instituciones más innovadoras.

  1. Centrarse en la entrada o insumo de datos y las implicaciones éticas

Los insumos utilizados para entrenar y operar la IA son críticos. La calidad de los datos es un desafío importante para muchas instituciones financieras y, a menudo, afecta la efectividad y la eficiencia de los controles de PLD. Los proyectos deben evaluar la calidad de los datos y su idoneidad para el uso por parte de la IA como parte de la fase de diseño y desarrollo, y también implementar controles de gestión de datos para monitorear la calidad de los datos durante la operación.

  1. Aplicar pruebas robustas y validación.

Cuanto mayor sea el nivel de prueba y el desafío, más efectiva será la solución y menor será el riesgo operacional que presentará. Los marcos comunes de gestión de riesgos incluyen validación de modelos y equipos independientes de revisión de modelos que podrían proporcionar un desafío efectivo. Del mismo modo, se pueden aprovechar las técnicas de prueba, como las pruebas de estrés y sensibilidad, entre otras.

  1. Comprometerse con anticipación, implementar con visión de crecimiento y revisar periódicamente.

La IA puede provocar una interrupción significativa en los procesos de cumplimiento y en el modelo operativo de las instituciones. La participación temprana de los interesados, la construcción de una visión y entendimiento común y la implementación adecuada pueden ayudar a impulsar un cambio más efectivo, comentarios constructivos y, en última instancia, la confianza en los interesados ​​del negocio.

Al mover la IA a los procesos de producción, las organizaciones deben considerar los riesgos operacionales que requieren controles de monitoreo continuo. Una preocupación cada vez mayor con la promoción de la IA en el uso diario es la posibilidad de manipulación maliciosa o mal uso involuntario. Las actividades de validación periódica, incluida la revisión del uso comercial y las pruebas de sensibilidad, pueden ayudar a mitigar el riesgo, junto con la revisión periódica de las decisiones de IA. Al mismo tiempo, los sistemas expertos basados ​​en reglas pueden utilizarse para proporcionar una línea de base continua para comparar y ayudar a identificar dónde las decisiones de IA se desvían de las normas esperadas.

Conclusión: es hora de actuar

El enfoque actual de PLD está luchando para mantenerse a la par con la creciente amenaza de lavado de dinero. Existe una oportunidad real para que la IA no solo impulse las eficiencias, sino también, lo que es más importante, para identificar formas nuevas y creativas de combatir el lavado de dinero

Mientras la IA sigue planteando desafíos y poniendo a prueba nuestro apetito por el riesgo, la pregunta que todas las instituciones financieras deberían plantearse es: ¿podemos permitirnos no adoptar la IA en materia de PLD? En última instancia, cuando se integra con la estrategia correcta y con el enfoque correcto en la creación de confianza, la innovación con IA debe considerarse un riesgo que vale la pena correr.

Mireya Valverde Okón