La IA en las finanzas ha llegado para agilizar procesos, reducir costos operativos y errores asociados a procesos manuales. Por ejemplo, ha demostrado ser sumamente útil implementar tecnología como un software para cobranza con IA para optimizar la tasa de morosidad, el contacto con clientes y la recuperación. Sin embargo ¿hay riesgo de la IA en procesos financieros?
¿Qué vas a encontrar en este texto?
Aunque las ventajas de su implementación son grandes, no hay que omitir que existen riesgos de la IA en finanzas. Muchos de ellos se deben a que todavía se trata de una tecnología en desarrollo, por lo que hay que ser cuidadosos con las soluciones que se integren a los procesos de la empresa.
Por ejemplo, como veremos con más detalle en el siguiente apartado: un algoritmo que ajusta automáticamente inversiones puede fallar ante cambios imprevistos en el mercado, un sistema de scoring crediticio podría subestimar la capacidad de pago de nuevas empresas o startups mexicanas, y la dependencia de sistemas automatizados aumenta la exposición a fallas operativas o ciberataques. Por eso, la supervisión humana y la evaluación constante son esenciales para proteger la salud financiera y la reputación de la compañía.
Ahora que conoces por qué es importante que prestes atención a los riesgos de la inteligencia artificial financiera, cuáles son las principales amenazas. Aquí algunas de ellas:
Los algoritmos de la IA se entrenan con datos históricos. En eventos imprevistos —como la volatilidad del peso frente al dólar o cambios abruptos en tasas de interés— una solución con IA puede tomar decisiones que aumenten la exposición.
Por ejemplo
Una IA que ajusta automáticamente la inversión en bonos gubernamentales podría vender justo antes de un repunte de la tasa de rendimiento, generando pérdidas que un análisis humano habría evitado.
Si varias instituciones usan algoritmos similares, pueden ejecutar estrategias idénticas al mismo tiempo, amplificando la volatilidad en ciertos activos.
Por ejemplo
Bancos o fondos que sigan la misma señal de IA para ajustar portafolios de deuda corporativa podrían provocar movimientos bruscos en un sector clave de la BMV.
La IA puede discriminar por patrones históricos o producir resultados difíciles de interpretar, generando riesgos regulatorios y reputacionales.
Por ejemplo
Un modelo que evalúa riesgos de crédito empresarial podría subestimar la capacidad de pago de startups tecnológicas en México porque los datos históricos reflejan principalmente empresas tradicionales, llevando a rechazar préstamos que serían viables.
Los sistemas inteligentes aumentan la superficie de riesgo frente a ataques informáticos.
Por ejemplo
Un sistema automatizado de pagos interbancarios vulnerable podría permitir transferencias no autorizadas o exponer información confidencial de clientes.
La automatización completa sin control experto puede derivar en errores estratégicos. Por lo que no hay que dejar de lado la necesidad de tener personal experto que sepa usar y aprovechar los recursos de la IA.
Por ejemplo:
Una IA que aprueba préstamos a negocios sin revisión podría incrementar la cartera vencida si no detecta cambios recientes en la situación financiera de empresas mexicanas.
Aunque no dejan de existir riesgos al usar la IA, esto no quiere decir que no debamos usarla. Después de todo, la digitalización y la automatización son cruciales en la optimización de procesos. Sin embargo, ¿cómo mitigar y hacer frente a los riesgos de implementar IA en finanzas? Aquí algunos consejos:
Involucrando a TI, seguridad, legal y cumplimiento se pueden identificar riesgos desde distintos ángulos y coordinar soluciones más sólidas.
Por ejemplo:
Antes de implementar una solución de IA para scoring de crédito, TI verifica la seguridad de los datos, legal valida que cumpla con la normativa financiera y de protección de datos, y finanzas asegura que los criterios de riesgo estén alineados con la política interna.
Manteniendo a los especialistas en el circuito se asegura que los resultados de la IA sean revisados y validados.
Por ejemplo:
Un algoritmo de scoring crediticio puede sugerir rechazos automáticos; el equipo financiero revisa casos atípicos para evitar decisiones injustas o riesgosas.
Diseñando los procesos con controles regulatorios y medidas de protección de datos se minimizan errores y sesgos.
Por ejemplo:
Al implementar un sistema de análisis de inversiones, se incluyen filtros que eviten favorecer inadvertidamente ciertos sectores o empresas, cumpliendo con la normativa local y principios de equidad.
Involucrando auditoría interna y externa se detectan problemas antes de que impacten operaciones o reputación.
Por ejemplo:
Revisando periódicamente los modelos de IA que calculan reservas financieras, se pueden anticipar errores o inconsistencias que podrían afectar los reportes contables.
Formando al personal y estableciendo Centros de Excelencia se facilita la adopción segura y efectiva de la IA.
Por ejemplo:
entrenando a los analistas financieros para interpretar resultados generados por IA y ajustando procesos internos según necesidades reales del negocio.
Los riesgos de la IA en cobranza surgen cuando la tecnología no está bien desarrollada o se usa de forma inapropiada: puede generar decisiones sesgadas, errores de predicción sobre pagos, incumplir normas de datos o cobranza, dañar la reputación con mensajes automáticos agresivos, crear dependencia tecnológica y exponer información financiera sensible.
En México, la adopción de inteligencia artificial en finanzas se encuentra condicionada por la regulación vigente, especialmente en materia de protección de datos y cumplimiento fiscal. Aunque el país aún no cuenta con una estrategia nacional de IA, las empresas deben garantizar que la información de clientes se maneje conforme a la ley, asegurando trazabilidad y responsabilidad en decisiones automatizadas, como la evaluación de riesgos o la auditoría contable. Esto implica que los desarrollos de IA, desde software para cobranzas hasta herramientas de auditoría digital deben operar dentro de un marco legal que priorice la privacidad, la seguridad y la consistencia de los datos.
Deben asegurar que la IA que utilizan esté protegida: supervisar que los proveedores cifren los datos financieros, limitar accesos según funciones, monitorear actividad sospechosa, revisar vulnerabilidades de sistemas y modelos, mantener respaldos confiables y contar con protocolos claros de respuesta ante incidentes.
Los riesgos de la IA varían según el tamaño y la regulación: en los bancos son más críticos por el volumen de datos, la exposición a fraudes y la estricta normativa, donde errores o sesgos pueden generar graves consecuencias legales y reputacionales; en empresas medianas, los riesgos se concentran en la supervisión limitada, menor cumplimiento normativo y capacidad de reacción, afectando más la operación y finanzas que la regulación.