your123 - stock.adobe.com
La banca necesita una IA responsable, no un sinfín de pilotos sin gobernanza
El sector financiero latinoamericano tiene claridad sobre el valor de la inteligencia artificial, pero, en muchos casos, carece de marcos para convertirla en resultados medibles. Scott Zoldi, de FICO, afirma que es momento de establecer estándares corporativos claros para aprovechar al máximo la tecnología.
La promesa de transformación que trajo consigo la inteligencia artificial (IA) sigue atrapada en proyectos piloto que no escalan en la mayoría de las organizaciones del sector financiero. Durante años, la implementación de IA en instituciones financieras siguió un patrón común: pequeños equipos desarrollando pruebas de concepto (POC) aisladas. El resultado, afirma Scott Zoldi, Chief Analytics Officer de FICO, en entrevista con ComputerWeekly en Español, ha sido limitado.
Para Zoldi, este modelo propició una brecha crítica entre la intención que tienen las organizaciones financieras para adoptar la IA y lo que finalmente ejecutan. Según una encuesta de FICO, mientras el 75 % de los directores de tecnología y de analítica consideran que la IA responsable es el camino para lograr un incremento del ROI de 50 % o más, solo el 5 % reporta una alineación sólida entre sus iniciativas de IA y los objetivos del negocio. Lo que es más, datos del estudio “Gen AI Divide” del MIT indican que el 95 % de las organizaciones no reconocen ningún valor al usar la inteligencia artificial generativa.
Para Zoldi, la raíz del problema no es tecnológica, sino organizacional. La IA no puede avanzar como iniciativa departamental cuando el impacto que se espera de ella es corporativo. “No debería ser como un pequeño equipo de tres personas tratando de aplicar la IA para resolver el problema de toda la empresa. Tiene que girar en torno a un marco de IA responsable”, subraya.
Scott Zoldi
Este cambio, explica, implica redefinir el punto de partida. El error frecuente es buscar aplicaciones (casos de uso) para la tecnología, en lugar de identificar primero un problema de negocio concreto que resolver. "No es como: 'busquemos una solución que use IA', sino: ¿qué estamos tratando de resolver? ¿Cuál es el valor? ¿Cómo se ve el éxito?", plantea el directivo.
La gobernanza debe ser el núcleo de la IA escalable
El punto donde más organizaciones fallan al implementar la IA es la gobernanza. En este punto, Zoldi es enfático al señalar que lo primero es contar con un solo estándar corporativo para el desarrollo de la IA al que todos en la empresa tengan que alinearse. La fragmentación de criterios, resalta, hace ingobernable cualquier estrategia de IA a escala.
Ese estándar, según su propuesta, se estructura en cuatro pilares:
- El primero es la robustez, “la IA robusta”, que cubra cómo se construyen los modelos, qué datos representativos se utilizan y qué algoritmos son admisibles para materializar realmente su valor.
- El segundo es la explicabilidad, la “IA interpretable o explicable”. Especialmente en servicios financieros, cualquier decisión que afecte a un consumidor debe poder explicarse o justificarse. "No deberíamos tomar decisiones sin la capacidad de explicarle a un consumidor afectado cómo la IA tomó su decisión", subraya Zoldi.
- El tercero es la ética, “la IA ética”, con criterios explícitos sobre lo que constituye una aplicación ética en la empresa y los principios corporativos para hacerla cumplir.
- Y el cuarto, quizás el menos desarrollado en la práctica, es la auditabilidad, “la IA auditable”, con trazabilidad completa, donde todo quede registrado y se pueda demostrar el cumplimiento de estándares y normas.
En este último punto, crítico en entornos regulados, Scott Zoldi defiende el uso de blockchains de IA para garantizar la integridad en los procesos. El experto comenta que, para FICO, la auditabilidad implica registrar cada decisión del ciclo de vida del modelo de IA en una cadena de bloques para que "nadie pueda cambiar la información más tarde, porque si rompes esa cadena de bloques, la invalidas". El registro incluye quién trabajó en el modelo, cómo se validó y qué evidencia existe de su correcto funcionamiento.
Esa misma cadena de bloques, indica el experto, puede ayudar a supervisar el modelo ya en operación, lo cual solo hacen el 7 % de las organizaciones financieras, lo que revela una brecha significativa entre la construcción de los modelos y su gestión en producción, para asegurar que sigan comportándose correctamente y saber cuándo actualizarlos o retirarlos.
IA especializada para decisiones críticas
En paralelo, Zoldi destaca el creciente interés por modelos de lenguaje de dominio específico, llamados modelos de lenguaje enfocados (FLM), que están ganando terreno en tres áreas clave del sector financiero:
- Aprobación de crédito, donde la variabilidad entre analistas humanos puede introducir inconsistencias y riesgos de sesgo.
- Cumplimiento normativo, ya que, en algunas regiones, las instituciones deben cumplir más de 700 regulaciones sobre cómo interactuar con sus clientes.
- Cobranza, ya que la forma en que se gestiona la relación con clientes en dificultad tiene implicaciones tanto operativas como reputacionales.
“En todas esas áreas, hay una gran cantidad de datos no estructurados, hay mucha toma de decisiones humanas, y gran parte de ellas tal vez podrían estar sesgadas”, expresa Zoldi, “y ahí es donde vemos mayor interés en este momento”.
Entrenar un FLM para un banco latinoamericano toma entre seis y ocho semanas para la fase de entrenamiento de tareas, ya que FICO cuenta con un modelo base preentrenado solo con datos de servicios financieros. "La parte más importante, en realidad, no son las GPU ni la computación, sino reunir los datos y ponerse de acuerdo sobre qué se considera 'bueno'", apunta Scott Zoldi. Ese proceso de alineación interna, aunque laborioso, obliga a la organización a lograr un consenso y articular explícitamente sus estándares operativos.
Asociado a estos modelos, FICO ha desarrollado un mecanismo de puntuaciones de confianza (trust scores). Se trata de un modelo secundario que mide si la consulta y la respuesta están alineadas con el propósito para el que fue entrenado el sistema, con su marco de conocimiento. "Básicamente, mide si el modelo está diseñado para hacer eso", aclara. Cuando la alineación es baja, el sistema reconoce su límite y escala la decisión. Zoldi llama a esto la "IA humilde", capaz de saber cuándo no actuar de forma autónoma, lo que puede servir más adelante para el gobierno de la IA agéntica.
Infraestructura heredada y modernización
La integración de la IA en entornos heredados sigue siendo un reto operativo. Para el directivo de FICO, el enfoque no tiene que pasar por reemplazos inmediatos, sino que puede apoyarse en arquitecturas híbridas, ya que la nube actúa como una capa de innovación paralela.
“La nube te permite ejecutar diferentes tipos de análisis que tal vez una organización de TI no tenga tiempo de hacer, o no cuente con la experiencia necesaria”, expresa Zoldi. Una vez que el modelo paralelo demuestra su valor según métricas predefinidas, la transición hacia él se vuelve un paso lógico y justificable. Así, la modernización se vuelve un proceso incremental y orientado a resultados.
“Una vez que demuestras que se ha alcanzado el éxito, puedes empezar a usar el resultado… y buscar retirar parte del sistema heredado”. La clave es definir qué se considera éxito: "¿Es una puntuación un 20 % más precisa? ¿Es una decisión un 30 % más eficiente? ¿Cuál es ese criterio de éxito?", plantea el directivo. Sin esas métricas, la modernización carece de dirección.
La regulación puede ser una condición habilitadora
En materia regulatoria, la posición de Zoldi es clara: la intervención gubernamental es necesaria, pero su madurez en la región es bastante desigual. El experto reconoce que México, por ejemplo, ha dado pasos concretos con su ley sobre desarrollo ético, soberano e inclusivo de la inteligencia artificial, y observa una convergencia conceptual con marcos como la Ley de IA de la Unión Europea.
Sin embargo, afirma que, donde los marcos regulatorios aún son incipientes, el propio sector puede liderar una autorregulación. "¿Podríamos lograr que tres, cuatro o cinco de las principales organizaciones de servicios financieros de este país se pongan de acuerdo en una norma y todos la apliquemos?", propone. Si la industria construye estándares de facto, estos podrían terminar siendo adoptados por los reguladores.
No obstante, Zoldi es enfático al advertir que "no se puede permitir que cada institución financiera tenga su propio estándar, porque eso sería imposible de gestionar para una autoridad reguladora".
“Es un problema difícil”, subraya, “pero creo que todos están buscando formas de resolverlo. Incluso esta conversación, sobre lo importante que es una IA responsable, es un reflejo de que la gente lo está entendiendo. Las instituciones financieras definitivamente lo aprecian. Solo se trata de encontrar ese camino con el que se sientan cómodas”, finaliza.
¿Qué podemos esperar de FICO en 2026?
Scott Zoldi adelantó que, este año, la empresa presentará una tecnología llamada «Modelo de Secuencia Enfocada» (Focused Sequence Model), que es una forma nueva de realizar análisis de transacciones para resolver problemas de fraude con una reducción muy considerable de falsos positivos (50 % menos de falsos positivos), y mucha más precisión en la detección de fraudes y estafas.
El segundo anuncio estará relacionado con la gobernanza de la IA agéntica. “Gran parte de la IA agéntica está en una etapa muy temprana y no es muy sofisticada. FLM, con estos modelos de tareas muy enfocados, serán los agentes del futuro. Pero voy a presentar una nueva tecnología sobre cómo vamos a gobernar eso, en cierto modo”, adelanta el ejecutivo.