Getty Images/iStockphoto

La IA responsable lleva innovación a los servicios financieros

FICO compartió algunas mejores prácticas para operacionalizar la IA Responsable en los negocios, así como su visión sobre la Inteligencia Aplicada, que implica la integración de los humanos en el proceso (HITL).

En sólo un año, la IA ha evolucionado a un ritmo asombroso. Las organizaciones financieras la están integrando en sus procesos de toma de decisiones, no sólo para obtener predicciones de negocio más precisas, sino para responder adecuadamente a las condiciones dinámicas del mercado, incluso en el entorno actual de contextos económicos inciertos.

Con todo, si bien Gartner predice que el 60 % de todas las horas de trabajo humano se verán alteradas por la IA para 2027, el año pasado, el 90 % de los CIO afirmaban que su equipo de liderazgo aún no estaba listo para esta tecnología.

En un evento virtual titulado “¿Qué futuro le espera a la Inteligencia Artificial?”, Rafael Caballero, director de Consultoría de FICO para México, y Luis Silvestre, consultor principal de Preventas en FICO, analizaron cómo la empresa de analítica predictiva y gestión de decisiones visualiza la adopción de esta tecnología en el sector financiero.

Para la empresa, la IA va mucho más allá de sólo automatizar decisiones: la firma imagina un futuro en el que los líderes empresariales definirán sus objetivos estratégicos y la IA creará y perfeccionará continuamente la lógica de la toma de decisiones para alcanzarlos.

“El impacto de los avances de la IA significa aprovechar el poder del machine learning (ML), la analítica predictiva y la toma de decisiones en tiempo real para ofrecer soluciones más inteligentes, rápidas e intuitivas a los clientes”, señaló Rafael Caballero. “La revolución de la IA apenas comienza; las innovaciones introducidas en la Plataforma FICO demuestran lo que resulta de combinar nuestra experiencia y visión colectiva en una plataforma que está diseñada para adaptarse a los rápidos cambios, para que las organizaciones puedan mantenerse a la vanguardia”, comentó.

Caballero se refirió a la IA Responsable, que FICO implementa para las áreas de riesgo crediticio y detección de fraudes, la cual implica seguir un conjunto de principios y estándares de desarrollo para operacionalizar implementaciones de IA que generen resultados de negocio de alto impacto, siempre en el marco de los límites éticos y legales.

La inteligencia aplicada multiplica el valor para los clientes

Otro de los temas centrales fue la Inteligencia Aplicada, que es la combinación de lo mejor de la IA y de la inteligencia humana. Caballero explicó que se trata del ambiente innovador que permite transformar datos, analítica avanzada, ML e IA en decisiones empresariales en tiempo real y a gran escala. En este contexto, “human-in-the-loop” (HITL) se refiere a un entorno donde los humanos participan activamente en el ciclo de decisiones automatizadas que realiza la IA.  

“No se trata de dejar todo en manos de algoritmos, sino de combinar lo mejor de ambos mundos: la velocidad y precisión de la IA con el juicio y la experiencia humana”, explicó Caballero. “Al usar este enfoque en nuestra plataforma, garantizamos que los humanos puedan revisar y validar, o ajustar, decisiones antes de su ejecución; mantener la transparencia y confianza en los modelos de IA, sobre todo en áreas críticas, como el riesgo crediticio, los fraudes o las decisiones de negocio, y que los usuarios no técnicos tengan la opción de modificar estrategias de decisión de forma fácil, sin depender de desarrolladores”, precisó.

Con respecto a la normativa relacionada con IA, Luis Silvestre destacó que “la innovación en IA debe ir acompañada de una preparación consciente para su futura regulación. Los marcos regulatorios inspirados en otras regiones como en Europa pueden definir estándares obligatorios de transparencia, explicabilidad y gobernanza de la IA. Las instituciones que adopten hoy modelos human in the loop, con IA responsable, estarán no solo ganando eficiencia, sino también alineando sus procesos con el futuro marco legal”.

Ahora que la IA forma parte de las agendas de innovación de las organizaciones y de sus procesos empresariales, contar con una visión clara de cómo se quiere aplicar marca el camino hacia una toma de decisiones más estratégica, humana y precisa, liderando la evolución tecnológica con responsabilidad e innovación, concluyeron los expertos de FICO.

Principios de la IA Responsable, según FICO

  • IA robusta. Está formada por una metodología de desarrollo bien definida; el uso adecuado de datos históricos, de entrenamiento y de prueba; una definición sólida del rendimiento; una selección cuidadosa de la arquitectura del modelo; y procesos para las pruebas de estabilidad, simulación y gobernabilidad.
  • IA explicable. La explicabilidad del modelo debe ser el objetivo principal de las implementaciones de IA Responsable, y se debe responder a preguntas cruciales, como si se construyó correctamente el modelo de IA o cuáles son los riesgos al utilizarlo. El uso responsable de la IA implica saber cuándo un modelo no es eficaz o podría incluso ser perjudicial.
  • IA ética. Para garantizar que los modelos analíticos funcionen éticamente, es de gran ayuda contar con un riguroso proceso de desarrollo y visibilidad de las características latentes aprendidas por el modelo de ML, comprobando continuamente si hay sesgos, para eliminarlos.
  • IA auditable. Significa “construirlo correctamente desde el principio”. Esto se logra teniendo un modelo estándar para toda la empresa, con arquitecturas aprobadas, variables autorizadas y estándares establecidos de pruebas de sesgo, entre otras características, para reducir los errores en el desarrollo. La IA auditable hace realidad la IA Responsable al crear un registro de auditoría inmutable basado en el estándar de gobernabilidad de desarrollo, documentado durante la producción del modelo.

Investigue más sobre Inteligencia artificial y automatización