Getty Images/iStockphoto

La gobernanza y la confianza son los verdaderos retos de la IA empresarial

Escalar una solución de inteligencia artificial dentro de una organización no depende del algoritmo, sino del marco institucional, ético y operativo que lo respalda, afirman desde EPAM Neoris.

La mayoría de las organizaciones que implementan inteligencia artificial (IA) sigue atrapada en la fase de prototipo no por falta de capacidad tecnológica, sino por ausencia de gobernanza. Ese es el diagnóstico que emerge de Saúl Marenco, managing director para el Norte de México, y Mónica López, líder de ESG para Latinoamérica, ambos de EPAM Neoris.

Ambos expertos señalaron que la conversación que domina alrededor de la IA continúa centrada en lo que la tecnología puede hacer –optimizar diagnósticos médicos, mejorar cadenas de suministro, gestionar recursos–, pero los líderes tecnológicos con mayor experiencia en implementaciones reales están reformulando la pregunta central hacia la confianza.

"Cada algoritmo que una organización implementa no es solo una herramienta tecnológica. Es también una declaración de principios", dijeron los expertos de EPAM Neoris, porque esa decisión define qué datos se consideran relevantes, qué variables se priorizan, qué riesgos se aceptan y qué valores la organización está dispuesta a proteger. "La inteligencia artificial no solo automatiza procesos, sino que amplifica la lógica de quienes la diseñan", indicó Saúl Marenco.

Saúl Marenco

Los ejecutivos mencionaron que la gran mayoría de los pilotos de IA fracasan porque las organizaciones evitan las conversaciones necesarias sobre gobernanza. El resultado son fricciones que impiden escalar. Mónica López advirtió que escalar soluciones de IA "requiere algo mucho más complejo que desarrollar modelos sofisticados. Implica rediseñar las estructuras de decisión, integrar la inteligencia artificial en los flujos operativos y sostenerla en el tiempo mediante arquitecturas, datos y procesos preparados para su evolución continua".

Mónica López

De acuerdo con Marenco, la verdadera madurez en IA no depende del algoritmo, sino del marco institucional que lo respalda, y desarrollar un modelo robusto de gobernanza para inteligencia artificial puede tomar, en promedio, cerca de 18 meses, lo que debe incorporarse en las hojas de ruta. "La gobernanza deja de ser una capa secundaria para convertirse en un componente estructural", argumentaron ambos ejecutivos. "No se trata solo de definir principios, sino de integrarlos en la forma en que los sistemas se diseñan, implementan y operan", apuntó Marenco.

El riesgo de reproducir el pasado

Uno de los vectores de riesgo más frecuentemente subestimados es el sesgo estructural. Según los expertos de EPAM Neoris, los sistemas de IA aprenden de los datos disponibles, y esos datos reflejan las condiciones de las sociedades que los generan. Los sesgos históricos y las desigualdades estructurales pueden incorporarse en los modelos sin que los equipos técnicos sean plenamente conscientes de ello.

Hay ejemplos documentados de algoritmos que reproducen discriminación en procesos de contratación, de sistemas de crédito que penalizan ciertos perfiles demográficos y de herramientas automatizadas que generan reportes ambientales "aparentemente impecables, pero sin trazabilidad verificable", enlistó López. Cuando esto ocurre, "el activo más valioso —y también el más frágil— de cualquier organización, la confianza, comienza a erosionarse", subrayó.

Por eso, ha comenzado a consolidarse el concepto de inteligencia artificial confiable, que establece que los sistemas de IA deben cumplir con principios de legalidad, transparencia, robustez técnica, seguridad, no discriminación y supervisión humana efectiva.

"Lo que hasta hace poco parecía una aspiración ética se está convirtiendo rápidamente en un estándar operativo", dijo Saúl Marenco, detallando que esto implica tareas como:

  • establecer comités de gobernanza,
  • definir roles de supervisión,
  • implementar arquitecturas tecnológicas auditables,
  • desarrollar políticas de datos alineadas con los derechos digitales y
  • capacitar a las organizaciones para ejercer una supervisión humana significativa.

La dimensión ESG de los algoritmos

Un área a la que hay que prestarle atención, apuntó Mónica López, es la expansión del marco ESG hacia los sistemas inteligentes. Durante años, la sostenibilidad corporativa se centró en métricas ambientales, impacto social y gobierno corporativo en sentido tradicional, pero hoy esa agenda se extiende a la ética de los algoritmos que toman decisiones dentro de las organizaciones.

Integrar la inteligencia artificial en una estrategia ESG, afirmó López, "implica reconocer que los algoritmos también deben regirse por principios de responsabilidad". Un marco de IA responsable, explicó, debe integrar:

  • un enfoque centrado en las personas,
  • transparencia mediante sistemas explicables,
  • seguridad de datos,
  • gobernanza integral y
  • un compromiso con la equidad y la confiabilidad a lo largo de todo el ciclo de vida tecnológico.

"La diferencia entre las organizaciones que simplemente adoptan inteligencia artificial y aquellas que lideran en la economía digital no estará definida por la sofisticación de sus algoritmos", expresaron los expertos. "Dependerá de algo mucho más complejo: la capacidad de construir y sostener la confianza a lo largo del tiempo, a medida que estos sistemas escalan, evolucionan y se vuelven cada vez más importantes en la operación del negocio", concluyeron.

Investigue más sobre Estrategias de TI