Si la IA no es confiable, entonces es solo un montaje: Consejo de IA en Qlik
La confianza se está convirtiendo en el cuello de botella para el desarrollo de la IA en las organizaciones, en tanto la ejecución se ha vuelto la principal ventaja competitiva.
Una IA en la que no se puede confiar no se escalará, y la IA que no se puede escalar es solo teatro, declara el Consejo de IA de Qlik de forma contundente. El mensaje se orienta a destacar el cambio crítico que está ocurriendo en la IA empresarial: la necesidad de ir más allá de la experimentación y avanzar hacia la ejecución, impulsada por la transparencia, la gobernanza y los datos confiables en su núcleo.
Es que, a pesar de la inversión récord en inteligencia artificial (IA), la mayoría de las empresas siguen estancadas en el laboratorio. Según una investigación reciente de IDC, si bien el 80 % de organizaciones planea implementar flujos de trabajo de IA con agentes, solo el 12 % se sienten preparadas para respaldar la toma de decisiones autónoma a escala.
Para Qlik, la confianza en los resultados se está erosionando en medio de las crecientes inquietudes respecto a las preocupaciones de negocio, los sesgos y el escrutinio regulatorio. Y, a medida que los modelos se vuelven productos básicos, la ventaja competitiva está cambiando no hacia aquellos con los modelos más avanzados, sino hacia aquellos que pueden operacionalizar la IA con rapidez, integridad y confianza.
Ante esa situación, el Consejo de IA de Qlik enfatiza que la confianza debe diseñarse desde el principio, no agregarse después. La ejecución es el nuevo diferenciador, y solo funciona cuando los datos, la infraestructura y los resultados son verificables, explicables y accionables. En el entorno actual, las empresas que avancen no serán las que más prueben, sino las que entreguen.
Si las empresas quieren construir una IA que se escale, primero deben construir sistemas en los que el público crea.
Nina Schick, fundadora de Tamang Ventures.
“La IA que opera sin transparencia ni mecanismos de reparación es fundamentalmente no escalable”, dijo la Dra. Rumman Chowdhury, CEO de Humane Intelligence. “No se puede integrar autonomía en los sistemas sin integrar rendición de cuentas. Las empresas que no traten la gobernanza como infraestructura central se encontrarán incapaces de escalar, no por límites tecnológicos, sino por fallas de confianza”.
“Estamos entrando en una crisis de confianza en la IA”, dijo Nina Schick, fundadora de Tamang Ventures. “Desde los ‘deepfakes’ hasta el contenido manipulado, la confianza pública se está derrumbando. Si las empresas quieren construir una IA que se escale, primero deben construir sistemas en los que el público crea. Eso requiere autenticidad, explicabilidad y una comprensión profunda de los riesgos geopolíticos de la automatización desenfrenada”.
Las empresas que no logren operacionalizar la inteligencia confiable se quedarán atrás, no por lo que no construyeron, sino por lo que no pudieron escalar.
Consejo de IA de Qlik
“Los datos son el alma de los sistemas de IA, y no solo necesitamos nuevas fuentes de datos diseñadas específicamente teniendo en cuenta los modelos de IA, sino que también debemos asegurarnos de que podemos confiar en los datos sobre los que se construye cualquier plataforma de IA”, remarcó el Dr. Michael Bronstein, profesor de IA de DeepMind en la Universidad de Oxford.
La transparencia y la gobernanza de la IA también van de la mano con el cumplimiento, comentó Kelly Forbes, directora ejecutiva del AI Asia Pacific Institute: “El panorama regulatorio se está moviendo rápido, y no está esperando a que las empresas se pongan al día. Los ejecutivos deben comprender que el cumplimiento ya no es solo un escudo legal. Es un diferenciador competitivo. La confianza, la auditabilidad y la gestión de riesgos no son limitaciones, son lo que hace viable la IA a escala empresarial”.
“El mercado tiene una falta de ejecución”, dijo Mike Capone, CEO de Qlik. “Las empresas no están perdiendo terreno porque carezcan de acceso a modelos potentes. Están perdiendo porque no han integrado la IA confiable en el tejido de sus operaciones. Por eso, en Qlik, hemos construido una plataforma centrada en la acción decisiva y escalable. Si sus datos no son confiables, su IA tampoco lo es. Y si su IA no es confiable, no se utilizará”.
El mensaje del Consejo de IA de Qlik es claro: la IA se mueve rápido, pero la confianza se mueve primero. “El momento de actuar no es el próximo trimestre. Es ahora. Las empresas que no logren operacionalizar la inteligencia confiable se quedarán atrás, no por lo que no construyeron, sino por lo que no pudieron escalar”, subrayaron.
Investigue más sobre Inteligencia artificial y automatización