Getty Images

Cuatro tendencias que marcarán la gestión de datos e IA en 2026

Las tendencias que influirán en los próximos 12 meses se basan en lo que comenzó el año pasado, incluido el aumento de fusiones y adquisiciones, y la necesidad de simplificar el desarrollo y la implementación de agentes.

La conciencia contextual de los agentes y la consolidación entre proveedores estarán entre las mayores tendencias de desarrollo de IA y gestión de datos en 2026. También lo estará la creciente adopción de protocolos como Agent2Agent (A2A), que abordan la comunicación entre agentes y la automatización de procesos impulsada por agentes.

Para superar la fase piloto, los agentes necesitan el contexto adecuado para ser confiables. Las capas semánticas ayudan a proporcionar dicho contexto, lo que propiciará un uso más generalizado el próximo año. Una vez que los proyectos superen la fase piloto y entren en producción, los agentes automatizarán tareas que antes eran manuales. Y, a medida que las empresas desarrollen sistemas multiagente, necesitarán A2A u otros protocolos similares para facilitar la orquestación de redes de agentes.

"En 2025 se trataba de construir agentes", dijo Michael Ni, analista de Constellation Research. "En 2026 se trata de confiar en ellos".

Mientras tanto, los proveedores de IA y gestión de datos especializados podrían ser víctimas del enfoque singular en el desarrollo de IA agéntica (que es más compleja y cuesta mucho más que la ciencia de datos y el análisis tradicionales), y la consolidación de proveedores será una tendencia significativa en 2026.

El contexto es clave

El protocolo de contexto de modelo (MCP) proporcionó un método estándar para conectar datos con agentes de IA. Sin embargo, conectar agentes con fuentes de datos es solo una parte del desarrollo de IA con agentes. Los agentes necesitan estar conectados a los datos que proporcionan el contexto para llevar a cabo su tarea prevista.

Sin embargo, encontrar los datos adecuados para un agente determinado puede ser difícil. Sin una preparación adecuada de los datos, puede ser casi imposible.

Como resultado, el modelado semántico ganó impulso en 2025 y se espera que se convierta en una tendencia aún más significativa en 2026, según David Menninger, analista de ISG Software Research.

"A medida que el uso de la IA se ha expandido, y la importancia de los datos para dichas iniciativas se ha vuelto más evidente, también se ha hecho evidente que acceder a los datos sin un modelo semántico es como intentar conducir hasta el destino sin un mapa", afirmó. "El modelo semántico es el mapa hacia los datos y su significado. Es tan importante como el acceso a los datos".

Los modelos semánticos son herramientas de gobernanza de datos que permiten a las organizaciones estandarizar su enfoque para definir y categorizar datos. Proveedores como AtScale, DBT Labs, Looker de Google, Strategy y ThoughtSpot han proporcionado capas semánticas durante años. Sin embargo, los modelos semánticos eran aditivos en lugar de críticos cuando las organizaciones creaban informes y paneles estáticos en lugar de agentes autónomos.

Ahora, el desarrollo de la IA está haciendo que los modelos semánticos sean cruciales, según Baris Guletkin, vicepresidente de IA del proveedor de plataformas de datos Snowflake.

"A medida que las empresas comienzan a poner en producción más proyectos de IA, rápidamente se dan cuenta de que sus iniciativas de IA tienen dificultades no por falta de inteligencia, sino por falta de contexto empresarial", afirmó. "Esto es lo que convertirá el modelado semántico de una disciplina secundaria a una prioridad estratégica en 2026".

Además de informar adecuadamente a los agentes individuales, los modelos semánticos proporcionan a los agentes de toda la empresa un significado y un contexto compartidos, lo que les permite trabajar juntos y entre departamentos, continuó Gultekin.

"Los agentes necesitan un significado y un contexto compartidos, no solo datos compartidos", afirmó. "Si un agente de IA no comprende las definiciones de negocio que subyacen a los datos que lo impulsan, su razonamiento se desmorona rápidamente. Las capas semánticas proporcionan a los agentes la estructura y la base necesarias para ofrecer respuestas fiables, garantizando así la coherencia de los resultados de IA en todos los equipos y departamentos".

Sin embargo, si bien es valioso, el modelado semántico aún necesita mejoras antes de volverse tan omnipresente como el MCP, dijo Menninger.

Un grupo de proveedores, entre ellos Salesforce y Snowflake, formó el Intercambio Semántico Abierto, en septiembre pasado, para mejorar y estandarizar el modelado semántico. Pero más allá del trabajo del consorcio, que puede o no resultar en la adopción de un estándar, los proveedores necesitan mejorar sus capas semánticas.

"Aún veo una laguna en la mayoría de los modelos semánticos (…) relacionada con las métricas", afirmó Menninger. "La mayoría de los modelos semánticos se limitan a capturar y expresar métricas en forma de definiciones SQL. SQL no es lo suficientemente completo como para capturar toda la lógica que compone un modelo de negocio. Desafortunadamente, todavía no veo mucha actividad para ampliar la riqueza de las capacidades del modelado semántico".

Establecer un estándar para la interoperabilidad entre agentes

Si bien muchos agentes son específicos de cada tarea y operan de forma aislada, otros forman parte de sistemas multiagente que requieren de su comunicación y colaboración. Por ejemplo, para optimizar una cadena de suministro, una empresa podría implementar agentes independientes para la gestión de inventario, las operaciones de almacén y el trazado de rutas de entrega, que deben trabajar en conjunto.

Un marco que estandarice y simplifique la interacción de los agentes es beneficioso, y se espera que la adopción de dichos marcos sea una tendencia entre los proveedores de gestión de datos e IA en el próximo año.

Desarrollado por Google Cloud y lanzado en abril, A2A hace precisamente eso, y decenas de proveedores –como AWS, Microsoft, Oracle, Databricks y Snowflake, entre otros– ofrecen soporte para el protocolo. Además, el proyecto A2A se fusionó con el Protocolo de Comunicación de Agentes de IBM en septiembre de 2025, unificando dos marcos de trabajo que competían entre sí.

Sin embargo, todavía existen marcos alternativos, por lo que aún queda por ver si el soporte A2A se convertirá en una tendencia tan importante entre los proveedores de gestión de datos e IA como lo fue el soporte MCP en 2025, según Donald Farmer, fundador y director de TreeHive Strategy.

A diferencia de MCP, que se puede utilizar para ayudar en el desarrollo de todos los agentes, A2A y otros marcos que simplifican y estandarizan las interacciones de los agentes solo son necesarios cuando las organizaciones implementan marcos de múltiples agentes.

"A2A tiene un camino más difícil por delante", dijo Farmer. "El protocolo solo es necesario cuando las organizaciones realmente gestionan enjambres de agentes que necesitan trabajar juntos. (…) El impulso llegará. Pero seguirá la demanda empresarial de gestionar múltiples agentes, más que el entusiasmo de los proveedores por un nuevo estándar".

Mientras tanto, Chris Aberger, vicepresidente de Alation, especialista en catálogos de datos, señaló que, si bien se necesita un marco para las interacciones entre agentes, él predice que A2A no se convertirá en el estándar. En cambio, si bien A2A aborda un problema que enfrentan muchos usuarios de IA, Aberger espera que MCP evolucione para incorporar las capacidades que ofrece A2A.

"Este mercado no premia lo ‘mejor en teoría’,” dijo. "Premia el protocolo que se convierte en el estándar. Y MCP se está convirtiendo rápidamente en ese estándar. (…) La propuesta A2A es atractiva. La comunicación entre agentes se percibe como la próxima frontera, y [A2A] aborda áreas para las que MCP no fue diseñado originalmente. Pero su adopción está rezagada estratégicamente".

El uso principal de A2A y protocolos similares no desaparecerá, continuó Aberger. Pero en lugar de que la adopción de A2A sea una tendencia significativa entre los proveedores de gestión de datos e IA en 2026, MCP evolucionará.

"MCP no coexistirá con A2A", afirmó Aberger. "Absorberá las partes útiles [de A2A] porque el ecosistema exigirá un estándar, y no será el que llegó en segundo lugar".

La automatización va en aumento

Con una mayor conciencia contextual, y protocolos establecidos para conectar agentes con fuentes de datos y orquestar redes de agentes, la automatización será una tendencia creciente en la gestión de datos y la IA en 2026, según Menninger.

En particular, predijo que la automatización de tareas complejas de gestión de datos, que actualmente ralentizan el desarrollo y el análisis, aumentará en los próximos 12 meses.

Por ejemplo, Monte Carlo, especialista en observabilidad de datos, proporciona un agente que monitoriza los datos e implementa reglas para garantizar su calidad. Los agentes Claire de Informatica gestionan tareas como la monitorización de la calidad de los datos, la exploración de datos y la creación de pipelines de datos. ThoughtSpot, por su parte, presentó recientemente agentes que estarán disponibles para el público general a principios de este año y que automatizarán toda su plataforma, incluyendo agentes para el desarrollo de paneles de control, la creación de modelos semánticos y la integración de inteligencia empresarial (BI, por sus siglas en inglés).

"La tendencia de la IA agéntica se centra en la automatización", afirmó Menninger. "Durante los próximos 12 meses, veremos una automatización cada vez mayor de las tareas relacionadas con la gestión de datos; desde la recopilación y el procesamiento, hasta la protección y el análisis de datos. (…) En realidad, apenas hemos arañado la superficie".

Además de automatizar la gestión de datos y el trabajo de desarrollo de IA, la tendencia también incluirá un aumento en las empresas que lanzan agentes que se hacen cargo de operaciones comerciales como atención y servicio al cliente, tareas contables y financieras menores, como el procesamiento de facturas y la aprobación de pagos, y la optimización de las cadenas de suministro.

"En 2026, el mandato pasa de la operacionalización de los datos a la consolidación en torno a la orquestación de la inteligencia en toda la empresa, la automatización de las decisiones en los flujos de trabajo y la gestión de la ejecución en tiempo de ejecución", afirmó Ni. "Juntos, definen la transición de la gestión de datos al liderazgo en la toma de decisiones".

Farmer, por su parte, predijo que una consecuencia del aumento de la automatización a lo largo de 2026 será que algunas organizaciones sufrirán crisis de identidad. A medida que los agentes realicen más tareas que antes realizaban personas, las empresas deberán determinar cómo integrar eficazmente a agentes y humanos.

"Espero que el debate de 2026 se centre menos en una sola nueva capacidad y más en la integración", afirmó Farmer. "¿Dónde termina la IA y dónde empieza la organización? A las empresas les gusta decir cosas como ‘Somos nuestra gente’ para reflejar su identidad, cultura e integridad. En 2026, nuestras IA podrían llegar a ser tan distintivas para la diferenciación de nuestro negocio como lo son nuestras personas".

El costo genera consolidación

Impulsados ​​por el alto costo del desarrollo de IA y la necesidad de simplificar los procesos complejos de IA, las señales de una ola de consolidación comenzaron en 2025.

En mayo, Salesforce adquirió Informatica, especialista independiente en integración de datos con una larga trayectoria, en un acuerdo que finalmente se cerró en noviembre. En octubre, el proveedor de integración de datos Fivetran y el especialista en transformación de datos DBT Labs acordaron fusionarse. A principios de diciembre, IBM adquirió Confluent, proveedor de datos en streaming.

Ese puede ser el comienzo, según Farmer, quien predijo que la consolidación se convertirá en una tendencia importante entre los proveedores de gestión de datos e inteligencia artificial en 2026.

El costo es una razón para la consolidación. Desarrollar agentes y otras aplicaciones de IA es más complejo y requiere más tiempo que crear informes analíticos y paneles. Además, las herramientas de IA requieren mayores cargas de trabajo de datos que los productos de datos para ser precisas y eficaces. Esta combinación está generando un gasto significativamente mayor en aplicaciones generadoras de información.

Una forma en que las empresas mitigan algunos de los mayores costos es prescindiendo de las herramientas de especialistas independientes y, en su lugar, utilizando un único proveedor con capacidades preintegradas. Esto, a su vez, dificulta que los especialistas compitan con los hiperescaladores.

Simplificación

Además del costo, la simplificación de los sistemas de desarrollo de IA está impulsando a las organizaciones a recurrir a proveedores únicos. Integrar y mantener plataformas especializadas para la ingesta, integración, modelado, búsqueda y almacenamiento de vectores de datos, gobernanza, descubrimiento y otros aspectos del desarrollo de IA es difícil, lento y costoso.

"El patrón en torno a Informatica, Confluent y Fivetran/DBT Labs sugiere que la infraestructura de datos está lista para la simplificación", afirmó Farmer. "Esta tendencia se debe a las estrategias de plataforma centradas en la IA y a la necesidad de optimizar el saturado panorama de herramientas empresariales. Los equipos de TI desean gestionar menos proveedores y buscan la consolidación. Además, reconocen la necesidad de datos integrados".

Gultekin de Snowflake sugirió de manera similar que el deseo de simplificación está impulsando la consolidación. "Ya quedó atrás la época en que se usaban soluciones fragmentadas", afirmó. "Las empresas ahora buscan plataformas unificadas que les permitan avanzar con mayor rapidez, eliminar la complejidad y hacer que la IA funcione con todos sus datos. La consolidación del sector que estamos observando refleja ese cambio".

Mientras tanto, los objetivos de adquisición podrían ser proveedores de catálogos de datos, especialistas en observabilidad de datos y proveedores de extracción, transformación y carga (ETL), según Farmer."Están relacionados y a menudo se venden a los mismos compradores, por lo que son objetivos naturales de consolidación", afirmó. "Además, históricamente, el capital privado ha consolidado middleware fragmentado".

Aún queda espacio para algunos supervivientes

En medio de la consolidación, todavía hay espacio para que ciertos especialistas permanezcan independientes, señaló Farmer. "Los equipos de datos avanzados aún prefieren herramientas especializadas donde perciben una clara diferencia", afirmó.

"Por consiguiente, no todos los proveedores independientes son un objetivo de adquisición". Satyen Sangani, director ejecutivo de Alation, prevé igualmente espacio para los proveedores independientes incluso con el aumento de la consolidación, señalando que algunas empresas aún prefieren ecosistemas integrados de varios proveedores y temen quedar atrapadas en un único proveedor.

"La tendencia continuará (...) [Pero] el contrapeso es la verdadera neutralidad del proveedor. Neutralidad en la nube, agnóstico en cuanto a la computación se refiere, flexible en cuanto al modelo y priorizar las API, de modo que las arquitecturas se mantengan portátiles a medida que los modelos y las infraestructuras evolucionen", afirmó.

En última instancia, queda por ver si las empresas que aún prefieren sistemas integrados de diversos proveedores independientes seguirán haciéndolo, según Ni. Señaló que las empresas están trasladando cada vez más las iniciativas de IA de la experimentación a la ejecución. A medida que lo hacen, la simplificación pronto podría superar cualquier otra consideración.

"Una ola de consolidación no es solo una predicción, sino que ya ha comenzado", declaró Ni. "Las plataformas de datos e IA están madurando, lo que significa que la confianza, la observabilidad y la gobernanza integrada superan cada vez más la flexibilidad de usar las mejores herramientas. Al mismo tiempo, los hiperescaladores han anunciado capacidades de gestión y canalización de datos que agrupan funciones, lo que presiona a los proveedores independientes".

Eric Avidon es redactor senior de noticias para Informa TechTarget y periodista con más de 25 años de experiencia. Se especializa en análisis y gestión de datos.

Investigue más sobre Inteligencia artificial y automatización