En los últimos años, estamos inmersos en una revolución tecnológica y la adopción de agentes de inteligencia artificial (IA) en la gestión de servicios tecnológicos y empresariales se ha acelerado más y más. Ya no estamos hablando de los fracasos estrepitosos de la implementación de los bots, sino que estos agentes virtuales tienen la capacidad de ejecutar tareas completas, tomar decisiones e integrarse en procesos críticos de negocio.
Pero todo gran poder conlleva una gran responsabilidad: ¿cómo garantizamos la seguridad y cumplimiento normativo cuando la IA interviene directamente en nuestras operaciones?
La respuesta no es única, pero sí se articula en dos grandes ejes:
- Establecer un Trust Layer que regule el acceso, uso y auditoría de datos.
- Adoptar marcos normativos como la ISO/IEC 42001, que ofrece lineamientos claros para un gobierno responsable de la IA.
ITSM en transformación: de tickets a agentes autónomos
El ITSM nació a finales de la década de los 80 para estandarizar procesos y eficientar el trabajo de las áreas de TI. Posteriormente, en la década de 2010, surgió el concepto de Enterprise Service Management (ESM), como extensión natural hacia áreas de negocio como recursos humanos, finanzas o facilities.
Hoy, la irrupción de la IA ha escalado este modelo:
- Agentes autónomos capaces de ejecutar procesos end-to-end.
- Resolución automática de incidentes sin intervención humana.
- Auto-reparación (self-healing) de activos tecnológicos.
La promesa es eficiencia y escalabilidad, pero los riesgos son igual de evidentes: fuga de datos, sesgos en la toma de decisiones, incumplimientos normativos y pérdida de control sobre información crítica.

Trust Layer: el nuevo pilar del Gobierno de Datos
El Trust Layer surge como la solución para balancear innovación y seguridad. Se trata de una capa de gobernanza y control que se interpone entre los modelos de IA y los datos de la organización, garantizando que la automatización ocurra bajo principios de transparencia y responsabilidad.
Esta capa tiene que cumplir con, como mínimo, las siguientes funciones:
- Control de acceso: Contar con una definición y control sobre qué agentes virtuales pueden ver o manipular que información crítica.
- Retención cero: Asegurar que los datos sensibles no queden almacenados en los modelos.
- Auditoría y trazabilidad: Registrar todas las acciones ejecutadas por agentes virtuales
- Cumplimiento regulatorio: Integrar normativas tanto locales como internacionales como requisitos para la definición y control de nuestros agentes virtuales
En entornos de ESM / ITSM, donde diariamente se gestionan miles de solicitudes, esta capa se convierte en la diferencia entre una IA confiable y un riesgo operativo.
Aunque cada organización debe diseñar su propio enfoque de confianza, algunos proveedores globales ya han mostrado cómo hacerlo:
- Salesforce introdujo el Einstein Trust Layer, con funciones como enmascarado de datos y auditoría de interacciones con IA.
- Slack reforzó sus términos de uso para limitar la explotación de datos conversacionales por parte de terceros.
Estos casos ilustran una tendencia: el Gobierno de Datos y la confianza digital ya no son opcionales, sino requisitos indispensables para la adopción segura de IA en entornos corporativos.

ISO/IEC 42001: marco normativo para el gobierno de la IA
La normalización internacional ha movido ficha generando la primera norma de sistemas de gestión específicamente diseñada para inteligencia artificial: ISO/IEC 42001:2023
¿Qué podemos esperar de este marco normativo para el gobierno de la IA?
La ISO/IEC 42001:2023 nos permitirá establecer un sistema de gestión de la IA (AIMS) que nos dé los lineamientos para planificar, implementar y mejorar el uso de IA dentro de nuestras organizaciones. Nos ayudará a garantizar el gobierno de datos identificando, clasificando y controlando los datos que alimentan los modelos de IA y nos permitirá analizar los riesgos y oportunidades que introduce en nuestra operación el uso de IA
Ambos enfoques no compiten, sino que se complementan: el Trust Layer ofrece la base técnica, mientras que la ISO/IEC 42001 aporta el marco de gobernanza organizacional.
Impacto en la experiencia de servicio
El Gobierno de Datos no solo reduce riesgos legales; también impacta directamente en la experiencia digital de los usuarios (DEX).
Los empleados y clientes esperan que la interacción con IA sea:
- Segura: protección de datos personales.
- Transparente: decisiones explicables y justificadas.
- Auditable: registro accesible de cada acción tomada por la IA.
Aquí entran en juego los XLAs (Experience Level Agreements), que permiten medir no solo tiempos de respuesta, sino también la confianza y satisfacción generadas por los servicios inteligentes.

¿Que nos depara el futuro?
De cara al futuro inmediato, la adopción de agentes autónomos en ITSM y ESM es inevitable. La verdadera diferenciación no estará en quién implemente más rápido, sino en quién lo haga con mayor confianza y responsabilidad.
Establecer un Trust Layer técnico para proteger datos y adoptar marcos como la ISO/IEC 42001 para asegurar gobernanza organizacional son pasos necesarios y complementarios. Las organizaciones que los integren no solo reducirán riesgos y cumplirán normativas, sino que además generarán la confianza indispensable para que usuarios, clientes y empleados perciban valor real en la automatización inteligente de servicios.