Llevamos un par de años obsesionados con lo que la Inteligencia Artificial nos dice. Si alucina, si es sesgada, si escribe sonetos o si resume actas de reuniones. Sin embargo, mientras los reguladores en Bruselas terminaban de pulir la AI Act, el paradigma ha cambiado bajo sus pies. Hemos pasado de la IA generativa, esa que es básicamente un becario muy leído pero algo fantasioso, a la IA agentiva. Y aquí es donde las cosas se ponen serias para cualquier director de cumplimiento o riesgos que aprecie su puesto.
Un agente de IA no se limita a responderte. Un agente llama a APIs, consulta bases de datos en tiempo real, combina fuentes, interactúa con sistemas de core bancario y, lo más crítico, dispara acciones. Puede escalar una decisión a un humano o, si está mal configurado, ejecutar una orden de compra-venta o denegar un crédito sin que nadie pulse el botón de 'OK'. Aquí está el quid: nuestra regulación actual está diseñada para auditar el modelo antes de que se despliegue, pero es sorprendentemente miope sobre lo que el modelo hace una vez que está 'vivo' en el entorno de ejecución.
El enfoque tradicional de cumplimiento —ese que tanto gusta en los departamentos de auditoría interna— consiste en marcar casillas: ¿Se ha evaluado el sesgo? Sí. ¿Tenemos documentación técnica? Sí. ¿Hay supervisión humana? Sobre el papel, sí. Pero la IA agentiva rompe este esquema. No basta con saber que el modelo era seguro cuando salió del laboratorio; necesitamos saber por qué, a las 3:14 de la madrugada, decidió ejecutar una llamada a un sistema externo que acabó en un error de integridad de datos.
Este es el vacío que proyectos como OBELISK intentan llenar, y que los reguladores europeos empiezan a mirar con una mezcla de curiosidad y pavor. No estamos hablando de monitorización técnica (logs de servidor de toda la vida), sino de gobernanza de la ejecución. ¿Podemos reconstruir la cadena de decisiones de un agente de IA tras un incidente? En el sector financiero, bajo el paraguas de DORA, la respuesta corta hoy es: probablemente no.
Mi tesis es directa: el cumplimiento normativo basado en auditorías anuales ha muerto, aunque los auditores aún no hayan recibido la esquela. Con la IA agentiva, el riesgo es dinámico y efímero. Si tu sistema de IA toma una decisión basada en un contexto que cambia cada milisegundo, una auditoría de tus procesos de entrenamiento de hace seis meses tiene la misma utilidad que un mapa del siglo XVIII para navegar con GPS.
Necesitamos pasar de un modelo de "confianza en el diseño" a uno de "evidencia en la ejecución". Esto significa que cada acción de la IA debe generar una prueba técnica inmutable que conecte la intención (qué quería hacer el modelo), la autorización (tenía permiso para hacerlo) y el resultado (qué ocurrió realmente). Sin esta capa de gobernanza de ejecución, Europa corre el riesgo de crear un ecosistema de IA que sea legalmente perfecto en el papel, pero operativamente incontrolable en la práctica.
Aquí es donde la sopa de letras regulatoria se vuelve espesa. Si eres una entidad financiera española, te encuentras en el centro de una colisión de trenes normativa:
La paradoja es que podrías cumplir con la AI Act al pie de la letra y, simultáneamente, estar violando DORA por falta de control sobre tus dependencias tecnológicas de terceros (los modelos y sus herramientas).
Para la banca y los seguros en España, el reto es doble. Por un lado, la presión del Banco de España y la CNMV por la eficiencia empuja hacia la automatización extrema. Por otro, la aversión al riesgo sistémico es total. ¿Tu entidad ya tiene esto resuelto? La mayoría están en la fase de "laboratorio", probando casos de uso aislados. Pero la integración de agentes en el back-office real es harina de otro costal.
El mayor riesgo no es una rebelión de las máquinas al estilo Hollywood, sino el "derrape silencioso": pequeñas desviaciones en la ejecución que, acumuladas, generan un agujero de cumplimiento o una pérdida financiera que solo se detecta meses después.
Si eres responsable de cumplimiento, riesgos o tecnología, deja de leer informes genéricos y empieza a moverte:
Hemos dedicado demasiado tiempo a debatir si la IA debe ser "ética" —un concepto que cada uno interpreta como quiere— y muy poco a cómo hacer que sea auditable en tiempo real. La gobernanza de la ejecución no es una opción; es el único camino para que la IA agentiva sea algo más que un experimento peligroso en el corazón financiero de Europa. El regulador ha dicho lo de siempre; ahora te toca a ti decidir si quieres ser el que explique el desastre o el que demuestre que lo tenía bajo control.
Recursos oficiales
Descarga políticas, checklists y frameworks de cumplimiento elaborados por expertos en regulación AI Act.
Ver plantillas de AI Act