Gobernanza de la IA en tiempo real: una decisión de arquitectura.
Aceptar manualmente condiciones de servicio pierde sentido en la economía agéntica. Se impone un nuevo modelo donde el consentimiento viaje con los datos.
El pasado 16 de marzo, Jensen Huang abrió el GTC 2026 con una tesis que atravesó todo su keynote de dos horas: la IA ya no es una funcionalidad, es una infraestructura esencial. El protagonista del evento no fue el hardware, sino OpenClaw, el framework de agentes autónomos que Huang situó al mismo nivel histórico que HTML o Linux. Nvidia quiere hacer con los agentes lo que hizo con CUDA y las redes neuronales: ser la capa de infraestructura imprescindible antes de que el mercado decida qué stack agéntico gana.
Lo que nadie planteó en el GTC es la pregunta de fondo: cuando un agente actúa en nuestro nombre - gestiona el calendario, compra, contesta correos, accede al historial médico, negocia en tiempo real con otros agentes, todo en segundo plano -, ¿le hemos dado el consentimiento que requiere ejecutar todas esas acciones? ¿Se lo han dado los terceros cuyos datos ese agente consulta? Y pregunta para un director de marketing: ¿qué ocurre con toda la arquitectura de personalización, segmentación y CRM que hemos construido sobre un modelo de consentimiento que está a punto de quedar obsoleto?
El modelo de consentimiento no sobrevive a los agentes.
El modelo actual de consentimiento (”Sí a todo”) es técnicamente incompatible con la velocidad de operación de un agente, porque la IA agéntica destruye los tres supuestos sobre los que fue construido.
El primero: existe un momento de atención y decisión. El usuario lee, evalúa y clica. Pero los agentes actúan de forma continua y autónoma, sin dejar pausas para esa deliberación. Anthropic ha documentado lo que llama “fatiga de consentimiento”: un sistema agéntico que requiriera aprobación para cada acceso a datos o llamada a API generaría solicitudes cada 15-20 segundos. El resultado sería idéntico al de los banners de cookies - el usuario aceptaría por inercia, pereza o cansancio -, invalidando la base legal de todo el sistema.
El segundo: el contexto de uso es predecible en el momento del consentimiento. Estamos de acuerdo en que el banco lea nuestros movimientos para detectar fraude, no para que un agente los combine con nuestros datos de salud y ajuste una oferta de seguro. El problema es que esa distinción, en una arquitectura agéntica, desaparece por diseño. Toda la lógica del marketing basado en datos - la personalización, el next best action, la orquestación multicanal - opera sobre un consentimiento que asumía contextos estancos. Los agentes los fusionan.
El tercero: el usuario mantiene control sobre la cadena de consecuencias. Un agente que negocia en nombre de una persona con otros agentes genera una secuencia de acciones cuya trazabilidad es, en la práctica, opaca. El Supervisor Europeo de Protección de Datos ha señalado que mientras un modelo generativo tradicional reacciona a instrucciones específicas, la IA agéntica razona, planifica y descompone metas en subtareas. Puede decidir autónomamente invocar APIs externas o consultar bases de datos que no estaban mapeadas en el diseño original. Integra señales que el usuario consintió por separado, en momentos distintos y para propósitos distintos. Une cabos. Y concluye con información - patrones de comportamiento, preferencias sensibles - que el usuario ni solicitó, ni tal vez desea que se conozca.
Dos respuestas regulatorias, dos lógicas opuestas.
La Oficina del Comisionado de Información del Reino Unido publicó en enero de 2026 su informe sobre IA agéntica. Su conclusión fue clara: situar la responsabilidad de la gobernanza en los usuarios finales es inviable en el contexto de la IA agéntica. Treinta años después de que Netscape introdujera las cookies y más de una década después de que el consentimiento informado se convirtiera en el pilar jurídico de la relación digital, una institución regulatoria de primer nivel declara ese paradigma obsoleto. Es preciso trasladar la responsabilidad desde el individuo hacia la arquitectura del sistema. El consentimiento debe, de alguna manera, “viajar” con los datos en tiempo real.
La respuesta de la UE apunta en dirección contraria. En noviembre de 2025, la Comisión presentó el Digital Omnibus Package, la revisión más significativa del marco digital europeo desde el GDPR. Entre sus propuestas: expandir la base del “interés legítimo” para cubrir el entrenamiento de IA, relajar los requisitos de cookies y simplificar los avisos de privacidad. El cambio más revelador es la redefinición de dato personal: los datos seudonimizados podrían tratarse como “no personales” si el responsable del tratamiento no puede reidentificarlos, aunque un tercero sí tenga esa capacidad. Es una victoria operativa para el entrenamiento de modelos y, simultáneamente, una señal de que la UE está dispuesta a rebajar la regulación - en principio, para permitir que las empresas europeas compitan en la carrera de la IA - precisamente cuando la arquitectura agéntica la necesitaría más robusta.
Las empresas que despliegan agentes en este momento operan en ese espacio de ambigüedad: el ICO pide más arquitectura de control, Bruselas afloja el corsé jurídico. Para los equipos de marketing y experiencia de cliente, la tensión es concreta: ¿diseñamos los agentes conversacionales y los flujos de personalización con los controles que pide el ICO, o con la flexibilidad que ofrece la UE? La respuesta probablemente sea construir para el estándar más exigente, porque la regulación tiende a converger hacia arriba.
La gobernanza como capa de ejecución, no de declaración.
Un framework para entornos agénticos publicado en octubre de 2025 propone la lógica que probablemente termine imponiéndose: los controles de privacidad no pueden seguir siendo políticas estáticas que se muestran en el momento del onboarding. Deben ejecutarse a la misma velocidad que el código.
En la práctica, eso implica cuatro cambios de arquitectura. Primero, bloqueos de propósito: cada acción del agente debe poder validarse contra el propósito para el que fue autorizado, en tiempo de ejecución y no solo en el momento de la aceptación inicial. Segundo, trazas end-to-end que registren de forma auditable cada decisión, quién accedió a qué dato y para qué. Tercero, niveles de gobernanza de memoria que distingan entre memoria de sesión, memoria persistente y memoria compartida entre agentes, con reglas distintas para cada capa - una distinción que cualquiera que trabaje con plataformas de datos de cliente reconocerá como familiar, pero que en un entorno agéntico adquiere una complejidad nueva. Y cuarto, mapeo en vivo de responsables: en una cadena de agentes que interoperan, la responsabilidad no puede diluirse en la complejidad técnica.
Este framework es menos un conjunto de restricciones que una decisión de arquitectura. La diferencia entre una política de uso estática y un cortafuegos activo que viaja con los datos en tiempo real.
Un sistema que “nos protegía de entender” lo que aceptábamos.
La gran paradoja es esa: llevamos tres décadas refinando un modelo de consentimiento que terminó protegiéndonos, sí, pero de comprender lo que estábamos aceptando. Los banners de cookies no informan: anestesian. Y ahora construimos sistemas capaces de actuar con una autonomía que ese modelo nunca anticipó.
La ventana para adoptar gobernanza en runtime está abierta. Las obligaciones de transparencia del AI Act para sistemas de alto riesgo ya están en vigor, y a medida que el resto de la regulación cristalice en los próximos dos años, las empresas tienen margen para construir infraestructuras de control dinámico antes de que sean obligatorias. En la práctica con clientes corporativos, lo que observamos es que quienes integran estos controles desde el diseño de sus agentes no solo reducen riesgo regulatorio: construyen mejor producto, porque la trazabilidad y los bloqueos de propósito obligan a pensar con más rigor qué debe y qué no debe hacer un agente en nombre del cliente.
Las que esperen a la obligación regulatoria, construirán sobre deuda técnica de gobernanza. Y en una economía donde los agentes negociarán entre sí a velocidad de API, esa deuda se acumula más rápido de lo que ningún comité de compliance puede auditar.
El próximo domingo no habrá Rebel Intel. Nos leemos el 12 de abril.
Fernando y Carlos.
Video made by “humans + AI”.
Esta semana OpenAI anunció el cierre de Sora, su plataforma de vídeo generativo, apenas seis meses después de lanzarla como app independiente. Las razones son varias pero la señal para las marcas es una: la IA genera texto e imagen a escala, pero el vídeo auténtico, con códigos culturales, ritmo de plataforma y conexión real con audiencias jóvenes, sigue siendo territorio de creadores humanos. El tema no va de nostalgia, sino de conexión emocional con el creador humano, como explicamos con más profundidad en nuestro artículo sobre influencers virtuales de hace unas semanas.
Hace poco hemos anunciado la incorporación de Ok,z a Good Rebels. Ok,z es una productora social-first especializada en TikTok, Reels y formatos verticales, fundada por Javier García Pano y Marta García Aller.
A medida que los motores de búsqueda con IA priorizan respuestas enriquecidas con vídeo - desde recomendaciones de producto hasta explicaciones de uso -, el contenido audiovisual se convierte en un activo de posicionamiento. En retail, un vídeo que explica un producto y se posiciona bien en un motor con IA no es solo contenido de marca: es una recomendación que el sistema sirve al consumidor en el momento de la decisión de compra. La lógica del GEO (Generative Engine Optimization) no sólo aplica al texto, lo hace igualmente para el vídeo.
La llegada de Ok,z refuerza la capacidad del grupo en el punto exacto donde convergen creación de contenido, cultura de plataforma y rendimiento medible: producción audiovisual nativa que funciona tanto para construcción de marca como para performance en los nuevos entornos de descubrimiento.
Actualidad.
OpenAI ha cerrado Sora - su plataforma de vídeo generativo, app del año en la App Store, acuerdo de mil millones con Disney incluido - apenas seis meses después de lanzarla. Razones: costes de computación prohibitivos, retención del 1% a los 30 días (la App), problemas de copyright irresueltos y, sobre todo, foco (hay salida a bolsa próxima) y cambio de prioridades hacia donde la IA generativa sí está demostrando valor estratégico real: código, productividad y sistemas agénticos. El vídeo nos deslumbró al principio, pero la industria está descubriendo que el público no quiere slop generativo: quiere creadores de carne y hueso con punto de vista, ritmo y códigos culturales propios (véase la sección anterior). La IA de vídeo se integra como herramienta de apoyo en la cadena de producción creativa - previsualización, escalado, postproducción - pero no sustituye a la industria. WIRED, FORBES, CNET, INVESTOPEDIA, BBC, AXIOS
La memoria de los LLMs es caballo de batalla ahora mismo. Datos relevantes del usuario que se almacenan y se comprimen para dotar de contexto a todas las conversaciones, sin necesidad de tener que recordárselo en cada conversación. Gemini acaba de hacer más fácil la importación de memoria desde otros LLMs, y Claude ha activado “auto-dream”, un proceso automático por las noches para comprimir memoria (nótese la semajanza con el proceso natural del sueño). GEMINI, CLAUDE
La Fundación Cotec ha lanzado la guía Cómo usar la IA en tu empresa: aspectos jurídicos y gobierno de la IA dirigida especialmente a organizaciones españolas de tamaño medio que quieran incorporar la inteligencia artificial en sus procesos y modelos de negocio sin incurrir en riesgos legales, éticos ni reputacionales. COTEC, PDF
Reddit quiere preservar su naturaleza humana frente a la IA. Su CEO, Steve Huffman, explica que el objetivo es que los usuarios siempre sepan si están interactuando con una persona o con una máquina. Se implementará un etiquetado obligatorio para los "bots buenos" (automatizaciones útiles), y métodos para verificar que hay un humano detrás de una cuenta. No se prohíbe el contenido generado por IA, pero cada comunidad podrá establecer sus propias reglas al respecto.
También Wikipedia se protege del contenido generado con IA: prohíbe usarla para generar o reescribir artículos, aunque sí se admite para editar y traducir. LINK
Mistral ha presentado Forge, para ayudar a las empresas a construir modelos IA de vanguardia a partir de sus propios datos, capaces de comprender sus códigos, políticas, flujos de trabajo y lenguaje propios.
Dos notas pelín técnicas, para que los lectores de Rebel Intel no olviden la velocidad a la que sus creencias sobre la IA pueden perder contacto con la realidad. Google Research ha presentado TurboQuant, una familia de técnicas de compresión que permite reducir drásticamente el tamaño de los modelos de IA sin perder rendimiento apreciable. La implicación práctica: modelos más baratos de operar, más rápidos de ejecutar y capaces de funcionar en dispositivos más modestos - lo que acelera la comoditización de la inteligencia artificial y reduce las barreras de entrada para cualquier empresa.
Y NVIDIA ha creado un agente de IA que optimizó de forma autónoma durante siete días código para sus propias GPUs, superando el rendimiento de sus mejores ingenieros humanos y de las bibliotecas más optimizadas del mercado. Sus autores lo llaman "blind coding" y apuntan a que la cognición humana es ya el cuello de botella en la optimización de software. GOOGLE, NVIDIA
Reflexiones.
Los agentes de IA reducen la necesidad de adopción masiva porque un número pequeño de usuarios avanzados dirigiendo agentes puede generar un impacto económico desproporcionado y una demanda de cómputo exponencial. Ben Thompson revisa su propia tesis anterior de que las "burbujas pueden ser buenas" para argumentar que la IA no está en una burbuja. STRATCHERY
Research.
El último informe de Thomson Reuters sobre IA en servicios profesionales confirma que la IA generativa ya es herramienta de uso semanal para más del 80% de los profesionales que la han adoptado, y el 87% espera que sea parte central de su flujo de trabajo en cinco años. Solo el 15% de las organizaciones usa IA agéntica hoy, pero el 53% ya está en fase de planificación o evaluación. THOMPSON REUTERS
Encuesta de McKinsey sobre confianza en IA en 2026: la madurez en IA responsable mejora, pero la confianza de las organizaciones en su capacidad de respuesta ante incidentes ha empeorado. La principal barrera para escalar IA agéntica no es la tecnología sino la seguridad, y casi dos tercios de las organizaciones lo reconocen. MCKINSEY
Datos propietarios de PYMNTS Intelligence revelan que la adopción de IA por consumidores ha cruzado un umbral crítico: el 54% de los adultos estadounidenses ya usa IA para tareas personales, con un promedio de 2-3 herramientas distintas por usuario. PYMNTS
Un working paper de Duke University y los Federal Reserve Banks de Richmond y Atlanta, basado en encuestas a ~750 CFOs, documenta una paradoja de productividad inquietante: los directivos reportan ganancias medias del 1.8% en 2025, pero los datos reales de ingresos y empleo muestran ganancias significativamente menores en todas las industrias. FORTUNE
MCX.
Durante las últimas décadas, la estrategia de datos en marketing ha seguido una lógica acumulativa: almacénalo todo, ya encontrarás el uso. Los LLMs invierten esa lógica. Un modelo fundacional ya contiene una versión comprimida del conocimiento general - el "JPEG borroso de la web", en la metáfora de Ted Chiang -; lo que necesita de la empresa no es más volumen, sino datos propietarios de alta fidelidad que complementen esa imagen difusa. El salto real es pasar de descriptivo a prescriptivo sin escalas: del dato a la acción, con el modelo como capa intermedia. La pregunta ya no es cuánto almacenas sino cuánto de lo que almacenas es consumible por un modelo en tiempo real. MARTECH
Una encuesta a líderes de reputación de Andrews Partnership, describe cómo las funciones de comunicación y asuntos corporativos están reestructurándose bajo la presión combinada de la geopolítica, la disciplina de costes y la adopción de IA. El 91% de los equipos ya utiliza herramientas de IA y el 95% percibe impacto positivo, pero la adopción se concentra en creación de contenidos y reporting, mientras que apenas un 16% usa IA para modelado de escenarios y predicción de riesgos: justamente donde más se juega el valor estratégico de la función. El informe alerta de tres riesgos: gobernanza inmadura, dependencia de LLMs públicos mal gestionados y degradación de la calidad editorial si se acepta “mal texto de IA” sin revisión crítica. LINK
El tráfico automatizado creció 8 veces más rápido que el tráfico humano en 2025, con un aumento del 7.851% en el tráfico de agentes IA. OpenAI generó casi el 70% del tráfico agéntico, concentrado (95%) en comercio minorista, medios y viajes. LINK
WordPress va a permitir a agentes IA (como Claude, ChatGPT o Cursor) gestionar sitios web de forma activa. Usando el protocolo MCP, los agentes (previa aprobación del usuario) podrán redactar borradores, editar contenido, publicar entradas, gestionar comentarios y optimizar el SEO. WordPress gestiona el 43% de las webs de internet, por lo que esta decisión puede aumentar los debates sobre la autenticidad y la confianza. TECH CRUNCH
Está abierto el plazo para elegir a los influencers IA del año. El esfuerzo de una industria a la que le costará convencernos de la importancia de un fenómeno que por ahora genera más titulares que retornos económicos para las marcas. THE VERGE
Bain puso a prueba si aerolíneas y OTAs están preparadas para reservas iniciadas por agentes de IA. Las OTAs ganan con claridad tanto en descubrimiento como en reserva. Las aerolíneas necesitan adaptar sus sistemas para hablar con LLMs, no solo con humanos - un aviso temprano de lo que viene en cualquier sector con venta directa. BAIN
Notas sobre el Shoptalk 2026 en Las Vegas. La IA agéntica domina la conversación. LINK
Se nos pasó este año referenciar en diciembre el informe de tendencias de Zendesk. Aquí un resumen por si también se os pasó a vosotros. LINK
Herramientas IA.
Esta semana se ha hablado mucho en Good Rebels de Stitch. En palabras de Kike, nuestro director de UX y Diseño estratégico: “Google hace tiempo que tiene en su laboratorio una herramienta experimental llamada Stitch, diseñada para generar interfaces de usuario de aplicaciones web y móviles a partir de descripciones de texto o imágenes. Parece que ahora están pisando el acelerador, y tiene pintaza.” STITCH/GOOGLE
Off Tópicos.
Un año después de que Unilever apostara masivamente por los creadores de contenido, la industria aún lucha por profesionalizar este canal. Aunque el gasto publicitario se está desplazando de la TV a las redes sociales, la falta de una infraestructura de datos unificada y la fragmentación operativa siguen siendo cuellos de botella. La ambición de las grandes marcas por dominar la economía de los creadores va más rápido que la tecnología disponible para gestionarla con rigor. DIGIDAY
La Comisión Europea presenta EU Inc. Un antes y un después para lanzar startups en Europa como hace falta. O no. Fingers crossed. EC







