La Unión Europea saca pecho con la ley IA.
Con la industria automovilística temblando frente a China, a Europa parece que sólo le quedara ser una potencia reguladora.
La semana pasada, el Consejo y el Parlamento europeo llegaron a un acuerdo provisional que se ha denominado “histórico”, sobre la propuesta de lo que se convertirá en el primer reglamento de la IA en el mundo. Un marco regulatorio que servirá de guía a otros países, como ya ocurrió con la GDPR, y que tendrá una influencia relevante en el uso y desarrollos futuros de estas tecnologías.
Cuando hace unos meses 150 directivos enviaron una carta abierta al parlamento europeo, no se oponían a la regulación, pero expresaban preocupación por que la rigidez burocrática y el marco legal frenasen la innovación, la inversión y la productividad, impidiendo a Europa competir en la vanguardia de la tecnología, y creando un gap con el otro lado del Atlántico (y con China).
Creo que es útil trascender los debates simplistas sobre iniciativa privada o intervencionismo estatal. Hace falta una regulación, pero tiene más sentido regular los usos de la tecnología que la tecnología en sí misma. Porque es algo en evolución, y lo que se ha acordado hoy, puede no servir mañana. Para muestra un botón: la necesidad de regular los modelos fundacionales (los grandes LLMs) se introdujo en mayo 2022. Pero el proyecto de ley había arrancado en 2018. ¿Qué pasará si en dos años se inventa algo diferente que no conocemos aún? ¿O modelos que no requieran tanta capacidad computacional?
¿Por qué ha costado tanto sacar la ley adelante?
Las 37 horas de debate (22 ininterrumpidas) para llegar a un acuerdo del arranque de diciembre han marcado un récord. ¿Por qué ha sido tan dura la negociación? Por dos motivos principales:
Costó ponerse de acuerdo en la definición de modelos fundacionales. Los primeros borradores de la Ley no los incluían, pero la explosión de la IA generativa introdujo la necesidad de regular lo que se considera “riesgos sistémicos”, asociados a aquellos. Se utilizará como criterio la cantidad de recursos necesarios para entrenar a un modelo, algo similar a la Orden Ejecutiva de Biden de hace unos meses. Y el límite se pone en los famosos 10^25 FLOPS (más o menos de GPT 3.5 para arriba), a partir de los cuales se considerarán riesgos sistémicos. Y no tendrán que demostrar el cumplimiento de las obligaciones de transparencia si se facilitan gratuitamente y en código abierto. Los grandes perjudicados: GPT 4 y -probablemente- Gemini. No parece casualidad que la ley de Biden establezca el límite justo por arriba de GPT-4 y la Europea exima a Mistral (por ser open source). Los demás (Claude, Pi, Llama, etc) requieren menos capacidad computacional (por ahora) y no estarían obligados a explicar cómo entrenan sus modelos.
Otro punto conflictivo: Francia, Alemania e Italia argumentaban que la Ley podría ser demasiado severa con el sector y dañar el desarrollo de la IA (no casualmente, allí están Mistral y Aleph Alpha). Por eso, en lugar de la Ley, pedían establecer códigos de conducta voluntarios que más adelante podrían llegar a ser vinculantes, para permitir a las empresas europeas competir mejor internacionalmente. La Comisión finalmente no optó por esta opción, considerando que la regulación creará un entorno de competencia más equilibrado para todas las empresas.
Hay quienes apuntan a un tercer motivo: Francia, preocupada por el terrorismo y la organización de los JJOO de París 2024, presionó para que se introdujeran excepciones por motivos de seguridad a la prohibición inicial de utilizar imágenes para reconocimiento facial.
Los riesgos que intenta minimizar la ley.
La Ley establece un ranking de peligrosidad de las aplicaciones IA:
Riesgo mínimo: filtros de spam, recomendadores de contenido… Ninguna acción al respecto.
Riesgo alto: gestión de infraestructuras, control de fronteras, sistemas de categorización biométrica… Deberán cumplir con medidas de mitigación de riesgos, alta calidad de los conjuntos de datos, registro de la actividad, documentación detallada, información clara al usuario, supervisión humana y un alto nivel de solidez, precisión y ciberseguridad.
Riesgos inaceptables: aplicaciones que manipulan la voluntad, sistemas de scoring, vigilancia biométrica… Directamente estarán prohibidos, salvo excepciones justificadas por motivos de seguridad. O sea, que los estados sí podrán usarlo en determinados casos (con requerimiento judicial, imagino).
Una categoría aparte es la de “Riesgos específicos de transparencia” (riesgos limitados). Los usuarios deberán saber cuándo están hablando con una máquina. Y el contenido alterado con IA deberá ser claramente etiquetado (algo que ya están introduciendo en sus servicios de creación de imágenes Google y Meta, por ejemplo).
¿Qué se les exige a los modelos fundacionales?
Estos modelos quedan encuadrados en lo que se refiere como “general purpose AI models”. Para ellos habrá un seguimiento especial y se les exigirá:
Adherirse a criterios de transparencia durante toda la cadena de valor, lo cual anticipa un punto conflictivo: ¿tendrán que mostrar todos los datos que utilizan para entrenar los LLMs?
Cumplir con las leyes europeas de copyright, lo que puede traer otro lío, porque la ley actual no está exactamente preparada para regular el uso de datos en el entrenamiento de los modelos.
Los modelos de alto impacto con riesgos sistémicos deben someterse a evaluaciones, evaluar y mitigar riesgos e informar sobre incidentes y eficiencia energética.
Deberán operar siguiendo una serie de códigos definidos por la industria, la comunidad científica, la sociedad civil y otros stakeholders, bajo la supervisión de una futura Oficina Europea de la IA.
Consideraciones finales.
Puede que la importancia de esta ley se esté magnificando, de un lado y de otro. Los retos a los que nos enfrentamos con la IA son muchos, pero la posibilidad de regular algo tan amplio no es evidente. Y el esfuerzo regulatorio no ha acabado aún. Veo la ley como algo positivo, un intento de reflexión conjunta sobre estos retos, pero también como algo ingenuo. Algunas frases suenan a wishful thinking. Está bien como declaración de intenciones, pero una ley debería evitarlo. Además, regular en la UE no supone regular a nivel mundial, por mucho que aquí saquemos pecho. Y aunque se anuncien acuerdos para alinear internacionalmente la regulación, la geopolítica de la IA lo complicará todo.
En Nochebuena volveré a tu buzón por última vez en 2023, con una selección de lecturas recomendadas del año que termina. El 31 de diciembre no habrá edición de Rebel Intel, para no estresar las uvas. Quiero volver con fuerzas renovadas en 2024 y me ayudará que sigáis recomendando Rebel Intel, que le deis a “me gusta” (para ganar visibilidad en Substack) y que compartáis los artículos en LinkedIn.
Felices fiestas a todos,
Fernando.
El Foro IA lanzó hace una semana un informe sobre el futuro de la búsqueda: cómo la IA generativa impactará en las estrategias de SEO. Lo podéis consultar en PDF aquí.
Enlaces de interés para el profesional MCX.
Lecturas seleccionadas de la semana:
Soy fan de Benedict Evans y algunos lo habréis notado en este newsletter. Acaba de publicar su presentación anual en la que analiza grandes tendencias tech y ofrece claves precisas del año. La nueva se titula “AI and everything else”. BEN EVANS
Mistral es la startup IA de la semana. Fundada en Mayo 2023 en Francia, por investigadores ex Meta y DeepMind, acaba de levantar $415 mill en series A a valoración $2 bill. Y anuncia esta misma semana Mixture of Experts, un LLM open source de pequeño tamaño, que está a la altura de GPT-3.5 turbo, algo no conseguido hasta la fecha y que nos acerca a un sistema abierto que podría funcionar en dispositivos locales, con la implementación adecuada. La competencia de Llama 3 (Facebook) en 2024. A16Z el fondo liderado por Marc Andreessen ha entrado en la ronda de financiación y defiende su inversión diciendo: “AI should be open”. MISTRAL, TECHCRUNCH, A16Z
Hay artículos que expanden significativamente mi comprensión (siempre superficial) de cómo funciona la IA generativa. Este de Timothy B. Lee es uno de ellos y me ha ayudado a visualizar mejor a qué se puede parecer la construcción de la IA general (en la que los modelos de lenguaje podrían ser una parte). Las redes neuronales separan el proceso de entrenamiento del proceso de “razonamiento”, lo que les hace difícil aprender en tiempo real, que es como ocurre con los humanos. Y así no seremos capaces de construir algoritmos que puedan enfrentarse a problemas complejos. Fundamentado en varios papers de este año firmados por Google DeepMind y OpenAI, volveré a este enlace muchas veces. UNDERSTANDING AI
Entrevista en MIT Tech Review a Sundar Pichai, en la víspera del lanzamiento de Gemini. Muchas cosas interesantes. También sobre el futuro de la propiedad intelectual y la IA. Pichai espera que sea una lucha “contenciosa” pero que Google "trabajará duro para estar en el lado correcto de la ley y asegurarse de que también tenemos relaciones profundas con muchos proveedores de contenido hoy en día. Creando un ecosistema en el que todos ganen”. MIT Tech Review
WSJ calcula que SGE de Google podría provocar caídas del 20 al 40% en las visitas a los sitios de noticias. The Atlantic ha calculado que el 75% de las búsquedas en SGE son zero-clicks, con grandes repercusiones sobre el tráfico. WSJ (sin paywall)
Meta anunció varias nuevas funcionalidades de IA generativa para mejorar la experiencia en Facebook, Instagram, Messenger, and WhatsApp. Y evolucionan Meta AI, con un sitio para crear imágenes, que llevará una marca de agua, para incrementar la transparencia y trazabilidad de las imágenes creadas con IA (algo que también ha metido Google en su recién anunciado Imagen 2). META, IMAGINE.META, IMAGEN 2
IBM y Meta lanzan la AI Alliance en colaboración con más de 50 miembros fundadores y colaboradores de todo el mundo, como AMD, Anyscale, CERN, Cerebras, Cleveland Clinic, Cornell University, Dartmouth y Dell Technologies… Se centra en fomentar una comunidad abierta y permitir a desarrolladores e investigadores acelerar la innovación responsable en IA, garantizando el rigor científico, la confianza, la seguridad, la diversidad y la competitividad económica. Un lobby para conseguir que la regulación no termine haciéndoles a todos pasar por la caja de Microsoft / OpenAI y Google. IBM
Cómo la IA transformará los marketplaces: para los compradores, búsquedas simplificadas, pedidos a demanda, agentes que negocian por nosotros... Y del lado de los vendedores, automatización, gemelos virtuales... A16Z
Runway ML y Getty Images han creado un partnership para entrenar los modelos de creación de vídeo con las imágenes de Getty y poder hacer fine tuning para las marcas. DIGIDAY
¿Un futuro sin reporteros en el estudio? Channel 1, una cadena TV de noticias enteramente producida por IA generativa (avatares digitales y más). El vídeo de presentación ilustra a qué puede parecerse un futuro con más IA en las redacciones de los medios. Y en ese hilo, el informe de tendencias y futuro de este año de Schibsted está enteramente dedicado a la IA. CHANNEL 1, SCHIBSTED
Estoy de acuerdo con Carlos Hidalgo, los departamentos de marketing harían bien en centrar esfuerzos en usar la IA (generativa o no), para conocer mejor a sus clientes. Back to basics, ser capaz de capturar, combinar, analizar datos, para informar las estrategias de marketing. MARTECH
El otro día comentábamos en el Foro IA el incremento del uso fraudulento de deepfakes con celebrities en anuncios de inversión. Y que las plataformas no son capaces de parar. LINK
Un placer leerte Fernando y Feliz Navidad!