WPP ha anunciado una colaboración exclusiva con NVIDIA: “El nuevo motor conecta un ecosistema de herramientas de diseño 3D, fabricación y cadena de suministro, incluidas las de Adobe y Getty Images, lo que permite a los artistas y diseñadores de WPP integrar la creación de contenidos 3D con la IA generativa.” Más allá de la nota de prensa, apunta adonde van los tiros. Tiene foco en diseño 3D y metaverso (NVIDIA Omniverse), pero el boom de herramientas potenciadas con IA lo están aprovechando ya todos los diseñadores y creadores de contenidos. Photoshop acaba de integrar en Beta una funcionalidad conocida como “outpainting”, que rellena áreas que no se encuentran en la imagen o ilustración original con instrucciones tipo “prompt”. Luego explico un ejemplo sencillo de aplicación ocurrido esta semana en Good Rebels. “Milagro, milagro” … parecía oírse por los recodos de las videoconferencias.
¿Por qué tanta NVIDIA?
NVIDIA ha sido uno de los grandes protagonistas de la semana. La valoración se ha disparado por encima del trillón (americano) de dólares y tras varios anuncios relativos a su inversión en IA (The Guardian), su presidente dio una charla (Twitter + YouTube) a la Steve Jobs. Todo eso en la misma semana en la que WSJ dice que la escasez de chips tipo GPU pone en riesgo la expansión de los LLMs (modelos grandes de lenguaje à la GPT). Para compensar, parece que el nuevo chip de Intel diseñado para redes neuronales arroja resultados prometedores.
Si tenéis interés en saber por qué unos chips diseñados para procesar gráficos se han convertido en el ingrediente secreto de las redes neuronales, este artículo lo explica con detalle (post). Resumiendo, los chips tradicionales están pensados para operar con precisión (octava posición decimal correcta después de muchas operaciones a velocidad de la luz), lo cual ralentiza la velocidad de computación. Jeff Hinton convenció a Li Deng en 2009 en Microsoft para usar GPUs (los chips de Nvidia) para operar redes neuronales que reconocimiento de voz. Estos chips son más rápidos (mucho, mucho más rápidos) en la operación de redes porque cada nodo necesita un resultado menos exacto (sin decimales) y puede procesar varias operaciones a la vez.
Arrancaba diciendo que la integración de “outpainting” parece magia y que abre millones de posibilidades (hilo en Twitter). Esta semana tuvimos un “shooting”, y al cabo de un par de días nos dimos cuenta de que habíamos tomado sólo en horizontal, una una fotografía de una escena clave que tenía que protagonizar stories y formatos verticales en redes sociales. Antes de la AI, habríamos articulado alguna “ñapa”. Esta semana, la imagen se rellenó automáticamente hacia arriba y hacia abajo (zapatillas, azulejos, techos, luces) con un simple comando escrito en Photoshop. ¡Magia!
La semana que viene vuelvo a tu buzón.
Fernando.
¿Con ganas de más?
Enlaces que he explorado y me han parecido relevantes:
Esta semana se publicaba el capítulo final de la primera temporada de Possible, podcast imprescindible sobre reflexiones IA y tech de Reid Hoffman. Recomiendo el capítulo sobre “Future of Entertainment and AI” - link
Animación con MidJourney, Gen-1 y After Effects - link
Hushl es una plataforma creativa de inteligencia artificial que ayuda a empresarios, autónomos y profesionales a crear contenidos que impulsen el crecimiento orgánico en LinkedIn.
Día 1. Parece que los medios cubren de manera un tanto alarmista las noticias sobre ChatGPT - link
Día 2. Ahí llega el NYT cubriendo el “riesgo de extinción” del que alertan “algunos thinkers” y protagonistas de la nueva ola IA - link