Cambio de era en la búsqueda online.
Los grandes modelos de lenguaje cambiarán la forma en la que buscamos en Internet. El SEO como disciplina de marketing debe transformarse.
Esta semana hemos anunciado que Recúbica, liderada por el gran Ángel Barbero, se integra en Good Rebels. De esta manera, nuestra área de Strategy and Research se ve reforzada y seguimos desarrollando un rasgo diferencial de nuestro ADN: somos thinker-doers. Una verdadera consultora con capacidades estratégicas y una verdadera agencia de desarrollo creativo y digital. Un guiso difícil de cocinar y dos capacidades de los que muchos presumen pero pocos pueden demostrar bajo el mismo capó.
Varios proyectos de los que estamos ya cocinando conjuntamente incorporan la inteligencia artificial generativa como ingrediente estrella. Esperamos poder compartir aprendizajes pronto.
Conozco a Ángel desde hace años (casi dos décadas) y reconozco haber flirteado profesionalmente con él en ocasiones anteriores. Por eso nos hace especial ilusión haber sincronizado momentos vitales entre ambas organizaciones. ¡Bienvenido a la Rebelión, Ángel!
Cuando apareció ChatGPT, muchos apreciaron la primera amenaza seria al reinado del buscador de Google. Dos años después, no se ha movido mucho la aguja, pero si miras muy de cerca, algo se está moviendo y mucho. El cambio es lento, pero podría acelerarse en los próximos meses.
Son varias las señales que apuntan hacia allá. Empezando por el imparable ascenso de Perplexity: cuando heavy users, programadores y techies declaran que se ha convertido en su buscador de cabecera, los viejos del lugar no podemos evitar recordar cuando Google destronó “gradually, then suddenly” a jugadores como Yahoo y otros directorios a finales de los noventa. Por otro lado, el crecimiento de usuarios de ChatGPT es explosivo y la funcionalidad de búsqueda en la web que OpenAI ha añadido hace unas semanas no hará más que acelerar el cambio. La respuesta a la defensiva de Google, AI overview, no hará más que acostumbrar a los usuarios a la funcionalidad de búsqueda generativa. Y otros pequeños detalles que siguen haciendo sonar alertas tempranas: como la propuesta para introducir un fichero en las web llms.txt para facilitar el acceso a la información de los LLMs. O el anuncio de que OpenAI estaría considerando introducir un navegador para reforzar el ataque directo a Google.
Le hemos pedido a Ugo Smith, Director del área de Performance (SEM y SEO) en Good Rebels, que ha liderado varios estudios en los últimos meses sobre Google AI Overview y está coordinando un desarrollo tecnológico interno en la casa para medir la visibilidad de las marcas en los LLMs, que nos cuente su punto de vista sobre el movimiento de placas tectónicas en un servicio, el de la búsqueda online, que llevaba años estancado. Vamos a ello.
Si quieres escuchar (en español) el artículo de Ugo Smith este es el podcast que hemos creado con NotebookLM.
Un cambio de era en la búsqueda.
Ugo Smith,
Head of Performance
Good Rebels
Las últimas cuatro semanas han sido testigo de hitos significativos que, aunque ya estaban presentes, ahora son más visibles y reales que nunca. La llegada de SearchGPT marca un antes y un después, como ocurre con muchos de los lanzamientos de productos de OpenAI. Este avance subraya un cambio fundamental en cómo los usuarios interactúan con la información.
En este sentido, la integración de la inteligencia artificial en la búsqueda ha transformado de manera radical la experiencia de los usuarios. Los motores de búsqueda tradicionales están evolucionando rápidamente al incorporar capacidades de generación de contenido, mientras que surgen nuevas plataformas basadas en IA que desafían el statu quo, como Perplexity AI, You.com, Arc o Brave Search, que conectan modelos con datos de internet.
Un vistazo al pasado: El paralelismo con Microsoft define un futuro conocido.
En 2001, el caso antimonopolio de Microsoft vs. Estados Unidos marcó un precedente en el sector tecnológico. Microsoft fue acusada de usar su dominio del sistema operativo Windows para favorecer a Internet Explorer como navegador predeterminado, dificultando la competencia con Netscape Navigator. Este monopolio se sustentó en barreras como configuraciones por defecto que limitaban el uso de alternativas.
El resultado: la justicia impuso medidas para evitar prácticas anticompetitivas futuras, aunque Microsoft evitó ser dividida en dos empresas. Este caso reconfiguró el ecosistema digital, estableciendo un precedente para lo que hoy enfrentamos.
Esto nos lleva a el presente: el caso contra Google.
En 2024, el Departamento de Justicia de EE. UU. ha tomado medidas contra el dominio de Google en la búsqueda. Se busca obligar a Google a vender su navegador Chrome y, potencialmente, su sistema operativo Android. Además, el caso pretende acabar con los acuerdos que hacen que Google Search sea la opción predeterminada en muchos dispositivos.
El impacto económico ha sido inmediato: las acciones de Google cayeron más del 5% en un día. Este movimiento podría forzar un cambio en el ecosistema, similar al que experimentamos con el caso de Microsoft.
El futuro: ¿podría OpenAI ser el próximo gigante?
Brendan Eich, CEO de Brave Software, describe así la situación:
"OpenAI es un poco como Google en sus primeros días. Google no controlaba cómo la gente llegaba a sus servicios, y luego aprendieron que necesitaban Chrome y Android para construir una muralla. OpenAI está en una situación similar".
Si bien Microsoft no desapareció tras su caso, sí perdió dominio en áreas clave. ¿Seguirá OpenAI un camino similar en términos de auge y transformación y sustituirá a Google? Creemos que sí pero no del todo. Nos llevará a la inevitable fragmentación del ecosistema: dos maneras de buscar. El ecosistema de búsqueda se está dividiendo en dos sistemas complementarios pero distintos:
Búsqueda tradicional: basada en algoritmos, enlaces azules y un enfoque de optimización de palabras clave, y donde por primera vez vemos una capa de IA visible al usuario. Como hemos visto en Google en sus versiones no europeas con el despliegue de AI Overviews( antes conocido como Search Generative Experiences)
Búsqueda basada en LLMs (Modelos de Lenguaje Extensos): ofrecerá interfaces de lenguaje natural, respuestas detalladas y capacidad para manejar consultas complejas.
Aunque puede parecer difícil diferenciar entre ambos sistemas, cada usuario adapta su método según su conocimiento, lealtad a una plataforma o necesidad. Ambos modelos tienen ventajas y limitaciones propias, pero comparten una dependencia: ambos necesitan fuentes de contenido para ser útiles.
Antes el contenido (artículos, vídeos, podcasts) dominaba el ecosistema. Ahora es la información estructurada y el contexto lo que alimenta a los modelos de IA. Esta faceta la desarrolló más adelante porque hay un tecnicismo que separa las dos maneras de buscar.
El SEO ha evolucionado y está evolucionando. Ya no se trata solo de palabras clave y metadatos, sino de definir patrones y datos estructurados que los modelos puedan interpretar. El contenido ahora tiene una doble faceta: una cara visible para el consumo humano y una cara invisible que da sentido y forma al aprendizaje de la IA.
Es en la segunda cara donde hay que entender que el contenido ha de residir en algún lugar y ser visto por dichas máquinas. Es el cómo lo ven o lo rastrean lo que define o definirá quien lidera esta carrera y quien sustituye a quien.
Un matiz técnico: los retos en los avances de los LLMs.
Los LLMs se enfrentan a dos retos especialmente importantes que además los distinguen de los motores de búsqueda tradicionales, en particular destaca su lentitud y falta de capacidad para actualizarse y procesar nueva información en tiempo real.
A diferencia de los motores de búsqueda tradicionales, los LLMs no rastrean la web buscando documentos para actualizarse de forma continua. Google hace esto con un coste alto de recursos para crear lo que llaman su index, una especie de hemeroteca del Internet público.
En el caso de los LLMs su conocimiento permanece estático hasta que son re-entrenados, un proceso que consume tiempo e ingentes cantidades de dinero. Además, este re-entrenamiento puede tener efectos adversos:
Degradación del modelo: la precisión de un modelo puede disminuir tras ajustes específicos. Por ejemplo, en el caso de GPT-4, su capacidad para identificar números primos pasó del 97.6% en marzo al 2.4% en junio de 2023 debido a cambios en los parámetros
Efectos colaterales: mejorar aspectos como la velocidad de respuesta o las medidas de seguridad puede impactar negativamente en otras capacidades del modelo, en un fenómeno similar a las mutaciones inesperadas en la edición genética.
Problemas de memoria y eficiencia.
Un estudio por parte de Google introdujo DSI++, un marco de aprendizaje continuo diseñado para resolver problemas de olvido catastrófico, un fenómeno en el que los modelos pierden datos previamente indexados al incorporar nueva información. Los hallazgos clave del estudio resaltan que:
Existe pérdida de datos previamente memorizados durante el aprendizaje continuo.
Produce una sobrecarga computacional el tener que reentrenar modelos desde cero por cada actualización.
A partir de ahí en el estudio se desarrolla una técnica que mitiga el olvido catastrófico (Sharpness-Aware Minimization, SAM) y estabiliza el aprendizaje continuo. Sin embargo, aunque reduce los síntomas, no los elimina por completo. Los modelos siguen teniendo dificultades para manejar casos donde nuevos documentos contradicen datos previamente indexados.
Por último el problema de escalabilidad.
A medida que los LLMs crecen en complejidad y parámetros, los retornos en términos de rendimiento comienzan a disminuir. Las leyes de escalado de la IA usadas hasta la fecha sugieren que simplemente aumentar el tamaño de los modelos ya no es sostenible ni eficiente, lo que ha llevado a los laboratorios a explorar nuevas direcciones tecnológicas sin comprometer la calidad de los modelos actuales.
Una relación simbiótica entre motores y modelos.
A pesar de sus limitaciones, los LLMs y los motores de búsqueda tradicionales están desarrollando una relación simbiótica. Dicho de otra manera uno mejora al otro y el otro depende de sus capacidades de rastreo para dar respuestas.
Search4LLM (Motores de búsqueda al servicio de los LLMs):
Datos de entrenamiento: los motores proporcionan conjuntos de datos ricos y diversos para el preentrenamiento y ajuste fino de los LLMs.
Relevancia y contexto: algoritmos como "Learning-to-Rank (LTR)" priorizan documentos relevantes, mejorando la precisión de las respuestas generadas.
Actualizaciones en tiempo real: los motores mantienen los LLMs actualizados con información reciente, reduciendo errores como las alucinaciones.
LLM4Search (LLMs al servicio de los motores de búsqueda):
Optimización de consultas: los LLMs mejoran la formulación de consultas y las personalizan según el historial del usuario.
Clasificación y ranking: utilizan análisis semántico para ordenar los resultados, proporcionando respuestas más precisas y relevantes.
Generación enriquecida: combinan contenido de múltiples fuentes para ofrecer respuestas completas y contextuales, en lugar de solo enlaces.
La coexistencia de estos dos sistemas, uno tradicional y otro basado en IA, ofrece tanto oportunidades como retos a cualquier experto de MXC. Desde Good Rebels, basándonos en nuestra experimentación (AI Overview y SGE) y debates internos, vemos con optimismo una nueva curva de aprendizaje para la búsqueda, el SEO y la optimización. Sin embargo, este cambio exige una reestructuración en cómo medimos el éxito.
Los buscadores tradicionales y los modelos híbridos.
Los buscadores tradicionales seguirán presentes, especialmente en modelos híbridos que combinan algoritmos y funciones de IA. Google ya avanza en esta dirección. Tendremos que continuar rigiéndose por las reglas de posicionamiento que conocemos desde hace tiempo, poniendo énfasis en la autoría del contenido, las fuentes y los aspectos que Google ya indicó como claves en el EEAT (Expertise, Experience, Authority, Trust).
Además, debemos seguir siendo “indexables” y visibles para motores de búsqueda como Bing, Google, Yandex u otros.
La inmediatez como expectativa del usuario.
Los usuarios buscan respuestas inmediatas. Antes, los snippets y los primeros enlaces azules bastaban para resolver consultas simples. Ahora, el patrón podría repetirse con la IA: aceptaremos las respuestas generadas sin verificar, confiando en que el modelo no “alucine”. Este es el objetivo de herramientas como SearchGPT, Perplexity o AI Overviews, que están diseñadas para ofrecer información de terceros bien organizada y contextualizada.
La IA no eliminará la búsqueda tradicional, pero la transformará. Los creadores de contenido y especialistas en SEO deben adaptarse a esta dualidad del ecosistema. El éxito dependerá de generar contenido que funcione tanto para humanos como para modelos de lenguaje, priorizando datos estructurados, contexto y relevancia.
Nuevos conceptos de éxito en estrategias de contenido.
Quizás el éxito ya no se mida únicamente en clics o visitas, sino en otros indicadores que reflejen la capacidad de una estrategia de contenidos para captar la atención de los modelos de lenguaje extensos (LLMs). Algunos ejemplos incluyen:
Frecuencia de apariciones: cómo de seguido aparece una marca en las respuestas generadas por IA.
Número de menciones: la proporción de menciones de una marca en relación con otras dentro de una misma categoría.
Ya se habla del concepto de share of model, que mide la presencia de una marca en las respuestas de la IA frente al total de menciones de otras marcas en una categoría específica.
La importancia de los datos en el futuro del marketing.
Lo que los LLMs saben de una marca está contenido en los datos: los valores con los que se asocia (positivos o negativos), los detalles que la diferencian… Por eso, el desafío para el marketing es crear repositorios de datos y contenidos optimizados para este nuevo propósito.
El objetivo no será solo llegar a los usuarios finales, sino impactar en los modelos de IA, logrando que los datos de una marca sean relevantes y confiables para que estos influyan en las respuestas generadas.
Ugo Smith
Head of Performance
Good Rebels
El próximo domingo, volvemos a tu buzón.
Fernando.
Actualidad.
Mistral ha lanzado su LLM Pixtral Large, que ofrece -gratis- funcionalidades equiparables a las de ChatGPT Plus: genera textos e imágenes, analiza documentos (incluídas imágenes y gráficos), busca en la web, incluye agentes al estilo de los GPTs y hasta incorpora un editor tipo Canvas. Eso sí, la licencia de uso especifica que no puede usarse para fines comerciales, únicamente para investigación. VENTURE BEAT
Perplexity continúa diversificando su oferta y sus fuentes de ingresos. Ahora se adentra en el e-commerce ofreciendo a los usuarios Pro en EEUU productos recomendados entre los resultados de búsqueda, que se pueden comprar con un solo clic. TECH CRUNCH
Google Lens permite ahora obtener información cuando estamos dentro de una tienda. Hacemos una foto de un producto y la tecnología de reconocimiento de imágenes nos proporciona información, productos similares en stock, comparativas de precios y opiniones de compradores. La idea es proporcionar in-store toda la información necesaria para no salir con las manos vacías. GOOGLE
El canal de cable ESPN está probando FACTS, un avatar creado con IA generativa que se encargará de analizar y difundir la abundancia de datos que se genera en los partidos de fútbol americano. Según ESPN, FACTS no sustituirá a los periodistas ni a los locutores, sino que será una nueva forma de acercar a los aficionados la combinación de analítica y entretenimiento. THE VERGE
Construir robots equipados con IA, capaces de desenvolverse en actividades cotidianas, es el objetivo de Physical Intelligence (o π), una startup valorada en 2.000 millones de dólares. Los robots combinan LLMs y modelos de visión para comunicarse y reconocer su entorno. El gran desafío es comprender el entorno tridimensional para completar todo tipo de tareas. Lo están intentando entrenando a los robots con grandes cantidades de datos (por ejemplo, vídeos de YouTube) e imágenes generadas con IA. WIRED
La Oficina Europea de IA ha presentado el primer borrador de su Código de Buenas Prácticas para la IA (habrá otros tres hasta que se apruebe el documento definitivo, en abril de 2025). El código pretende establecer las normas sobre transparencia y derechos de autor que deberán seguir los proveedores de modelos de IA de uso general. OEIA
Reflexiones.
¿Por qué un gigante del calibre de Amazon no logra que Alexa se convierta en un asistente verdaderamente útil, capaz de mantener conversaciones relevantes, e incluso tiene dificultades para completar tareas sencillas? Más de una cuarta parte de los hogares estadounidenses posee al menos un dispositivo con Alexa, y aún así, no ha logrado convertirse en la máquina de hacer dinero que Amazon esperaba. Bloomberg explica la historia entre bambalinas de Alexa AI: exceso de burocracia, errores en la gestión, salida tardía al mercado, altos costes para mantener el sistema de preguntas y respuestas... Los ingenieros tras Alexa AI trabajan con un nuevo deadline: 2025. ¿Lo conseguirán? BLOOMBERG
Entre los elogios excesivos y los ataques venenosos, entre las utopías y las distopías, hay un punto intermedio que observa la evolución de la IA con sensatez y realismo. La IA, sostiene Daniel Jeffries, producirá cosas buenas y malas. Para conseguir más beneficios que perjuicios, lo que debemos hacer es preguntarnos qué tipo de políticas nos conducirán a usos menos negativos y más beneficiosos de la IA. (ensayo largo... TL;DR) LINK
Sólo el 15% de las empresas analizadas en una encuesta de IBM y The Harris Poll cuenta con verdaderos líderes IA. Para pasar de learner a líder es necesario invertir en las infraestructuras adecuadas, captar profesionales con habilidades digitales avanzadas, fomentar una cultura de innovación y adaptabilidad, colaborar con expertos en IA e implementar casos prácticos que muestren resultados tangibles. LINK
Cuatro horas de entrevista con Dario Amodei, el CEO de Anthropic, en el podcast de Lex Friedman. Yo aún estoy en un minuto de dos dígitos, pero seguiré escuchando. LEX FRIEDMAN PODCAST
MCX.
El uso de la IA está llevando a muchas agencias a replanterase su tradicional modelo de facturación por horas. Algunas pasan a un precio fijo por entregable o por resultados, al margen de las horas dedicadas. WSJ
Hailley Griffis, Directora de Comunicación en Buffer, explica cómo utiliza la IA a diario para mejorar su productividad y creatividad en tareas como la planificación estratégica, la edición de textos y la generación de ideas. Hailley adopta un enfoque colaborativo. Ve la IA como un socio que cuestiona y mejora su pensamiento. proporciona críticas constructivas, elimina fricciones y analiza resultados desde diferentes perspectivas. BUFFER
Coca Cola ha presentado su anuncio navideño Holidays are coming, una revisión del anuncio de 1995. Esta versión ha sido creada enteramente con IA por la agencia Silverside. Aunque no parece que haya gustado a todo el mundo (y no me extraña). GIZMODO
Se ha presentado Promise, con el respaldo financiero de Andreessen Horowitz y The North Road Company. Es un estudio que producirá series y películas utilizando IA generativa. Han anunciado que trabajarán con una nueva generación de talentos IA (que combinan las habilidades cinematográficas tradicionales con conocimientos de vanguardia), profesionales de Hollywood y titulares de derechos. En una carta abierta, los fundadores explican que la tecnología es el soporte central del proyecto, pero para crear historias de éxito seguirá siendo imprescindible el talento de los story tellers (escritores, actores, productores, directores, artistas de efectos visuales, etc). LINK
Después de que una encuesta revelara que el 71% de los británicos quiere vengarse de los estafadores telefónicos, el operador de telefonía móvil O2 ha desplegado Daisy, una herramienta de inteligencia artificial que mantiene a los defraudadores en línea para hacerles perder el tiempo. Lo metemos en este apartado porque creo que es una de las mejores campañas virales recientes. Todo el mundo habla de ello, y no es un anuncio tontín hecho con IA generativa. LINK
Los usuarios de eCommerce son optimistas respecto a la IA generativa: un estudio de Bain revela que cerca de la mitad de los encuestados ve gran potencial en estas nuevas herramientas. Los clientes valoran las funciones de IA generativa “pasiva”, como el resumen de reseñas integradas en su navegación, a veces incluso más de lo que valoran las funciones de IA generativa independientes. Los compradores online comprenden el potencial de personalización de la IA generativa y parecen más dispuestos a compartir datos personales que en otros contextos. En el eCommerce, la IA generativa puede ayudar a ofrecer un mejor servicio al cliente de forma más eficiente, especialmente en aquellos momentos de la navegación que han resultado más difíciles de alcanzar. BAIN
Como complemento a lo anterior, los probadores de ropa virtuales cada vez más cerca (esta vez, sí parece que esté realmente cerca, no dejéis de ver los vídeos demo del paper). LINK
Herramientas IA.
Fernando de la Rosa está preparando una guía de uso de ChatGPT. Yo no la perdería de vista. LINK
Vivid ha creado Victoria, una IA para ayudar como asistente web. Y organiza esta semana un webinar para demostrar cómo la IA de voz conversacional puede transformar nuestros negocios. LINK
Notebook LM es uno de los bombazos IA del año. Este artículo explica cómo sacarle el máximo partido a la hora de sintetizar información y generar conocimiento. También incluye consejos para mejorar la función Audio Overview. Yo uso un prompt específico para crear el podcast en español. LINK
Off Tópicos.
Microsoft y Atom Computing lanzarán un ordenador cuántico comercial en 2025. No es la primera vez que nos aseguran que la computación cuántica está a la vuelta de la esquina. Pero he decidido saltarme mis premisas de no introducir mucho ruido en este newsletter, porque la computación cuántica supondrá un salto “cuántico” (pun intended) en la digitalización del mundo. TECH CRUNCH