Estamos presenciando una evolución sin precedentes en el SEO. Si bien en el pasado nuestro objetivo principal era optimizar contenidos y mejorar la accesibilidad para que los motores de búsqueda como Google pudieran encontrar y entender mejor nuestras páginas, productos o Ecommerce, hoy nos enfrentamos a un nuevo desafío: los Agentes de IA que pueden buscar y desarrollar documentos de forma 100% autónoma, o casi, sin intervención humana. En estos desarrollos pueden citar y sugerir contenidos de nuestras Webs, algunos ya están utilizando el concepto de GSO (Generative Search Optimization), para mi el SEO y seguirá siendo solo “SEO” ya que los LLM, depende de las bases previamente indexadas por Google (Gemini) o Bing (chatGPT y Copilot) y otras Organizaciones que se ocupan simplemente de Indexar Todo el contenido publico como Common Crawl o WebText2 asi como fuentes como Wikipedia o Reddit.
Debemos estar alertas para poder medir el trafico proveniente de los enlaces en los resultados de estos chats al momento de mencionar las fuentes o sugerirle al usuario links por ello es necesario saber ¿Como medir el Tráfico de ChatGPT?, mucho de este trafico si bien se puede enmascarara dentro de directo, muchos links no son ofuscados (con rel=”noopener noreferrer”) y podemos identificarlos como referral souce
Los Chats como Gemini, Perplexity y ChatGPT no navegan directamente por por Internet, sino que “analizan” contenido publico indexado por ejemplo por Common Crawl o Wikipedia según sus criterios se seguridad y sesgos, interpretan y procesan información de sus bases de conocimiento y para el caso resultados 100% orgánicos, redefiniendo la forma en que interactuamos con el contenido digital. En este contexto, surge el archivo llms.txt, una propuesta (que esta en discusión, en estos momentos) que tiene como objetivo facilitar y optimizar estas interacciones, permitiendo a los sitios web adaptarse a las necesidades específicas de esta nueva generación de navegantes artificiales.
Nota: llms.txt, es una propuesta desde la comunidad SEO que esta en discusión y no tiene confirmación de su impacto, Yo lo implemente en algunos proyectos como TEST. Y es importante que sepas que existe
Un Agente de Inteligencia Artificial es un sistema capaz de actuar de manera autónoma, “razonando” y adaptándose a su entorno para alcanzar objetivos. Su funcionamiento se basa en una arquitectura cognitiva que organiza sus procesos de observación, decisión y ejecución pudiendo ademas buscar información en internet, como parte de sus tareas autónomas, el archivo llms.txt, no es por el momento un estandar realmente adaptado pero no deja de ser un aliado para facilitar el entendimiento de nuestros contenidos como un Sitemap.xml
Leer más »SEO para LLMs: Guía llms.txt