Un grupo de investigadores ha publicado un estudio detallado sobre cómo se pueden influir los rankings de búsqueda en las inteligencias artificiales de forma sistemática. Los resultados muestran una tasa de éxito elevada en búsquedas de productos, una metodología que también se puede aplicar a sectores como el turismo o los servicios profesionales. Este enfoque, denominado CORE (Controlling Output Rankings in Generative Engines), propone una vía estructurada para mejorar el posicionamiento dentro de los modelos de lenguaje (LLM).
El experimento CORE y la optimización en buscadores generativos
El estudio se centró en probar la capacidad de manipulación de los resultados en modelos como Claude 4, Gemini 2.5, GPT-4o y Grok-3. Es fundamental entender que estas pruebas se realizaron mediante API y no a través de las interfaces de consumo habituales como ChatGPT o la versión web de Claude. Esto implica que factores de personalización o herramientas externas de búsqueda (RAG) no intervinieron en el proceso, permitiendo aislar el comportamiento puro del modelo ante los datos suministrados.
La relevancia de esta investigación radica en que demuestra que los LLM responden de manera predecible a cambios estratégicos en el texto. Al tratarse de un problema de "caja negra", donde el funcionamiento interno del modelo es opaco, los investigadores emplearon dos estrategias principales para realizar ingeniería inversa y determinar qué optimizaciones funcionan mejor.
Estrategia basada en consultas para el posicionamiento
Esta solución trata al modelo de IA como un sistema cerrado. El proceso consiste en modificar repetidamente el texto de un documento y observar cómo cambia su posición en el ranking tras cada ajuste. No se trata de editar el contenido existente, sino de realizar una expansión del mismo mediante dos tipos de generación:
- Generación basada en el razonamiento: Se añade lenguaje explicativo que detalla por qué un elemento satisface la consulta del usuario.
- Generación basada en reseñas: Se incluye contenido evaluativo con un tono similar al de una opinión de cliente.
- Iteración constante: El bucle de prueba y error continúa hasta alcanzar la posición deseada o el límite de intentos.
Los datos indican que esta técnica basada en consultas obtuvo una tasa de éxito de entre el 77% y el 82% para llevar un resultado a la primera posición. Es un cambio de paradigma que debéis considerar al planificar vuestra AI SEO y gestión del cambio en vuestros proyectos actuales.
El uso de Shadow Models como modelos espejo
La segunda estrategia consiste en utilizar un modelo local, denominado "shadow model" o modelo sustituto, que imita el comportamiento del modelo principal. Los investigadores entrenaron estos modelos espejo utilizando pares de entrada y salida del modelo real. Sorprendentemente, Llama-3.1-8B demostró ser un sustituto muy fiable para predecir cómo clasificaría los productos GPT-4o, con una calificación de similitud de 4,5 sobre 5.
Este hallazgo sugiere que no siempre es necesario realizar pruebas costosas en los modelos más grandes. Si una optimización funciona en un modelo más pequeño y accesible, es muy probable que tenga un efecto similar en el modelo de mayor capacidad. Esta metodología permite escalar las pruebas de contenido antes de su publicación definitiva.
Optimización basada en cadenas de texto
Se probó el uso de cadenas de caracteres (como una serie de signos de exclamación) que se ajustaban matemáticamente a través de miles de iteraciones. Aunque este método logró subir posiciones en un 33% de los casos, los evaluadores humanos detectaron la manipulación en el 98,5% de las ocasiones. Al ser contenido que parece basura o código sin sentido, no resulta una opción viable para sitios web profesionales que busquen mantener la confianza del usuario.
Optimización basada en el razonamiento lógico
Este enfoque busca alinear el texto con la estructura de razonamiento que suelen seguir los LLM. Los investigadores generaron borradores que comparaban el producto objetivo con sus alternativas, utilizando una lógica paso a paso. Aunque fue la estrategia con mayor éxito técnico, también tuvo una tasa de detección humana del 62,1% debido a su redacción extremadamente estructurada y, en ocasiones, poco natural para un lector humano.
Diferencias de preferencia entre GPT y Gemini
Uno de los puntos más interesantes del estudio es que cada modelo tiene sus propias "preferencias" de contenido. No existe una fórmula única para todos los buscadores generativos:
- GPT-4o y Claude 4: Reaccionan mejor ante contenidos que utilizan un razonamiento lógico y explicaciones detalladas.
- Gemini 2.5 y Grok-3: Priorizan los contenidos que incluyen reseñas y lenguaje evaluativo basado en la experiencia de uso.
Este comportamiento es similar a las variaciones que vemos en los motores tradicionales, como se analiza en el panel de rendimiento para IA de Bing Webmaster Tools. Entender estas diferencias es vital para decidir qué tipo de argumentos de venta o descripciones de producto debéis potenciar según el buscador que predomine en vuestro mercado objetivo.
Optimización basada en reseñas ficticias
La táctica más efectiva para engañar al sistema fue la creación de reseñas escritas en pasado, simulando una compra real. Estas reseñas incluían comparativas directas y un tono natural. En el caso de GPT-4o, esta estrategia logró que productos que estaban en la última posición subieran al top 5 en el 91% de los casos.
El contenido seguía un patrón específico: visión general del tipo de producto, explicación de características clave, detalles de modelos específicos y estrategias de compra. Aunque este patrón se acerca a las recomendaciones de Google sobre reseñas de productos, a menudo carecía de enlaces reales a tiendas o comparativas genuinas con datos técnicos contrastables.
Para implementar estas estrategias avanzadas y navegar en un entorno tecnológico que cambia cada semana, contar con un experto en posicionamiento web permite aplicar estos conocimientos de forma ética y duradera. La optimización para IA no debe comprometer la integridad de vuestro sitio ni arriesgarse a penalizaciones por contenido de baja calidad o artificial.
Conclusiones prácticas para vuestra estrategia SEO
Aunque estos experimentos se realizaron en entornos controlados, las lecciones son aplicables al mundo real. La expansión de contenido con datos explicativos y evaluativos es una señal positiva para los buscadores generativos. Además, el hecho de que existan directrices de búsqueda para el SEO generativo confirma que estamos ante una disciplina que requiere un análisis técnico profundo.
La clave reside en equilibrar la optimización para los algoritmos con la utilidad para el usuario final. Si el contenido es demasiado estructurado o parece artificial, podríais ganar visibilidad en la IA pero perder la conversión del cliente que aterriza en vuestra web.
¿Necesitas mejorar el posicionamiento de tu web?
Si quieres aplicar estas estrategias y obtener resultados reales, puedo ayudarte. Llevo años trabajando el SEO de empresas y proyectos digitales con un enfoque técnico y orientado a resultados.
Solicitar consulta SEO