Cuando gestionas un portal con cientos de miles de URLs, el thin content seo se convierte en uno de tus peores enemigos. He visto que muchos proyectos gigantes caen en picado porque Google detecta miles de páginas vacías o repetitivas que destruyen por completo la calidad del dominio. En mi experiencia con clientes, el problema casi nunca es que falte texto en sí, sino que la propia arquitectura genera basura indexable de forma automática sin que nadie se dé cuenta.
Casuísticas habituales de contenido pobre
A lo largo de mis más de 15 años de trayectoria, he identificado patrones técnicos que se repiten de forma constante en e-commerce y portales de clasificados. Uno de los mayores coladeros de contenido de baja calidad son los resultados de los buscadores internos. Si no bloqueas adecuadamente su rastreo, acabas con miles de URLs indexadas que muestran cero resultados. Esto destroza tu presupuesto de rastreo y genera un problema enorme frente a los ojos del buscador.
Otra trampa mortal son los listados sin stock. Imagina que tienes una categoría transaccional para pisos en Cuenca y vendes el único inmueble que tenías publicado. Esa página se queda totalmente vacía, pero sigue abierta a los robots. También me encuentro habitualmente con páginas generadas para imprimir que duplican la versión original, o paginaciones de comentarios y etiquetas que no aportan ningún valor real al usuario.
Mención especial merecen las landings locales duplicadas. Lo que mejor me ha funcionado para detectar esto es revisar los directorios creados masivamente donde la única variante es el nombre de la ciudad. Si tienes cien páginas con el mismo texto exacto y solo sustituyes Madrid por Alicante, tienes una bomba de relojería técnica.
Estrategias efectivas para solucionar el problema
No pongas parches rápidos. He visto a muchos equipos técnicos intentar usar un noindex dinámico que se activa y desactiva según el stock del producto. Eso es un error tremendo porque destrozas el histórico de esa URL frente a Google. Si una página tiene demanda orgánica y un historial de posicionamiento, debes mantenerla indexada siempre que sea posible.
Para solucionar estos retos técnicos de forma definitiva, aplico tres caminos principales en mis auditorías:
- Desindexar o bloquear el rastreo: Utiliza la etiqueta noindex o bloquea por el archivo robots.txt aquellas páginas que nunca debieron existir para Google. Aquí entran las versiones para imprimir y las búsquedas internas.
- Enriquecer el contenido: Si tienes listados que se han quedado sin productos temporalmente, rellena ese espacio. Una táctica excelente es mostrar anuncios o artículos relacionados en un radio cercano, por ejemplo a 25 kilómetros de distancia. Así logras mantener la URL viva y útil para la persona que navega.
- Reescribir textos: Para las landings locales o fichas de producto raquíticas, toca redactar. Olvídate de los textos automatizados que solo cambian una palabra y apuesta por dotar a cada página de un contexto semántico único.
El trabajo duro no termina al identificar el fallo. Tienes que coordinar con los desarrolladores para que las reglas de indexación sean flexibles y logren adaptarse a las necesidades reales de tu catálogo.
Preguntas frecuentes
¿Qué es exactamente el thin content seo en webs grandes?
Se refiere a la generación masiva de páginas sin valor, como listados sin stock o resultados de búsqueda interna vacíos. Estas URLs diluyen la autoridad del dominio y perjudican el rastreo de Google.
¿Debo usar un noindex dinámico cuando me quedo sin stock?
No te lo recomiendo en absoluto porque pierdes el histórico de la URL. Es mucho mejor mantener la página indexada y mostrar productos alternativos o de zonas cercanas.
¿Cómo soluciono el contenido duplicado en landings locales?
La mejor estrategia es reescribir y enriquecer el texto de cada página para darle un contexto único. Evita las plantillas automatizadas donde únicamente cambias el nombre de la ciudad.