Skip to main content

Lo que le ha pasado a Reddit en cuestión de días es la mejor advertencia que podemos hacer hoy a cualquier empresa que vive del posicionamiento web: su contenido seguía ahí, sus usuarios seguían publicando… pero los modelos de IA dejaron de verla y Wall Street lo castigó con una caída del 15%. ¿La causa? Google retiró el parámetro que permitía a los sistemas (también a muchos LLM) ver muchas más páginas a la vez, pasando de 100 resultados por página a solo 10. Ese gesto técnico redujo lo que la IA podía “alcanzar” y Reddit cayó de cerca del 29% de citas en ChatGPT a apenas el 5%. (fuentes citadas en la sección de referencias)

Esto demuestra algo que en Addmira llevamos tiempo repitiendo y que ya explicamos en nuestros artículos sobre posicionamiento SEO para IA y sobre el archivo llms.txt: ya no basta con aparecer en Google, hay que ser visible para los modelos de IA. En este post vamos a usar la noticia de Reddit para explicar qué ha cambiado, por qué afecta también a una empresa pequeña y qué puedes hacer hoy mismo. Y si quieres que lo revisemos contigo, puedes dejarnos tu caso aquí.

posicionamiento SEO para IA

Qué ha pasado exactamente con Reddit (y por qué es tan grave)

En septiembre-octubre de 2025 las herramientas que monitorizan de dónde saca las citas ChatGPT detectaron una caída brutal de referencias a Reddit: de un 29,2% a un 5,3% en pocos días. Al mismo tiempo, la acción de Reddit cayó alrededor de un 15%. Ningún informe serio dijo “Reddit ha perdido usuarios”; lo que dijeron los analistas es: “la IA ha dejado de ver Reddit como antes”.

Lo más importante: Reddit no hizo nada malo. No borró contenido, no bloqueó el sitio, no cambió de CMS. Lo que cambió fue el acceso: Google retiró el viejo parámetro num=100 que dejaba ver 100 resultados por página y lo limitó a 10. Para un usuario humano es una molestia; para un sistema que intenta recuperar mucha información de golpe, es una pared. Menos resultados visibles = menos contenido que los LLM pueden usar de forma rápida. Y Reddit estaba muy presente en ese “tramo que desapareció”.

Por qué esto es importante para tu empresa

Te puedes preguntar: “yo no soy Reddit, ¿qué tiene que ver conmigo?”. Dos cosas:

  1. Demuestra que la visibilidad ya no es solo SEO clásico. Tú puedes tener tu contenido perfecto, pero si un intermediario (Google, un LLM, un agregador) reduce el alcance de lo que enseña, tu visibilidad baja sin que hayas tocado nada.
  2. Demuestra que el mercado ya valora la ‘visibilidad IA’ como un activo. Si la bolsa reacciona a una caída de citas en ChatGPT, ¿por qué no iba a reaccionar tu negocio cuando tus formularios reciban menos leads porque los usuarios ya no te ven en las respuestas de IA?

Si tu estrategia digital es “publico, posiciono y ya”, te falta una capa. Y esa capa es: ¿pueden los modelos de IA ver, entender y citar mi contenido?

Qué relación tiene esto con el posicionamiento web de toda la vida

No hemos tirado el SEO por la borda. Todo lo que dicen las guías top sobre estructura, velocidad, mobile, contenido útil y autoridad sigue siendo cierto. Google lo mantiene en su documentación y las guías clásicas de posicionamiento web siguen abriendo así: “qué es SEO”, “SEO on page”, “SEO off page”, “SEO técnico”.

La diferencia es que ahora hay una segunda capa de consumo de tu contenido. Antes era: Google → tu web → usuario. Ahora puede ser: Google → LLM → respuesta directa al usuario (sin que visite tu web). Y si tu contenido no está preparado para esa segunda capa, tu SEO rinde menos de lo que podría.

Por eso en nuestros artículos anteriores insistimos en:

  • Contenido bien marcado (H1, H2, H3, listas).
  • FAQs con preguntas completas.
  • Permitir el rastreo de lo que sí quieres que se vea.
    (Lo contamos paso a paso en el post del llms.txt).

La clave oculta de la noticia: dependencia de la “profundidad” de Google

Lo que casi nadie contó al principio es por qué un cambio tan pequeño en Google impactó tanto. El motivo está en la “profundidad” de resultados. Cuando Google dejó de permitir num=100, la mayoría de herramientas y sistemas que “se apoyan” en Google para ver la web de forma amplia pasaron a ver un 90% menos de resultados en esa tirada.

  • Reddit estaba muy presente en posiciones que no siempre eran el top 10.
  • Los LLM que tiran de ese tipo de indexación vieron menos Reddit.
  • El mercado interpretó: “Reddit es menos valioso para la IA”.
  • Resultado: caída de la acción.

Moraleja para tu web: si tú estás siempre en la “zona que nadie ve” (páginas 2, 3, 4), dependes mucho más de que los motores y los LLM puedan ver más resultados. Cuando esa profundidad se pierde, desapareces de su radar. Por eso es más importante que nunca empujar tus páginas hacia el top 10 para tus consultas críticas.

Si no sabes cuáles son tus consultas críticas, pídenos una auditoría rápida aquí.

El acuerdo de 60 M$ con Google no salvó a Reddit (y eso es lo inquietante)

Otra parte de la noticia es casi irónica: Reddit firmó con Google un acuerdo de unos 60 millones de dólares al año para licenciar su contenido para IA… y aun así una modificación de acceso lo dejó menos visible en las respuestas de un modelo.

Esto nos deja una enseñanza buenísima para un blog de una agencia SEO:

  • No basta con “dar tus datos” o “estar indexado”.
  • Tienes que asegurarte de que la forma en que sirves el contenido es cómoda para los sistemas que lo van a reutilizar.
  • Y tienes que asumir que hay decisiones externas que no controlas. Como con los updates de Google… pero ahora también con la capa de IA.

¿Cómo afecta esto a tu estrategia de contenidos?

Vamos a bajarlo a tierra. Para una empresa que quiere hacer posicionamiento web pero no quiere estar corriendo detrás de cada cambio de Google:

  1. Publica en abierto lo que quieres que la IA vea. Si lo pones en PDF cerrado, en intranet o detrás de un login, reduces las posibilidades.
  2. Estructura al máximo. Los modelos extraen mejor respuestas claras que párrafos eternos.
  3. Pon fecha y contexto. Hemos visto que en la noticia el factor “octubre 2025” es relevante; si tu contenido lleva fecha reciente, tienes más papeletas.
  4. Incluye FAQs con preguntas reales. Son las que más se parecen a las preguntas que la gente hace a ChatGPT.
  5. Evita bloquear por defecto en robots.txt lo que luego quieres que los LLM lean (esto lo explicamos en el artículo del llms.txt).
  6. Consigue menciones en sitios que sí están muy visibles: medios, blogs sectoriales, directorios limpios. Cuando la IA vea esos sitios, es más fácil que te coja a ti de rebote.

Y, sobre todo, no dejes huecos. Si mañana cambian otra vez cómo se ve la SERP, quien tenga contenido completo y fresco sufrirá menos.

Conectar SEO clásico con “visibilidad IA”: el puente práctico

Aquí es donde tu blog de empresa puede destacar frente a las guías genéricas. Tienes tres palancas:

  • SEO on page: optimiza títulos con tu keyword principal (“posicionamiento web”, “posicionamiento web para empresas”, “posicionamiento web para IA”).
  • SEO técnico: comprueba que el rastreo no esté limitado.
  • SEO IA: añade bloques pensados para ser citados (“Resumen”, “Puntos clave”, “Cómo hacerlo en 3 pasos”).

Ese tercer bloque es el que menos están trabajando los competidores y es el que más falta le hace ahora mismo al mercado, justo porque casos como el de Reddit han demostrado que la IA se puede quedar ciega de un día para otro.

Si quieres que te preparemos una plantilla de contenido ya adaptada a SEO + IA para tu sector, nos la puedes pedir aquí.

Conclusión

El caso Reddit es, probablemente, la primera gran “crisis de visibilidad IA” que hemos visto en tiempo real. No fue una penalización, no fue un escándalo de contenidos, no fue una migración mal hecha. Fue la prueba de que estamos construyendo negocio sobre capas que no controlamos: Google controla cuánto muestra; los LLM controlan qué citan; y las empresas controlan… solo su contenido. Cuando una de esas capas se mueve, los números tiemblan.

Para una empresa esto no tiene por qué ser una mala noticia. Al contrario: competir en “ser el más visible para la IA” no es cuestión de presupuesto infinito, sino de claridad, frescura y accesibilidad, cosas que una empresa pequeña puede hacer más rápido que una grande. Si empiezas a trabajar tus páginas clave con mentalidad SEO+IA, si revisas tu archivo de acceso y si te aseguras de que tus guías están actualizadas y bien estructuradas, estarás mucho mejor preparado para el próximo cambio.

Y si quieres que lo revisemos juntos, que montemos un calendario de contenidos adaptado a este nuevo contexto o que veamos si tu web está bloqueando sin querer a los LLM, aquí nos tienes.

FAQs

1. ¿Esto significa que el SEO ha muerto y que todo es IA?
No. Significa que ahora el SEO tiene una segunda audiencia: las máquinas que resumen tu contenido. Hay que escribir para personas, pero pensando en que otro sistema lo va a reutilizar.

2. ¿Puedo evitar que un cambio de Google me afecte como a Reddit?
Evitarlo del todo, no. Pero sí puedes reducir el impacto estando en el top 10 para tus palabras clave clave y facilitando el rastreo. Cuanto más arriba estés, menos te afecta que se pierda la “profundidad”.

3. ¿El archivo llms.txt sirve para esto?
Sirve para decirle a los LLM qué pueden y qué no pueden leer. No soluciona por sí solo la pérdida de profundidad de Google, pero sí te ayuda a controlar el acceso. Lo explicamos aquí: guía práctica sobre el archivo llms.txt.

4. ¿Debo actualizar mis artículos antiguos de posicionamiento web?
Sí, sobre todo los que reciben visitas o generan leads. Añade una nota del tipo “Actualizado tras el cambio de indexación de Google de 2025” y un apartado “cómo afecta esto a la IA”.

5. ¿Podéis hacerlo vosotros?
¡Claro! Nos pasas la URL y vemos qué habría que tocar: contenido, estructura, llms.txt o enlazado interno. Ponte en contacto.

Iván Anguita

Author Iván Anguita

More posts by Iván Anguita

¡Únete a nuestra newsletter!

Recibe consejos de marketing digital, tendencias en inteligencia artificial y herramientas que te ayudarán a ser más productivo. Únete hoy y mantente siempre un paso adelante.