Un llamamiento a más ciencia en SEO

Publicado: 2022-04-17
Contenido
Contenido

Probablemente ya lo hayas escuchado, pero para aquellos de ustedes que no siguen cada paso de Google, aquí hay un resumen:

A principios de agosto, hubo un aumento masivo en la fluctuación de los resultados de búsqueda en Google, en todo el mundo y en todos los idiomas. En los foros de webmasters y en los foros habituales de Black Hat, hubo especulaciones inmediatas sobre el lanzamiento de una actualización masiva no anunciada. Las fluctuaciones y los cambios dentro de las listas de resultados de búsqueda fueron tan grandes que varios de los principales portales de SEO en los EE. UU. informaron la mayor actualización de la historia.

De hecho, todas las herramientas de SEO y los verificadores de clasificación se vieron repentinamente afectados por cambios masivos en los resultados de búsqueda de Google. Los resultados de la búsqueda no solo cambiaron; dieron la vuelta, a veces con resultados absurdos ocupando los primeros puestos.

Puedes ver los efectos del error muy claramente en el índice de visibilidad diario:

Usando la excelente función de comparación SERP en la caja de herramientas SISTRIX, observé más de cerca los cambios dentro de las 20 principales de algunas palabras clave, cuyas clasificaciones he estado observando durante muchos años. He realizado docenas de análisis de los sitios web clasificados para estas palabras clave y, por lo general, sé relativamente bien por qué una URL se clasifica donde lo hace.

Si observa la comparación SERP para la palabra clave "optimización de Google" en el momento en cuestión, verá que los 20 primeros, con la excepción de una URL, cambiaron por completo. Lo que antes ocupaba el 1er lugar se movió al 8vo lugar, con las URL restantes surgiendo de la nada, es decir, desde fuera del top 20 hacia los primeros lugares.

Una actualización normal o un cambio de clasificación regular normalmente se parecería más a esto:

Muchas URL siguen siendo las mismas, mientras que algunas URL se mueven hacia arriba y otras se mueven hacia abajo. Por supuesto, a veces una URL desaparece del top 20 o se mueve hacia arriba. Sin embargo, es increíblemente raro que de 20 resultados, solo quede uno en el "nuevo" top 20; este fue el caso en todos los ámbitos, no solo para una palabra clave específica.

Dados estos cambios de gran alcance similares a las notorias actualizaciones fantasma, esperaría ver un ajuste en la intención del usuario asumida de una consulta de búsqueda, lo que luego conduciría a cambios fundamentales en la composición de las 20 principales para algunas palabras clave. En tal caso, sin embargo, los resultados de la búsqueda mejorarían, es decir, se volverían más relevantes y significativos, lo que obviamente no fue lo que ocurrió con esta falla.

La gran mayoría de los SEO se sorprendieron por los resultados de búsqueda obviamente absurdos y asumieron relativamente rápido que había un error, o al menos esperaban que fuera solo un problema temporal. ¡Sentí lo mismo, ya que algunos de mis sitios web perdieron por completo sus clasificaciones más importantes en el espacio de unas pocas horas!

Una sorpresa desagradable: ¡Fue solo un error!

Esa misma noche, un portavoz de Google confirmó que se trataba de un error que estaban solucionando. En pocas horas, todo volvió a la normalidad. John Muller confirmó a través de Twitter que el error se había solucionado, pero que aún no tenía todos los detalles:

Solo un día después, la cuenta oficial de Google Webmaster confirmó que los resultados de búsqueda se habían visto afectados por un aparente problema con el sistema de indexación.

Y aquí es donde la gente comenzó a especular sobre qué podría haber sucedido exactamente.

Gary Illyes trató de hacer las cosas un poco más concretas al describir lo que realmente hace el sistema de indexación, Caffeine. Según su tweet, ingiere fetchlogs, procesa y convierte los datos obtenidos, extrae enlaces, metadatos y datos estructurados, extrae y calcula algunas señales sin nombre, programa nuevos rastreos y crea el índice que se envía al servicio. Para que esto sea más fácil de entender, dio algunos ejemplos de lo que podría salir mal, lo que luego se reflejaría en resultados de búsqueda modificados:

“Si la programación de los rastreos sale mal, el rastreo puede ralentizarse. Si el renderizado sale mal, Google puede malinterpretar las páginas. Si la construcción del índice sale mal, la clasificación y el servicio pueden verse afectados”.

Luego enfatizó cuán compleja es la búsqueda y que miles de sistemas interconectados deben trabajar juntos sin problemas para brindar resultados relevantes a los usuarios. Si se echa un granito de arena en la maquinaria, el resultado sería un apagón como el de ayer.

Cuando un usuario de Twitter le preguntó, especificó que aparentemente había habido un error en la construcción del índice en sí:

Entonces, ¿dónde está el problema en todo esto?

El error en sí no me molestó, ya que solo fue cuestión de horas antes de que Google solucionara el problema. Sin embargo, algunos comentarios y publicaciones posteriores al respecto me hicieron enojar bastante.

Aunque Google había revelado el problema de forma relativamente transparente, algunos SEO intentaron encontrarle sentido al error por las buenas o por las malas y comenzaron a examinar los cambios para buscar patrones. Un empleado de una conocida agencia de SEO estadounidense, a quien no quiero exponer en este momento, comenzó a analizar los datos de Google Analytics de cada cliente actual y anterior e intentó sacar conclusiones sobre el motivo de los cambios de clasificación.

Considero que esto está cruzando la línea por varias razones, pero más sobre eso más adelante.

¿Qué descubrieron los empleados sobre la falla?

En el caso de las actualizaciones periódicas de Google, todas las subpáginas de un dominio normalmente se verían afectadas por el cambio, ya sea positivo o negativo. Este no fue el caso con la falla actual, porque mientras algunas subpáginas de un mismo dominio sufrieron pérdidas masivas, otras se beneficiaron y algunas apenas cambiaron, si es que lo hicieron.

Por lo tanto, su primera percepción fue que no se parecía a una actualización típica de Google. Hasta aquí todo bien.

Ahora se vuelve algo aventurero:

“Muchas páginas que subieron en la clasificación contenían información médica que contradecía el consenso científico. A modo de aclaración, se hace referencia aquí a las Directrices del evaluador de calidad de Google, que establecen que, al determinar el EAT de una página sobre temas científicos, debe ser creado por personas u organizaciones con experiencia en el campo respectivo y debe reflejar el consenso científico establecido. donde uno existe.”

Esta afirmación está "probada" por la observación de que algunos artículos médicos, que obviamente contradicen el estado de la ciencia y también tienen vínculos de retroceso malos o no naturales, de repente se clasificaron mucho mejor que antes y después del error.

Su teoría es que las páginas que deberían ser devaluadas debido a problemas de calidad en realidad se clasificaron bien. Por ejemplo, las páginas pirateadas, las páginas con enlaces no naturales o las páginas con afirmaciones que se desvían del consenso científico general habrían sido catapultadas a las primeras posiciones.

De esto, el autor deduce lo siguiente:

Si los rankings de una página mejoran, esto podría ser motivo de regocijo, o tal vez solo fue

una prueba para una futura actualización que salió mal. O podría ser una indicación de un problema de calidad con el sitio web, que limitó la clasificación de la página, pero que podría no haber jugado un papel en el momento del error.

Por otro lado, si una página ha bajado en la clasificación, esto podría significar que usted fue superado por páginas inferiores o spam, que una vez más están degradadas por los algoritmos de Google.

¡Ufz! ¿En serio? ¿De qué sirve esta información para mi trabajo diario de SEO?

¿Por qué no realizar tales análisis?

Aparte del hecho de que todavía tienen acceso y utilizan los datos de Google Analytics de antiguos clientes, veo un problema mucho mayor aquí con el enfoque del empleado:

El problema es que si buscas patrones sin una hipótesis, siempre encontrarás algo. Si luego toma ese resultado, sin más pruebas, como correcto, no tiene nada que ver con la ciencia.

Siempre hay patrones, a veces aleatorios, a veces causados ​​por uno o más factores. No puedes buscar patrones primero y luego idear una teoría para explicar lo que observas y, después de eso, tomarlo como una realidad. Así no es como funciona el conocimiento.

¡Realmente me gustaría ver que se utilicen más métodos científicos en SEO, por ejemplo, cuando se trata de hacer hipótesis y luego probarlas!

¿Qué es una hipótesis y cómo se formula correctamente?

Una hipótesis es una suposición razonable que se hace al comienzo de un estudio empírico. Esta suposición se analiza utilizando métodos cualitativos o cuantitativos y luego se confirma o se rebate.

Al hacer una hipótesis, se asume una correlación o ninguna correlación entre dos variables . Una variable independiente es la causa, la variable dependiente es el posible efecto.

Hay esencialmente dos tipos de hipótesis: dirigidas y no dirigidas.

Con una hipótesis no dirigida, simplemente asumes que existe alguna correlación entre dos variables. Por ejemplo, la cantidad de sitios web vinculados influye en la visibilidad de un dominio.

Con una hipótesis dirigida, en cambio, se evalúa la supuesta correlación. Por ejemplo: cuantos más backlinks tenga un artículo, mejor se posicionará.

Sin embargo, para poder hacer una hipótesis, se deben considerar los siguientes criterios:

  • Ambas variables utilizadas deben ser medibles.
  • Las hipótesis deben formularse de manera objetiva y concisa.
  • Si se formulan varias hipótesis, no deben contradecirse entre sí.
  • Y: Las suposiciones científicas deben poder ser refutadas.

Dado que la mayoría de las suposiciones en el campo del SEO no se pueden refutar mediante un experimento, no hay evidencia de la que hablar desde una perspectiva científica. Del mismo modo, no debe analizar los resultados de ninguna consulta de búsqueda para sacar conclusiones sobre los factores de clasificación utilizados.

La comprensión de que la correlación no es igual a la causalidad se ha aceptado afortunadamente en los últimos años. Los estudios sobre los factores de clasificación de cualquier proveedor de herramientas ya no son tomados en serio por ningún SEO experimentado hoy en día, lo que significa que cada vez se llevan a cabo y se publican menos.