Especialistas en posicionamiento de paginas de web  contribuyeron con opiniones sobre la actualización principal de diciembre de 2020 de Google. Las observaciones ofrecen retroalimentación interesante sobre lo que pudo haber sucedido.

Las actualizaciones de Google se han centrado cada vez menos en factores de clasificación y más en mejorar la forma en que se entienden las consultas y las páginas web.

Algunos han opinado que Google está aleatorizando los resultados de búsqueda para engañar a quienes intentan aplicar ingeniería inversa al algoritmo de Google.

Ciertas características del algoritmo son difíciles de detectar en los resultados de búsqueda. No es fácil señalar un resultado de búsqueda y decir que está clasificando debido al algoritmo BERT o Neural Matching.

Pero es fácil señalar a los backlinks, E-A-T o la experiencia del usuario como razones para explicar por qué un sitio está clasificando o no clasificando si eso es lo que sobresale, incluso cuando la razón real podría estar más relacionada con BERT.

Por lo tanto, las páginas de resultados del motor de búsqueda (SERP) pueden parecer confusas y aleatorias para aquellos que están escudriñando las SERP en busca de factores de clasificación tradicionales de la vieja escuela para explicar por qué las páginas se clasifican o por qué perdieron clasificaciones en una actualización.

Por supuesto, las actualizaciones de Google pueden parecer inescrutables. Las razones por las que la clasificación de las páginas web ha cambiado drásticamente en los últimos años debido a tecnologías como el procesamiento del lenguaje natural.

¿Qué pasa si las actualizaciones de Google y nadie ve los cambios?

Ha sucedido en el pasado que Google ha cambiado algo y la comunidad de SEO no se dio cuenta.

Por ejemplo, cuando Google agregó un algoritmo como BERT, muchos no pudieron detectar qué había cambiado.

Ahora, ¿qué pasaría si Google agregara algo como el algoritmo SMITH? ¿Cómo detectaría eso la comunidad SEO?

SMITH se describe en un artículo de investigación de Google publicado en abril de 2020 y revisado en octubre de 2020. Lo que hace SMITH es facilitar la comprensión de una página larga de contenido, superando a BERT.

Esto es lo que dice:

“En los últimos años, los modelos basados en la auto-atención como Transformers y BERT han logrado un rendimiento de vanguardia en la tarea de coincidencia de texto.

Estos modelos, sin embargo, todavía están limitados a textos breves como unas pocas oraciones o un párrafo debido a la complejidad computacional cuadrática de la auto-atención con respecto a la longitud del texto de entrada.

En este documento, abordamos el problema proponiendo el codificador jerárquico (SMITH) basado en transformador de profundidad múltiple siamés para la comparación de documentos de formato largo.

Nuestros resultados experimentales en varios conjuntos de datos de referencia para la coincidencia de documentos de formato largo muestran que nuestro modelo SMITH propuesto supera a los modelos de vanguardia anteriores, incluida la atención jerárquica, la red neuronal recurrente jerárquica basada en la atención de múltiples profundidades y BERT.

En comparación con las líneas de base basadas en BERT, nuestro modelo puede aumentar la longitud máxima del texto de entrada de 512 a 2048 «.

Si Google agregara una nueva función basada en IA o actualizara una función existente como BERT, ¿la comunidad de marketing de búsqueda podría detectarla? Probablemente no.

Y es esa calidad de los cambios no observables lo que puede indicar que lo que ha cambiado podría tener algo que ver con la forma en que Google entiende las consultas web y las páginas web.

Si ese es el caso, entonces puede significar que en lugar de girar las ruedas en los factores de clasificación habituales que se observan fácilmente (enlaces de sitios de raspadores, velocidad del sitio, etc.), puede ser útil dar un paso atrás y considerar que puede ser algo más profundo que los factores de clasificación habituales que ha cambiado.

Información sobre la actualización principal de diciembre de 2020 de Google

Dave Davies
Beanstalk Internet Marketing

Dave pone esta actualización en el contexto de lo que Google ha dicho que llegará pronto al algoritmo y cómo eso podría jugar un papel en las fluctuaciones.

Dave dijo:

“La actualización principal de diciembre de 2020 fue única para observar su implementación. Muchos sitios con los que trabajamos comenzaron con pérdidas y terminaron con ganancias, y viceversa.

Así que claramente tuvo algo que ver con una señal o señales que caen en cascada. Es decir, donde el cambio provocó un resultado, pero una vez que ese nuevo cálculo se abrió paso en el sistema, produjo otro. Como recalcular PageRank, aunque este probablemente no tuvo nada que ver con PageRank.

Alternativamente, Google puede haber realizado ajustes sobre la marcha o realizado otros cambios durante el lanzamiento, pero creo que eso es menos probable.

Si pensamos en el tiempo y en cómo se relaciona con la implementación de la indexación de pasajes y que es una actualización principal, sospecho que se relaciona con los sistemas de interpretación de contenido y no con enlaces o señales en ese sentido.

También sabemos que Core Web Vitals ingresará al algoritmo en mayo de 2021, por lo que puede haber elementos para respaldar eso en la actualización, pero esos no producirían el impacto que todos hemos estado viendo actualmente dado que Web Vitals debería ser técnicamente inerte. como una señal en esta etapa, por lo menos, habría más en la actualización que eso.

En cuanto a la reacción general de la comunidad, esta ha sido difícil de medir más allá de «fue grande». Como se puede esperar en cualquier escenario de suma cero, cuando una persona se queja de una pérdida, otra sonríe hasta el final de las SERP.

Sospecho que antes de finales de enero quedará claro exactamente qué estaban implementando y por qué. Creo que tiene que ver con funciones y capacidades futuras, pero he estado presente el tiempo suficiente para saber que podría estar equivocado y necesito observar de cerca «.

¿Qué sucedió en la actualización principal de diciembre de 2020 de Google?

Las perspectivas sobre lo que sucedió en la actualización del algoritmo central de Google varían. Lo que la mayoría de los observadores parecen estar de acuerdo es que no parecen destacarse factores o cambios obvios.

Y esa es una observación interesante porque podría significar que se refinó o introdujo algo relacionado con la inteligencia artificial o el procesamiento del lenguaje natural. Pero eso es solo una especulación hasta que Google lo descarta explícitamente.

Hasta entonces, los resultados de búsquedas en el posicionamiento de paginas web pueden verse afectados.