Son los criterios encargados de clasificar, indexar y ordenar los millones de contenidos que a diario se publican en Internet. Su finalidad es poner orden al aparente caos de la red y determinar que sitios web son más útiles para el usuario. Deciden que relevancia tiene cada uno de los contenidos y le otorgan una mayor o menor visibilidad en las listas de resultados (SERP).
Los algoritmos analizan un gran número de variables: antigüedad del sitio web, enlaces entrantes y salientes, evalúan continuamente la calidad de los contenidos. Su misión es conseguir que los usuarios encuentren las mejores páginas trabajando con estándares de calidad y relevancia. Su inteligencia no es solo informática y algorítmica sino también semántica y lingüística, agrupan los resultados mediante sinónimos, sugerencias de búsqueda, palabras clave y funciones de autocompletado. Aprenden de lo que los internautas buscan a diario aplicando distintas actualizaciones y mejoras continuas con ayuda de miles de colaboradores. Es así como Google se ha convertido en el mayor prescriptor de la historia y la única empresa capaz de organizar la información que hay en el mundo, el mayor escaparate de la historia y motor ya utilizado por el 95% de los usuarios.
Google dispone de un amplio repertorio de criterios para evitar el SPAM, penaliza la compra de enlaces, filtra el contenido de calidad y margina el malware. Este buscador destaca aquellas páginas que cree que son las favoritas del usuario al entender que desde un terminal concreto se accede habitualmente a un sitio web. Existen URL’s que consiguen mayores clics y conversiones respecto a la keyword solicitada u otros que son incluidos en listas de sitios web maliciosos.
Google también penaliza a sites por usar malas prácticas, un ejemplo de ello son los link farmers (granjas de links), aquellos que usan contenido duplicado o el abuso repetido de palabras clave. Tener un sitio web alojado en uno u otro hosting o estar enlazado por sitios web penalizados también puede influir en la visibilidad y por tanto en la reputación de una marca.
La elaboración de contenido de calidad es uno de los grandes parámetros, atrae backlinks y visitantes de manera natural y estimula la puntuación final. A Google tampoco le gustan los contenidos muy cortos, breves o de mala calidad. Desde hace pocos años también se penaliza a las fake news, los perfiles ficticios, la compra de links o las interacciones artificiales. El buscador dispone de sofisticados sistemas para detectar patrones de contenido sospechoso basándose en análisis de enlaces, frecuencia de publicaciones y otros algoritmos cuya base se desconoce.
¿Por qué influyen en la reputación?
Porque determinan la prioridad que tienen unos contenidos respecto a otros condicionando en parte la imagen y reputación ante el usuario final. Google dificulta que un usuario pueda eliminar, borrar o manipular las búsquedas ya que aplica criterios de variedad.
¿Qué algoritmos de Google existen?
Algoritmo de tiempo
Se trata de un criterio que tiende a otorgar mayor relevancia a sitios web y dominios con mayor antigüedad. Se trata de un “retardo” de tiempo que ayuda a diferenciar sitios web de mayor confianza respecto aquellos que buscan crecer rápido.
Algoritmo de novedad
Puntúa en mayor medida a contenidos nuevos en detrimento de los antiguos. Es el ejemplo de noticias de actualidad, Google considera que un contenido reciente puede ser útil para el usuario que busca una palabra clave, por esa razón lo puede posicionar en portada para retirarlo tras unos días.
Algoritmo de singularidad
Mediante este “se premia” o destaca aquellos contenidos no duplicados en los que prima la singularidad y calidad del mismo. Ser único es vital en un mundo donde los algoritmos mandan y donde la cultura de la copia puede provocar que una página pierda escala en los rankings.
Algoritmos de utilidad
Google destaca aquellos contenidos capaces de otorgar información útil y práctica el usuario. Contestar a preguntas concretas, ser capaces de estructurar la información, ser concisos o eficaces al responder a problemas concretos.
Algoritmos de orientación geográfica
Muestran contenido relevante en función del municipio, país y/o región desde el cual se realiza la búsqueda. Por ejemplo, las noticias de un país concreto suelen aparecer más visibles desde el mismo territorio en comparación a si se buscan desde el extranjero.
Algoritmo de variedad
Google piensa que “en la variedad está la verdad” y por esa razón compone la visibilidad de una keyword en su portada respecto a una variedad de contenidos y formatos. Mediante este algoritmo se muestra una selección de videos, noticias, contenidos de texto y perfiles en redes sociales.
La elaboración de contenido de calidad es uno de los grandes parámetros, atrae backlinks y visitantes de manera natural y gana puntuación de cada a los resultados. Los contenidos muy cortos, breves o de mala calidad penalizan. A Google tampoco le gustan los contenidos repetidos o robados de otros sitios web. Desde hace pocos años también se penaliza a las fake news, los perfiles ficticios, la compra de links o las interacciones artificiales. Esta buscador dispone además de un sofisticado y avanzado sistema para detectar patrones de contenido sospechoso basándose en análisis de enlaces, frecuencia de publicaciones y decenas de parámetros cuya base se desconoce.