Google muestra respuestas a las consultas de los usuarios basándose en algoritmos matemáticos que asignan una puntuación a los sitios web en base a una multitud de factores. Con el paso de los años, estos algoritmos han ido aumentando su complejidad.
Aplicando conceptos de aprendizaje máquina como el razonamiento estadístico y el razonamiento inductivo a sus programas, los robots de Google pueden recoger sets de datos, analizarlos y así obtener determinados patrones de los que pueden aprender.
Partiendo de ejemplos proporcionados por los ingenieros de la compañía y de diferentes pruebas realizadas a lo largo del tiempo, Google puede determinar si un sitio web nuevo que acaba de indexar tiene contenido de calidad. Comparando la estructura de la página, el tipo de elementos que la forman y los formatos de contenido que incluye, así como otros parámetros como la velocidad de carga, con los ejemplos buenos y malos, clasifica automáticamente todo lo nuevo que encuentra.
Con estos sistemas de razonamiento basados en los datos procesados durante años, los robots pueden detectar que un patrón de enlaces entrantes hacia un sitio web es muy similar a otros, lo que indicaría de forma clara la participación en esquemas de compra-venta de links, llevando a una posible penalización de la web.
Gracias al aprendizaje de sus robots, Google ha podido implantar nuevos sistemas en su algoritmo de los que ya hemos hablado con anterioridad en Activa Internet. Los resultados relacionados, la detección de sinónimos o las búsquedas conversacionales son posibles gracias al análisis de las consultas de millones de usuarios en todo el mundo y la detección de patrones en ellas.
Imagen: RBGstock
By QDQ media
Muchas gracias, es muy interesante este artículo. Saludos.
Nos alegra que te sea de utilidad. Un saludo!