quote: | Originally posted by Shito
C'est simple, google dispose de robots qui scannent le web. Chaque ordinateur, et donc en particulier chaque serveur qui héberge des pages webs, possède plusieurs adresses dont une IP unique sur le réseau.
Les robots de google scannent le réseau régulièrement, en parcourant une bonne partie des adresses possibles (avec évidemment des algos optimisés qui vont mettre des priorités supérieures aux adresses déjà visitées, aux plus gros hébergeurs etc). Et ensuite ils scannent l'ensemble des pages hébergées sur ces serveurs, en font une copie locale chez eux, analysent le contenu de la page et l'insèrent dans une base de données avec pour indexes l'ensemble des mots qu'elle contient.
On estime à environ 6 semaines le délai moyen qui sépare de scans de google sur un mm serveur. |
Merci pour ces informations, je comprend mieux maintenant
C'est impressionnant comment cela fonctionne, on arrête pas le progrès
___________________
Our futur remains possible!
|