
L’industrie de la haute technologie et le nouveau budget américain
Publié le 30 juillet 2000 Mis à jour le 30 juillet 2000
Le Web prend de l’expansion si rapidement que les moteurs de recherche actuels couvrent seulement une fraction des pages existantes.
Par contre, quelques compagnies cherchent à développer un nouveau logiciel élaboré de recherche qui captera les montagnes d’information qui font partie de ce que l’on nomme le «Web invisible».
Mercredi dernier, BrightPlanet, une compagnie qui propose un logiciel de recherche avancé appelé LexiBot, a publié un rapport estimant que le Web est 500 fois plus gros que la partie couverte par les moteurs de recherche classiques comme Yahoo! et AltaVista. Bien que le Web comprenne environ 550 milliards de documents, selon BrightPlanet, les moteurs de recherche indexent un total combiné de un milliard de pages. Une des raisons pour lesquelles les moteurs ne peuvent traiter toutes les pages sur Internet réside dans le fait que, de plus en plus, les données sont stockées dans de puissantes bases de données gérées par les agences gouvernementales, les universités ou les entreprises.
L’information dynamique contenue dans les bases de données est difficile d’accès pour les moteurs de recherche traditionnels, ces derniers étant conçus pour repérer les pages statiques.
Accédez à des services exclusifs gratuitement
Inscrivez-vous et recevez des infolettres sur :
De plus, indexez vos ressources préférées dans vos propres dossiers et retrouvez votre historique de consultation.
M’abonner à l'infolettreSuperprof : la plateforme pour trouver les meilleurs professeurs particuliers en France (mais aussi en Belgique et en Suisse)
Effectuez une demande d'extrait d'acte de naissance en ligne !