Вторник, 24.10.2017, 06:12
  Ремонт принтеров • Ремонт копиров Ремонт МФУ • Заправка картриджей                                                           Приветствую Вас Гость | RSS
Меню сайта
Курсы валют на PROext
  

Категории каталога
Мои статьи [0]
Компьютеры,программы и интернет [12]
Немного о ПК + программы
Проблемы с офисной техникой [21]
Полезные советы и рекомендации
О выборе офисной техники [19]
Правильно выбрать офисную технику
Анимация [2]
Все про анимацию и смайлики
Из истории развития офисной техники [7]
Как это было
Из истории создания [12]
Как появилось и создавалось...
Ремонт офисной техники [16]
Советы по ремонту,ссылки и многое др.
Коды ошибок копировальных аппаратов,принтеров,МФУ [16]
Основные коды ошибок,сброс
Заправка картриджей [16]
Инструкции по заправке лазерных и струйных картриджей,а также, все о чернилах и тонере.
Чипы [7]
Все о чипах в принтерах,МФУ и копирах
Словарь терминов [13]

Главная » Статьи » Компьютеры,программы и интернет

Все о поисковых системах
  Поэтому очень важно иметь представление о том, как работают поисковые системы, как много страниц они "видят", и насколько актуальна предоставляемая ими информация.
  Каждая поисковая система состоит из двух частей - поискового HTTP-робота и модуля обработки запроса пользователя. HTTP-робот - это программа, которая собирает доступную в виде текста информацию. Вся собранная информация записывается в index-файл. Поиск осуществляется другой программой, которая извлекает запрашиваемую пользователем информацию из index-файла.
  Качество работы отдельно взятой поисковой системы сильно зависит от качества работы обоих программных модулей системы.
  Для того чтобы оценить работу HTTP-роботов различных поисковых систем, на одном из РУНЕТ'овских сайтов с объемом страниц выше среднего, была установлена специальная система отслеживающая все характерные для индексирующих роботов обращения.
  Ниже представлена таблица, составленная на основе показаний нашей системы в период с середины лета 2000 года по конец декабря 2000 года:
Поисковая система HTTP-Робот Глубина индексации Частота индексации
http://www.alltheweb.comFAST-WebCrawler127,04% раз в месяц
http://www.google.comGooglebot114,25% раз в три дня
http://www.inktomi.comSlurp100,9% ежедневно
http://www.yandex.ru Yandex 95,13% раз в два дня
http://www.northernlight.com Gulliver 64,74% раз в 24 дня
http://www.altavista.com Scooter/Mercator44,92% раз в три дня
http://www.lycos.com Lycos_Spider_(T-Rex)8,68% раз в неделю
http://www.webtop.com/ MuscatFerret 7,62% раз в месяц
http://www.aport.ru Aport 2,41% раз в неделю
http://www.euroseek.com Arachnoidea 1,82% один раз
http://www.rambler.ru StackRambler 0,27% раз в месяц
http://www.links2go.com/ Links2Go Similarity Engine 0,19% раз в месяц
http://www.excite.com ArchitextSpider 0,11%

раз в 17 дней

 
  Глубина индексации определена следующим образом. За 100% взята вся доступная на подопытном сайте текстовая информация. по ссылкам от головного файла. Значения выше 100% означают, что данный робот получил доступ к файлам не доступным по ссылкам с домашней страницы сайта или же закачал не текстовые, а мультимедийные или бинарные файлы, как это делает "FAST-WebCrawler".
  Частота индексации показывает, как часто HTTP-робот возвращается, чтобы отследить и зафиксировать изменения или обновления. произошедшие на отдельном сайте. Чаще всего HTTP-роботы запрашивают заглавный файл отдельного сайта. Исключением является робот системы NorthernLight - "Gulliver", который чаще обращался к файлам находящимся ниже заглавного документа.
  Многолетние наблюдения за индексирующими роботами выявили характерные особенности в их "поведении". Наиболее стабильным роботом себя показала система Lycos - "Lycos_Spider_(T-Rex)". Однако поисковая система Lycos дает поверхностный охват Интернета, несмотря на грозное название своего HTTP-робота.
  Относительно новые поисковые системы Google и AllTheWeb действительно дают нам возможность искать в Интернете, а не в какой-то его части. Робот системы AllTheWeb - "FAST-WebCrawler" замечен нами относительно недавно, однако по многим показателям он превосходит своих конкурентов. HTTP-робот системы Google - "Googlebot" замечен много раньше, да и сложно было бы его не заметить поскольку это один из самых активных роботов.
  Очень хорошо зарекомендовала себя система NorthernLight. Один из самых больших индекс-файлов Интернета, подкреплен отличным поисковым модулем с расширенным синтаксисом запросов.
  Робот корпорации Inktomi - "Slurp" используется несколькими поисковыми системами. Самая заметная из них http://www.hotbot.com/. "Slurp" - самый активный робот в Интернете.
  AltaVista. судя по всему. обладает самым грамотным программным обеспечением, однако уступает в мощности, например, системе Google. К сожалению, компания AltaVista закрыла свой, на наш взгляд, наиболее удачный поисковый проект http://www.raging.com.
  Поисковая система Яндекс по многим показателям зарекомендовала себя, как система мирового уровня. Яндекс действительно обладает конкурентно-способным программным обеспечением. Однако система "заточена" под кириллицу и индексирует преимущественно сайты в зоне RU. Поэтому мы относим Яндекс к системе третьего(локального) класса.
  Возможности поискового робота системы Rambler, значительно уступают возможностям HTTP-робота системы Яндекс. Однако Rambler активно использует информацию, введенную пользователями вручную через формы регистрации. За счет этого Rambler нередко выдает более актуальную информацию, чем Яндекс.
  На данный момент, наиболее распространены поисковые системы, использующие технологии трех компаний - "Fast Search & Transfer" (AllTheWeb), "Inktomi" и "Google".
  Наблюдается также интеграция технологий между разными поисковыми системами.
  HotBot использует симбиоз технологий Inktomi и DirectHit. DirectHit - технология, отслеживающая выбор пользователя для каждого конкретного запроса. Собранная таким образом информация влияет на позиции ссылок в результатах поиска.
  Lycos, помимо своих собственных технологий, частично использует технологии "Fast Search & Transfer".
  Подводя итог, особо отметим системы AltaVista, Google, Яндекс и MetaBot.Ru.
  По оценкам наших специалистов AltaVista на голову превосходит всех конкурентов по некоторым важнейшим показателям. Google, пожалуй, самая дружелюбная и понятная пользователю поисковая система. Недаром популярный каталог Yahoo использует технологию Google. Мы рекомендуем пользоваться также поисковой системой по серверам новостей - Google Groups. В группах новостей можно найти ответ практически на любой вопрос. Яндекс, по мнению как специалистов так и пользователей, наиболее мощная и грамотная российская поисковая система.
  Мета-поисковая система MetaBot.Ru, была создана нами по итогам масштабных исследований и призвана объединить лучшие качества лучших поисковых систем в единый поисковый проект с общим интерфейсом и общим синтаксисом запросов. Мы постарались минимизировать недостатки мета-поисковой технологии и максимально использовали ее преимущества.
По материалам статьи Константина Айги.
Источник: MetaBot.Ru


Категория: Компьютеры,программы и интернет | Добавил: avatar (29.08.2009)
Просмотров: 1330 | Рейтинг: 0.0/0 |
Форма входа

Поиск

Друзья сайта

Статистика


Copyright MyCorp © 2017