Объем доступной для конкретного пользователя информации в Интернете во многом ограничивается возможностями поисковых систем. Поэтому очень важно иметь представление о том, как работают поисковые системы, как много страниц они "видят", и насколько актуальна предоставляемая ими информация.
Каждая поисковая система состоит из двух частей - поискового HTTP-робота и модуля обработки запроса пользователя. HTTP-робот - это программа, которая собирает доступную в виде текста информацию. Вся собранная информация записывается в index-файл. Поиск осуществляется другой программой, которая извлекает запрашиваемую пользователем информацию из index-файла.
Качество работы отдельно взятой поисковой системы сильно зависит от качества работы обоих программных модулей системы.
Для того чтобы оценить работу HTTP-роботов различных поисковых систем, на одном из Рунетовских сайтов с объемом страниц выше среднего, была установлена специальная система, отслеживающая все характерные для индексирующих роботов обращения.
Ниже представлена таблица, составленная на основе показаний нашей системы в период с середины лета 2000 года по конец декабря 2000 года:
|
Глубина индексации определена следующим образом. За 100% взята вся доступная на подопытном сайте текстовая информация по ссылкам от головного файла. Значения выше 100% означают, что данный робот получил доступ к файлам не доступным по ссылкам с домашней страницы сайта или же закачал не текстовые, а мультимедийные или бинарные файлы, как это делает "FAST-WebCrawler".
Частота индексации показывает, как часто HTTP-робот возвращается, чтобы отследить и зафиксировать изменения или обновления произошедшие на отдельном сайте. Чаще всего HTTP-роботы запрашивают заглавный файл отдельного сайта. Исключением является робот системы NorthernLight - "Gulliver", который чаще обращался к файлам находящимся ниже заглавного документа.
Многолетние наблюдения за индексирующими роботами выявили характерные особенности в их "поведении". Наиболее стабильным себя показал робот системы Lycos - "Lycos_Spider_(T-Rex)". Однако поисковая система Lycos дает весьма поверхностный охват Интернета, несмотря на грозное название своего HTTP-робота.
Относительно новые поисковые системы Google и AllTheWeb действительно дают нам возможность искать в Интернете, а не в какой-то его части. Робот системы AllTheWeb - "FAST-WebCrawler" замечен нами относительно недавно, однако по многим показателям он превосходит своих конкурентов. HTTP-робот системы Google - "Googlebot" замечен много раньше, да и сложно было бы его не заметить поскольку это один из самых активных роботов.
Очень хорошо зарекомендовала себя система NorthernLight. Один из самых больших индекс-файлов Интернета, подкреплен отличным поисковым модулем с расширенным синтаксисом запросов.
Робот корпорации Inktomi - "Slurp" используется несколькими поисковыми системами. Самая заметная из них http://www.hotbot.com/. "Slurp" - самый активный робот в Интернете.
AltaVista судя по всему обладает самым грамотным программным обеспечением, однако уступает в мощности, например, системе Google. К сожалению, компания AltaVista закрыла свой, на наш взгляд, наиболее удачный поисковый проект http://www.raging.com.
Поисковая система Яндекс по многим показателям зарекомендовала себя, как система мирового уровня. Яндекс действительно обладает конкурентоспособным программным обеспечением. Однако система "заточена" под кириллицу и индексирует преимущественно сайты в зоне RU. Поэтому мы относим Яндекс к системе третьего(локального) класса.
Возможности поискового робота системы Rambler, значительно уступают возможностям HTTP-робота системы Яндекс. Однако Rambler активно использует информацию, введенную пользователями вручную через формы регистрации. За счет этого Rambler нередко выдает более актуальную информацию, чем Яндекс.
Наша профессиональная оценка "ценности" поисковых систем приведена в следующей таблице:
|
В этой таблице мы представили результаты сравнения компонентов одной поисковой системы с компонентами другой. Три звездочки - высшая оценка, указывают на то, что в данном компоненте система ни в чем не уступает конкурентам. Две звездочки соответственно указывают, на относительное отставание системы в конкретном компоненте.
Синтаксисом системы мы называем возможности языка запросов поискового модуля системы. Оценивая этот важнейший компонент, мы учитывали также качество реализации заявленного системой синтаксиса запросов.
Корректность робота - параметр, указывающий на то, с какой интенсивностью HTTP-робот запрашивает документы отдельного сайта. Оценку в две звездочки мы поставили HTTP-роботам, которые могут вызывать загрузку сервера из-за слишком интенсивного обращения. Замечено, что роботы Rambler'а и Яндекс'а могут вызывать загрузку серверов. Справедливости ради стоит заметить, что тесты проводились на российских серверах, поэтому большая интенсивность обращений HTTP-роботов ведущих российских систем вполне оправдана.
Поисковые системы мы разделили на пять классов. К первому классу причислены системы с наибольшим объемом индекс файла, обеспечивающим наиболее обширный охват Интернета. Ко второму классу причислены системы индексирующие Интернет выборочно, т.е. прежде всего основные документы отдельно взятого сайта. К третьему классу причислены локальные системы, т.е. системы осуществляющие поиск в заданных рамках. Например, Яндекс - ограничивается Рунетом, а EuroSeek изначально ориентирован на индексирование европейской части Интернета. К четвертому классу мы причислили локальные системы, со схемой выборочной индексации, похожей на схему индексации систем второго класса. И, наконец, к пятому классу мы причислили тематические поисковые системы. Типичный пример системы пятого класса поисковая система Referat.cc.
Из зафиксированных, но не вошедших в таблицы поисковых роботов также отметим - DirectHit, http://tela.dux.ru/ (HTTP-робот MOMSpider) и http://www.fireball.de/ (HTTP-робот "KIT-Fireball").
Помимо упомянутых HTTP-роботов, в просторах Интернета замечено еще несколько десятков индексирующих и не индексирующих роботов. Хороший пример нетрадиционного использования собранной таким образом информации - http://www.findsame.com/ (HTTP-робот "DIIbot") - система, предназначенная для поиска сходных документов.
Подавляющее большинство не вошедших в наш обзор поисковых систем либо не имеют своего индексирующего робота, либо являются системами 2-го, 3-го, 4-го или 5-го класса.
Системы, не имеющие своего HTTP-робота, как правило, используют возможности других поисковых систем. Такие системы либо используют HTTP-роботы, описанные выше, либо являются мета-поисковыми системами.
Классическим вариантом мета-поисковой системы, является система MetaBot.Ru. Эта система одновременно опрашивает несколько ведущих поисковых систем и выдает пользователю компактный, предварительно отсортированный и тщательно проанализированный список результатов.
На данный момент, наиболее распространены поисковые системы, использующие технологии трех компаний - "Fast Search & Transfer" (AllTheWeb), "Inktomi" и "Google".
Наблюдается также интеграция технологий между разными поисковыми системами.
HotBot использует симбиоз технологий Inktomi и DirectHit. DirectHit - технология, отслеживающая выбор пользователя для каждого конкретного запроса. Собранная таким образом информация влияет на позиции ссылок в результатах поиска.
Lycos, помимо своих собственных технологий, частично использует технологии "Fast Search & Transfer".
Подводя итог, особо отметим системы AltaVista, Google, Яндекс и MetaBot.Ru.
По оценкам наших специалистов AltaVista на голову превосходит всех конкурентов по некоторым важнейшим показателям. Google, пожалуй, самая дружелюбная и понятная пользователю поисковая система. Недаром популярный каталог Yahoo использует технологию Google. Мы рекомендуем пользоваться также поисковой системой по серверам новостей - Google Groups. В группах новостей можно найти ответ практически на любой вопрос. Яндекс, по мнению как специалистов так и пользователей, наиболее мощная и грамотная российская поисковая система.
Мета-поисковая система MetaBot.Ru, была создана нами по итогам масштабных исследований и призвана объединить лучшие качества лучших поисковых систем в единый поисковый проект с общим интерфейсом и общим синтаксисом запросов. Мы постарались минимизировать недостатки мета-поисковой технологии и максимально использовали ее преимущества.
Автор статьи Константин Айги.
Altavista | Excite | HotBot | InfoSeek | Lycos | OpenText | WebCrawler | |
Тип | Полнотекстовая | Полнотекстовая | Полнотекстовая | Полнотекстовая | Абстрактная | Полнотекстовая | Полнотекстовая |
Размер | 30 миллионов | 55 миллионов | 54 миллиона | 20-50 миллионов | 20-25 миллионов | 5 миллионов | 2 миллиона |
Период обновления | от 1 дня до 3 месяцев | 1 - 3 недели | не позднее 3 недель | от минут до месяца | ещемесячное обновление | 1 - 4 недели | еженедельное обновление |
Дата индексирования документа | Да | Нет | Да | Нет | Нет | Нет | Нет |
Указанные (submitted) страницы | 1 день | 1 неделя | 3 недели | 1 месяц | 1 месяц | 2 - 4 недели | 2 - 4 недели |
Неуказанные (non-submitted) страницы | 1 - 3 месяца | 3 недели | 3 недели | 1 месяц | 1 месяц | 2 4 недели | 2 4 недели |
Глубина индексирования | Не ограничена | Не ограничена | Не ограничена | Не ограничена | Не ограничена | Ограничена популярностью того или иного сервера | |
Поддержка фреймов | Нет | Да | Нет | Да | Да | Нет | Нет |
Поддержка ImageMap | Да | Нет | Нет | Да | Да | Нет | Да |
Защищенные паролями директории и сервера | Нет | Да | Нет | Да | Да | Нет | Нет |
Частота появления ссылок | Нет | Нет | Да | Нет | Да | Нет | Да |
"Обучаемость" | Да | Нет | Да | Да | Нет | Нет | Нет |
Контроль индексации | robots.txt | robots.txt (в будущем и метаданные) | И то, и другое | robots.txt | robots.txt | robots.txt | И то, и другое |
Перенаправление (redirect) | Поддерживает | Поддерживает | Поддерживает | ||||
Стоп-слова | Да | Да | Да | Нет | Да | Нет | Нет |
Влияние на алгоритм определения релевантности | Нет | Ключевые слова в метаданных | Нет | Нет | Нет | Частота появления ссылок | |
Spam-штрафы | Да | Да | Да | Да | Да | Да | Да |
Поддержка META-тагов | Да | Нет | Да | Да | Да | Нет | Только NOINDEX таг |
Title | Заголовок страницы или No Title | Заголовок страницы или Untitled | Заголовок страницы или URL | Заголовок страницы или первая строка документа | Заголовок страницы или первая строка документа | Первые 100 символов из документа | Заголовок страницы или URL |
Description | Метатаг или первые несколько строк из документа | Формируется из наиболее релевантных к запросу фраз документа | Метатаг или первые несколько строк документа | Метатаг или первые 200 символов после тага <body> | Метатаг или экстакт из содержимого страницы | Первые 100 символов документа | Создается из содержания; обещается поддержка метатагов в будущем |
Проверка статуса URL | Да | Нет | Нет | Нет | Да | Нет | Да |
Удаление старых данных | Удалить содержимое и указать новый адрес | Удалить содержимое или переписать robots.txt | Переписать robots.txt | Удалить содержимое и указать новый адрес или переписать robots.txt | |||
Имя поискового робота (Spider User Agent) | Scooter | Architext Spider | Slurp the Web Hound | Side winder | T-rex | Spider |
yandex.ru 290000 (мнение о себе, любимом, завышено раз в 7) google.com 98000 google.ru 51000 yahoo.com 18000 altavista.com 4000 infoseek.com 4000 lycos.com 2600 alexa.com 1300 google.kz 800 сервер корпорации Google, ... bourabai.kz 160 К. Хайдаров (Боровское исследовательское учреждение) kaz.kz 150 Витя Покусов, Кокшетау ("крутой Казахстанский поисковик") dku.kz 100 DKU (Казахстанско-немецкий университет) zerde.gov.kz 40 АО Национальный инфокоммуникационный холдинг "Зерде" egov.kz 0 Электронное правительство Казахстана
Когда тот или иной физик использует понятие "физический вакуум", он либо не понимает абсурдности этого термина, либо лукавит, являясь скрытым или явным приверженцем релятивистской идеологии.
Понять абсурдность этого понятия легче всего обратившись к истокам его возникновения. Рождено оно было Полем Дираком в 1930-х, когда стало ясно, что отрицание эфира в чистом виде, как это делал великий математик, но посредственный физик Анри Пуанкаре, уже нельзя. Слишком много фактов противоречит этому.
Для защиты релятивизма Поль Дирак ввел афизическое и алогичное понятие отрицательной энергии, а затем и существование "моря" двух компенсирующих друг друга энергий в вакууме - положительной и отрицательной, а также "моря" компенсирующих друг друга частиц - виртуальных (то есть кажущихся) электронов и позитронов в вакууме.
Однако такая постановка является внутренне противоречивой (виртуальные частицы ненаблюдаемы и их по произволу можно считать в одном случае отсутствующими, а в другом - присутствующими) и противоречащей релятивизму (то есть отрицанию эфира, так как при наличии таких частиц в вакууме релятивизм уже просто невозможен). Подробнее читайте в FAQ по эфирной физике.