Категории
Самые читаемые
PochitayKnigi » Бизнес » Маркетинг, PR, реклама » Основы баннерной рекламы - Алексей Петюшкин

Основы баннерной рекламы - Алексей Петюшкин

Читать онлайн Основы баннерной рекламы - Алексей Петюшкин

Шрифт:

-
+

Интервал:

-
+

Закладка:

Сделать
1 ... 17 18 19 20 21 22 23 24 25 ... 115
Перейти на страницу:

За примерами далеко ходить не надо. Несколько лет назад один американский журналист зарегистрировал на себя домен mcdonalds.com с целью привлечения внимания общественности к проблеме регистрации доменных имен, практически любое из которых тогда можно было приобрести, имея в кармане порядка 100 долларов. Американская общественность обратила свое внимание на подобный шаг, а вместе с ней на журналиста и его новое доменное имя обратила внимание сама компания MacDonalds, которая предложила ему неплохую денежную компенсацию за отказ от зарегистрированного домена.

Весной 1997 г. другой американский гражданин зарегистрировал на себя несколько интересных доменных имен: encarta.com, visualbasic.com и др. Вам эти названия ничего не напоминают? Счастливчику из Штатов, отхватившему такой лакомый кусочек, теперь они ничего не напоминают, ибо он получил за их переуступку кругленькую сумму от Microsoft. Той же Microsoft пришлось еще раз раскошелиться для получения домена с простеньким именем microsoft-.com. Заметьте, насколько жизненно важен для корпорации Билла Гейтса оказался какой-то маленький, никому не заметный дефис!

Коротко о том, где можно зарегистрировать доменное имя для своего проекта. Раньше вопросом распределения доменных имен, причем в монопольном варианте, занимались Network Solutions в США и Российский научно-исследовательский институт развития общественных сетей (РосНИИРОС) в России. Только от них зависело, сможете вы получить необходимое доменное имя или нет. Чтобы зарегистрировать домен, нужно было оформить специальную заявку, в которой указать направления деятельности, цели и задачи вашей организации, а также аргументировать острую необходимость получения именно такого доменного наименования. В лучшем случае вы получали положительный ответ и, заплатив деньги, могли гордиться звучным названием. Худший вариант подразумевал попадание вашей заявки в так называемый «стоп-лист» – перечень доменных имен, которым было отказано в регистрации. Сейчас распределением доменов занимаются несколько компаний как у нас в стране, так и за рубежом. Вследствие чего цены на домены заметно упали, а процедура подачи заявки и требования к заказчику стали менее строгими.

Подготовка интернет-проекта к индексированию поисковыми системами

Как было сказано в предыдущей главе, регистрация интернет-проекта в поисковых системах и каталогах ресурсов является одним из наиболее эффективных способов привлечения посетителей. Однако второй метод в большинстве случаев зависит исключительно от того, как устроена процедура занесения информации о ресурсе в базу данных каталога, а подход к индексированию Web-документов поисковиками с полной уверенностью можно назвать индивидуальным и вполне предсказуемым. Регистрируясь в каталоге, пользователь вносит в установленные формы данные о сайте так, как он хочет. Однако далеко не всегда информация о ресурсе будет отображена впоследствии в каталоге в первозданном виде: многие подобные серверы по-своему редактируют описание ресурсов, руководствуясь при этом собственными доводами.

Поисковые системы, в отличие от встроенных в каталоги поисковых двигателей, ищут не в пределах определенной серверными настройками базы данных, а по всей сети, выводя страницы, находящиеся в их индексах. Этим занимаются так называемые поисковые роботы (spiders, wanderers, robots). При обращении к серверу робот проверяет наличие специального файла robots.txt в его корневой директории, в котором могут быть вручную установлены правила индексирования тех или иных документов узла. Однако не все роботы «умеют» читать указанную в этом файле информацию; часть из них не поддерживает специальный стандарт описания правил индексирования файлов Standard for Robot Exclusion. К сожалению, сегодня не все Web-мастера и координаторы интернет-проектов имеют представление об этом стандарте, к тому же не каждый системный администратор, настраивающий Web-сервер, придает применению правил описания для поисковых роботов должное внимание. Однако дальнейший разговор пойдет не о стандарте Standard for Robot Exclusion, что требует изучения специальных параметров описания правил и работы с Web-сервером, а о том, как правильно подготовить страницы своего интернет-проекта для индексирования поисковыми роботами.

Релевантность документов

Когда пользователь вводит в строке запроса поисковой системы какое-то слово или словосочетание, робот обращается ко всем проиндексированным страницам. Количество полученных результатов может достигать десятков и даже сотен тысяч. Робот выводит результаты по критерию наибольшего соответствия содержания документов запросу пользователя, который называется релевантностью. Другими словами, самые подходящие страницы будут размещены в начале результирующего списка. Рассмотрим факторы, которые влияют на релевантность ключевых слов.

Количество ключевых слов. Под количеством ключевых слов (keywords) подразумевается их частота присутствия в документе (не путать с указанием ключевых слов в мета-тегах, разговор о которых пойдет ниже). То есть страница, на которой робот обнаружит пятнадцать раз запрошенное пользователем слово, будет более релевантна, чем та, которая содержит это слово всего три раза. Этот фактор, как правило, зависит от тематики ресурса и профессиональной этики Web-мастера. Логично допустить, что если страница называется «Лучшие бесплатные программы для Unix», в ее тексте навряд ли можно встретить слова «эротика», «макияж» или «трубопровод». Зато «система» или «Unix» могут встретиться десятки раз. Но когда вопрос траффика перерастает в вопрос жизни или смерти, некоторые Web-мастера идут на неэтичный шаг: указывают в документе ключевые слова, совершенно не имеющие отношения к теме ресурса. Делается это обычно очень мелким шрифтом в самом низу страницы или цветом, совпадающим с задним фоном. Реже эти методы берут на вооружение люди, стремящиеся искусственным путем повысить релевантность своих документов: одно и то же ключевое слово указывается большое количество раз.

Густота (плотность) ключевых слов. Под густотой (плотностью) ключевых слов принято понимать степень отношения количества ключевых слов к остальным словам в пределах документа. Поисковые роботы считают более релевантной страницу с одним конкретным словосочетанием слов, нежели документ, в котором есть помимо этого словосочетания другие слова и фразы.

Расположение ключевых слов. Web-страница имеет ряд особых мест, поместив ключевые слова в которые, можно надеяться на более высокую релевантность в индексах поисковых систем. Прежде всего это самое начало документа: текст, содержащий ключевые слова в верхней части страницы, заметно повысит релевантность. Так же часто включают ключевые слова между парными тегами <title></title>. Многие допускают ошибку, загромождая заголовок ключевыми словами. Такой подход имеет, как минимум, три больших минуса: во-первых, исходный размер HTML-файла заметно увеличивается; во-вторых, при выдаче результатов поисковики выводят данные, указанные в заголовке (<titlex/title>), что делает название найденных документов малопривлекательными; в-третьих, пользователю будет довольно сложно положить закладку в своем браузере на страницу с таким длинным заголовком. Кроме этого, на релевантность документов влияет наличие выделенных фрагментов текста (теги форматирования <STRONG>, <B>, <EM>, <U>, <I>, <H1>, <H2> и др.) и внесение ключевых слов в комментарии, поле альтернативного текста <ALT> и мета-теги (о них речь пойдет позже). Комментарии обособляются символами <!– и –> и могут включать абсолютно любую информацию (она в окне браузера не отображается), например:

1 ... 17 18 19 20 21 22 23 24 25 ... 115
Перейти на страницу:
Тут вы можете бесплатно читать книгу Основы баннерной рекламы - Алексей Петюшкин.
Комментарии