Искусство продвижения сайта. Полный курс SEO: от идеи до первых клиентов

Автор: Никита Мелькин
                     

Серия книг:

Жанр: интернет,интернет-маркетинг

Издатель: Инфра-Инженерия

Дата выхода: 2017

Возрастное ограничение: 0+

Тип: книга

ISBN: 978-5-9729-0139-5

Цена: 450 Руб




В книге рассмотрен весь спектр вопросов по продвижению сайтов: подбор ключевых слов,написание оптимальных продающих текстов,увеличение ссылочной популярности и многое другое.Затронуты также и узкоспециальные темы,такие как фильтры поисковых систем,продвижение с региональной спецификой и т.д.Читателя последовательно проводят от стартовых шагов по созданию сайта до получения результата-первых клиентов.Книга написана живым,интересным языком,весь материал сопровождается реальными примерами из практики.!



Искусство продвижения сайта. Полный курс SEO: от идеи до первых клиентов
Клим Сергеевич Горяев
Никита Владимирович Мелькин
В книге рассмотрен весь спектр вопросов по продвижению сайтов: подбор ключевых слов, написание оптимальных продающих текстов, увеличение ссылочной популярности и многое другое. Затронуты также и узкоспециальные темы, такие как фильтры поисковых систем, продвижение с региональной спецификой и т.д. Читателя последовательно проводят от стартовых шагов по созданию сайта до получения результата – первых клиентов. Книга написана живым, интересным языком, весь материал сопровождается реальными примерами из практики.
Клим Горяев, Никита Мелькин
Искусство продвижения сайта. Полный курс SEO: от идеи до первых клиентов
«Эту книгу я посвящаю
моей жене Оде и дочкам Кате и Лизе,
которые дарят мне вдохновение и силы двигаться вперед»
    Никита Мелькин 
Введение
Отмечу, что книга написана от первого лица – т. е. почти все речевые конструкции начинаются в стиле «я написал», «я подумал» и т. д. Почему так, если авторов двое? С Климом я познакомился достаточно банально – заказывал консультации по продвижению собственных проектов. Из уст «автора» прозвучит, возможно, странно, но я считаю что взгляд «профессионала со стороны» никогда лишним не бывает.
На основе моего опыта и его замечаний данной книги в 2013 году была создана версия книги в электронном виде, где был один автор. За прошедшие три года мир SEO претерпел множество довольно значительных изменений. И хотя книга в целом сохранил свою актуальность, но внесение свежих поправок от активно практикующего специалиста просто необходимо. И тогда возникла идея о издании «бумажной» версии, снова пригласил поработать Клима – но теперь уже в качестве соавтора. Совместно начали поиски издательства, вели переговоры и переписку с представителями различных организаций, изучали и анализировали отзывы других авторов. В итоге, выбрали издательство «Инфра-Инженерия», как наиболее оптимальный вариант по всем параметрам.
Для кого предназначен данный учебник?
Начнем с главного. Вы сделали правильный выбор, если:
– у Вас есть сайт, но нет понимания, как получить на него посетителей из поисковых систем;
– есть желание и возможность учиться, но нет необходимых средств, чтобы отдать сайт на продвижение seo-компании;
– Вы владелец бизнеса и заказали раскрутку сайта у специалистов, но хотите в общих чертах понимать и контролировать процесс;
– шеф сказал вам: «Вася, ты у нас главный АйТишник в фирме, займись-ка сайтом», при этом не уточнив, что именно от вас требуется;
Прежде всего, я хочу сказать, что SEO – как и любая другая сфера деятельности, требует определенных знаний и навыков. В то же время здесь нет никакого «тайного знания» или сверхсложных для понимания вещей. Все можно освоить самостоятельно.
Чтобы стать врачом – нужно несколько лет учиться, чтобы стать программистом или математиком – изучить множество совсем нелегких для понимания книг. А вот открыть продуктовый магазин можно и без высшего образования по менеджменту, маркетингу, юриспруденции и бухгалтерскому учету.
Так и с продвижением сайтов. Да, учиться нужно – но приобретаемые знания понятны на интуитивном, бытовом уровне и не требуют долгих лет предварительной подготовки. После прочтения этой книги у вас будет вполне достаточно умений, чтобы самостоятельно заняться раскруткой своего проекта.
О книге. Точка зрения оптимизатора, работающего на заказ, довольно существенно отличается от точки зрения человека, продвигающего свой собственный проект. Хотя бы потому, что оптимизатор тратит чужие деньги, а вебмастер свои. Кроме того, иной раз недостаток профессиональных знаний с лихвой компенсируется подходом к раскрутке ресурса – свой проект человек любит и вкладывает в него душу, а не действует по набору готовых шаблонов. Такое отношение очень четко чувствуют посетители сайта, а вслед за довольными пользователями подтягиваются и поисковые системы, которые умеют учитывать поведенческие факторы.
Свою книгу я писал именно с точки зрения обычного вебмастера. Большую часть информации я стараюсь иллюстрировать на примере вполне конкретного сайта – туристического портала Крым-Блог Никиты Мелькина (да-да, это мой туристический проект). Этот сайт вы найдете по адресу crimea-blog.com. Без сомнения, это придает «живость» и дополнительную практическую ценность излагаемым материалам.
История написания. Когда-то почти 10 лет назад я написал первый в Рунете учебник по раскрутке сайта, он так и известен в seo-сообществе под названием «учебник от Semonitor». Долгое время я сомневался, стоит ли это делать – ведь в Интернете просто валом различных статей по продвижению, но учебник оказался очень востребованным в среде вебмастеров.
Позднее я понял, что хотя полезной информации в сети море, но не хватало именно единого, структурированного курса.
Статьи, форумы и блоги по seo исключительно ценный источник знаний, но для новичка изучать раскрутку по отдельным статьям сродни поиску незнакомого адреса в незнакомом городе. Один говорит ехать прямо, другой налево, а третий объясняет короткий путь «через гаражи»… И тут хлоп – и уже «бан» от гаишника за нарушение правил – не успели вы начать раскрутку, а сайт уже под фильтрами Яндекса или Google.
Один из лучших отзывов о моем курсе звучал примерно так: «Прочитанный учебник создает в голове своеобразный «шкаф» с полками. После этого изучение любой другой информации по seo становится более понятным – т. к. знания сразу попадают в нужный «отсек», не создавая каши в голове». Именно такую, структурированную систему знаний я и предлагаю вам в своей новой книге.
Прежний мой учебник за прошедшие 10 лет безнадежно устарел, поэтому вторая редакция была написана с нуля в 2013 году, и дополнительно откорректирована в 2016. Так что здесь вы найдете самую свежую и актуальную информацию по раскрутке сайтов в поисковых системах Google и Яндекс.
Всё SEO на одной странице или о чем вы узнаете из этой книги
Глава 1. Философия современного Интернет-продвижения
Стартовая глава затрагивает скорее проблемы здравого смысла, нежели практические аспекты раскрутки. Но именно эти вопросы, на мой взгляд, являются ключевыми. Их нужно задать еще до того, как приступать к созданию сайта.
О чем будет наш проект? Какой бюджет он потребует? Потянем ли мы конкуренцию? На чем будем зарабатывать?
Помните, как Робинзон Крузо построил лодку, не подумав о ее спуске на воду? И несколько лет труда пропали даром.
Чтобы с вами не произошло подобной ситуации и написана эта глава.
Глава 2. Техническая сторона продвижения
Технические моменты работы сайта могут быть очень сложны. Это и настройки хостинга, и работа с базами данных, и система управления контентом. К счастью, абсолютно большую часть работы уже сделали за нас другие люди.
Чтобы разместить сайт в Интернете не нужно разбираться в настройках веб-сервера – хостинг-компания сделает это за нас. Дизайнеры уже разработали массу красивых и функциональных шаблонов, в том числе и бесплатных. Программисты написали немало CMS (систем управления сайтом и его содержимым) – и опять таки зачастую бесплатных. Мы можем пользоваться всем этим богатством, не будучи специалистами.
Тем не менее, некоторые базовые технические принципы мы разберем в этой главе. Как устроены поисковики? Какой выбрать дизайн для сайта? Стоит ли делать поддомены на основном сайте, и какие материалы на них размещать?
Глава 3. Фильтры поисковых систем
В начале работ над сайтом вы должны знать, чего делать точно нельзя. Если же проблема уже есть – будем искать ее оптимальное решение.
Глава 4. Все о SEO-копирайтинге
В этой главе мы подробно рассмотрим какие тексты нужны сайту, как их написать самим или кому отдать эту работу на выполнение.
Глава 5. Внутренняя оптимизация: тексты и html код
Какая плотность текста должна быть? Сколько точных вхождений ключевой фразы на странице? Нужно ли вообще обращать внимание на эти столь популярные среди вебмастеров параметры? Теги TITLE, Description, Keywords, Hi, bold, strong, alt-как их правильно применить?
На все эти вопросы ищите ответы в пятой главе нашего учебника.
Глава 6. Внутренняя оптимизация: перелинковка и структура сайта
Как правильно организовать подачу материала на сайте, чтобы это было удобно пользователю и полезно для продвижения. Категории, подкатеогрии, главная страница. Как выбрать ключевые фразы для внутренних страниц сайта.
Как связать (перелинковать) все эти разделы между собой, чтобы получить максимальный эффект.
Глава 7. Внешние факторы: ссылочная популярность.
Общая теория
Для чего нужны ссылки на сайт с других ресурсов. Как поисковые системы учитывают такие ссылки и используют их в ранжировании.
Что такое PageRank от компании Google и ТИЦ от компании Яндекс и зачем нам нужны эти показатели.
Глава 8. Траст сайта
Таинственное понятие, о котором все говорят, и все понимают, но которого никто толком не может объяснить. Попросту говоря, как измерить уровень доверия к тому или иному ресурсу и как это влияет на позиции в выдаче поисковых систем.
Глава 9. Рискованные способы набора ссылочной массы
Вся правда о столь популярных до сих пор прогонах по каталогам сайтов, каталогам статей, социальным закладкам и о различных прочих «автопрогонах». О том, как пользоваться данными методами аккуратно, как получить от них пользу для продвижения, и какой вред может быть от их применения.
Глава 10. Отмена ссылочного: казнить нельзя помиловать
Поисковые системы стремятся занизить и даже исключить влияние внешних ссылок, т. к. этот фактор уже давно можно просто «купить» на специализированных биржах. Однако не так то просто отказаться оттого фундамента, на котором до недавнего времени держались все алгоритмы ранжирования.
В этой главе обсуждаем борьбу поисковых систем с покупными ссылками.
Глава 11. Условно-белые способы набора ссылочной массы
После прочтения предыдущей главы у Вас не останется вопросов, почему я выбрал такой заголовок и почему способы увеличения ссылочный цитируемое™ не «белые», а именно «условно-белые».
Тем не менее, это те самые методы, которыми продвигаются 99 % сайтов в Рунете. Рассылка новостей, биржи ссылок, seo-агрегаторы, статьи, посты и постовые в блогах. Биржи Sape, RotaPost, MiraLinks, GetGoodLinks. Вечные и арендные ссылки.
Анализ ссылочного профиля конкурентов.
Глава 12. Принципы покупки ссылок
О естественности ссылок. Ссылки с ключевым словом (анкорные) или просто в виде адреса сайта (безанкорные). Как правильно выбирать сайты-доноры для размещения ссылок на свой проект, чтобы получить максимальную пользу в раскрутке и минимальные риски фильтра и пессимизации со стороны поисковых систем.
Глава 13. Два каталога, о которых нужно знать
Как уже неоднократно говорилось, поисковики крайне плохо относятся к тому огромному количеству каталогов сайтов, расплодившихся за последние годы, и число которых измеряется уже даже не тысячами, а десятками тысяч.
Тем не менее, есть каталоги, которые у поисковых систем на особом счету. Их в буквальном смысле можно пересчитать по пальцам – т. к. их всего два.
Это DMOZ и Яндекс Каталог. Каждый из них заслуживает индивидуального подхода.
В этой главе мы рассмотрим какие действия необходимы, чтобы разместить свой сайт в указанных каталогах и какая от этого может быть выгода.
Глава 14. Поведенческие факторы (ПФ)
Группа факторов, без которых невозможно современное продвижение. На хорошем сайте клиент голосует кошельком, а на плохом – ногами, т. е. попросту уходит.
Как поисковые системы учитывают поведение пользователей, как работать над ПФ, как поднять «кликабельность» сайта в результатах выдачи и число переходов с поиска – обо всем этом вы узнаете в данной главе.
Глава 15. Индексация сайта
Прежде чем сайт попадет в выдачу поисковых систем, он должен быть проиндексирован. Обычно с этим никаких проблем не возникает. Тем не менее, без знания некоторых технических тонкостей вам не обойтись.
Как не допустить дублей страниц на сайте, которые мешают продвижению. Как работать с robots.txt и зачем этот файл нужен.
И наконец – что делать, если сайт не индексируется в Google или в Яндекс?
Глава 16. Семантическое ядро сайта
Одна из последних по порядку глав в учебнике, но далеко не самая последняя по значимости. Я бы даже сказал – это самая важная глава, т. к. от правильно составленного семантического ядра зависит весь дальнейший успех.
Высоко-, средне- и низко-конкурентные ключевые слова. Высоко-, средне- и низко-частотные фразы. Как не запутаться в этих терминах и как составить правильное семантическое ядро. О конверсии – какие фразы приведут к нам на сайт покупателей, а какие просто зрителей. Как оценить уровень конкуренции и выбрать ключевики, которые по плечу нашим возможностям. Извините за каламбур, но правильный выбор ключевых слов – это и есть тот самый ключ к успеху продвижения.
Глава 17. Социальные сигналы для продвижения
Похоже, что уже весь Интернет забился в социальные сети и не хочет оттуда вылезать. Само собой, поисковые системы не могли пройти мимо столь важного явления. Twitter, ВКонтакте, Одноклассники, Facebook, Google+ – от изобилия выбора голова идет кругом.
В данной главе мы расскажем, как публикации в социальных сетях помогут вам продвинуть сайт. Уточню – речь пойдет именно о влиянии социальных сетей и социальных сигналов на органическую выдачу, а не о продвижении какого-либо товара или группы через социальные сети.
Глава 18. Региональное продвижение
Хрестоматийный пример – если вы ищете «доставку пиццы», то хотите получить результаты для своего города. А если «рецепты пиццы» – то вам неважно, в каком именно регионе находится сайт. Это примеры геозависимых и геоНЕзависимых запросов.
О разнице в способах продвижения таких запросов мы и поговорим в этой главе.
Глава 1
Философия современного интернет-продвижения
1.1.Поисковые системы против оптимизаторов
История отношений поисковых систем и seo-специалистов напоминает извечную проблему создания брони, защищающей от пушек, и вслед за этим создания новых пушек, пробивающих усовершенствованную броню.
Когда-то давно Интернет был «совсем маленьким» и не представлял коммерческого интереса. Доступ к сети был только у университетов и использовался он больше в исследовательских и научных целях, а также для быстрого обмена информацией.
Этап 1. Изначально для целей поиска информации был предназначен мета-тег Keywords. Именно там записывались ключевые слова, описывающие собственно информационный материал, и по ним в дальнейшем можно было проводить поиск. Это еще не было полноценным решением, а скорее напоминало поиск по карточкам или по названию книг в библиотеке.
Как вы понимаете, использование этого мета-тега быстро исчерпало себя. Keywords не давал никакой возможности отсортировать материалы в порядке важности, что создавало очевидную проблему в случае, если по заданной фразе находилось несколько десятков документов.
Этап 2. После этого и появился собственно настоящий, полнотекстовый поиск. Поисковики стали оценивать текст материала, а также html-оформление. Фразы, выделенные жирным шрифтом или тегами <Н> заголовков, считались более важными. Поисковые системы начали сортировать результаты по релевантности – т. е. старались высоко ранжировать (показывать первыми в результатах) страницы, максимально соответствующие заданной ключевой фразе.
Оптимизаторы ответили на это появлением нового направления деятельности- seo-копирайтинга. Интернет стал заполняться тысячами и тысячами новых статей, написанных правильным языком и вроде бы дающими подробный ответ на тот или иной вопрос. Но, по сути, большая часть этих текстов не несла никакой реально полезной смысловой информации, а создавалась лишь для получения высоких позиций в выдаче.
Это был период, когда на всех seo-форумах бурно обсуждались вопросы об идеальной процентной плотности ключевых слов, количестве прямых вхождений заданной фразы в текст материала, количестве выделений жирным шрифтом и т. п.
Этап 3. Принципиальный шаг к решению этой проблемы совершила компания Google, введя понятие ссылочной цитируе-мости. Допустим, имеется две схожих страницы, одинаково полно отвечающих на заданный вопрос. Анализ текста не позволяет выявить, какая из этих страниц лучше – обе идеально соответствуют заданной теме.
В основу нового алгоритма легла идея, что лучшей является та страница, на которую больше ссылаются другие сайты. Это и понятно – если на некоторую информацию есть ссылки с других ресурсов, пользователи и вебмастера рекомендуют ее другим людям-значит эта информация полезна. И напротив, если текст вроде бы хороший, но никто его не рекомендует для прочтения – значит реальной пользы от этого материала нет.
Учитывалось не только количество ссылок, но и важность самих ссылающихся страниц («голос» с сайта CNN явно более весом, чем голос с домашней страницы «Васи Пупкина»).
Подобный подход совершил революцию в качестве поиска, и до сих пор остается тем фундаментом, на котором строятся современные алгоритмы ранжирования. Очевидно, что ссылками, размещенными на других сайтах, манипулировать на порядок труднее, чем просто разместить псевдо-полезные статьи на своем ресурсе.
Пару лет новые алгоритмы работали хорошо. Но в дальнейшем начала развиваться индустрия продажи ссылок. Если раньше оптимизатор размещал 10 псевдо-статей у себя на сайте, то теперь под каждую статью создавалось еще по 10–50 псевдо-новостей, псевдо-статей, псевдо-постов на форумах-все для того, чтобы получить нужное количество ссылок и подняться в результатах выдачи. Этот процесс идет и до сих пор, создаются целые сайты, не несущие ничего полезного, а применяемые исключительно под продажу ссылок.
Этап 4. Поисковые системы стали отслеживать поведение пользователей на ресурсе. Сколько времени человек провел на сайте, сколько страниц посмотрел, вернулся ли обратно в поиск или же остался удовлетворен полученной информацией.
К сожалению, это стало лишь полумерой, т. к. поведенческие факторы легко поддаются накрутке. Накручивать можно автоматически, с помощью специальных программ, эмулирующих деятельность человека. А можно привлечь армию «школьников», готовых за копейки совершать нужные действия – искать заданные фразы, переходить на заданные сайты, кликать по заданным ссылкам – и такие сервисы действительно есть. Получается не подкопаться – реальные люди действительно просматривают реальные страницы, вот только выводы о полезности этих страниц оказываются ошибочными.
Этап 5. Очередным принципиальным шагом стало использование в алгоритмах элементов искусственного интеллекта, который позволяет «машине» видеть «глазами человека».
На современном этапе вычислительных мощностей даже самых быстрых супер-компьютеров недостаточно для создания полноценного искусственного интеллекта. И тем не менее, это направление очень бурно развивается и, несомненно будет играть все большую роль в работе поисковых машин.
Яндекс запустил новый алгоритм в 2009 году и назвал его MatrixNet. Нам нет нужды вдаваться в технические подробности, но понимание самой сути этого подхода настолько важно, что я посвятил этому вопросу отдельный параграф книги. Продвигая сайт, мы должны понимать КАК будет смотреть на него поисковая система.
1.2 Жизнь в Матрице или алгоритм MatrixNet от компании Яндекс
В ноябре 2009 года вышел новый алгоритм Яндекса под названием Матрикснет, или в англ, написании Matrixnet. Это принципиально новый подход к оценке сайтов и построению поисковой выдачи, в основе которого лежит самообучающийся алгоритм с элементами искусственного интеллекта.
Знать базовые принципы матрикснета очень важно – создавая сайт, вы должны понимать, каким его увидит поисковая система, и как она его будет оценивать.
Моя дипломная работа в институте была связана с темой нейронных сетей, таким образом, я смог краешком прикоснуться к тем фантастическим возможностям, которые дают разработки в области Искусственного Интеллекта (в дальнейшем ИИ).
Прежде всего, нужно сказать, что в функционировании компьютеров существует два принципиально различных подхода. Это алгоритмы и нейронные сети (тот самый ИИ).
Алгоритмический, подход. Здесь все понятно. Грубо говоря, мы даем машине инструкцию вида: если)набор заданных условий} ? то ^выполнить набор заданных действий}.
По такому принципу и работали поисковые системы до введения Матрикснета. Оценивали набор факторов (релевантность текста, количество ссылок и прочее) и выдавали свой ответ – какую позицию должен получить тот или иной сайт.
Алгоритмический подход отлично подходит для решения огромного круга задач. Это и поиск, и различные вычисления, да и все «бытовые» компьютерные программы, которыми мы пользуем, построены на основе алгоритмов. И, безусловно, компьютер работает в миллионы раз быстрее человека.
В то же время существует ряд трудноформализуемых задач, с которыми человек справляется просто и естественно, а машине они не под силу. Мы легко можем узнать знакомого нам человека, встретившись на улице – даже если вокруг него толпа других людей, даже если он стоит далеко. Да что там – мы можем узнать его даже со спины, по походке, по интонациям в голосе.
Никакими алгоритмами эта задача не решаема – а задача между тем очень важная. Вариантов применения множество. Загрузил в компьютер фотографии людей, находящихся в розыске, дал доступ к уличным камерам – и вот компьютер находится в режиме постоянного поиска. Стоит искомому попасть в поле зрения камеры на вокзале – а компьютер уже шлет сигнал – найден! Ан нет, не так то это просто – не справляется компьютер с подобной задачей.
И вот тут мы приходим к тому самому искусственному интеллекту, элементы которого используются в Matrixnet.
Нейронные сети. Наш мозг состоит из огромного числа нейронов, каждый из которых в отдельности разумом не обладает и способен лишь на самые элементарные действия. Но объединенные вместе они представляют удивительную силу.
Нейронные сети построены по тому же принципу. Множество простых «вычислительных элементов», объединенных в единую структуру.
Характерно, что базовая теория нейронных сетей была разработана еще в 1920-х годах, по сути, до появления компьютеров. И потом, на долгие 60 лет, эта наука оставалась мертвой теорией – ИИ требует очень больших вычислительных мощностей. В 80-х, с появлением быстрых компьютеров, нейронные сети пережили второе рождение и бурно развиваются в настоящее время.
Принципы работы Matrixnet. Перейдем от теории к практике. Матрикснет решает не какие-то отвлеченные задачи, а оценивает сайты. Посмотрим, как он может это делать.
Суть любого ИИ заключается в том, что сначала машину нужно «научить». В Яндексе существует большая команда специальных людей, называемых асессорами. Их работа – смотреть и оценивать сайты.
Задание асессору ставится в виде связки «поисковый запрос + сайт». И человек должен выставить свою оценку – отвечает ли сайт на поставленный вопрос. Варианты оценок, которые ставит асессор:
– сайт является официальным источником информации по данному запросу.Например, поиск по названию фирмы – первым в выдаче должен стоять официальный сайт этой фирмы. Само собой, такого рода сайты есть не для всех поисковых запросов.
Чтобы было понятнее: поиск по слову «Semonitor» подразумевает вывод на первом месте моего сайта, т. к. человек явно и конкретно дал понять поисковой системе, что ему нужен именно этот, конкретный проект. А вот поиск по фразе «программа для раскрутки сайта» – никакого единственного, официального источника не предполагает – и в выдаче будет стандартная равная конкуренция между множеством ресурсов.
– сайт полностью отвечает на запрос.Такая оценка дается авторитетным ресурсам, содержащим массу полезной информации как по конкретному запросу, так и по смежным темам. Такую оценку, для примера, может получить сайт SearchEngines.guru для запросов связанных с продвижением сайта – ведь тут есть и статьи, и новости, и блог, и форум, и свое сформированное сообщество.
– релевант плюс.Такая оценка дается сайтам, предлагающим полноценный и подробный ответ на запрос пользователя. Скажем, данная страница, которую вы сейчас читаете – вполне может получить оценку «релевант +» для запроса «Матрикснет»
– релевант минус.Страница частично содержит полезную информацию по теме, но неполную, или не подробную, или есть сомнения в достоверности. Ищете вы материалы про «отдых в Турции», и на некоем форуме кто-то вскользь упомянул о своей поездке в нужный вам отель или город. Информация, в принципе, не лишена некоторого смысла, но полноценным ответом на вопрос ее назвать нельзя;
– нерелевантный.Страница вообще не имеет отношения к запросу. Это не говорит о том, что страница сама по себе плохая, просто она не по теме. Такая страница может попасть в выдачу из-за ошибки алгоритма.
– спам. Тут все понятно. Страница-обманка – псевдо-тематическая, не несущая ничего полезного, а созданная лишь для продвижения.
– не по теме. Страница хорошая, содержит нужные слова, но не отвечает на запрос. Сам Яндекс приводит такой пример: запрос «ЛевТолстой» должен выдавать страницы о писателе. При этом страницам о львах, о людях с лишним весом или о других людях с фамилией «Толстой» не место в выдаче, и им будет присвоена оценка «не по теме».
Еще раз подчеркну, что эти оценки выставляются живыми людьми. Они могут нести в себе некую субъективность, но в целом, отличить хороший сайт от плохого человек способен за считанные секунды.
После того, как работа асессоров завершена, вся эта информация – запросы + страницы + оценки – «скармливаются» Матрикснету. Получая на вход сайты, и зная правильные ответы, Matrixnet «обучается» – настраивает собственную формулу оценивая сайтов.
Если выборка учебных, тестовых ресурсов была достаточно большой и правильно подготовленной, то в дальнейшем Матрикснет сможет успешно выставлять рейтинг любым другим сайтам, которых не было в обучающей выборке. И – самое удивительное – оценка будет очень близка к той, которую выставил бы этому сайту человек!
И вот теперь я перехожу к самой сути – АЛГОРИТМЫ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА ПОЗВОЛЯЮТ ПОИСКОВОЙ СИСТЕМЕ ВИДЕТЬ САЙТ ПРАКТИЧЕСКИ ГЛАЗАМИ ЖИВОГО ЧЕЛОВЕКА.
Это делает бессмысленными попытки выйти в ТОП за счет всякого рода технических ухищрений. Если раньше машину можно было обмануть, то теперь с каждым годом сделать это будет все труднее и труднее. И именно качество сайта, его реальная полезность для людей, является ключевым моментом в успехе продвижения.
О том, какие сайты поддаются раскрутке, а на какие лучше не тратить времени – мы поговорим в следующей главе.
1.3. Какие сайты можно продвигать а какие обернутся лишь тратой времени и денег
Прежде, чем начать создание и продвижение своего ресурса, мы должны все здраво взвесить и ответить на ряд ключевых вопросов. О чем будет наш сайт? Каких затрат на раскрутку и содержание потребует? С кем придется конкурировать? Как мы будет извлекать прибыль?
1 базовый принцип.
Сайт должен быть полезным
Т.е. он должен предлагать что-то реально нужное людям – будь то товар, услуга или информация.
В предыдущей главе я писал, что поисковые системы умеют оценивать Интернет-ресурсы глазами человека. Так что, если сайт ваш, по сути своей, никому не нужен – забудьте о высоких позициях.
Примеры полезных сайтов. Навскидку:
– сайт гостиницы, с фотографиями номеров и прайс-листом (услуга);
– сайт салона красоты (услуга);
– сайт по уборке квартир в Москве (услуга);
– сайт фирмы, производящей и продающей деревянные лестницы (товар);
– сайт фирмы, устанавливающей пластиковые окна
(услуга + товар);
– SearchEngines.guru (информация + общение).
Здесь все понятно. Есть сайт, есть востребованная товар/услуга/информация, есть клиенты, которые через поиск находят то, что им нужно. Если с нашим Интернет-ресурсом все в порядке и пользователи действительно получают у нас то, что искали – ту или иную долю «поискового пирога» мы обязательно откусим. Большую или меньшую – зависит от удачи, знаний и вложенных усилий, но совсем без клиентов мы не останемся – это точно.
2 базовый принцип.
От бесполезного сайта лучше отказаться еще до создания
Никакие усилия и вложенные средства не дадут вам серьезного заработка, если сайт никому не нужен.
Примеры бесполезных сайтов:
– сайт новостей «супер-мега-мировые-новости. сот».
Я не хочу сказать, что сайты новостей бесполезные. Но подумайте, что вы можете предложить своим посетителям. У вас есть журналисты и корреспонденты в других городах и странах? Или ваши посетители будут читать «стыренные» с других ресурсов тексты? В лучшем случае такие сайты предлагают «рерайт» – т. е. берут текст новости у реального информ-агентства и переписывают его своими словами. Текст, вроде бы, получается уникальный, но реальной ценности в нем нет. Забудьте, вы не заработаете на таком сайте.
– сайт приколов и анекдотов
Юмор это хорошо. Только вот незадача – большинство хороших юморных сайтов люди знают в лицо. И заходят именно туда, без всякого поиска. Конкурировать с анекдот. ру и им подобными вы не сможете. И хотя потенциальная аудитория огромная, вам достанутся такие крохи, что о них лучше и не говорить. Забудьте, вы не заработаете на таком сайте.
– мега-форум обо всем на свете
Аналогично предыдущему пункту, форум есть, а людей на нем нет. И замкнутый круг – пока нет активного общения, нет новых пользователей, без которых, опять таки, нет активного общения. Забудьте, вы не заработаете на таком сайте.
Список можно продолжать еще очень долго, но, думаю, суть вы поняли. Хотя есть и успешные примеры. Мировые новости вам не потянуть, а новости своего города вполне. Я встречал городские порталы, поднятые практически с нуля и без вложения средств, и приносящие – пусть и небольшой – доход своим создателям. Начиналось все с энтузиазма и интересных статей «на злобу дня», потом подтянулись местные жители и завертелось общение, а потом пришли и местные рекламодатели (ставим окна-двери-кондиционеры, открылся детский клуб, услуги фотографа и т. д. и т. п).
Так что нет правила без исключения, просто нужно хорошо все обдумать.
3 базовый принцип.
Сайт должен быть как минимум не хуже своих среднестатистических конкурентов
10 – 15 лет назад можно было найти массу проектов, раскрутившихся с нуля. Т.е. создавался полупустой, полурабочий сайт, с помощью технических средств (а иногда и просто из-за отсутствия конкуренции) попадал в ТОП поисковых систем и в дальнейшем уже развивался за счет посетителей из поиска.
Проведя аналогию с обычной жизнью, такой сайт можно сравнить с магазином бытовых товаров, который на момент открытия выставил на продажу 1 сорт шампуня и 1 сорт мыла. Люди заходят, смотрят на пустые полки и уходят, но вслед за ними приходят все новые и новые, и так каждый день. Кто-то иногда покупает шампунь. Подзаработав немного денег, владелец магазина через месяц работы завозит памперсы и стиральный порошок. А месяца через три появляются ведра и гвозди. И только через пару лет работы магазин выходит на приличный уровень и хороший ассортимент.
Бред? Конечно. Но именно по такому принципу раскручивались многие успешные Интернет-проекты. К сожалению или к счастью, но это время уже давно миновало. Порог вхождения в бизнес увеличился многократно.
Понятно, что с нуля конкурировать с сервисом, развивавшимся много лет зачастую чисто физически невозможно, а многие функции, приносящие прибыль при наличии тысяч клиентов, оказываются финансово нерентабельными, если клиентов мало. Но таковы реалии.
Поисковики стараются дать своим посетителям наилучшие ответы, а вовсе не обеспечить заработок молодым проектам.
Развивать сайт можно и постепенно, но будьте готовы к тому, что пока вы не выйдете на уровень, сравнимый со своими конкурентами высоких позиций достигнуть не получится. Вполне возможно, что определенное время придется работать «в минус».
4 базовый, принцип.
Желания и планы должны совпадать с возможностями
Посмотрите на своих конкурентов. Прикиньте, сколько времени и финансов потребуется, чтобы выйти на аналогичный уровень оказания услуг. Определитесь – посильная это для вас задача или нет.
Ищите ниши посвободнее. Например, в региональном поиске конкуренция в разы ниже, чем в Москве или Петербурге. Возможно, вам стоит начать с вашего города, или организовать сайт по узкой тематике, в которой вы хорошо разбираетесь и в которой качественных конкурентов не так уж и много.
Ищите, думайте – и решение придет. Дорогу осилит идущий.
1.4. Как заработать на сайте. Способы монетизации сайта
Конечная цель создания любого сайта – заработок. Сайты могут быть коммерческими, информационными, с платными или бесплатными сервисами, но цель – всегда одна. Проекты, созданные на голом энтузиазме не берем – 99 % из них со временем исчезают, как только у владельца пропадает интерес к развитию. Рассмотрим, какие есть возможности заработать на своем сайте, или по другому – способы монетизации сайта.
1. Продажа товаров и услуг
Здесь все просто. Есть сайт, есть некий товар – получил клиента, продал товар, заработал деньги. Подробнее рассказывать не буду, и так все понятно. Именно этим способом зарабатывает большая часть коммерческих ресурсов.
2. Заработок на рекламе
Реклама бывает разная. Например, размещение баннеров или заказных статей и обзоров, реклама в рассылке среди подписчиков сайта. Контекстная реклама от Яндекс. Директ и Google. AdSense – в этом случае поисковики будут размещать на вашем сайте рекламные объявления, связанные с тематикой вашего ресурса.
Практически обязательным условием для проекта, зарабатывающего на рекламе, является огромная посещаемость. Если на вашем сайте всего несколько сотен посетителей в месяц, то будьте реалистом и не рассчитывайте на сколько-нибудь серьезный заработок. Цены на прокрутку баннеров разнятся в очень широком диапазоне, от 5-10 до 300–500 рублей за тысячу показов. Цена очень сильно зависит от тематики ресурса. Дешевле всего идут развлекательные сайты, где аудитория явно не нацелена на покупку чего-либо. Дороже – узкопрофильные ресурсы, где посетителей возможно и немного, но они очень целевые.
В контекстной рекламе от Яндекса и Google оплата идет не за показы, а за клики. Оплата за клик многократно выше, чем за показ – но и количество перешедших по рекламе столь же многократно меньше, чем просто людей посмотревших вашу страницу.
Исключения возможны, но это именно исключения. Есть узкие ниши, к которым нет массового интереса, но в которых каждый посетитель, ставший клиентом, приносит сразу тысячи долларов.
Есть городские сайты или узкотематические порталы, где цены на рекламу многократно выше средних – по той причине, что аудитория очень целевая. Т. е. людей на сайте не так много, но все они являются потенциальными клиентами.
Но основное правило все таки остается неизменным – чтобы хорошо зарабатывать на рекламе, нужна очень высокая посещаемость, как минимум десятки тысяч посетителей в месяц (а по факту и еще больше).
3. Монетизация сайта с помощью продажи ссылок
В одной из предыдущих глав я уже говорил о том, что внешние ссылки стали товаром – их можно купить, чтобы повысить рейтинг своего сайта, а можно продать – чтобы что-то заработать.
Многие сайты, у которые высокие SEO показатели (ТИЦ, PageRank, возраст домена, посещаемость), довольно неплохо зарабатывают на продаже seo-ссылок. Во всяком случае пока – поисковики пытаются усложнить это безобразие, и довольно успешно.
Тем не менее, мое мнение однозначно – создание сайта исключительно под продажу ссылок – бестолковое и бесперспективное занятие.
Нет, если вы школьник 9-го класса – то можете попробовать. В конце концов, знания приходят с опытом, а опыт – в ходе экспериментов. И школьник, который «клепает» сайт под продажу ссылок, вполне возможно в 25 лет наберет достаточно опыта и станет хорошим специалистом. Но если вы уже взрослый дяденька – не занимайтесь ерундой. Как говорила бабушка одного вебмастера: «Что ты сидишь за компьютером, из него деньги не вылезут. Иди работай!»:-)
Стоит учитывать, что из-за бесконтрольного размещения большого числа ссылок у поисковых систем может упасть доверие к ресурсу. И как следствие позиции пойдут вниз. Так что этот способ не особо применим к коммерческим проектам.
Другое дело, если у вас уже есть какой-то, как правило, некоммерческий сайт, который не страшно «испортить» рекламой. Например, личный блог, с которого вы никакого специального дохода не ждете. В этом случае продажа ссылок может дать некоторый дополнительный заработок.
4. Монетизация сайта с помощью партнерских программ
Это сродни показу рекламы, только размещаете вы ее бесплатно, а зарабатываете на процентах от трат ваших посетителей. Многие Интернет-магазины имеют подобные партнерские программы.
Вы проставляете ссылку на магазин, включив в нее ваш идентификатор. И если посетитель сайта перешел в магазин и что-то в нем купил – то получаете свои комиссионные.
Я знаю, что есть люди, очень прилично зарабатывающие на партнерах. И также знаю, что 99 % зарабатывают абсолютные копейки. На мой взгляд, заработок на партнерках сродни искусству.
Сам я такого опыта не имею, поэтому никаких подробностей не расскажу. Просто сообщаю вам, что такой способ существует – а дальше уж вы ищите сами.
1.5. Оценка эффективности продвижения
Ниже мы поговорим о том, как правильно выбрать исполнителя для работы над сайтом, и о том какие формы оплаты и гарантии приняты в SEO. Сначала коротко расскажем о том, как оценивать результаты продвижения, что является эффективным SEO, а что пустой тратой времени и денег.
Процесс продвижения сегодня является постоянным. Меняются запросы пользователей (приходится изменять семантическое ядро), меняются требования к дизайну, меняется сам контент на сайте, меняются требования поисковых систем (приходится менять иногда вообще все).
Поэтому оценка продвижения очень важна и должна быть поставлена на постоянный контроль.
Первые результаты от оптимизации обычно можно увидеть не ранее, чем через месяц, а в реальности на «рабочий» режим сайт выходите не менее чем через полгода.
Лучших критериев для оценки эффективности – два.
Трафик с поисковых систем. Как общий трафик на весь сайт, так и в сегментации – конкретно с Google, Яндекс, на конкретные разделы, страницы сайта. При этом, важно не путать бесплатный (SEO) и платный рекламный (РРС) трафик с поисковых систем. Если на сайт закупается трафик из контекстных сетей, важно размечать его UTM метками, для того, чтобы системы статистики могли определить, какой посетитель пришел на сайт- платный или бесплатный.
Позиции запросов в поисковых системах по выбранным регионам. В некоторых тематиках есть острая нужда в позициях только по четко выбранным запросам, поскольку именно они приносят наиболее интересных с коммерческой точки зрения клиентов. Однако, лучше всего не «упираться» в конкретные позиции по конкретным запросам, а оценивать общий тренд, куда движется сайт, как меняется общая «видимость» сайта в поисковиках.
1.6. Кто будет продвигать сайт – самостоятельно, фрилансер, фирма?
Конечно, учебник мой рассчитан в основном на вебмастеров, планирующих самостоятельную раскрутку. Но все же я хочу разобрать ситуацию, когда продвижение сайта отдается «на сторону».
Самостоятельное продвижение
Плюсы:
– это дешевле, иногда существенно;
– полный контроль над процессом, вы не сделаете заведомо вредных действий, которые дают лишь краткосрочный эффект;
– при самостоятельном продвижении обычно отношение к сайту более внимательное, с большей любовью, что ли. Это придает проекту несомненную индивидуальность и «живость», что чувствуют как пользователи, так поисковые системы;
Минусы:
– необходимость тратить много времени на изучение и собственно работу над сайтом;
– есть риск совершения ошибок из-за отсутствия опыта;
Как говориться, хочешь сделать хорошо – сделай это сам. С другой стороны, если зарабатываете вы много, и ваше время стоит дорого – есть смысл поручить продвижение профессионалам.
Фрилансер
Фрилансер – это человек, который работает сам на себя. Вольный художник, который ищет заказы.
Плюсы:
– есть опыт в продвижении многих проектов (во всяком случае, должен быть);
– дешевле работы с крупной компанией;
Минусы:
– есть риск выбрать неграмотного исполнителя;
– человеческий фактор. Исполнитель может просто передумать заниматься вашим сайтом, уехать в отпуск, потерять интерес к работе и т. п.
Продвижение с крупной seo-компанией
Плюсы:
– огромный опыт, наработанные методики;
– практически отсутствует вероятность серьезных ошибок;
– стабильность-уход одного сотрудника не повлияет на работу в целом.
Минусы:
– на первый взгляд только цена.
А теперь поговорим подробнее, какой способ в каком случае предпочтительнее. Любой сайт требует затрат на продвижение и, как правило, достаточно немалых. Даже в слабоконкурентной тематике на раскрутку в первые полгода может уйти несколько десятков тысяч рублей. Привлечение к процессу стороннего исполнителя способно практически удвоить эту сумму. Поэтому если вы ограничены в финансах, то выбор у вас только один – самостоятельное продвижение.
Крупные компании в своей рекламе намекают, что один человек не может быть «и сеятель, и жнец, и на дуде игрец». Т. е. не способен выполнить весь комплекс работ по раскрутке сайта качественно. Ведь для продвижения сайта требуются:
– веб дизайнер, который создаст макет сайта;
– программист, который будет поддерживать его функциональность;
– копирайтер, который наполнит сайт текстами;
– маркетолог, который проработает рекламную компанию;
– собственно продвиженец, который будет заниматься раскруткой и ставить задачи копирайтеру, программисту и дизайнеру.
Понятно, что один человек не может быть профессионалом в столь многих областях – именно на это напирают seo-студии, убеждая клиента. Мол, у нас команда, разделение труда, узкие специалисты и все такое прочее. Я вас умоляю!
Давайте займемся арифметикой. Ну скажем в Москве, заработная плата каждого такого товарища из команды от 60 до 200 тыс. Аренда офиса – не знаю сколько, но думаю счет идет также на приличные суммы. Если работа поставлена широко – то есть еще секретарши, менеджеры по работе с клиентами, пиарщики, которые занимаются не клиентами, а продвижением самой фирмы. И есть, наконец, «большой босс», который все это организовал. И за всех за них платите вы – клиент.
Продолжим нашу математику. Допустим у вас средне или малобюджетный сайт, с расходами на продвижение 30 – 50 тыс. рублей в месяц. Половина уйдет собственно на продвижение, а половина – на оплату работы «команды специалистов». Итого получается, что на каждого работника фирмы придется по сотне сайтов! И это только чтобы отбить заработную плату. Как вы думаете, будет ли к вашему проекту хоть какое-то внимание? Вопрос риторический.
Наиболее обычная ситуация, когда «дешевый» клиент работает с фирмой, выглядит так. Берется сайт, проводится ряд шаблонных действий по аудиту, чтобы устранить явные проблемы, затем сайт запихивается в какую-нибудь систему автоматического продвижения и… на этом все.
Дальше возможны два варианта. Сайт хороший, владелец над ним работает, ну или даже просто-удача улыбнулась. И сайт пошел вверх. Владелец доволен, фирма в шоколаде.
Вариант второй. Сайт никуда продвигаться не хочет. Владелец нервничает, деньги уходят, результата нет. Хотите разорвать договор – да пожалуйста, вас таких в очередь стоит. Время потеряно, деньги потеряны, отдачи нет.
Вот и весь прок от «команды специалистов». Скажу вам по секрету – засунуть сайт в систему автоматического продвижения, и сыграть в лотерею «выстрелит» или нет, вы можете и сами, не нужно за это переплачивать.
В противовес этому, при работе с фрилансером вы оплачивает только его труд. Фрилансер работает из дома и не тратится на офис. Он дорожит вами, как клиентом. Вполне возможно, что и живет он в регионах, а не в Москве – и его устраивает заметно меньший заработок. Поэтому, если бюджет у вас ограничен – выбор падает на работу с конкретным человеком, главное внимательно подойти к выбору исполнителя.
Другое дело, если у вас серьезный бизнес и на раскрутку вы легко можете выделить пару сотен тысяч рублей в месяц. В этом случае вы ценный клиент и для фирмы. И к вам будет индивидуальный подход, и вы действительно выиграете от того, что с сайтом будет работать несколько специалистов. В этом случае работа с фирмой однозначно более надежна и предсказуема.
Короткий вывод. Нет лишних финансов – работаем сами. Средний бюджет на продвижение и нет лишнего времени-ищем исполнителя. Серьезный бюджет и серьезные задачи – обращаемся к известной фирме.
Ну и немного саморекламы. Авторы этого учебника также оказывают услуги по продвижению сайтов. Если вам понравилось как мы пишем – то загляните к нам, возможно вам понравится и как мы работаем.
www.semonitor.ru/promotion.html (http://www.semonitor.ru/promotion.html) (сайт Никиты Мелькина).
rast.guru (сайт Клима Горяева).
1.7. О гарантиях в SEO. Схемы оплаты: за трафик или за позиции
Когда мы тратим на что-то деньги, будь то товар или услуга, мы хотим быть уверенными, что нас не обманут, и оплаченная вещь отработает как нужно. Предоставлять гарантии своей работы – это естественный, цивилизованный подход. Если мы купили телевизор, и он сломался – мы можем получить деньги обратно. С услугами это несколько сложнее, но тоже практикуется. SEO не исключение – заказчики хотят гарантий. Давайте посмотрим, как это реализуется в реальности.
Итак, будем объективны – гарантий в SEO нет и быть не может. Ожидание гарантий это самообман, а обещание – прямой обман. Ну или «маркетинговый ход», если пожелаете.
Есть две профессии, которые за свою работу получают хорошие выплаты, но гарантий не дают никогда – это врачи и юристы. Вы можете представить договор на оказание услуг, в котором адвокат гарантирует выигрыш дела (и несет финансовую ответственность в случае проигрыша), а врач дает 100 % гарантию выздоровления? Все мы понимаем, что такого не бывает. В SEO дела обстоят похожим образом.
Что-либо гарантировать могут только Яндекс и Google, да и то – каждый сам за себя. Пару лет назад Google взял, да и запустил фильтр под названием «Пингвин», а чуть позже и Яндекс аналогичный алгоритм «Минусинск», и методы продвижения, успешно работавшие много лет, враз стали «черными». Пострадали даже сайты некоторых seo-компаний, что уж говорить о клиентах. Конечно, такие глобальные перемены бывают нечасто, и обычно опытный исполнитель может плюс-минус предсказать расходы и результаты. Но именно предсказать/предположить, говорить о гарантиях в такой ситуации смешно.
При этом гарантии – это такая вкусная рекламная плюшка, что пройти мимо нее абсолютно невозможно. Поэтому seo-компании наперебой предлагают «гарантии попадания в ТОП», «продвижение с оплатой за результат», «оплату за трафик», «оплату по факту» и т. п. Детали, как водится, скрыты в договорах.
От начала раскрутки до получения первых результатов проходит некоторое время. Обычно от 1 месяца до полугода, в среднем не менее 3-х месяцев. Все это время деньги на раскрутку тратятся, а результата по объективным причинам нет. Так вот, эти «первоначальные» траты вам не вернет никто и ни при каких условиях. Ни одна фирма не станет подставлять свою голову под такую финансовую гильотину.
Траты на стартовом этапе могут называться залоговым, авансовым или каким-то иным платежом. Но сути это не меняет. А вот когда результат, хотя бы частично, достигнут – вот тут уже возможна некоторая реальная ответственность исполнителя перед заказчиком.
Существует две распространенных схемы, на которых и строятся гарантии в SEO.
Оплата за позиции. В приложении к договору фиксируется список ключевых слов и оговаривается, какую сумму оплачивает заказчик за нахождение этого слова в ТОПе. Например:
Розовые слоны
– ТОП 3 Яндекс – 100 руб. в месяц
– ТОП 5-50 руб.
– ТОП 10–20 руб.
– ТОП 3 Google – 60 руб.
– ТОП 5 Google – 30 руб.
– ТОП 10 Google – 5 руб.
В этом случае, если результат по заданному ключевому слову не достигнут – вы не платите. Вообще, здесь есть некоторая логическая нестыковка. Если исполнитель отработал хорошо и вы получили не только рост позиций, но и рост продаж – то за такого работника вы будете держаться двумя руками, и неважно выполнен ли договор формально.
Если же финансовых результатов нет – то уходить нужно от такой фирмы. Потраченные деньги и время все равно не вернуть, а радость от того, что не нужно платить за плохие результаты не особо велика.
Главная ценность такой схемы не в гарантиях, а в том, что исполнитель оказывается материально заинтересован в хороших результатах для заказчика.
Вообще позиции – палка о двух концах, и могут быть подводные камни для обеих сторон. 80 % посетителей на сайт приходит вовсе не по тем «вкусным» популярным запросам, а по так называемому «длинному шлейфу» – огромному числу низкочастотных, но более конкретных ключевых фраз. Эти самые «низкочастотники» подтягиваются сами собой в процессе работы над основными ключевыми словами.
И вот допустим ситуация – оговоренный конкурентный высокочастотник застрял на 5 позиции и не хочет двигаться вверх. При этом трафик по менее популярным запросам, не прописанным в договоре, возрос многократно. По факту исполнитель сделал свою работу отлично, а формально – договор не выполнен.
И обратная сторона – позиции есть, а посетителей нет. Или даже больше – и посетители есть, а продаж с этих посетителей нет. Возможно, ключевые фразы подобраны неверно. Договор выполнен, платить нужно, а результата-то по сути нет.
Оплата за трафик.Это более объективный показатель. Вообще-то главная цель продвижения – не позиции и посетители, а увеличение доходов. Но работать за процент от продаж – схема труднореализуемая. Поэтому можно привязаться к другому, достаточно объективному, критерию – количеству посетителей.
Суть та же, только оплаты по договору зависят не от позиций, а от количества посетителей на сайт.
Расчет бюджета.Общепринято, что компания указывает некую общую сумму, необходимую на продвижение. Сюда входят как собственно рекламные траты, так и прибыль исполнителя.
На мой взгляд это не совсем объективно. Более честным было
бы указывать выплаты раздельно, чтобы клиент понимал, за что платит. Примерно так:
– рекламный бюджет (закупка ссылок, рекламные статьи X руб.
– написание текстов – Y руб.
– технические работы над сайтом – Z руб.
– сопровождение сайта (оплата услуг исполнителя) – N руб.
Этот подход более прозрачный, как мне кажется. Впрочем тут уже решать вам – требовать ли от фирмы подробно расписать все траты, или договорится по простому «вот деньги – вот результат».
Глава 2
Техническая сторона продвижения
2.1. История развития поисковых систем и их текущая популярность
Я всегда утверждал и буду утверждать, что узкий специалист, не интересующийся ничем, кроме сугубо практических деталей, не сможет достичь настоящих высот в своей профессии. Такой человек становится не «узким», а «узколобым». Поэтому давайте рассмотрим историю развития поисковых машин, а также то, какую долю рынка занимает каждый из поисковиков в настоящее время.
История развития поисковых систем. В далекие 90-е годы, когда Интернет только-только начал входить в жизнь, поисковых систем в современном понимании этого слова не существовало. Поиск нужного ресурса происходил через каталоги сайтов, где имевшиеся на тот момент Интернет-проекты упорядочивались по рубрикам. Поскольку пользователей в сети было немного, а сайтов и вообще мало – то такой способ структурирования данных был вполне удобным и адекватным.
Первой полноценной поисковой машиной стал проект WebCrawler. Принципиальное отличие от предшественников состояло в том, что этот поисковик осуществлял т. н. полнотекстовый поиск. Т. е. искал не только локально по какому-то каталогу, не только по мета-тегу Keywords, но анализировал полный текст веб-страницы, что позволяло успешно находить любые фразы (а не только те, которые вебмастер указал в описании своего сайта как ключевые).
Лично мне название WebCrawler ни о чем не говорит – это слишком далеко в прошлом, в России в те времена само слово-то Интернет не каждый слышал. А вот появившийся в 1996 Lycos уже на слуху у вебмастеров постарше, во всяком случае название это многим знакомо. Вскоре за Лайкосом была запущена лучшая поисковая система своего времени AltaVista – уж это-то имя вы наверняка слышали. Примерно до 2000 года АльтаВиста оставалась лидирующей поисковой системой в мире.
В 1998 году была создана компания Google. Ее разработчики, Сергей Брин и Лари Пэйдж, совершили революцию в качестве поиска, разработав алгоритм PageRank, позволяющий учитывать «вес» страницы, в зависимости от числа ссылок на нее. Это настолько радикально улучшило качество поиска, что Google стал быстрыми темпами завоевывать аудиторию и через несколько лет стал лидирующей поисковой машиной мира, которой и остается до сих пор. Помнится, году примерно в 2000, я в институте наблюдал спор между двумя студентами нашей группы о том, что Альтависта «отстой», а Google ищет лучше.
Поисковая система Апорт. Разработка компании Агама, увидевшая свет в 1996 году. Проект, который в течение нескольких лет оставался лидирующей поисковой машиной Рунета. Пишу это и сам себя начинаю ощущать очень древним. Ведь когда-то, будучи студентами, именно Апортом мы и пользовались для поиска. Других альтернатив не было, да они были и не нужны, ведь Aport прекрасно справлялся со своей задачей.
Прекрасный старт, однако, не обеспечил столь же прекрасного развития в дальнейшем. Апорт был таким лакомым кусочком, что несколько раз менял владельцев, с каждым разом продаваясь все дороже и дороже. Именно это его, судя по всему, и погубило. На первый план вышел «эффективный менеджмент и маркетинг», а на техническое обеспечение банально «забили». После этого пользователи Рунета повернулись к Апорту задом – благо два других главных поисковика – Рамблер и Яндекс – активно боролись за место под солнцем.
Не помню уже точных дат, но сперва Апорт отказался от собственных алгоритмов ранжирования, начав использовать данные Яндекса, а пару лет назад и вовсе прекратил свое существование как поисковая система. Некоторое время на знаменитом домене располагался Интернет-магазин не самого лучшего качества, а сейчас и вовсе стоит банальный редирект на другой портал.
Эх… а ведь когда-то у Апорта был еще и свой каталог, в который вебмастера стремились попасть почти с той же силой, что нынче в Яндекс. Кстати, первый дизайн для Апорта разрабатывал Артемий Лебедев… практически одновременно с дизайном для Яндекса.
Поисковая система Рамблер. Рамблер был запущен все в том же 1996 году и почти десятилетие оставался одним из главных игроков на рынке. В отличие от Апорта, который «сошел на нет» очень и очень быстро, Рамблер скатывался к нынешнему «бомж-положению» медленно и с сопротивлением.
Практически до самого последнего момента у Рамблера продолжал работать свой поисковый движок, выдававший кстати неплохое качество. Подуматьтолько-долгие годы Рамблер был вторым поисковиком Рунета, причем третьим шел вовсе не полу-дохлый уже Апорт, а могущественный Google!
Тем не менее, доля Рамблера на рынке все уменьшалась и уменьшалась, а в 2011 году он был выкуплен Яндексом и стал выдавать идентичные с Яндексом результаты. Так закончилась история Рамблера, некогда сильнейшего российского поисковика.
Поисковые системы Google и Яндекс. На данный момент по сути остались только две актуальные поисковые машины – Яндекс и Google. Всякого рода Лукосы и Альтависты давно забыты и в качестве поисковых сервисов не функционируют. Рамблер был куплен Яндексом и сейчас показывает результаты последнего. Апорт превратился в Интернет-магазин. Очень небольшую долю рынка удерживают Yahoo и Bing – поиск от компании Майкрософт. В России помимо Яндекса и Google существует еще Mail.Ru, но он не имеет собственного поискового движка, а использует результаты поиска то от Google, то от Яндекса (в разные годы по разному), внося в них лишь незначительные коррективы.
Популярность поисковых систем в России, Украине и мире.На данный момент рынок поиска в России поделен примерно так:
Яндекс и Google – примерно поровну. Здесь стоит указать такой интересный нюанс, что среди пользователей домашних компьютеров Яндекс все таки остается явным лидером. Но на всех планшетных устройствах предустановленным поиском является именно Google – и за счет этого общие аудитории поисковых систем примерно уравнялись.
Третью позицию занимает Mail.Ru с примерно 5–8% аудитории. Цифра не так чтобы маленькая, но явно недостаточная, чтобы предпринимать какие-то специальные усилия для продвижения именно в этом поисковике.
Рамблер, Bing и прочие суммарно дают что-то около 1 % трафика, так что интерес представляют чисто академический.
На Украине соотношение существенно иное, Яндекс здорово отстает от своего главного конкурента, порядка 70 % трафика сосредоточено в руках компании Google. Яндекс идет на прочном втором месте.
В мировом поиске лидер только один, абсолютный и безоговорочный – Google.
Кстати говоря, мы с вами можем испытывать заслуженную гордость за свою страну – только в России и в Китае были созданы свои собственные системы поиска. Больше нигде в мире качественных поисковых машин не появилось. В европейских странах – Франции, Германии и прочих – Google используют до 9799 % пользователей, т. е. альтернативы по сути нет.
Есть в этом и практический аспект-у российского вебмастера больше шансов получить посетителей из поиска. Часто бывает, что Яндекс сайт «любит», а Google нет, или наоборот. Но и в том и в другом случае клиенты у сайта имеются. У наших западных коллег работает принцип «все или ничего».
Есть и второй момент – продвижение в Google и в Яндекс в определенной мере различается, и желание попасть в топ обоих лидеров накладывает свой отпечаток на модель раскрутки сайта.
2.2. Как устроены поисковые системы
Нам нет нужды подробно вникать в технические детали функционирования поисковых машин, но знание базовых принципов несомненно пригодится.
На физическом уровне поисковые системы представляют собой сеть из сотен тысяч и даже миллионов серверов, в буквальном смысле слова хранящих в себе копию всего Интернета. Посмотрим, как это работает.
Поисковый робот. Первым важным компонентом поисковой машины является поисковый или индексирующий робот. На самом деле этот робот и сам состоит из десятка других компонентов, но для простоты мы будем рассматривать его как единое целое. Итак, индексирующий робот:
– скачивает страницы из Интернета, так же, как это делает наш браузер
– после скачивания проводит первоначальный анализ – содержит ли эта страница какую-то осмысленную информацию и нужно ли поместить ее в базу данных поисковика (иначе называемому «индексом»)
– если страница полезная, то следует более подробный анализ. Страница разбирается на составные элементы: текст, html код, ссылки, изображения и т. п. и затем помещается в индекс.
Индекс поисковой системы. Чтобы понять, как это устроено, давайте обратимся к примеру из жизни. Возьмем какую-нибудь умную книгу, например, справочник по астрономии. В книге, конечно, есть оглавление – но его бывает недостаточно, если нам нужно быстро найти какую-то конкретную информацию.
Поэтому в конце всегда приводится индексный указатель. Хотим мы найти все упоминания планеты Сатурн – открываем индекс и видим: Сатурн упоминается в 10 статьях, на страницах 5, 27,193ИТ.Д.
Индекс поисковой системы работает по тому же принципу-для каждого слова есть список документов, его содержащих. Только в отличии от книжного указателя, индекс поисковой системы гораздо более полный и содержит не только номера документов, но и много дополнительной информации (как часто слово встречалось на странице, какими тегами было выделено и т. д.).
Поступил к Яндексу запрос «планета Сатурн» и с помощью индекса поисковая система в считанные секунды нашла список страниц, содержащих слово «планета», а затем выбрала из них те, которые содержат слово «Сатурн». Вот и получился первоначальный вариант поисковой выдачи.
Вы никогда не задумывались, почему поиск нужного документа только лишь на вашем компьютере может занимать несколько минут, а поиск «по всему Интернету» – доли секунды? А вот вам и ответ – у поисковой системы все данные уже подготовлены для поиска по ним. 99 % всей работы сделано еще до получения запроса от пользователя – список слов и документов подготовлен заранее. А уж искать с помощью готового индекса в миллионы раз быстрее, чем просмотром информации «в лоб».
Алгоритмы выдачи результатов. После того, как первоначальный список результатов получен, в дело вступают алгоритмы ранжирования. Ведь из миллиона найденных страниц нужно выбрать 1000, наиболее полно отвечающих на вопрос. Для отбора этой тысячи используются множество различных факторов – текст страницы, ссылки на эту страницу, поведение пользователей и т. д. На основе этих данных и формируется те 1000 результатов, которые мы можем увидеть в своем браузере.
Матрикснет и финальное ранжирование. Итак, у нас есть список документов, которые лучше всего отвечают на заданный запрос. Теперь нужно их отсортировать по качеству- ведь у пользователя нет возможности рыться во всей тысячи.
На этом этапе в дело вступает Матрикснет, о котором мы говорили ранее. Именно этот алгоритм сортирует полученные результаты и формирует окончательный вариант выдачи, которую мы увидим в нашем браузере.
2.3 Коротко о факторах ранжирования
В этой главе мы коротко рассмотрим все группы факторов, которые влияют на продвижение сайта. Все это мы будем разбирать детально в последующих частях книги, а пока что просто общий обзор, чтобы немного структурировать ваши знания.
Технические факторы продвижения. Это, по сути, оценка работоспособности вашего сайта. Сайт должен работать хорошо, с этим спорить не приходится. Если ресурс работает медленно, часто бывает недоступен – то это не очень хороший проект.
Неправильная настройка кодов ответа сервера, неверные настройки сессий, наличие доступных для поисковика дублей страниц – все это примеры технических недоработок (о которых мы поговорим в следующей главе).
Технические факторы никогда не сыграют на повышение позиций вашего сайта, но зато могут очень существенно подвинуть его вниз. Сайт должен быть быстрым и правильно настроенным, иначе ему не место в ТОПе.
Текстовые факторы. Оценивается смысл текста, его объем, количество ключевых фраз, насколько точно он отвечает запросу.
Html код. Еще один элемент внутренней оптимизации сайта. Поисковая машина разбирает, какими тегами выделена ключевая фраза (bold, strong и т. п.), присутствует ли она в заголовках, в теге TITLE, в подписях к картинкам, в тексте ссылок.
Ссылочная популярность. Как много других ресурсов ссылается на сайт, какой используется ссылочный текст. Какие это ресурсы-достойные или нет. В общем, анализируется ссылочный профиль и на основе этого рассчитывается авторитетность ресурса.
Траст сайта. Или, по другому, уровень доверия. Зависит от возраста, количества и качества входящих ссылок. Также учитываются исходящие ссылки – на кого они ведут. Если информации на сайте можно доверять, то ему легче будет получить высокие позиции.
Поведенческие факторы. Как пользователи ведут себя на сайте. Получают ли они ответы на свои запросы или возвращаются обратно в поиск? Просматривают страницы и проводят на нем какое-то время, или же сразу закрывают?
Если пользователи любят сайт, значит он хороший. Ведь машину можно обмануть, а человека нет. А хороший сайт стоит и ранжировать хорошо. Поэтому алгоритмы поисковых систем придают важное значение поведению пользователя на ресурсе.
Факторы времени/возраста. Как долго существует сайт – это старый, проверенный временем ресурс или только что созданный проект, от которого неизвестно чего ожидать? Каков возраст ссылок, ведущих на сайт – вебмастера действительно рекомендуют его на своих ресурсах или же вчера ссылки были, а сегодня уже исчезли? Как часто обновляется информация, идет ли развитие сайта?
Социальные сигналы. Рекомендуют ли пользователи сайт в социальных сетях – в Facebook, Twitter, ВКонтакте? Если рекомендуют – это явный признак хорошего сайта.
Соц. сигналы, конечно, штука специфическая. Юмористический сайт способен получить сотни и тысячи таких пользовательских рекомендаций, а сайт по продаже щебня вряд ли кто-то будет обсуждать в Одноклассниках. Т. е. этот параметр оценки применим далеко не ко всем сайтам, но поисковики это прекрасно понимают и используют соц. сигналы там, где это уместно.
2.4. Апдейты поисковых систем
Английское слово Update означает обновление чего-либо. В контексте поисковых систем оно означает обновление алгоритма, или выдачи, или каких-то seo показателей. Слово прижилось в среде seo-шников и «русифицировалось». Сейчас уже так и говорят «сегодня был апдейт на Яндексе» или «когда же наконец-то будет ап ТИЦ». «Ап» – это укороченное от «апдейт».
Прежде всего, следует сказать о принципиальном отличии между Google и Яндексом в контексте проведения апдейтов. У Google выдача меняется в режиме реального времени. Проиндексировал Google новый документ – и он уже буквально через 10 минут может появиться в выдаче, тем самым изменив ее. С Яндексом дело обстоит иначе – апдейты происходят раз в несколько дней, и между ними выдача остается относительно стабильной.
Текстовый апдейт Яндекса. Поисковый робот индексирует Интернет постоянно, находя новые страницы и обновляя информацию об уже известных. Эти страницы заносятся в базу, но до наступления текстового апдейта не участвуют в ранжировании. В день обновления выдача изменяется, и новая накопленная информация появляется в поиске. Это обновление и называется текстовым апдейтом.
Ссылочный апдейт. При его наступлении происходит пересчет влияния ссылок на позиции сайтов. Как и при текстовом апдейте, информация о внешних ссылках собирается постоянно, но пересчитывается только в конкретный день.
Обычно ссылочные апдейты происходят в один день с текстовыми. Но не обязательно, бывает что информация о страницах обновляется, а ссылочные факторы в этот день не пересчитываются.
Изменения алгоритма. Формула ранжирования Яндекса постоянно корректируется. Если эта корректировка происходит в день текстового или ссылочного апдейта, то мы не можем точно сказать – были ли изменения в алгоритме или же выдача поменялась просто из-за учета новой накопленной информации.
Но бывают дни, когда ни ссылочного, ни текстового обновления не было, а результаты поменялись. Это и говорит о каких-то корректировках в алгоритме ранжирования.
Апдейт ТИЦ. Тематический индекс цитирования (ТИЦ) – это показатель авторитетности сайта с точки зрения Яндекса. Ап ТИЦ в среднем бывает раз в два месяца. Само по себе это не оказывает никакого влияния на результаты поиска, скорее просто позволяет вебмастерам получить свежую информацию об уровне раскрученности своих сайтов.
Апдейты Google. Как я уже упоминал, результаты поиска в Google обновляются постоянно. Поэтому апдейтами Google называют какие-то серьезные изменения в алгоритмах, ввод новых фильтров и новых методов оценки сайтов.
Быстроробот. Как уже писалось, Яндекс обновляет свою базу раз в несколько дней. В большинстве случаев этого вполне достаточно. А что делать, если произошло какое-то громкое событие – обанкротился банк, например. Это проходит в новостях, вызывает публикации в блогах и обсуждение в форумах. Люди начинают искать информацию, а Яндекс им в ответ «в Багдаде все спокойно, банк работает в штатном режиме» – а все потому, что информация у Яндекса недельной давности.
Чтобы таких ситуаций не было, Яндекс и ввел быстроробота. Это индексирующий робот, собирающий информацию, которая нужна «прямо здесь и сейчас». Быстроробот способен добавлять документы в индекс и изменять выдачу между апдейтами.
Если документ добавлен в базу быстророботом, то возле него будет стоять дата индексации.
2.5. Домен и хостинг. Техническая оптимизация сайта
Выбор домена. О доменах долго говорить не буду. Очевидно, что имя для сайта лучше всего подобрать короткое и запоминающееся. Этого не всегда можно достичь, т. к. огромное число хороших доменов уже занято, но к этому нужно стремиться.
Заострю внимание на одном важном моменте-доменную зону нужно выбирать с учетом страны, в которой планируется продвигать сайт. Если Россия – то *.ru, если Украина – то *.ua. Если же сайт продвигается в нескольких странах, например в России, Белоруссии, Украине и Казахстане – то лучше брать международную зону – *.com, *.net, *.org и т. п.
Иногда возникает соблазн – привлекательный домен в *.ru занят, но есть такой же свободный в зоне *.сот. Не стоит этого делать, использование доменных зон, не совпадающих со страной продвижения, дополнительно усложняет раскрутку.
С недавнего времени появилась возможность покупать домены на русском языке, вида сайт. рф. Я несколько настороженно отношусь к таким доменам, как-то непривычно они выглядят на мой взгляд. Но в принципе это не более чем мое предубеждение, делать сайты на таких доменах и продвигать их вполне можно.
Хостинг. Практически все современные хостинги обеспечивают постоянную доступность сайта и круглосуточную тех. поддержку, так что особых рекомендаций по выбору не требуется. Желательно, чтобы сервера хостинга располагались в той стране, откуда ожидается максимальный поток посетителей.
Технические настройки сайта.
– любой Интернет-ресурс должен быть доступен в написании как с www., так и без него – посетители могут использовать оба варианта при ручном наборе адреса. Однако для поисковиков это формально два разных сайта с одинаковым содержимым. Обычно это не вызывает проблем, т. к. поисковые машины верно определяют главное зеркало сайта. Тем не менее, правильнее и надежнее настроить редирект с второстепенного варианта на основной. Как это сделать мы расскажем чуть ниже.
– если на сайте есть дубликаты страниц с разными адресами, но одинаковым содержимым, то это может отрицательно сказаться на продвижении. Классический пример-версия «для печати». Получается, что существует две страницы с идентичным содержимым, а это может существенно ухудшить позиции, если поисковая система ошибочно посчитает второстепенный вариант главным. Убедитесь, что все подобные технические страницы закрыты от индексации.
– если на сайте есть возможность поиска информации, то страницы с результатами также должны быть закрыты от индексации. Ведь поиск генерирует по сути «одноразовые» странички, но поисковики то этого не знают. И считают, что на вашем ресурсе существует огромное множество практически одинаковых материалов. Подробнее о том, как управлять правильной индексацией сайта будет описано в соответствующей главе.
– аналогично обстоит дело с идентификаторами сессий. Этот механизм используется для сбора статистики – каждому посетителю присваивается уникальный ID, который прибавляется к адресам страниц. Получаются УРЛ вида site.ru/page.php?sessionlD=i23. И поисковый робот при каждом заходе также будет получать свой ID и опять таки – каждый раз видеть формально «новые» страницы, со старым содержимым. Поисковые машины знают о подобном механизме и даже подготовили специальные инструкции, как избежать проблем при его использовании. Если на вашем сайте используются идентификаторы сессий, то внимательно изучите эти инструкции. Хотя, на мой взгляд существуют более правильные и удобные способы сбора информации о посетителях.
– большинство хостеров обеспечивают приличную скорость доступа к сайту. Тем не менее, иногда стоит проверять время загрузки ваших страниц. Если оно слишком велико, то это может негативно сказаться на позициях.
– на одном сервере хостинг-провайдера могут быть размещены до нескольких тысяч небольших сайтов. Это самые дешевые тарифы и они отлично подходят для большинства проектов. Но если на вашем ресурсе очень приличная посещаемость, то стоит подумать о переходе на более дорогой тарифный план, чтобы у вас было меньше «соседей» на сервере. Причины все те же – чтобы ускорить скорость загрузки сайта.
Как я уже упоминал, правильные настройки и высокая скорость загрузки не улучшат ваших позиций в поисковых системах. А вот повлиять в минус очень даже могут. При наличии ошибок ваш сайт может быть даже полностью удален из индекса, поэтому перед запуском проекта стоит уделить некоторое время технической оптимизации.
2.6. C www или без?
Этим вопросом нередко задаются вебмастера – нужен ли префикс www в адресе сайта, и откуда он вообще взялся.
История появления www восходит к временам ранней юности Интернета. Вычислительные машины тогда были очень слабыми, и никому даже в голову не могло прийти, что на одном сервере могут размещаться несколько сайтов. Тогда было четкое соответствие – один сервер = один IP адрес = один сайт на сервере.
Более того, не просто один сайт на одном сервере, а напротив – несколько серверов обслуживали один единственный проект.
Каждый сайт, если посмотреть на техническую сторону, состоит из нескольких компонентов.
Это собственно web-сервер – тот, который обрабатывает обращения пользователей и выдает им содержимое страниц. Когда мы в браузере открыли какой-либо УРЛ, то мы взаимодействует именно с веб-сервером.
Затем ftp-сервер. Там хранятся наши файлы, документы и т. п. Доступ к FTP имеет только владелец сайта. Если у вас уже есть свой проект, то вы наверняка знаете, что такое ftp – именно туда вы «заливаете» созданные страницы, чтобы они стали доступными пользователям.
Наконец есть еще сервер, обрабатывающий входящую и исходящую почту, или mail-сервер.
В настоящее время все эти сервера вполне прекрасно умещаются на одном компьютере. А вот лет 10 назад вычислительной мощности не хватало, и под каждый такой «логический» сервер (web, ftp, mail) выделялся свой отдельный «физический» компьютер.
И вот тогда и сложились общепринятые правила адресации. Компьютер с ftp-сервером получал адрес ftp.site.ru (ftp://ftp.site.ru/), компьютер с почтой – mail.site.ru, ну а компьютер с веб-сервером – www.site.ru (http://www.site.ru/).
Следует понимать, что все эти префиксы не являются жестким правилом. Вы вполне можете разместить свой веб-сервер по адресу fig-dogadaeshsya.site.ru.Только пользователям это будет, мягко говоря, непривычно.
Время шло, необходимость выделять отдельный компьютер под каждый компонент сайта исчезла, а вместе с этим исчезла и надобность в префиксе www. Но так велика сила привычки, что уже 15 лет прошло, как www не нужен, а мы еще до сих пор активно используем его.
Мне и самому как-то приятнее говорить и указывать www.site.ru (http://www.site.ru/), чем наоборот. Но объективно понимая, что это анахронизм, адреса своих новых сайтов я везде указываю без www. Пройдет еще несколько лет и этот префикс будет выглядеть странно в глазах более молодых пользователей.
Теперь поговорим о технической стороне. Как бы то ни было, а ваш сайт должен быть доступен по обоим адресам – клиенты могут вручную набирать его и так и так. Формально, с технической точки зрения, www является обычным поддоменом, т. е. для поисковой машины это отдельный, самостоятельный сайт.
Такая ситуация, когда один и тот же сайт доступен по двум разным адресам, называется «зеркало сайта». Вот скажем, есть у нас site.ru – везде мы указывает адрес именно так, продвигаем его в таком виде, но есть и www.site.ru (http://www.site.ru/) – просто чтобы пользователи, набравшие адрес в таком виде не встретились с 404-й ошибкой «сайт не существует». В нашем случае site.ru – главное зеркало, а «www.site.ru» – дополнительное.
Обычно поисковые системы очень хорошо умеют определять главное зеркало сайта, но во избежание потенциальных проблем лучше сказать им об этом самостоятельно.
Первым делом необходимо настроить 301 редирект с дополнительного зеркала на главное. Сейчас я вам покажу небольшую практическую иллюстрацию правильной и неправильной настройки сайта. Откройте браузер и наберите в строке «www.crimea-blog.com» (да-да, этот там самый мой сайт, на котором я и в дальнейшем буду показывать «живые» иллюстрации излагаемой информации). Обратите внимание, что вас сразу же перебросит на вариант без www, а в адресной строке вы увидите crimea-blog.com (хотя вручную www вы напечатали). Это и есть правильно настроенный редирект-теперь у поисковой системы не останется никаких сомнений, какое зеркало считать главным.
Теперь напечатайте в браузере www.semonitor.ru (http://www.semonitor.ru/) – откроется главная страница проекта Semonitor. А сейчас попробуйте без www, просто semonitor.ru – опять открылась та же страница. Получается, что одно и то же содержимое доступно по двум разным адресам. Это неправильно. Да-да, автор, который обучает вас правильным настройкам, сам настроил свой сайт неправильно. В свое оправдание могу сказать лишь, что при запуске проекта более 10 лет назад я об этой проблеме не подумал, но поисковые системы, к счастью, все определили верно, и никаких проблем с продвижением я не испытываю. А поскольку проблемы нет, то использую главную заповедь программиста – «не трожь систему, которая работает». Но если вы запускаете новый проект, то лучше сразу все сделать правильно.
Помимо 301 редиректа можно/нужно прописать еще и директиву Host в файле robots.txt. Она также указывает на главное зеркало сайта, но «понимает» эту директиву только Яндекс, Google ее проигнорирует.
Конкретного синтаксиса здесь не привожу – в Интернет вы легко найдете примеры с подробными инструкциями.
2.7. Возраст сайта
Долго думал, в какой же раздел учебника поместить эту статью. Вроде бы возраст сайта относится к факторам ранжирования, а с другой стороны повлиять на него мы никак не можем. Не знаю, правильно ли я выбрал главу, но в любом случае эту информацию вы должны знать.
Итак, поисковые системы испытывают естественное недоверие к молодым проектам. Это понятно. Если ресурс существует много лет, развивается, добавляет новую информацию – это хороший ресурс. Вновь созданный сайт – ВОЗМОЖНО – тоже хороший и полезный. А может быть и просто пустышка, которую через полгода авторы забросят. Высоко ранжировать такой сайт – значит предоставить пользователям некачественную информацию.
Именно поэтому, в отношении молодых сайтов поисковые системы занимают выжидательную позицию.
По низкочастотным, низкоконкурентным запросам новый сайт может появиться в поиске. Но запросы более сложные ему окажутся не по плечу, какие бы усилия по раскрутке не проводились. Поисковая система хочет убедиться, что проект живет и развивается, прежде чем всерьез рекомендовать его пользователям.
Неоднократно наблюдал примеры, когда ресурс, который не раскручивался и специально не продвигался, да и вообще уже заброшен своими владельцами, вдруг начинает выходить вверх по многим ключевым словам. Объяснить это чем-то, кроме увеличения возраста, трудно. Исчез негативный фактор, тянущий сайт вниз – и он занял более хорошие позиции.
Бывает и обратная ситуация. Ресурс с хорошим положением в выдаче, но прекративший свое развитие, постепенно сползает вниз. Видимо поисковые системы оценивают частоту обновления информации, появления новых ссылок и т. п. И если проект не развивается, то это вполне можно заметить даже с помощью автоматических алгоритмов.
Четкого срока – например 3 месяца или полгода – после которого фактор возраста перестает влиять негативно, назвать нельзя. Приблизительно можно сказать, что молодыми являются сайты с возрастом менее одного года.
Однако, если вы занимаетесь своим проектом, рекламируете его, работаете над привлечением и удобством пользователей – то позиции плавно, но неизбежно будут улучшаться. И четко сказать, от чего именно они растут, вы не сможете. То ли сайт «повзрослел», то ли сработало наращивание ссылочной массы, то ли поведенческие факторы улучшились.
Нет правила без исключения, и бывают сайты, на которые возрастной ценз не распространяется. Эти ресурсы должны очень здорово выделяться среди конкурентов, быть чем-то принципиально лучше.
Например, иметь на себя очень авторитетные ссылки. Если вдруг на ваш проект сошлются Майкрософт, CNN и Википедия, да еще и со своих главных страниц – то поисковые системы поймут – сайт хоть и новый, но раз за него поручились такие гиганты – то не доверять ему нельзя. Пример утрированный, но суть я думаю ясна.
В других случаях могут сработать поведенческие факторы. Если ресурс вдруг приобрел бешеную популярность в соц. сетях, форумах, блогосфере. Если его цитируют, ищут, на него переходят – то он обладает доверием посетителей. А если сайт высоко ценят люди, то и поисковым системам стоит это учесть.
К сожалению или к счастью, но абсолютное большинство коммерческих проектов в такую категорию не попадают и должны честно отбыть свой срок в карантине. Нужно просто работать, ждать и не торопиться. К тому же на первых этапах определенный трафик по низкочастотным запросам все равно будет.
Как в известном анекдоте: «Солдат спит, а служба идет. Солдат идет и служба идет. Но самое обидное – солдат бежит, а служба все равно только идет».
Выше головы не прыгнешь, но в данном случае время работает на нас. И занимаясь молодым сайтом, очень приятно осознавать, что помимо наших усилий есть и еще один важный фактор, который потихонечку подталкивает нас вверх без нашего участия.
2.8. Поддомены и SEO
Поддоменом является адрес вида subdomain.site.ru. Вроде бы такой адрес имеет отношение к основному site.ru, а вроде бы и является отдельным сайтом – сразу и не разберешься. Давайте рассмотрим поддомены с точки зрения раскрутки, когда они оправданы, а когда лучше обойтись без них.
1. Является ли поддомен самостоятельным ресурсом или же частью основного проекта? Я довольно плотно перерыл Интернет по этому вопросу и нашел массу авторитетных ответов… диаметрально противоположных. Так что мои поиски подтвердили то мнение, которое у меня уже было – однозначного ответа на этот вопрос нет.
С одной стороны, у домена и поддомена явно один владелец, и скорее всего поддомен является частью основного сайта. С другой стороны, вебмастера потому и выносят информацию на поддомен, что она по каким-то причинам должна стоять обособленно.
Судя по всему, поисковые системы придерживаются того же принципа «серединки на половинке». Поддомен рассматривается как ресурс независимый, но тесно связанный с основным доменом.
2. Добавление информации в подкатегории основного сайта сразу же отдает размещенным страницам весь траст/авторитет, накопленный основным доменом. Мы говорили про возраст в прошлой главе. Страница новая, но сайт-то старый – значит информация достоверная.
Разместили новые материалы на поддомене – пожалуйте в карантин, мы еще посмотрим, можно ли вам доверять. На самом деле не все так плохо – основной сайт все таки окажет определенную помощь поддомену своей авторитетностью. Но насколько велика будет эта помощь сказать трудно. Скорее всего, в эпоху Матрикснета и самообучающихся алгоритмов этот вопрос решается индивидуально для каждого сайта.
3. Бонус главной страницы. Несомненно, что главные страницы сайтов продвигать легче. Именно на них обычно размещается наиболее значимая информация. Создавая поддомен, вы как бы получаете в свое распоряжение еще одну главную страницу:-)
И это, на мой взгляд, одно из главных преимуществ, ради которого стоит создавать субдомены.
4. Проблемы с поддоменом могут негативно повлиять на весь сайт в целом. А с другой стороны могут и не повлиять.
Допустим, вы создали форум, не контролировали его некоторое время, а на нем кто-то разместил ссылки на «взрослый контент». Поисковики вполне могут за это пессимизировать ваш сайт. В случае с поддоменом санкции скорее всего коснутся только поддомена, а не ресурса в целом.
Поэтому разделы сайта, которые подразумевают активное размещение информации другими лицами, вполне оправдано выносить на поддомены.
5. Уровень связности субдомена с основным доменом определяется уровнем перелинковки. Если ссылки на субдомен стоят в сквозном главном меню, то поддомен с большей вероятностью является частью проекта. Если же поддомен есть, но главный сайт на него практически не ссылается – то такой субдомен больше похож на самостоятельный ресурс.
Еще один нюанс касается сайтов на субдоменах, размещенных в Яндекс. Каталоге. Если такой сайт попал в каталог, значит редактор посчитал его действительно независимым (иначе его просто в каталог не взяли бы, а добавили головной домен). В этом случае и поисковая система Яндекс будет считать такой поддомен независимым ресурсом.
6. Удобство для пользователя. Не знаю как вам, но мне больше нравится когда крупный раздел сайта вынесен на свой поддомен.
Адреса вида forum.site.ru, blog.site.ru смотрятся солиднее, чем site.ru/forum/ или site.ru/blog/. Опять таки, посетителю более понятно в каком разделе сайта он находится.
Подведем итоги. Вынос раздела сайта на поддомен, это нечто среднее между созданием отдельного нового сайта и публикацией информации на уже имеющемся. В краткосрочной перспективе это затрудняет продвижение и требует дополнительных финансовых затрат на раскрутку. Зато в долгосрочной – наоборот, позволяет достичь лучших результатов. В любом случае, на поддомены стоит выносить те разделы сайта, которые и в действительности «выбиваются» из общей структуры. Т. е. как всегда, опираемся на логику и здравый смысл в первую очередь.
2.9. Дизайн сайта. Выбор CMS
CMS сайта. Сайт для своего первого серьезного проекта Semonitor я сделал без использования каких-либо CMS. Да-да, в обычном html-редакторе, ручками. Я ни в коем случае не призываю вас к подобному мазохизму, так просто исторически сложилось, что semonitor.ru был изначально создан без всякого дополнительного движка. Свои же новые сайты я, естественно, делаю с помощью CMS.
CMS – content management system – или в переводе «система управления контентом». А уж если сказать совсем по-русски, без всяких заумных «контентов», то CMS – это система управления сайтом и его содержимым.
CMS радикально упрощает работу. Сменился год на календаре, пришла пора поменять копирайты на сайте. Вместо (с) 20002015 написать (с) 2000–2016. На обычном html-сайте вам придется последовательно открывать каждую страницу и вручную править нужную строчку. В CMS вы внесете изменения только в одном месте, и оно распространится на весь сайт автоматом. Аналогично с новым пунктом меню. Несколько кликов – и меню обновилось на всех страницах.
В плане функциональности CMS отличается от обычного HTML как грузовой Камаз от ручной тачки. Системы комментариев для сайта, возможности регистрация/логина, подписка на новости и т. п. – все эти функции являются встроенными. Реализация их вручную заняла бы не один месяц работы.
CMS бывают платными и бесплатными. Бесплатные ничуть не хуже, просто коммерческие CMS могут быть использованы под какие-то узкие бизнес-задачи. И для некоторых проектов разумнее купить готовое решение, чем допиливать напильником бесплатное. Если у вас нет четкой причины покупать конкретную коммерческую CMS – то можете смело брать бесплатную, ее возможностей вам с головой хватит.
Самыми популярными бесплатными CMS являются Joomla и
WordPress. WordPress больше ориентирован на создание блогов, a Joomla – «обычных» сайтов. На самом деле любая CMS подойдет для создания любого сайта – просто повозиться с настройками придется чуть больше или чуть меньше.
Дизайн сайта. Шаблоны. Бытует мнение, что хороший сайт должен ОБЯЗАТЕЛЬНО обладать хорошим, красивым, дорогим дизайном. Это не так.
Представители веб-студий закидают меня тухлыми помидорами, но я скажу прямо – ни черта хороший дизайн не скажется на ваших доходах. Можете хоть у Артемия Лебедева заказать дизайн сайта за несколько тысяч у.е. – ни одного лишнего рубля вам это не принесет.
Как сказал один из американских президентов: «Если человек хорошо делает свое дело, то пусть он хоть в лесу живет – люди протопчут к его дому тропинку». То же и с дизайном. Расскажу историю из личного опыта.
Когда я написал свою программу для раскрутки и продвижения Semonitor, то сайт под нее сделал в буквальном смысле слова «на коленке». На момент создания я имел хороший опыт программирования, немало понимал в раскрутке, но в плане сайто-строительства знания мои были околонулевые. Поэтому я взял первый попавшийся html-шаблон и сделал на нем сайт в несколько страничек. Было вот так:
Когда я выпустил Semonitor, он начал очень быстро завоевывать большую аудиторию. И то сказать – конкурент в то время у меня был только один, под названием NetPromoter, и стоил он в районе 700$. Semonitor же, и тогда и сейчас, стоит 1500–3000 руб. Правда, я не проводил тренингов и обучение, не ставил рекламных щитов на семинарах и не имел офиса в Москве. Но моя программа просто хорошо работает.
И вот многие из моих клиентов частенько говорили мне примерно следующее: «Никита, спасибо тебе огромное за программу, она реально экономит нам массу времени и помогает зарабатывать деньги. Но – извини за откровенность – дизайн сайта у тебя откровенно позорный. Ты же не школьник какой-то, у тебя серьезный продукт. Несолидно».
Слушал я слушал это, да и решил заказать качественный дизайн в одной из студий. За давностью лет не вспомню стоимость, но эта студия конкретно специализировалась на создании сайтов для разработчиков программного обеспечения и была лидером в своей нише. Цены также соответствовали. Стало вот так:
Теперь о самом интересном. Мне бы хотелось рассказать вам, что сделал я новый дизайн, и продажи мои ка-а-а-к взлетели! Но, к сожалению, я такого не скажу. Потому что эффект в плане увеличения продаж был ноль целых ноль десятых. Вот т. е. я ВООБЩЕ никакой разницы не ощутил после выкладывания сайта в новом виде.
Да, заказчики перестали критиковать мой дизайн, иногда даже хвалили. Но это и все. Теперь, правда, ругаются на иконки в программе:
Мол, иконки-то у тебя какие-то самопальные, не выдержан единый общий стиль. Я слушаю, соглашаюсь… но заказывать дизайн иконок не спешу.
Поймите меня правильно, я не хочу сказать, что дизайн не нужен. Когда ваш сайт твердо встанет на ноги и начнет приносить доход – можно будет и дизайн сделать. Но для начала вам более чем хватит огромного количества бесплатных шаблонов, которые можно использовать. Вкладывать финансы в дизайн сайта на начальном этапе – это необдуманная и бесполезная трата денег.
И второй момент. Говоря «дизайн» я имею в виду именно внешние «красивости», а не удобство и функциональность сайта, которые иначе называются юзабилити. Удобство пользования сайтом очень важно, но с дизайном напрямую оно не связано. Сайт может быть простеньким, но при этом удобным и понятным посетителям. Для начала этого вполне достаточно.
2.10. Юзабилити сайта: анализ и главные правила
Юзабилити (англ, usability) означает удобство использования чего-либо. В нашем случае мы поговорим о юзабилити сайта, т. е. об удобстве использования вашего Интернет-ресурса и почему это очень важно для развития проекта.
– если ваш сайт «кривой», глючный и неудобный в навигации вы будете терять клиентов. Часть из них просто не доберется до покупки или других важных действий и уйдет на другие, более понятные сайты;
– следствием этого станут плохие поведенческие факторы. А это уже не лучшим образом отразится на позициях в выдаче;
– поисковые системы официально заявили, что учитывают юзабилити при ранжировании сайта. Я не совсем представляю какие алгоритмы для этого используются, может быть все тот же Матркикснет, но тем не менее факт – Яндекс официально объявил, что умеет оценивать юзабилити.
Я думаю этих пунктов достаточно, чтобы отнестись к вопросу со всей серьезностью. Юзабилити – это наука и искусство одновременно, здесь объединяются знания из психологии, маркетинга и других сфер человеческой деятельности. Мы расскажем об основных правилах, которые помогут вам избежать грубых ошибок и сделать удобный и привлекательный сайт.
1. Правило 10 секунд. Помните, что на первоначальную оценку полезности вашего ресурса посетитель тратит не более 10–15 секунд. Вот т. е. попал человек из поиска на вашу страницу, несколько беглых взглядов, пара прокруток страницы – и принимается решение: уйти или остаться. Вспомните свое собственное поведение, когда вы ищете что-то в Яндексе – правда, так оно и происходит?
Если в первые 15 секунд вы не удержали посетителя – он для вас потерян. Если же человек остался на сайте-это уже победа. Теперь вы сможете донести до него свои предложения более подробно.
Не нужно размещать на странице кучу всякой информации мелким шрифтом. Вы должны сразу, четко, наглядно дать понять посетителю, что вы ему предлагаете. Это может быть картинка, или заголовок или еще что-то – но это должно быстро передавать суть вашего сайта и быть заметным.
2. Правило вложенности информации. Какое-то корявое получилось название, но лучше не придумал. Суть в том, что кроме короткого и броского информационного «анонса» на сайте должна быть и более подробная информация о товаре или услуге. И эту информацию посетитель должен быстро найти. Есть пользователи, которые ненавидят читать длинные тексты. А есть такие, которые будут въедливо и дотошно изучать ваш сайт. Вы должны найти подход к обеим группам.
3. Кошелек Миллера. Это правило сформулировал психолог Джордж Миллер, отсюда и название. Суть его в том, что средний человек не способен воспринимать более 7 предметов/сущностей одновременно. Именно столько умещается в нашей кратковременной памяти.
Я к тому, что не нужно вываливать на посетителя сразу все, что вы можете ему предложить – он этого просто не усвоит, и скорее предпочтет уйти, чем разбираться. Соблазн велик – вот у нас на сайте можно купить телефоны, телевизоры, пылесосы, фены, бритвы, компьютеры, жесткие диски, палатки, удочки, котелки и мангалы. И все это сразу предложить – ведь мы не знаем точно, зачем к нам пришел клиент. Вывалим на него все что есть, пусть обалдеет от счастья. Однако, эффект достигается противоположный.
Старайтесь разбить все предложения на группы, а число этих групп не должно нарушать правило знаменитого «кошелька». Если у вас много пунктов в меню – также группируйте их по этому принципу.
Как сказал один из моих знакомых разработчиков ПО: «Очень легко напихать в программу всяких полезных функций, превратив ее в многофункциональный комбайн. Трудно этого не сделать». Оцените мудрость данной мысли. Человек не хочет «кучу всего», что вы можете предложить. Ему нужно найти ответ на конкретный запрос, по возможности не сильно напрягаясь.
4. Удобная навигация. Долго говорить не буду. Разделы, подразделы, меню и т. п. Пользователь должен интуитивно ориентироваться в структуре сайта. В этом случае он не уйдет, даже если на первой странице не нашел нужного ответа.
5. Хлебные крошки. Название пошло от сказки братьев Гримм, где девочка использовала хлебные крошки, чтобы не заблудиться.
На сайтах это выглядит примерно так:
Главная ? Товары для отдыха ? Мангалы ? Мангал переносной на б шампуров
При этом последний пункт в цепочке соответствует текущей странице, а все предыдущие – являются ссылками на подкатегории товаров.
6. Читабельный текст. Текст не должен быть слишком мелким, сливаться с цветом фона, расстояния между строками не должны быть слишком маленькими. Текст должен быть разбит на параграфы.
Иной раз встречаешь сайты, где зеленый текст расположен на черном фоне. На сайте должна быть очень нужная информация, чтобы заставить меня читать подобное! Иной раз, приходится текст выделять мышкой, чтобы «инвертировать» цвета – это ли не издевательство над пользователем.
7. Используйте картинки для разбавления текста. Это облегчает чтение и восприятие информации. Но не переусердствуйте. Мигающие и сверкающие баннеры – явный перебор.
8. Неинформативная главная страница. Никому абсолютно неинтересно читать о ваших достижениях. Кто вы, что вы, сколько лет на рынке, каковы ваши задачи и т. п. Это так, чтобы свое самолюбие потешить. Такая информация размещается в разделе «о нас» или «о компании», но никак не на главной странице.
9. Контакты. Контактная информация должна быть видна на любой странице, а не запрятана в глубины сайта. Нужно давать пользователю возможность обратиться к вам как по телефону, так и по электронной почте.
Есть люди, которые всегда звонят (дойдет ли е-майл, да ответят ли на него… лучше позвонить). А другие всегда пишут через е-майл или форму контактов- им так комфортнее. Вы должны давать обе возможности.
10. Актуальный прайс-лист. На сайте должна быть максимально подробная информация о ценах, способах оплаты и доставки. Это настолько важно, что я еще раз подчеркну – МАКСИМАЛЬНО подробная.
Приведу пример из жизни. Мы много путешествуем, при этом часто самостоятельно, без турфирм (кстати, кому нравится как я пишу- рассказы о наших поездках по миру вы найдете здесь crimea-blog.com/in-travel.html). И естественно, мне очень часто приходится бронировать гостиницы через Интернет. Все отели можно условно разделить на три группы:
– есть фиксированный прайс-лист. Зашел, посмотрел, понял – подходит гостиница по цене или нет. Это идеальный вариант
– прайс-листа нет, но есть система бронирования, которая калькулирует цену. Иногда довольно запутанная. Неприятно, ведь я еще не решил бронировать, хочу просто узнать цену – а меня просят целую анкету для этого заполнить. Неудобно, но в принципе терпимо.
– нет ни прайса, ни бронирования, только контакты. Такие отели никогда не увидят меня своим клиентом. А то мне делать больше нечего, как звонить в другую страну, где меня еще и понять-то не смогут, только для того чтобы цену уточнить. Конкуренция позволяет мне найти более удобные варианты. Мне вообще интуитивно кажется, что если цена не указана – значит она высокая. Если дешевле, чем у конкурентов – так написали об этом крупными буквами.
Вот что значит плохое юзабилити – потратить немалые деньги на раскрутку и продвижение, получить потенциального клиента – и потерять его на ровном месте. Не допускайте подобных ошибок.
Глава 3
Фильтры поисковых систем
3.1. Фильтры поисковых систем. Общая информация
Фильтры – это алгоритмы, вычищающие выдачу от плохих и некачественных страниц. А точнее даже от «плохих» страниц, искусственно маскирующихся под «хорошие». Т. е. от тех сайтов, над которыми плотно поработал оптимизатор для придания ресурсу псевдо-ценности, от ресурсов, использующих искусственную накрутку различных факторов ранжирования.
В следующих главах мы расскажем, что нужно делать для продвижения сайта. Эта же глава посвящена тому, чего делать НЕ НУЖНО. Перед началом продвижения вы должны знать, за что можно получить по рукам от поисковых систем.
Первым делом фильтры можно разделить на группы по принципу применения, фильтр может быть наложен:
– на весь сайт целиком. Т. е. весь ресурс исключается, либо сильно ограничивается в поиске;
– на конкретную страницу. Сайт в целом ранжируется нормально, трафик с поисковых машин есть, но некоторая отдельная страница в выдачу по своим запросам не попадает;
– на пару «запрос + страница». Хорошо ранжируется не только сайт, но даже и конкретная «зафильтрованная» страница. По всем своим запросам, кроме некоторых. Т. е. по «запрос 1» – высокие позиции, а по «запрос 2» – вообще нет в выдаче. Хотя оба запроса одного уровня и оба на странице раскрываются. Просто поисковик посчитал, что с «запросом 2» вы чего-то намудрили и информация по нему недостоверная. Но при этом поводов для какого-то серьезного «наказания» нет.
Конец ознакомительного фрагмента.
Текст предоставлен ООО «ЛитРес».
Прочитайте эту книгу целиком, купив полную легальную версию на ЛитРес.
Безопасно оплатить книгу можно банковской картой Visa, MasterCard, Maestro, со счета мобильного телефона, с платежного терминала, в салоне МТС или Связной, через PayPal, WebMoney, Яндекс.Деньги, QIWI Кошелек, бонусными картами или другим удобным Вам способом.


      Купить на ЛитРес



 

Комментарии

Популярные сообщения из этого блога

День, когда я перестала торопить своего ребенка. История современной мамы, которая научилась успевать главное

Сила Киски. Как стать женщиной, перед которой невозможно устоять

Пять четвертинок апельсина