Jump to content
Лента
  • Добро пожаловать на :::XakepInter.Net - Исследование Безопасности и Уязвимостей в Сети:::.
  • Возможнасти
  • Чтобы увидеть ссылки и все функции форума рекомендуем зарегистрироваться.Приятного общения!.
Sign in to follow this  
Der X

SEO: Общие сведения

Recommended Posts

SEO: Общие сведения
На форуме появился спрос на инфу по этой теме, а как известно, спрос порождает предложение (экономика). Что же, попробуем вместе разобраться.

Основные термины
Поиско***769;вая оптимиза***769;ция
 (англ. search engine optimization, SEO) — комплекс мер для поднятия позиций сайта в результатах выдачи поисковых систем по определенным запросам пользователей. Обычно, чем выше позиция сайта в результатах поиска, тем больше заинтересованных посетителей переходит на него с поисковых систем.

Google PageRank (от Larry Page Rank) (иногда просто PR) — алгоритм расчёта авторитетности страницы, используемый поисковой системой Google.PageRank — это числовая величина, характеризующая «важность» страницы в Google. Чем больше ссылок на страницу, тем она становится «важнее». Кроме того, «вес» страницы А определяется весом ссылки, передаваемой страницей B. Таким образом, PageRank — это метод вычисления веса страницы путем подсчета важности ссылок на неё. PageRank является одним из вспомогательных факторов при ранжировании сайтов в результатах поиска. PageRank не единственный, но очень важный способ определения положения сайта в результатах поиска Google.Google учитывает не все ссылки. Поисковая система отфильтровывает ссылки с сайтов, специально предназначенных для скопления ссылок. Некоторые ссылки могут не только не учитываться, но и отрицательно сказаться на ранжировании ссылающегося сайта (такой эффект называется поисковой пессимизацией). В Google понимают, что вебмастер не в состоянии повлиять на входящие внешние ссылки, но полностью контролирует исходящие ссылки со своего сайта. Поэтому ссылки на сайт не могут повредить ему, но ссылки с сайта — могут. Следует внимательно относиться к сайтам, на которые вы ссылаетесь.Google использует показатель PageRank найденных по запросу страниц, чтобы определить порядок выдачи этих страниц посетителю в результатах поиска.Это означает, что поиск в Google работает следующим образом:
1. ищутся все страницы, в которых есть слова из запроса пользователя;
2. найденные страницы ранжируются на основе текстовых критериев;
3. учитывается текст ссылок на сайт;
4. результаты корректируются с учетом PageRank каждой страницы.Шкала PageRank может изменяться от 0 до 10.

Индекс цитирования (или ИЦ) — принятая в научном мире мера «значимости» трудов какого-либо ученого. Величина индекса определяется количеством ссылок на этот труд (или фамилию) в других источниках. Однако для действительно точного определения значимости научных трудов важно не только количество ссылок на них, но и качество этих ссылок. Так, на работу может ссылаться авторитетное академическое издание, популярная брошюра или развлекательный журнал. Значимость у таких ссылок разная.

тИЦ рассчитывается для интернет-ресурсов. Под интернет-ресурсом может пониматься как сайт (хост), так и некоторый раздел сайта (физически это директория). Раздел сайта (директория) считается самостоятельным ресурсом, если она описана в каталоге Яндекса. Если для сайта в каталоге описаны несколько директорий, тИЦ будет обсчитываться для каждой из них, в противном случае весь сайт будет считаться одним интернет-ресурсом.
Поскольку в тИЦ учитывается только вес внешних интернет-ресурсов, ссылающихся на заданный, тИЦ не может быть увеличен ни за счет «внутренних» ссылок (с одних страниц ресурса на другие), ни за счет расположения нескольких ссылок на одной или нескольких страницах одного и того же «внешнего» ресурса. При расчете тИЦ одного из разделов сайта (директорий) ссылки на раздел сайта из других разделов этого сайта будут считаться внутренними и, следовательно, не будут увеличивать его тИЦ. При этом ссылки на каждый из разделов сайта учитываются (объединяются) при подсчете тИЦ всего сайта.


Продолжаем
При оптимизации сайта в русскоязычном сегменте все в основном ориентируются на google и yandex, что вполне понятно т.к. на их долю приходится основное количество запросов.


Что любит yandex?
Яндекс любит, когда любят его, а именно, нужно постараться максимально засветить ресурс на его сервисах.


Для начала, не плохо бы добавить свой сайт для индексации: http://webmaster.yandex.ru/
Далее, добавить его сюда: http://webmaster.yandex.ru/wmconsole/
Если у Вас есть поддержка rss, то не стоит забывать и про неё т.к. у яши существует малоизвестный поиск по rss: http://blogs.yandex.ru/add.xml


И сюда пихаем свою ленту.


К слову, сайты, которые туда добавлены лучше индексируются и выдаются выше в поисковых запросах.


Что любит google?
Гугл любит себя и деньги.
Добавляем свой ресурс в гугл тут: http://www.google.ru/intl/ru/addurl.html
По поводу денег, у google есть рекламная партнёрка для владельцев сайтов Google AdSense, сайты, участвующие в ней, он разумеется радует больше, чем остальные. К слову, если вы ещё не взяли хост, то есть смысл поискать хорошенько и найти тот, который при регистрации даёт бонусы для Google AdSense, убьёте сразу двух зайцев.


Сравнение анализа сайтов у гугла и яши
Яндекс в первую очередь ориентируется при выдаче результатов на дату появления информации и титл страницы(<title>bla bla bla</title), гугл же смотрит на авторитетность ресурса (PR), количество раз, которое слово присутствует на странице и мета-данные. 

Каталоги
Говоря про каталоги интернет сайтов, я подразумеваю лишь русские т.к. мы всё же обсуждаем именно российский сегмент, как уже было сказано выше.


Обычно сайт прогоняют через 1ps.ru, быстро, просто, доступно, однако, года три назад, при соблюдении всех условий, которые диктует сервис, мне удалось лишь поднять один свой старый проектик до 70 хостов в сутки (примерно через 2 недели), сейчас, я думаю, дело обстоит ещё хуже т.к. поисковики не стоят на месте и постоянно совершенствуют методы фильтрации.


Хотя, лишним прогон тоже не будет, в конце-концов, гугл не до конца в курсе по поводу наших умельцев, к тому же, если прогонять с единичными целевыми запросами, то можно добиться от него неплохих результатов. 

И ещё немного
1) На новом проекте никогда не следует вешать рекламу.
2) Для начала нужно найти новый и интересный контент, разбавляя его чем-то не столь распространённым
3) Нужно поддерживать постоянное обновление информации
4) Было бы не плохо обменяться ссылками с крупными ресурсами, желательно по теме. Как вариант - за единоразовую плату.
5) Следует избегать обмена ссылками с большим количеством ресурсов, которые никак не соприкасаются с темой Вашего (из соображений угождения поисковикам)

Ещё немного инфы:
Основные SEO термины

SEO (Search Engine Optimization, поисковый маркетинг) - оптимизация и продвижение веб-сайта в поисковых системах. Цель оптимизации сайта заключается в повышении его позиции в результатах поиска по ключевым запросам и тем самым привлечении наибольшего числа заинтересованных пользователей из поисковых систем. SEO включает целый комплекс мер по корректировке контента и HTML-кода сайта, а также рекламу ресурса и распространение о нем информации при помощи обмена ссылками с партнерами, регистрации сайта в каталогах и др.

ТИЦ — тематический индекс цитирования — рассчитывается для сайта в целом и показывает авторитетность ресурса относительно других, тематически близких ресурсов (а не всех сайтов Интернета в целом). ТИЦ используется для ранжирования сайтов в каталоге Яндекса и не влияет на результаты поиска в самом Яндексе.

ВИЦ — взвешенный индекс цитирования — аналог PageRank, применяемый поисковой системой Яндекс. Значения ВИЦ нигде не публикуются и известны только Яндексу. Поскольку узнать ВИЦ нельзя, следует просто помнить, что у Яндекса есть собственный алгоритм оценки «важности» страниц.


Doorways (дорвеи) - "черный" метод оптимизации, заключающийся в создании специальных "входных" страниц для того, чтобы сайт индексировался наилучшим образом и занимал верхние позиции в результатах поиска. Обычно дорвеи содержат специально написанный нечитаемый текст, состоящий из популярных запросов пользователей. Как правило, посетители не успевают увидеть сам дорвей: их автоматически переадресовывают ("редиректят") на раскручиваемый сайт, в то время как поисковому роботу туда путь закрыт. Если будет доказана причастность сайта к дорвею, он будет исключен из базы данных поисковой системы.
Есть дорвеи, которые относятся к "серой" оптимизации: с одной стороны, они содержат нечитаемый или плохо читаемый текст, но, с другой стороны, на странице присутствует ссылка на другой сайт. То есть пользователь уже сам решает, переходить ему по ссылке или нет. Напрямую это не запрещено, однако за использование таких дорвеев реальный рейтинг сайта может быть искусственно занижен администраторами поисковой системы и сайт в любой момент может быть исключен из нее.

Баннер - вид рекламного носителя в сети Интернет, изображение, как правило, рекламного содержания, при клике на которое открывается веб-страница с более подробным описанием рекламируемой акции, товара или услуги. Стандартными размерами баннеров считаются 468х60, 100х100, 420х200, 234х60. Баннеры бывают статичными (gif или jpeg картинки) и динамичными (flash-баннеры).

Баннерообменные сети - замкнутая система сайтов, участники которой свободно обмениваются баннерами друг с другом. Система определяет единый формат баннеров, и, как правило, ограничивает их тематику. Такой способ продвижения, обычно используют частные пользователи: он не требует финансовых затрат, а для участия достаточно разместить на своей странице код сети. За использование сервиса администрация сети удерживает определенное количество показов (от 10 до 25%), которые потом продаются сторонним рекламодателям. Участие коммерческой организации в бесплатных баннерообменных сетях может негативно отразиться на ее имидже, т.к. сложно предугадать, какими будет содержание и оформление чужого баннера, и насколько он будет гармонировать с тематикой и дизайном вашего сайта.

Индексация - процесс автоматического анализа поисковым роботом содержания веб-сайта для внесения его в базу поисковой системы. Индексация проводится по определенным правилам, которые отличаются у разных поисковых систем и хранятся ими в тайне. Результаты индексации используются поисковой системой для определения релевантности сайта запросу пользователя, т.е. для выявления соответствия содержания сайта данному запросу.

Контент - содержание (информационное наполнение) сайта: текстовая информация, графические материалы, мультимедийные файлы и др. При разработке сайта всегда следует помнить, что пользователь в первую очередь ищет интересный контент - нужную ему информацию, а уже потом оценивает дизайн и прочие элементы сайта. Поэтому самая необходимая и важная информация должна быть легко доступна с любой страницы сайта. Особую роль в этом смысле играет контент главной страницы сайта. Поскольку пользователь одновременно просматривает сразу несколько сайтов, у него нет времени на детальный анализ и первое впечатление рождается именно от просмотра главной страницы. Поэтому на ней стоит разместить максимум информации, которая может заинтересовать пользователя и заставить его задержаться на сайте.
Не стоит также пренебрегать регулярным обновлением контента - например, вести ленту новостей, информационную рассылку, проводить опросы, конкурсы. Это способствует формированию постоянной аудитории ресурса.

Мета-тег - специальный тег, т.е. набор символов в HTML-разметке страницы, в который помещают слова, отражающие содержание веб-страницы. Информация, размещенная в мета-теге, обладает большим значением для поисковых систем и в первую очередь используется при анализе сайта. Слова и словосочетания, размещенные в мета-теге, должны соответствовать действительному содержанию страницы.
В мета-теге указываются (наиболее важные):
Ключевые слова "keywords"
Описание содержания страницы "description"

Понижающий коэффициент - число, на которое умножается реальный рейтинг ресурса для автоматического занижения его позиции в результатах поиска, своего рода "штраф" за применение запрещенных или нежелательных методов оптимизации.

Посещаемость - количество уникальных пользователей (хостов), посетивших сайт за конкретный промежуток времени (обычно 24 часа). Статистику посещаемости каждой страницы ресурса можно узнать с помощью счетчиков. В общем случае принято считать, что чем выше посещаемость, тем лучше для сайта. Однако посещаемость нельзя рассматривать в отрыве от других показателей работы сайта. Например, высокая посещаемость в сочетании с маленькой глубиной просмотра может свидетельствовать о том, что на сайт приходят нецелевые (случайные) посетители, которым неинтересно содержание ресурса.

Релевантность - степень соответствия найденной веб-страницы запросу пользователя. Релевантность вычисляется поисковой системой по определенному алгоритму, подробности которого держатся в тайне. Задача оптимизации сайта заключается в повышении релевантности сайта по выбранным ключевым запросам, т.е. повышении позиции сайта в результатах поиска по данному запросу.

Робот (robot, спайдер, паук, spider) - часть поисковой системы, предназначенная для сбора и анализа информации (контента) с сайтов. В соответствии с установленным алгоритмом робот анализирует содержание каждой страницы сайта, заносит его в базу данных поисковой системы и присваивает определенное место в рейтинге по конкретному запросу (производит индексацию). Чем чаще обновляется и дополняется информация на Вашем сайте, тем чаще робот будет проводить индексацию страниц.
Владелец сайта может описать права доступа для поисковых роботов, т.е. указать им, какие страницы нужно индексировать, а какие - нет, предоставить разным роботам разные права доступа. Для этого создается специальный файл /robots.txt. Именно его в первую очередь запрашивает робот при обращении к серверу. Если в файле /robots.txt содержится 0 записей, то робот будет индексировать все страницы сайта в соответствии со своим алгоритмом. Если робот найдет в этом файле специально созданное для него правило, то поступит так, как ему предписано. Файл /robots.txt ограничивает действия поисковых роботов и за счет этого отчасти помогает решить серьезную проблему с нагрузкой на сервер, которая создается при индексации всего содержимого сайта.
Существует еще один способ задать правила поведения робота для каждой HTML-страницы в специальных мета-тегах вида , где в robot_terms через запятую указываются правила индексации all, none, index, noindex, follow или nofollow.

Спам - массовая рассылка электронных писем в основном рекламного характера без разрешения со стороны адресатов. Рассылка спама запрещена условиями договора большинства провайдеров и при нарушении сайт, с которого рассылался спам, как правило, отключается. Спам необходимо отличать от рассылок (direct-mail), которые являются законным методом распространения информации среди пользователей. В отличие от спама, рассылки обладают следующими признаками:

- Пользователь сам подписался на получение рассылки,
- Пользователь в любой момент может отказаться от получения рассылки,
- В тексте каждого письма содержатся контакты для обратной связи с автором рассылки,
- Рассылка производится с действительных (неподдельных) электронных адресов.

Спам поисковых систем (спамдексинг) - это использование непрофессиональных и запрещенных методов оптимизации сайта с целью завышения его позиции в рейтинге поисковых систем по определенным запросам. Существуют "серые" (нежелательные) и "черные" (однозначно запрещенные регламентом поисковых систем) методы оптимизации, однако граница между ними сильно размыта. Оптимизация "на грани фола" может принести ощутимый результат на короткий срок, но при этом велика вероятность, что в дальнейшем ресурс попадет в "черный список" (бан) поисковой системы или будет "оштрафован" за нарушение правил. В первом случае сайт вообще будет исключен из базы поисковой системы. В случае "штрафа" позиция ресурса в результатах поиска автоматически занижается путем умножения его реального рейтинга на понижающий коэффициент. К "черным" методам оптимизации относятся Doorways (дорвеи), Cloaking (клоакинг), Code swapping (свопинг), размещение текста и ссылок, тем или иным образом скрытых от пользователя, и др.

Ссылочный спам - метод оптимизации, при котором количество ссылок на ресурс наращивается искусственно без учета тематики сайта или вообще происходит автоматический обмен ссылками внутри группы ("кольца") сайтов. Ссылочный спам используется для повышения индекса цитирования сайта. Обычно этот метод относят к "серым" или даже "черным" методам оптимизации - в зависимости от решения администрации конкретной поисковой системы. Однозначным нарушением правил пользования поисковыми системами считается установка ссылок, тем или иным образом скрытых от пользователя. В самом худшем случае сайт может попасть в "черный список" и быть исключенным из базы поисковой системы.

Счетчик посещаемости - программа, позволяющая учитывать количество уникальных посетителей на каждой странице сайта, а также количество просмотренных посетителями страниц за определенный промежуток времени. Счетчики могут отличаться по своим возможностям, поэтому в статистический отчет могут быть включены и другие показатели, например, распределение посетителей по регионам. Показания счетчиков могут отличаться. Это связано с разными причинами, в том числе с тем, что некоторые пользователи могут блокировать адреса счетчиков и тогда их посещения (хиты) не будут учитываться. Счетчик необязательно отражается на веб-странице, а его статистика может быть как общедоступной, так и закрытой для посетителей сайта.

Теги заголовков - заголовки, присутствующие внутри текста страницы и указанные в HTML-коде в тегах . Слова и фразы, размещенные внутри этих тегов, будут определяться поисковым роботом как обладающие большим значением по отношению к основному тексту страницы и, скорее всего, будут использоваться при определении ее содержания. Поэтому слова и фразы заголовка должны быть приближены к желаемым (ключевым) запросам пользователей, но в то же время соответствовать реальному содержанию текста и присутствовать в нем (количество вхождений не должно быть низким).

Целевой посетитель - заинтересованный посетитель, пришедший на сайт по ключевому запросу, т.е. искавший в поисковой системе информацию, связанную с тематикой сайта.

Черные методы оптимизации - методы, однозначно запрещенные регламентом поисковых систем, за использование которых сайт исключается из базы данных поисковой системы. К "черным" методам оптимизации относятся Doorways (дорвеи), Cloaking (клоакинг), Code swapping (свопинг), размещение текста и ссылок, тем или иным образом скрытых от пользователя, и др.

Черный список(бан) - полное исключение сайта из базы данных поисковой системы за использование запрещенных ("черных") методов оптимизации. В случае попадания в "черный список" сайт вообще перестанет отображаться в результатах поиска по любым запросам. Восстановление сайта в поисковой базе практически невозможно, даже после внесения требуемых исправлений. Наказанием за применение некорректных методов оптимизации может также служить автоматическое занижение позиции ресурса путем умножения его реального рейтинга на понижающий коэффициент.

Юзабилити (Usability) - удобство использования и "полезность" сайта для его посетителей. При оценке юзабилити рассматриваются прозрачность и понятность структуры сайта, наличие на нем информации, которая необходима целевым посетителям, и полезных сервисов. Дизайн сайта не должен препятствовать пониманию системы и быстрому доступу к нужным функциям. Сайт должен проектироваться с учетом требований, уровня знаний и опыта его потенциальных пользователей.

Cloaking (клоакинг) - "черный" метод оптимизации, при котором поисковому роботу предоставляется один контент, а посетителям сайта - другой. Для этого пишется специальный программный модуль и составляется база по IP-адресам поисковых роботов. Когда "паук" приходит на сайт, программа вычисляет его по IP-адресу и "подсовывает" специально написанный контент. Для предотвращения обмана специалисты поисковых систем осуществляют дополнительный контроль в ручном и автоматическом режимах (запускают нового "паука" с неизвестным IP-адресом, который проверяет результаты, собранные основным роботом, и анализирует, совпадают ли данные с теми, что занесены в базу). За использование клоакинга сайт исключается из базы поисковой системы.

Code swapping (свопинг) - "черный" метод оптимизации, состоящий в замене содержимого страницы после того, как она была проиндексирована и заняла высокую позицию в рейтинге поисковой системы. За использование свопинга сайт исключается из базы поисковой системы. 
 
k0d.cc (с) v1de5h

---------======>>XakepInter.Net<<=======---------
 
Красть идеи у одного человека - плагиат; у многих - исследование.

Сунетесь к лучшим — умрете всей кучей.

… неважно хорошо это или плохо, а важно весело это будет или грустно.

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now
Sign in to follow this  

×
Вверх