Анализировать SEO-потенциал веб-страницы как «эксперта»
- Я режу, ты режешь, это режет, мы режем снова ...
- Начните с поиска целевых страниц с входящими ссылками
- Сравните данные с Excel, незаменимым инструментом любого хорошего SEO
- Вы действительно хотите сыграть в экспертов? Анализ журналов Apache и частота сканирования GoogleBot!
- Необходимая оптимизация сканирования
- Другие данные и индексы для оценки страниц ...
- ... не говоря уже о социальной гарантии
- Другие важные данные
- Определите ваши собственные KPI
Мы часто говорим об основах SEO, обо всех этих неизменных и неизбежных вещах, которые ни один редактор сайта не должен игнорировать. Свежий и уникальный контент, 1 товар = 1 URL, теги заголовка ... Но это не тема. Идея состоит в том, чтобы изучить ценность страницы или, скорее, URL, не обращая внимания на ее содержание. Другими словами, более алгоритмическое видение и ближе к моторной интерпретации.
Не настаивая на обратном инжиниринге, «эксперт» в SEO должен обязательно поддерживать свой анализ на большом количестве данных, быть надежным, если это возможно, и знать, как его обрабатывать, чтобы максимально приблизиться к видению движка.
Насколько вы можете судить, этот пост не имеет реальной темы, вероятно потому, что SEO не следует четко определенному и линейному процессу. Кроме того, выбор названия вполне мог бы быть:
- Excel, продвинутый пользовательский инструмент SEO
- Вы действительно "эксперт SEO"?
- Необходимая оптимизация сканирования
- Важность хорошего сканера
- Максимально используйте свои целевые страницы
- Лучшие показатели популярности
- Что не следует делать, чтобы оптимизировать длинный хвост ... и т. Д.?
Я режу, ты режешь, это режет, мы режем снова ...
В современном SEO все сводится к одному . Сила алгоритмов Google заключается в перекрестной проверке. Сила SEO также должна пересекаться. Я настаиваю. Когда кто-то утверждает, что оценивает веб-страницы, скажем, могут ли они ранжироваться или нет, необходимо пересечь несколько данных, поступающих из внешних источников, как внутренних ... и наиболее надежных из возможных!
Начните с поиска целевых страниц с входящими ссылками
Я много говорил об этом в своем посте внутренняя сетка , Он играет доминирующую роль в популярности страницы и распространении «сока» внутри. Нужно иметь хороший гусеничный Кричащая лягушка SEO Spyder собирать (среди прочего) количество входящих ссылок для каждого URL.
Но будьте осторожны, это еще не все! То, что собирает ваш сканер, не обязательно соответствует тому, что видит робот Google . направление Инструменты Google для веб-мастеров в Поисковый трафик> Внутренние ссылки, чтобы сравнить рейтинг наиболее связанных страниц по данным Google с рейтингом вашего сканера. Если сравнение двух источников данных выявляет большие различия, возможно, это связано с тем, что существуют факторы, которые замедляют или блокируют их где-то.
Сравните данные с Excel, незаменимым инструментом любого хорошего SEO
Вот процедура, которая позволит вам сравнить 2 ранжирования URL в Excel.
- Экспортируйте список URL из вашего сканера в Excel, отсортированный в порядке убывания по количеству входящих ссылок.
- Удалите все ненужные столбцы. Чтобы очиститься, включите все, чтобы оставить только столбец URL. Даже количество ссылок не имеет большого значения, идея состоит только в том, чтобы измерить различия между двумя источниками.
- В Google Webmaster Tools (GWT) в разделе «Поиск трафика»> «Внутренние ссылки» загрузите таблицу в формате csv.
- Откройте файл CSV в Excel, стараясь указать, что значения разделены запятыми. Если у вас возникли проблемы с открытием файла правильно, сначала откройте CSV с помощью текстового редактора, такого как Notepad ++, чтобы преобразовать его в UTF8, а затем снова откройте его в Excel.
- Scramble (там я немного ленивый извините), чтобы добавить путем конкатенации http://www.your-domain.fr перед URL, чтобы "соответствовать" с теми, которые собрал ваш сканер
- Скопируйте и вставьте сопоставьте URL-адреса из GWT (столбец B) рядом с теми, которые собрал ваш сканер (столбец A).
- В столбце C теперь мы отобразим позиционные отклонения URL-адреса B (GWT) от A (пользовательский сканер). Предполагая, что вы оставили заголовки столбцов в первой строке, поместите следующую формулу в C2: = SIERREUR (EQUIV (B2; $ A $ 1: $ A $ 13; 0) -LINE (); "n / a") затем постепенно расширять формулу на весь столбец.
У вас должно быть что-то похожее на этот график:
Затем вся работа будет заключаться в анализе пробелов и объема «н / д», который может быть индикатором реальной проблемы, связанной с сканированием и индексированием.
Конечно, я цитирую Excel, но вы должны сойти с рук с другими электронными таблицами на Google Диске или в Open Office.
Вы действительно хотите сыграть в экспертов? Анализ журналов Apache и частота сканирования GoogleBot!
Анализ сканирования роботом Google Тем не менее, часто игнорируемый SEO, является важным источником информации, позволяющим догадаться, как Google оценивает страницы сайта. Что более общего в SEO / SEO, которые пытаются заменить известную поисковую систему, чтобы воспринимать слабости сайта и предвидеть изменения в поисковой выдаче? Мало кто из провайдеров делает это, откладывая для некоторых кухню, необходимую для извлечения данных, а для других, предпочитающих придерживаться только PageRank, чтобы оценить популярность страниц сайта ... Короче говоря, для каждой степени экспертиза.
Логи Apache Это, безусловно, самые надежные и точные данные, за исключением того, что необработанные данные должны быть выполнены для получения удобочитаемых и действенных результатов. Частота прохождения GoogleBot позволяет оценить аппетит, который может иметь Google к страницам сайта. По общему признанию, PageRank влияет на частоту: чем больше у страницы высокий PR, тем выше будет частота (экономя ресурсы для Google). Тем не менее, чтобы проанализировать сайт с десятками тысяч страниц, подавляющее большинство из которых PR0 / 1, трудно быть удовлетворенным этим единственным индексом для оценки SEO-потенциала страниц.
Те, кто осваивает команды grep, cat, less и т. Д. под Linux не будет проблем с восстановлением следов, оставленных GoogleBot, как обсуждалось в мой предыдущий пост ,
Страница / URL, частота сканирования которой уменьшается, независимо от ее PR, наверняка увидит снижение рейтинга в результатах поиска. Аналогично, частота> 2 недель для URL-адреса обычно является признаком амортизации со стороны Google.
Необходимая оптимизация сканирования
Анализировать отрывки из GoogleBot - это хорошо, но на сайте, оптимизированном для сканирования, это еще лучше!
Анализ активности GoogleBot действительно может быть актуален только после полной оптимизации технической базы сайта для сканирования. Важно уничтожить / перенаправить URL-адреса, дублирующие контент (DUST), удалить 404 ошибки, чтобы обеспечить хорошее управление нумерацией страниц уменьшить задержку, оптимизировать структуру ... Короче говоря, упростить Google максимально возможное энергопотребление и посылать ему хороший сигнал. Давайте никогда не будем забывать, что энергия - это ахиллесова пята Google: чем больше ваш сайт будет запрашивать ресурсы для его отображения, тем хуже будет отдача.
Другие данные и индексы для оценки страниц ...
Многие внешние элементы могут быть использованы в качестве индикаторов популярности страницы.
Давайте быстро перейдем к PR, который остается более или менее действительным показателем в зависимости от случая, но его обновление стало очень редким, а его отсутствие детализации не приносит особого смысла в контексте тщательного анализа.
Индексы CitationFlow и TrustFlow от MajesticSEO быстро стали ссылками в этой области, особенно в TrustFlow. Более базовый ACrank также можно использовать для оценки основных целевых страниц сайта. Аналогично для Opensiteexplorer.org, индекс Page Authority является очень хорошим показателем. Бери те, что хочешь, но бери хотя бы одну!
... не говоря уже о социальной гарантии
Мы больше не можем игнорировать это, социальный фактор все больше и больше учитывается движками ... Наконец, я говорю «двигатели», чтобы избежать повторений с «Google»;)
Лично все мои анализы проходят через таблицы Excel. В сочетании с плагином SeoTools для Excel (бесплатно) мы получаем очень мощный инструмент, который ни один SEO не может надуть. И именно благодаря этому плагину я смогу собирать «голоса» в социальных сетях, таких как лайки, +1 и твиты.
Естественно, теоретически страницы, получившие наибольшее количество голосов, имеют больший потенциал для позиционирования, и все же в теории социальная популярность страниц должна соответствовать их количеству входящих ссылок ... Но на самом деле это редко бывает ,
Факт восстановления этих данных в электронной таблице, и это для каждого URL (по крайней мере, наиболее важного), позволяет оценить возможные различия или аномалии: только голоса на главной странице? Плохой сигнал Количество одинаковых голосов на каждой целевой странице? Плохой сигнал тоже.
Пример таблицы с плагином SeoTools для Excel
Другие важные данные
Мы уже видели внутренние ссылки. Количество внутренних ссылок является хорошим показателем, но можно также собрать количество исходящих ссылок и количество обратных ссылок. Ваш сканер также должен предоставить вам уровень глубины каждой страницы: обязательно, если страница находится в 4 кликах от главной страницы, это будет иметь серьезные препятствия!
Данные Google Analytics также важны для определения проблем на некоторых страницах. SeoTools for Excel , опять же, он позволяет автоматически восстанавливать (после авторизации) некоторые данные, такие как показатель отказов, количество посещений и т. Д. для каждой страницы. Предположительно стратегическая страница, которая не получает "естественный" трафик или высокий показатель отказов, не обязательно является хорошим знаком. Но я должен признать, что во время своих проверок я не придаю большого значения этим данным. Например, показатель отказов (не путать с частотой возврата двигателя) следует интерпретировать с большой осторожностью. Без дублирования и без сравнения с другими страницами и данными это мало что значит.
SeoTools для Excel и модуль Google Analytics
Определите ваши собственные KPI
Теперь у вас есть красивая таблица Excel, содержащая для каждого URL-адреса всю информацию, необходимую для оценки страниц. Но если сайт для анализа большой, с тысячами страниц, будет трудно распознать хорошие плохие URL. KPI ( ключевой показатель эффективности ) - это не что иное, как формула, примененная к собранным значениям, чтобы увидеть и отсортировать все результаты в соответствии с вашими критериями.
Давайте возьмем пример:
В электронной таблице Excel ячейки в столбце KPI будут возвращать «ОК», если:
- уровень
- количество внутренних ссылок (ссылок)> 200,
- количество исходящих ссылок
- поток доверия> 20.
В противном случае значение KPI будет «Плохо».
Конкретнее, предположим, что столбцы нашей таблицы следующие:
A: URL | B: уровень | C: ссылки | D: ссылки | E: обратные ссылки | F: доверие | G: KPI
Формула для применения в G2 будет следующей:
= SI (AND (B2200; D220); «Хорошо»; «Плохо»)
Все, что вам нужно сделать, это расширить формулу на весь столбец G и, если необходимо, отсортировать / отфильтровать ее, чтобы показать только «хорошие» URL-адреса.
Эта формула и эти значения, конечно, приведены в качестве примера. Не верьте, что для ранжирования целевой страницы необходимо минимум 200 входящих ссылок! Вам (SEO оборудован факультетом анализа) разместить курсор там, где это необходимо в соответствии с анализируемым проектом.
Я хотел бы поговорить с вами в этой публикации сводных таблиц и их использование в контексте SEO, но в конечном итоге это будет для следующей темы.
Вы действительно хотите сыграть в экспертов?Что более общего в SEO / SEO, которые пытаются заменить известную поисковую систему, чтобы воспринимать слабости сайта и предвидеть изменения в поисковой выдаче?
Плохой сигнал Количество одинаковых голосов на каждой целевой странице?