Как сэкономить на анализе сайта со Screaming Frog SEO Spider

Представляем обзор инструмента, который решает большинство задач для проведения технического SEO аудита сайта.

Давайте начнём.

Цена

Этот инструмент доступен в условно бесплатной версии. Можно сканировать сайт с количеством ссылок до 500 бесплатно. Однако стоит учитывать, что в эту квоту входят не только страницы , но и изображения, скрипты, документы и другие ресурсы. В бесплатной версии ограничены некоторые аналитические функции.

Полная версия стоит около 149 фунтов стерлингов, что на момент написания статьи эквивалентно более 14 тыс. рублей.

Установка

Для начала необходимо скачать программу с официального сайта. Установку следует проводить, скачав её с доверенного ресурса, а не с торрентов с крякнутыми версиями. После ввода лицензионного ключа (key) в меню «Licence» можно начать использование программы.

Важно отметить, что программа работает только на английском языке и русификатора для неё нет. Каждый анализируемый пункт можно экспортировать в Excel для дальнейшей работы.

Начало работы, подготовка к анализу сайта

Возьмем для примера сайт и проведем его анализ. Для этого запускаем программу, вводим домен сайта в соответствующее поле и начинаем сканирование.

Если требуется просканировать все страницы сайта, просто вводим домен и нажимаем «Start». Ползунок Crawl будет показывать процент завершённости работы.

Если нужно проанализировать определённые страницы, можно использовать режим "List". В этом режиме выбираем «Upload», вставляем ссылки и начинаем сканирование.

Настройки и фильтрация

Если необходимо исключить какие-то страницы или поддомены, можно настроить это с помощью регулярных выражений. Также можно отключить сканирование страниц, если сайт закрыт через файл robots.txt.

Для более детальной настройки можно перейти в меню Configuration -> Spider -> Basic и выбрать, какие элементы нужно включать в анализ.

Скорость парсинга

Скорость работы программы можно настроить через Configuration -> Speed, где Max threads указывает количество потоков, создающих нагрузку на сайт. Чем ниже этот показатель, тем меньше нагрузка на сервер.

Сортировка элементов сайта

В правой части интерфейса программы в меню "Seo elements" можно увидеть все элементы, которые программа обнаружила на сайте. Из этого списка можно выбрать только те, которые нужны для анализа.

Исходящие ссылки

Для анализа исходящих ссылок следует перейти в вкладку External. Здесь можно узнать, на какой странице размещена та или иная исходящая ссылка. Выделив нужную ссылку, можно посмотреть, на каких страницах она встречается.

Структура сайта

Для анализа структуры сайта нужно выбрать пункт Internal -> Select Type of table view, чтобы увидеть внутренние страницы и их взаимосвязь.

Страницы с разными протоколами http и https

Вкладка Protocol показывает, какие страницы сайта используют HTTP или HTTPS. Можно проверить корректность редиректа и удостовериться, что все страницы имеют необходимый сертификат безопасности.

Коды ответа сервера

Для анализа кодов ответа сервера перейдите в Response codes и выберите нужный тип ответа для дальнейшего анализа.

Работа с URL'ами

Для анализа URL'ов перейдите в блок URL. Здесь вы можете проверить дублирование URL'ов, наличие параметров в адресах и длину URL'ов.

Анализ title

Анализируйте title в блоке Page Titles. Важными параметрами являются отсутствие title, дубли, совпадение с H1, а также наличие нескольких тегов title на странице.

Проверка тегов description

Теги description проверяются аналогично тегам title: отсутствие, дубли и несколько тегов на странице. Рекомендуется устранить эти проблемы для улучшения видимости сайта.

Оптимизация изображений сайта

Особое внимание следует уделить изображению. Проверяется вес изображений, а также наличие отсутствующих alt-тегов.

Meta Keywords

Для мета-ключевых слов проверяются только страницы, где они отсутствуют. Остальные параметры можно проверять по желанию.

Теги Н1-Н2

Важно правильно настроить теги Н1 и Н2. Проверяются такие параметры, как отсутствие тегов, дубли и наличие нескольких тегов на странице.

Канонические страницы и теги next/prev

Проверяйте страницы на наличие канонических ссылок и правильное использование тегов next и prev для пагинации.

Meta robots

Проверьте наличие директив meta robots, таких как noindex, nofollow и noarchive, для корректной индексации сайта поисковыми системами.

Генерация sitemap.xml и карты картинок

В меню Sitemap можно создать карту сайта в формате XML и карту с изображениями, соответствующую требованиям поисковых систем.

Парсим сайт как бот поисковик

Для того чтобы программа работала как поисковый бот, можно настроить её через Configuration -> User Agent, выбрав нужный пресет.

Поиск соответствий на сайте

Для поиска определённых данных на сайте (например, контактных данных или микроразметки) используйте функцию Custom -> Search. Введите нужную маску и программа выполнит поиск.

Поиск медленных страниц на сайте

Медленно загружающиеся страницы можно найти через Response Codes -> Response Time, отсортировав данные по времени ответа сервера.

Внутренняя перелинковка

Проверьте количество внутренних ссылок через вкладку Internal -> Inlinks. Это поможет улучшить внутреннюю перелинковку и структуру сайта.

Интеграция по Api

Для интеграции с Google Analytics можно настроить API доступ через Configuration -> Api Access -> Google Analytics, что позволит загрузить данные аналитики прямо в программу для анализа.

Если у вас остались вопросы или нужна помощь в анализе сайта, обращайтесь в SEO студию "SEO COMPUTER" по email: info@seo.computer.

id 6692

Отправьте заявку и мы предоставим консультацию на SEO продвижение вашего сайта