Представляем обзор инструмента, который решает большинство задач для проведения технического SEO аудита сайта.
Давайте начнём.
Этот инструмент доступен в условно бесплатной версии. Можно сканировать сайт с количеством ссылок до 500 бесплатно. Однако стоит учитывать, что в эту квоту входят не только страницы , но и изображения, скрипты, документы и другие ресурсы. В бесплатной версии ограничены некоторые аналитические функции.
Полная версия стоит около 149 фунтов стерлингов, что на момент написания статьи эквивалентно более 14 тыс. рублей.
Для начала необходимо скачать программу с официального сайта. Установку следует проводить, скачав её с доверенного ресурса, а не с торрентов с крякнутыми версиями. После ввода лицензионного ключа (key) в меню «Licence» можно начать использование программы.
Важно отметить, что программа работает только на английском языке и русификатора для неё нет. Каждый анализируемый пункт можно экспортировать в Excel для дальнейшей работы.
Возьмем для примера сайт и проведем его анализ. Для этого запускаем программу, вводим домен сайта в соответствующее поле и начинаем сканирование.
Если требуется просканировать все страницы сайта, просто вводим домен и нажимаем «Start». Ползунок Crawl будет показывать процент завершённости работы.
Если нужно проанализировать определённые страницы, можно использовать режим "List". В этом режиме выбираем «Upload», вставляем ссылки и начинаем сканирование.
Если необходимо исключить какие-то страницы или поддомены, можно настроить это с помощью регулярных выражений. Также можно отключить сканирование страниц, если сайт закрыт через файл robots.txt.
Для более детальной настройки можно перейти в меню Configuration -> Spider -> Basic и выбрать, какие элементы нужно включать в анализ.
Скорость работы программы можно настроить через Configuration -> Speed, где Max threads указывает количество потоков, создающих нагрузку на сайт. Чем ниже этот показатель, тем меньше нагрузка на сервер.
В правой части интерфейса программы в меню "Seo elements" можно увидеть все элементы, которые программа обнаружила на сайте. Из этого списка можно выбрать только те, которые нужны для анализа.
Для анализа исходящих ссылок следует перейти в вкладку External. Здесь можно узнать, на какой странице размещена та или иная исходящая ссылка. Выделив нужную ссылку, можно посмотреть, на каких страницах она встречается.
Для анализа структуры сайта нужно выбрать пункт Internal -> Select Type of table view, чтобы увидеть внутренние страницы и их взаимосвязь.
Вкладка Protocol показывает, какие страницы сайта используют HTTP или HTTPS. Можно проверить корректность редиректа и удостовериться, что все страницы имеют необходимый сертификат безопасности.
Для анализа кодов ответа сервера перейдите в Response codes и выберите нужный тип ответа для дальнейшего анализа.
Для анализа URL'ов перейдите в блок URL. Здесь вы можете проверить дублирование URL'ов, наличие параметров в адресах и длину URL'ов.
Анализируйте title в блоке Page Titles. Важными параметрами являются отсутствие title, дубли, совпадение с H1, а также наличие нескольких тегов title на странице.
Теги description проверяются аналогично тегам title: отсутствие, дубли и несколько тегов на странице. Рекомендуется устранить эти проблемы для улучшения видимости сайта.
Особое внимание следует уделить изображению. Проверяется вес изображений, а также наличие отсутствующих alt-тегов.
Для мета-ключевых слов проверяются только страницы, где они отсутствуют. Остальные параметры можно проверять по желанию.
Важно правильно настроить теги Н1 и Н2. Проверяются такие параметры, как отсутствие тегов, дубли и наличие нескольких тегов на странице.
Проверяйте страницы на наличие канонических ссылок и правильное использование тегов next и prev для пагинации.
Проверьте наличие директив meta robots, таких как noindex, nofollow и noarchive, для корректной индексации сайта поисковыми системами.
В меню Sitemap можно создать карту сайта в формате XML и карту с изображениями, соответствующую требованиям поисковых систем.
Для того чтобы программа работала как поисковый бот, можно настроить её через Configuration -> User Agent, выбрав нужный пресет.
Для поиска определённых данных на сайте (например, контактных данных или микроразметки) используйте функцию Custom -> Search. Введите нужную маску и программа выполнит поиск.
Медленно загружающиеся страницы можно найти через Response Codes -> Response Time, отсортировав данные по времени ответа сервера.
Проверьте количество внутренних ссылок через вкладку Internal -> Inlinks. Это поможет улучшить внутреннюю перелинковку и структуру сайта.
Для интеграции с Google Analytics можно настроить API доступ через Configuration -> Api Access -> Google Analytics, что позволит загрузить данные аналитики прямо в программу для анализа.
Если у вас остались вопросы или нужна помощь в анализе сайта, обращайтесь в SEO студию "SEO COMPUTER" по email: info@seo.computer.
id 6692