
Этот инструмент предлагает широкий набор функций, начиная с проверки корректности мета-тегов и заканчивая анализом микроразметки, что делает его незаменимым для подробного анализа сайтов различного размера.
В этом руководстве мы рассмотрим основные настройки и функции SEO Spider, которые помогут вам эффективно анализировать и улучшать ваш сайт.
Откройте меню File → Settings → Memory Allocation.
Рекомендуется выделить 8 ГБ памяти для крупных проектов, либо половину от объема доступной памяти.

Перейдите в File → Settings → Storage Mode.
По умолчанию используется Memory Storage (оперативная память). Рекомендуется переключить на Database Storage (жесткий диск), особенно если диск SSD, чтобы ускорить процесс сканирования.

В настройках (File → Settings → Proxy) можно установить прокси-сервер, если ваш IP заблокирован на определенном сайте, что поможет обойти блокировки.

Перейдите в Configuration → Crawl Config → Speed.
Оптимальное значение для Max Threads (потоков) — до 5. Увеличение числа потоков может привести к блокировке или перегрузке сайта во время сканирования.
Параметр Limit URL/s оставьте на уровне 2.0 URL в секунду. В случае ошибок 5XX уменьшите значение до 1.0 или 0.5 для стабильности.

Перейдите в Configuration → Crawl Config → Spider → Crawl.
Если вы хотите сканировать только выбранный раздел сайта, снимите галочку с опции "Check Links Outside of Start Folder". Включение "Crawl Outside of Start Folder" расширяет область сканирования на все ссылки сайта.
Если нужно, активируйте опцию "Crawl All Subdomains" для обхода поддоменов, а также настройте обход ссылок с атрибутом nofollow.

Не забудьте активировать опцию "Crawl Linked XML Sitemaps", чтобы анализировать страницы, которые могут не иметь прямых ссылок, но указаны в карте сайта.

Этот режим имитирует поведение поисковых систем: с главной страницы сайт сканируется по внутренним ссылкам, углубляясь по уровням структуры.
Вы можете загрузить файл с URL-ами для сканирования, ввести их вручную или использовать ссылку на XML Sitemap.

Этот режим анализирует только Title и Description. Режим используется реже и подходит для простых проверок мета-данных.
Позволяет сравнивать результаты разных сканирований, полезно для отслеживания изменений или устранения ошибок.
Перейдите в Configuration → Crawl Config → Content → Duplicates.
При включенной опции "Only Check Indexable Pages for Duplicates" программа будет искать дубликаты только среди страниц, доступных для индексации.
Опция "Enable Near Duplicates" позволяет настроить процентное совпадение контента, что помогает найти неявные дубликаты.

Результаты можно увидеть в разделе Content → All, отсортировав страницы по количеству слов. Страницы с малым количеством контента могут оказаться менее полезными для поисковых систем.

Особенно полезен для сайтов с каталогами товаров, где можно определить страницы с недостаточной уникальностью контента. Определите правильные классы или id для карточек товаров и настройте фильтрацию.

Для проверки наличия аналитических счетчиков (например, Яндекс.Метрика или Google Analytics) можно использовать режим поиска по коду страницы, вставив номер счетчика в настройки поиска.

После сканирования сайта можно просматривать мета-теги и заголовки в разделе Page Title. Важно проверить такие моменты, как:

Просматриваем результаты в разделе Response Codes. Важно обращать внимание на ошибки типа 4xx и 5xx, их необходимо исправить, чтобы страницы корректно загружались.