Для больших проектов в поисковом продвижении лучше воспользоваться платными инструментами, которые дают существенное преимущество в производительности, однако для ясного понимания, как работает SEO можно начинать с бесплатного софта.
Работа с этим SEO софтом не потребует других затрат кроме времени на обучение и определенной усидчивости, что является большим плюсом для начинающих оптимизаторов.
Правильное продвижение сайта нужно начинать еще на этапе его создания.
Для достижения наибольшей эффективности каждая страница сайта должна иметь определенную цель и должна быть “заточена” под соответствующие поисковые запросы.
Для некоторых ниш можно использовать , которое поможет добиться первых результатов сравнительно быстро.
Про способы подбора ключевых слов можно прочитать .
Можно подбирать запросы вручную, копируя фразы Яндекс Вордстата в Exel, сортируя и обрабатывая их вручную, но это может стать крайне неэффективным для проектов с большим числом ключевых слов, поэтому будем осваивать способы автоматизации.
Магадан – достаточно популярная программа в рунете для работы с ключевыми словами. Существует в двух версиях – платная Pro и бесплатная версия Lite. Работу с последней мы разберем, благо что у нее функционал почти не отличается от полной версии.
Основные возможности программы:
Магадан автоматизирует трудоемкие задачи парсинга ключевых слов, выкачивая целые страницы поисковых запросов вордстата. А потом он может выстроить взаимосвязь между группами запросов. Еще не существует аналогов с таким набором опций, как у этой программы.
Немного подробнее о возможностях:
Порядок работы с программой таков:
Ограничения версии Магадан Lite:
Эта программа, несмотря на неблагозвучное название, считается лучшей из бесплатных для .
Несмотря на сильно урезанный функционал по сравнению с KeyCollector, у этого софта все еще остается много полезных возможностей по сбору и анализу ключевых слов.
Возможности:
Slovoeb очень похож на Key Collector, имеет интуитивно понятный интерфейс, в котором несложно разобраться.
Что нужно знать про частотности Яндекса:
Самые важные настройки находятся во вкладке Общие и Парсинг/Yandex.WordStat .
Рассмотрим подробнее настройки Общие :
Парсинг/Yandex.WordStat :
Настроим парсинг статистики Вордстата:
Для пасинга кейвордов пройдем через следующие стадии:
Дополнительно можно еще сделать такие шаги:
Вот так производится весь процесс сбора ключевых слов из левой колонки Вордстата. Нужно расширить тематику? Тогда все эти шаги можно выполнить и для правой колонки Yandex.Wordstat.
Затем нам нужно узнать конкуренцию по ключевым словам. Для этого можно использовать возможности программы Slovoeb и получить число конкурирующих сайтов по этим запросам.
Но для получения большего количества и качества данных можно воспользоваться возможностями seo-агрегаторов. Например, полученные запросы можно добавить в ссылочные агрегаторы SeoPult или ROOKEE и узнать их стоимость продвижения.
Тщательный анализ полученных ключевых слов поможет построить из них семантическое ядро сайта.
Итак, эта программа прекрасно справляется со своими задачами и освоить ее не так сложно, как кажется на первый взгляд.
Поисковые системы постоянно повышают требования качества к сайтам, особенно к новым проектам. Одним из алгоритмов, определяющих качество сайтов, является проверка контента на уникальность. Контентом сайта является все его содержимое, которое может быть проиндексировано – это тексты, графика, видео и другие web объекты.
Контент на сайте должен быть полезным для людей, предоставлять ценную информацию, товары или услуги. Если сайт выгодно отличается от своих конкурентов, содержит уникальные статьи и картинки, то при прочих равных условиях он будет ранжироваться выше других.
Следует учитывать, что одной уникальности мало, контент не должен быть автоматически генерированным, а сайт не должен вводить в заблуждение ни посетителей, ни поисковые системы.
В зависимости от тяжести нарушений такой сайт рискует попасть под санкции поисковых систем: попасть под фильтры, полностью выпасть из индекса поисковой системы и даже уйти в бан. В случае бана сайт становится запрещенным для индексации.
Поэтому для успешного развития сайта потребуется наполнять его уникальными статьями, так как плагиаторов поисковые системы не любят.
Для проверки статей на уникальность существует специальный софт: Advego Plagiatus (Адвего плагиатус) от биржи статей Advego и Etxt Антиплагиа т от etxt.ru
Эти программы проверяют на уникальность статьи, у них сходный принцип действия, хотя при своей работе они могут выдавать несколько отличающиеся результаты. Если позволяют возможности, то лучше проверять статьи на уникальность этими двумя программами, хотя обычно пользуются каким-то одним инструментом.
Не будем подробно углубляться в особенности работы поисковых систем по определению уникальности текста. Скажем лишь, что есть такое понятие как шингл («черепица», «кирпичик», «ячейка») – это последовательность нескольких слов в определенном порядке. По этой последовательности и определяется уникальность статьи.
Если вы хотите покупать статьи или заказывать их у копирайтеров, то проверять их работу вы можете с помощью этих программ, ведь хорошая статья должна быть не только информативной и полезной, но и быть достаточно уникальной и не содержать в себе плагиата.
Само собой разумеется, что трудно выдумать что-то свое и каждая статья, которая технически не является плагиатом, логически остается модифицированной последовательностью заимствованных идей у других авторов. Но вся журналистика стоит на заимствовании друг у друга информации, его анализе и синтезе.
Нужно хорошо разбираться в тематике сайта, так чтобы при добавлении новых статей не пострадала их достоверность, а сайт нес актуальную и качественную информацию. Требования к качеству контента у сайтов разного назначения отличаются и чем они выше, тем больший понадобится бюджет.
Итак, рассмотрим программу При ее запуске мы должны проверить наличие обновлений, потому что только последняя версия гарантирует достоверность результатов: что-то может поменяться в алгоритме программы и, если мы пользуемся старой версией, то в некоторых случаях она может выдавать уникальную статью за плагиат или наоборот – она может копипаст (скопированный контент) считать уникальным.
В текстовое поле этой программы мы вставляем текст статьи и запускаем проверку. Скорее всего, программа у нас потребует распознавание русской каптчи, что не очень удобно при проверке большого количество статей. Поисковые системы требуют от нас подтвердить, что за компьютером сидит человек, а не бот отсылает им запросы.
Однако в настройках программы можно указать аккаунт сервиса для распознавания каптчи, услуги этих сервисов стоят совсем недорого, но при этом позволяют экономить драгоценное время.
После того как произошла проверка, программа показывает нам результаты: она ищет совпадающие фрагменты текста и показывает ссылки на те страницы сайтов, на которых был обнаружен похожий текст. Затем она суммирует уникальность статьи и показывает нам результат, будь то рерайт или копирайт. В идеале должна быть стопроцентная уникальность статьи, но для некоторых текстов, особенно технических, этого добиться достаточно трудно, тем более, если тема статьи распространена и по ней опубликовано достаточно много материалов.
Подробно рассмотрев работу адвего плагиатуса, мы отметим, что Etxt Антиплагиат работает аналогичным образом. Если мы проверили уникальность текста в обеих программах, то мы можем быть уверены в достоверности результатов.
Как видим, функционал Etxt Антиплагиат намного мощнее, чем Advego Plagiatus.
Самый простой и успешный путь правильного развития своего проекта при отсутствии достаточного опыта – это научиться у конкурентов.
А для успешной и эффективной SEO разведки нам понадобятся программы, которые помогут выполнить аудит сайтов конкурентов и разобраться, почему же они занимают те или иные позиции выдачи по определенным запросам.
Кроме того, эти же программы нам понадобятся в процессе работы над собственным сайтом, поскольку создание более-менее серьезного проекта в настоящее время это не вопрос одного дня. Это может занимать достаточно длительное время и на сайте будет постоянно идти развитие. За всем эти процессом нужно следить и анализировать, не допустили ли мы ошибок, которые могут нам существенно помешать процессу поискового продвижения сайта.
– бесплатная программа для анализа сайта. Производит сканирование, используя собственного бота, похожего по алгоритму работы на ботов поисковых систем.
Проверяет параметры сайта и анализирует их, предоставляет нам такие возможности:
Сначала вводим адрес сайта, который будем анализировать:
Количество потоков программы и таймауты позволят выбрать оптимальный режим работы между скоростью анализа и нагрузкой на хостинг сайта.
Настроим необходимые опции:
Link canonical – указывает адрес предпочитаемой страницы (если есть дубли страниц, то одна из них должна быть или закрыта от индексации или на другой должен быть тег “rel=canonical”).
Ответ – можно проверить ошибки сервера, корректно ли он обрабатывает страницы сайта.
Title – желательно прописывать вручную или с помощью специальных плагинов, не должен быть генерированным (содержать осмысленный текст).
Теги Description и Keywords : отображает, прописаны ли теги. Некоторые считают, что они устарели, а их отсутствие не является критической ошибкой, однако их наличие повышает качество сайта в глазах поисковых систем. Не рекомендуется злоупотреблять тегами: перегружать их повторяющимися ключевыми словами или вводить посетителей в заблуждение неправильными description (описание станицы в сниппете поисковой выдачи).
Если мы сканировали роботс, то у нас доступна колонка robots.txt , таким образом мы можем видеть как работают .
Редиректы нужно учитывать, особенно, если на эти страницы проставлены ссылки
Каждая страница должна содержать один заголовок H1 как можно ближе к ее началу.
В поисковом продвижении важную роль играют ссылки, даже если говорят об их «отмене», но другой альтернативы у поисковых алгоритмов нет.
(внутренние ссылки
+ внешние ссылки
) передают некоторый вес, при этом он может «утекать», то есть сама страница теряет некоторую часть веса. Тут нужно обратить внимание на внешние ссылки. Считается, что много внешних ссылок – это плохо, если внешних ссылок больше 100, то можно попасть под фильтр за ссылочный спам.
Ссылки на эту страницу – можно посмотреть и проанализировать ссылки собственного сайта на эту страницу. Для просмотра ссылок с других сайтов нужно воспользоваться специальными сервисами, например Ahrefs.
В правой колонке – найти дубликаты
Как правило, дубликатами будут страницы пагинации и архивов, это нормально если они закрыты от индексации средствами CMS или robots.txt. Если же видим обычную страницу – дубликат, то на это следует обратить особое внимание.
Обычно это может быть страница комментария.
Экспорт в Exel может включать в себя результаты и дубликаты.
Кодировка берется из заголовков или мета-тегов, если не задать ее автоматически.
– это отличная программа для определения позиций сайта, тИЦ, Pr, Alexa Rank и прочих показателей, проверка параметров осуществляется достаточно быстро. Поэтому с ее помощью можно следить не только за своими сайтами, но и просмотреть сайты конкурентов, что может помочь в продвижении сайта.
Программа предоставляет возможности узнать:
Собранная информация сохраняется на диск, так что можно отследить историю развития сайта.
Множество значений, которые помогает определить эта программа кликабельны и по этим ссылкам можно получить достаточно много дополнительной информации.
Сразу после открытия программы в адресную строку можно написать название своего сайта и выполнить экспресс анализ.
Чаще всего в этой программой удобно пользоваться для проверки позиций сайта. Это сделать совсем просто: добавим список основных ключевых слов, по которым продвигается сайт и нажимаем кнопку проверить. Естественно, на этом сайте должны быть статьи с этими ключевыми словами.
Отслеживая основные позиции вашего сайта по определенным запросам, можно следить, как продвигается сайт, какие страницы продвигаются наиболее удачно и как обогнать конкурентов.
Итак, для проверки позиций переходим на вкладку «Подбор запросов» и вставляем в текстовое поле список ключевых слов, нажимаем «Скопировать» (справа от поля кнопка с текстом и стрелкой). Программа перебросит запросы на вкладку «Видимость сайта» нажимаем кнопку «Проверить». Яндекс может запросить капчу, что не очень удобно, но через некоторое время нам будут показаны позиции нашего сайта.
Стоит отметить, что эта программа также позволяет отслеживать обратные ссылки и посещаемость сайта. Чем больше качественных обратных ссылок на наш сайт поставлено, тем лучшие позиции он может занять при условии соблюдений правил линкбилдинга.
Также программа позволяет просмотреть, какие счетчики установлены на сайте перейти к их статистике, если она доступна для нас.
– этот софт предназначен для вычисления веса страниц сайта. Программа достаточно проста и в то же время функциональна.
Разберем ее сильные и слабые стороны с позиции SEO.
Ограничения программы:
Возможности:
Разберем работу программы по порядку.
Слеш означает корень сайта, то есть в данном случае сканировать весь сайт. Жмем кнопку ОК и затем “Получить данные” – кнопа внизу слева.
Досадно, что кнопку «Расчет веса» можно пропустить и потом ругать эту программу, потому что эта кнопка прячется в правом нижнем углу и в некоторых состояниях окна она вовсе не видна, поэтому окно нужно развернуть пошире.
После расчета видим такую картину:
Следует учесть, что условный вес не имеет никакого отношения к Google PageRank.
Практическая польза от этой программы в том, что она поможет существенно сохранить бюджет при покупках “вечных” ссылок и статей. Хитрые доноры делают жесткую перелинковку своих сайтов, поэтому вес таких ссылок передается очень слабо. И мы получим от такого сайта эффект значительно меньший, чем ожидалось. Поэтому перед закупкой ссылок проверяйте сайты-доноры этой программой.
Если файл robots.txt закрывает страницы и раздела для индексации роботами поисковых систем, то карта сайта наоборот – позволяет установить приоритет индексации определенных страниц и разделов сайта. Карта сайта существует в двух вариантах: для людей – в HTML формате и для ботов в XML.
Функционал программы:
Интерфейс программы на английском языке, однако она очень проста: все что нужно ввести адрес сайта (ExtractLinksFromSite), установить максимальное число потоков (Max. SimultaneousConnection) и при необходимости прописать страницы (главная Start Pages , шаблоны исключений ExcludePatterns или те, которые нужно включить в карту Must-FollowPatterns).
Start Pages : если главная страница не стандартная index.php, то в первой колонке указываем ее адрес.
ExcludePatternsи Must-FollowPatterns имеют простые правила синтаксиса
*seo/* – все страницы раздела seo
*seo* – адреса страниц содержат seo .
Вот пример генерации сайта без указания каких-либо параметров:
В итоге мы получим карту сайта в любом из нужных нам форматов:
Для успешного (наращивания ссылочной массы сайта) используются как методы анкорного так и безанкорное продвижение (то есть с использованием в ссылках анкоров или url продвигаемых страниц).
Анкор (англ. якорь) – это текст гиперссылки, который виден посетителю сайта, на котором есть эта ссылка и если она интересна, то пользователь может перейти на наш сайт. Этот текст находится между html-тегами и . Если на страницу ведут только лишь ссылки с анкорами без особой семантической нагрузки типа «здесь», «тут», «вот», «там», «еще» и подобные им естественные анкоры, то это не очень хорошо. Дело в том, что поисковые системы учитывают текст анкора ссылки и околоссылочный текст при ранжировании сайта по тому или иному запросу. То есть правильно подобранные анкоры помогают добиться наибольшего эффекта от ссылок, ведущих на наш сайт.
Вся совокупность анкоров ссылок, ведущих на страницу называется анкор-лист, который:
Кроме того, при безанкорном продвижении околоссылочный текст также попадает в анкор-лист.
Итак, если нам нужно продвинуть десять страниц сайта по пять конкурентных запросов и каждому запросу нужно всего 20-30 ссылок, то нам нужно составить 1000-1500 уникальных анкоров! На практике же задачи по продвижению требуют намного большего объема работы.
Чтобы облегчить этот нелегкий труд, нам на помощь приходит программа SEO Anchor Generator, которую мы будем использовать для автоматизации этой работы.
Синтаксис составления шаблонов генерации текста таков:
{a|b|c|d} – в тексте будет одно из слов;
– все слова в случайном порядке, но здесь нужно ставить пробелы или после или перед словами, чтобы они не слились или использовать разделитель пробел – [+ +a|b|c|d], запятую – [+,+a|b|c|d] или другой.
Например такая конструкция [+ – +[+, +a|b|c]|[+, +d|e|f]] дает 52 варианта выражений.
Пример анкора для интернет магазина мягких игрушек может быть таким:
{Купить|Заказать|Приобрести} наших [+, +розовых|пушистых|мягких] слонов {с дисконтом|со скидкой}, после удаления похожих дает 33 варианта анкоров.
В настройках программы присутствует пост-обработка, которая помогает исправить типичные ошибки, которые обычно возникают при небрежном составлении шаблонов генерации текста (проблемы заглавных букв в начале предложения и лишних или отсутствующих пробелов).
Таким образом мы видим, что каждый желающий заниматься продвижением сайтов может начинать осваивать бесплатный SEO софт, который поможет ему приобрести навыки поисковой оптимизации.
Однако освоение этих навыков требует достаточно много времени и усилий.
Нам интересно, а каким софтом пользуетесь вы? Ждем ваших ответов в комментариях.
Seo-программы помогают оптимизатору сделать свою работу точнее, быстрее и качественнее. Тем самым такой софт облегчает жизнь не только оптимизатору, но и заказчику.
Наши технические специалисты выбрали лучшие seo-программы (по их мнению), которые помогают делать сайты клиентов полезнее для посетителей и привлекательнее с точки зрения . Мы проверили в работе платные и бесплатные seo программы и предлагаем вам софт, в том числе которым пользуемся сами.
Бесплатные:
Платные:
Бесплатные:
Платные:
Бесплатные:
Платные:
Бесплатные:
В этом посте я расскажу про 21 сервис, инструменты и программы для SEO анализа сайта, проведения его аудита, частью из которых можно пользоваться онлайн бесплатно и без регистрации, а часть платная, некоторые даже очень дорогие.
Сразу скажу, что нет идеального инструмента, нет плохого и нет хорошего, есть аналоги с расширенными возможностями, но каждый сервис я использую для своей конкретной цели.
Это классика, особо много говорить не буду. Использую его для внутренней аналитики сайта — сколько трафика приходит, какие источники, делаю разные аналитические срезы.
Также использую для внутренней аналитики сайта, нахождения ошибок в индексировании, санкций от Google, удаления ненужных страниц из индекса, анализа поисковых запросов.
Аналогично Google Search Console, использую ЯВ для аналитики — , санкции от Яндекса, переобход страниц, анализ удаленных страниц, присвоение региона продвижения, главного зеркала и так далее.
Тоже очень важный инструмент для внутренней аналитики сайта. Метрика имеет одну очень классную штуку, которую я нигде больше не видел — вебвизор (возможность анализировать поведение пользователей в режиме видео записи).
Также полезный инструмент карта кликов. А так пользуюсь метрикой постоянно для онлайн анализа трафика и посещений на сайт — откуда приходит, какие устройства использует, какого пола, возраста, из какого региона и так далее.
Это очень хороший сервис, с помощью которого можно сделать экспресс анализ своего или чужого сайта без регистрации, бесплатно и онлайн, например, узнать посещаемость сайта конкурента, возраст домена, ТИЦ, количество страниц в индексе Яндекса и Google.
Бесплатное расширение для браузеров, использую, если быстро надо посмотреть ТИЦ сайта, какая CMS, количество внешних ссылок, проиндексированных страниц и так далее.
Тоже бесплатное расширение, очень здорово помогает быстро просмотреть мета-теги страницы, заголовки и подзаголовки, внутренние ссылки.
Это ОЧЕНЬ мощный сервис! С помощью него можно проводить онлайн анализ структуры сайта, семантического ядра и отдельно ключевых слов, внешних ссылок, конкурентов, видимости в ПС и других полезных вещей. Единственный минус — это дороговизна, минимальная подписка стоит 19$ в месяц.
Очень классный сервис, с помощью которого можно провести онлайн полный комплексный SEO анализ сайта до 25 страниц бесплатно. После уже начинаются тарифы в зависимости от размера сайта, и цены на самом деле не дорогие.
Сервис поможет сделать и узнать коды ответа сервера, скорость загрузки и размер кода страниц, внешние и внутренние ссылки на сайте, в том числе циклические, анкоры ссылок, картинки без альтов, страницы с дублирующим или очень похожим контентом (внутреннюю уникальность контента), дублирующиеся или пустые мета теги, заголовки, объем текста на страницах, структуру и семантику.
И это далеко не полный список возможностей. Поэтому, если вам нужно сделать подробный профессиональный онлайн анализ сайта, то Saitreport отлично подойдет!
Это сервис Алексея Трудова, я использую его для анализа потерянного трафика на больших проектах. В нем также много и другого функционала, пока руки не доходят более подробно его изучить. Стоимость расчета 1 проекта обойдется всего в 500 рублей, но времени экономит сильно.
Это очень мощный сервис для анализа ссылок, я постоянно использую его в своей работе. С помощью него можно посмотреть ссылки на сайтах конкурентов, какие анкоры они используют, какие домены-доноры, динамику прироста ссылочного, какие страницы самые лучшие по приросту ссылок и т.д.
Большой минус сервиса — это дороговизна. Он ориентирован на буржунет, поэтому минимальная подписка стоит 99$ в месяц. Для России это, конечно, очень дорого.
Программа на ПК для технического SEO анализа сайта. Очень удобная, быстрая, простая. С помощью Neatpeak можно проверить канонические адреса страниц, вложенность, коды ответов, мета теги и h1, количество внешних и внутренних ссылок, редиректы, настройку robots.txt.
Я часто пользуюсь этой программой для поиска и анализа технических проблем на сайте. Кстати, вы можете получить скидку 10% за год оплаты и пользования программой по промокоду c3e19a59.
Тоже программа на ПК для технического анализа. С ее помощью можно посмотреть размеры кода, кодировку страниц, мета теги, но самое главное преимущество программы в том, что она сканирует весь сайт и находит битые ссылки. Программа бесплатная.
И тоже бесплатная программа на ПК для технического сео анализа. Правда есть и платная версия, но бесплатной вполне хватает для моих нужд.
Возможности у Скриминг фрога очень большие, он позволяет посмотреть мета теги, заголовки h1 и подзаголовки h2, картинки, размер кода и время загрузки страниц, коды ответов сервера, структуру сайта, глубину вложенности и многое другое.
В общем, для хорошего технического аудита сайта программа отличная!
Этот сервис я использую для . Но также у него есть много других модулей — кластеризация, проверка индексации, определение частотности, подбор ключевых слов, можно провести онлайн SEO анализ страницы сайта на оптимизацию, анализ бэклинков и конкурентов в сео и рекламе.
В целом, такой комплексный сервис с большим функционалом. Но, конечно же, платный, цена зависит от объема работ.
Сервис от Алексея Чекушина я использую для текстового анализа и поиска тематических слов. Также у него есть еще дополнительные модули — кластеризатор, тематический классификатор, парсер подсказок и другие. Цены правда дороговатые — минимальная подписка на месяц 1000 рублей.
Сервис я использую для анализа сайта на уникальность контента. Причем, можно проверять как отдельные страницы, так и комплексно весь сайт запустить. По ценам вполне доступно.
Это старый сервис с большим количеством разного функционала под любые нужды. Я использую его для онлайн SEO анализа контента, текста страницы сайта, ссылочной массы конкурентов.
Но также у него есть куча других модулей — видимость, подбор и кластеризация запросов, перелинковка и другие. К сожалению, большинство модулей стали платные с 2017 года.
Ребята из Пикселя сделали сервис с просто огромным количеством разного функционала. Здесь есть модули для любых нужд — внутренняя и внешняя оптимизация, сео анализ текста сайта, аудит и аналитика, семантическое ядро, санкции и фильтры, техническая оптимизация. Сервис реально крутой и самое главное бесплатный.
В системе Promopult есть много инструментов, которыми можно пользоваться бесплатно или за очень небольшие деньги. Вот список на март 2019 г. - инструментарий постоянно пополняется:
Из этого списка я лично постоянно использую кластеризацию запросов. Выходит гораздо дешевле аналогичных сервисов и с тем же качеством.
Конечно, это далеко не полный список, есть много других достойных сервисов, программ и инструментов, но я рассказал о том, что сам лично использую в своей работе.
Любой специалист, который профессионально работает в той или иной отрасли, постоянно находится в поиске инструментов, способных облегчить ему жизнь. Особенно если ваша специализация – клиентское SEO, и вам регулярно приходится иметь дело с множеством сайтов.
В списке наиболее распространенных задач, которые необходимо решать оптимизатору в своей практике, почетное место занимает аудит сайта. Это один из первых шагов на пути к успешной оптимизации, который является обязательной ее составляющей.
Очень хорошо, что весь процесс анализа не нужно делать вручную – представьте себе, сколько времени это заняло бы для ресурса у которого несколько десятков тысяч страниц.
Существуют специальные программы для SEO-анализа сайта, которые отлично справляются с данной задачкой. И мы собрали подборку тех из них, которые достойны того, чтобы занять почетное место в вашем арсенале.
Потрясающая настольная программа для детального анализа сайта по всем параметрам. Она полностью сканирует все страницы ресурса, выдавая массу полезной информации, которая представляет ценность с точки зрения поисковой оптимизации. Неудивительно, что если перед вами стоит задача провести SEO-аудит сайта
Screaming Frog дает возможность получить информацию по нескольким десяткам параметров, включая такие важные данные как:
Работает программа очень быстро, с каким бы аналогом не сравнивать. Однако есть у «кричащей лягушки» одна особенность – данные в процессе анализа хранятся в оперативной памяти, что может приводить к остановке сканирования «на полпути», при анализе больших сайтов на слабых компьютерах.
Бесплатная версия позволяет анализировать до 500 URL-адресов, а лицензия стоит 149 фунтов стерлингов в год, что на данный момент составляет $192. Немало, но, для профессионала все инвестиции вернутся уже с одного-двух аудитов на заказ.
Наверняка, многие из вас уже использовали эту программу в работе или хотя бы слышали о ней. Просто еще год назад она была бесплатной, и активно использовалась многими для быстрой проверки сайтов. Теперь же за лицензию придется заплатить, но и возможностей стало несравнимо больше.
С помощью NetPeak Spider легко провести комплексный внутренний аудит сайта по десяткам всевозможных параметров. Можно получить такую ценную информацию по сайту как:
В списке поддерживаемых языков интерфейса есть и русский, что существенно упрощает работу с ней, ведь первое что стоит сделать при запуске, это выставить те параметры, которые вам необходимы. Нет смысла тратить время на проверки ненужных вам вещей.
Разработчики уделили внимание и приятным мелочам, например, обозначение ошибок разными цветами и несколько цветовых схем интерфейса.
Работает NetPeak Spider по модели подписки: $14/месяц при ежемесячной оплате, и $9.80 при оплате одним платежом сразу на год вперед.
Эта программа в обзорах упоминается не так часто как предыдущие две, но, безусловно, стоит внимания специалистов, так как имеет свои плюсы.
В частности, стоит отметить удобный интерфейс, в котором функционал распределен между вкладками, что позволяет легко и быстро в нем ориентироваться. Шаблон анализа задается в настройках, и его можно гибко изменять при необходимости.
С помощью Website Auditor можно провести внутренний анализ сайта по таким параметрам как:
Это, конечно, далеко не весь перечень функций, ведь программа постоянно совершенствуется разработчиками, и добавляются новые возможности. Купить Website Auditor можно в редакции Professional ($62.38) или Enterprise ($149.88).
Программа позволяет быстро провести аудит технического состояния сайта и качества его оптимизации, определить ошибки и недоработки, а также обладает рядом возможностей, которых нет у других решений. Демо-версия позволяет просканировать до 150 страниц, и оценить функционал на практике.
Несмотря на то, что это самый молодой инструмент из перечисленных в этой статье, Comparser явно заслуживает внимания, и над его развитием постоянно работают. Доступны такие возможности как:
Многие вещи Comparser делает быстрее и лучше других подобных программ. Например, в контексте задачи глубокого изучения индексации сайта, на нее явно стоит обратить внимание.
Стоимость лицензии: 2000 р., оплата разовая.
Единственная полностью бесплатная программа в нашем списке, которая в последний раз обновлялась даже неизвестно когда, но, тем не менее, хорошо справляется с задачами, для решения которых разрабатывалась.
С ее помощью можно просканировать все страницы сайта, в том числе URL картинок, адреса CSS-файлов и прочего. По итогам анализа Xenu выдаст вам отчет со списком страниц и прочих файлов, их кодом ответа, Title и исходящими ссылками на другие ресурсы.
Xenu Links — старый и надежный краулер, нетребовательный к железу компьютера, интуитивно понятный в использовании и полностью работоспособный.
Проведение детального SEO-аудита страниц сайта позволяет не только обнаружить возможные ошибки или недоработки на проекте, но и найти возможности для улучшения качества его оптимизации.
С помощью специализированных инструментов, перечисленных в этой статье, сделать это можно быстро и эффективно, и, надеемся, они пригодятся вам в работе.
А с какими из этих программ работаете вы? Может быть, стоит добавить еще что-то к этому списку? Поделитесь своим мнением в комментариях!