Новости

4 способа использовать пользовательскую функцию Screaming Frog

  1. Пользовательский поиск:
  2. Пользовательские извлечения:
  3. 1. Проверка реализации GA & GTM
  4. 2. Нахождение мошеннических канонических меток
  5. 3. Поиск информации о продукте
  6. 4. Поиск авторов блога

Сканирование веб-сайта является чрезвычайно ценной частью арсенала любого SEO, и это здорово, что у нас есть так много доступных инструментов, чтобы упростить работу.

Инструменты, такие как DeepCrawl , OnPage.org а также Кричащая лягушка постоянно вводят новшества, чтобы предоставить нам более продвинутые данные, что позволяет нам принимать обоснованные решения на основе данных. Благодаря этим инновациям и постоянным изменениям, существует множество скрытых драгоценных камней, которые недоиспользуются и могут сэкономить вам много времени.

Одной из таких функций является пользовательский аспект поиска и извлечения Screaming Frog SEO Spider. В последние несколько месяцев я использовал эту функцию более часто и хотел поделиться с вами некоторыми из этих ключевых моментов.

Прежде чем мы перейдем к этому, что такое пользовательский поиск и извлечение?

Пользовательский поиск:

Это можно найти, перейдя в Конфигурация> Пользовательский> Поиск

Основная функция пользовательского поиска - найти в исходном коде все, что вам нужно. Вам просто нужно ввести то, что вы хотели бы найти, убедитесь, что вы выбрали Содержит, выберите OK и затем запустите программу.

Программа будет запущена и запущена, а также вытащит все страницы, содержащие ваше конкретное входное значение. Самое замечательное в том, что вы также можете использовать Regex как часть вашего поискового запроса.

Пользовательские извлечения:

Это можно найти, перейдя в Конфигурация> Пользовательский> Извлечение

Этот отчет позволяет собирать любые данные из исходного кода HTML URL-адреса, который был просканирован инструментом. Чтобы это работало, статическая страница должна возвращать 200 кодов состояния.

В настоящее время вы можете одновременно получить десять различных извлечений из исходного кода HTML. Вы можете назвать эти извлечения по своему усмотрению, чтобы они соответствовали требованиям вашего конкретного сканирования.

В настоящее время программа поддерживает следующие методы извлечения данных:

  • XPath: селектор XPath, включая атрибуты.
  • CSS Path: CSS Path и необязательный атрибут.
  • Regex: для более продвинутых целей, таких как очистка комментариев HTML или встроенный JavaScript.

Если вы выбрали XPath или CSS Path для сбора необходимых данных, у вас есть возможность выбрать, что извлечь:

  • Извлечь элемент HTML: выбранный элемент и его внутреннее содержимое HTML.
  • Извлечь внутренний HTML: внутреннее содержимое HTML выбранного элемента. Если выбранный элемент содержит другие элементы HTML, они будут включены.
  • Извлечь текст: текстовое содержимое выбранного элемента и текстовое содержимое любых вложенных элементов.

Итак, это немного информации о том, что такое Custom Search and Extraction, так что давайте теперь перейдем к тому, что вы можете с ним сделать.

Ниже я перечислил четыре способа, которыми я использовал его за последние несколько месяцев. Я уверен, что есть еще много способов, и я хотел бы услышать о них в комментариях ниже.

1. Проверка реализации GA & GTM

Давайте начнем легко! Существует регулярное требование, чтобы все ваши отслеживания были реализованы и оставались на месте на регулярной основе.

Используя пользовательский поиск, вы можете проверить, реализован ли код Google Analytics или Google Tag Manager, и, если нет, на каких страницах они отсутствуют.

Для этого вам нужно открыть функцию пользовательского поиска и добавить определенный код, который вы ищете, как показано ниже.

У вас есть до десяти различных фильтров, которые вы можете добавить, поэтому не стесняйтесь добавлять больше, чем один код, если у вас их больше. Как только вы закончите добавлять код, нажмите OK и запустите программу. Если вы перейдете на пользовательскую вкладку в Screaming Frog, вы должны начать видеть, что она заполняется, если код не существует на определенной странице.

Полезное право? Я стараюсь делать это регулярно, чтобы быть в курсе любых проблем с отслеживанием.

2. Нахождение мошеннических канонических меток

При перемещении веб-сайтов иногда можно встретить старые канонические символы, которые не были обновлены или удалены из нового URL-адреса. Это может вызвать проблемы с индексацией в поисковых системах и требует быстрого обновления.

Используя функцию пользовательского поиска, вы можете определить, где они находятся, и отправить их разработчику, чтобы их можно было изменить.

Используя функцию пользовательского поиска, вы можете определить, где они находятся, и отправить их разработчику, чтобы их можно было изменить

Это одна из тех проверок, которые можно сделать очень быстро и сэкономить огромное количество времени.

3. Поиск информации о продукте

Если у вас есть сайт электронной коммерции, вы можете регулярно проверять определенные детали. В последнее время я искал следующее:

  • Номера SKU
  • информация о продукте
  • Информация о ценах
  • Спецификация продукта

Для этого перейдите к пользовательскому фильтру извлечения, как указано ранее. Используя XPath в качестве метода извлечения, перейдите на страницу продукта и осмотрите элемент каждой части информации, которую вы хотите вернуть, как показано ниже.

В приведенном выше примере я щелкнул правой кнопкой мыши <td>, затем наведен на «Копировать» и выбрал «Копировать XPath». Затем я вернулся к Screaming Frog и вставил его в правильное место извлечения, как показано ниже. Я продолжал делать это для других разделов, для которых я хотел собрать информацию.

Как только я был доволен информацией об извлечении, я нажал OK и провел Screaming Frog по данному веб-сайту. Во время работы я направился к пользовательскому фильтру и в раскрывающемся списке выбрал «Извлечение». Ниже приведен пример данных, которые я получал от моего сканирования.

После завершения и экспорта в Excel я смог отфильтровать и развернуть информацию, чтобы я мог ее использовать. Есть много случаев, когда вы можете использовать этот тип извлечения, но ниже приведены лишь несколько:

  • Позволяет вам создать матрицу продукта со всей необходимой информацией в
  • Обход конкурентов, чтобы определить изменение цены продукта и как они описывают свои продукты
  • Восстановление веб-сайтов и понимание того, какая информация в настоящее время показывается пользователю
  • Проверка того, что на страницах продукта реализована схема

4. Поиск авторов блога

Хотите узнать, кто из ваших блоггеров получает наибольшее количество акций и ссылок на контент, который они пишут? Используя метод извлечения, вы можете увидеть, какой контент пишется каждым членом команды.

После завершения экспортируйте эту информацию в Excel и можете объединить с BuzzSumo а также aHrefs экспорт. Используя vLookups, вы сможете определить, какие авторы генерируют больше всего ссылок и / или акций. Вы можете пойти дальше, добавив другую информацию, которая доступна в вашем блоге, например, категории.

Как упоминалось ранее, я уверен, что есть много других способов использования этих функций для получения действительно полезной информации, и я надеюсь, что вы добавите это в комментарии ниже. Если у вас есть какие-либо вопросы, не стесняйтесь твитнуть мне @danielbianchini.

Прежде чем мы перейдем к этому, что такое пользовательский поиск и извлечение?
Полезное право?