Совет Semalt о том, как использовать глубокое обучение для оптимизации вашего автоматического тега заголовка



Быстрый способ занять лидирующую позицию в вашем рейтинге SEO - это включить ключевое слово с самым высоким рейтингом в тег заголовка. И если вы подумаете об этом на минуту, вы поймете, что это действительно разумное решение. Если у вас есть страница, которая уже ранжируется по ключевому слову, но без этого ключевого слова в заголовке, представьте себе важность наличия ключевого слова в заголовке. Вы, естественно, будете чаще индексироваться по этому ключевому слову; следовательно, вы занимаетесь лучше.

Теперь, если мы взяли это ключевое слово и добавили его в ваше метаописание, они будут выделены в результатах поиска, что означает, что больше пользователей поисковых систем, вероятно, нажмут. Это, конечно, пойдет на пользу сайту.

Представьте, что Семальт работал над веб-сайтом с сотнями, тысячами или миллионами страниц. Если бы нам пришлось делать это вручную, это заняло бы много времени и быстро вылилось бы довольно дорого. Так как же тогда мы можем проанализировать эту страницу и оптимизировать каждое название и мета-описание? Решение - использовать машину. Обучая машину находить ключевые слова с самым высоким рейтингом на каждой странице, мы экономим время и деньги. Использование машины может в конечном итоге работать лучше и быстрее, чем команда ввода данных.

Давайте снова представим Ludwig от Uber и T5 от Google

Объединив Uber Ludwig и Google T5, вы получите довольно мощную систему.

Таким образом, Ludwig - это автоматический инструмент машинного обучения с открытым исходным кодом, который позволяет пользователям обучать продвинутые модели без необходимости писать какой-либо код.

Google T5, с другой стороны, является улучшенной версией моделей в стиле SERT. T5 может обобщать, переводить, отвечать на вопросы и классифицировать поисковые запросы, а также выполнять многие другие функции. В двух словах, это очень мощная модель.

Однако нет никаких указаний на то, что T5 обучен оптимизации тегов заголовков. Но, возможно, мы сможем это сделать, и вот как:
  • Мы получаем обученный набор данных с примерами из:
    • Исходные теги заголовков без нашего целевого ключевого слова
    • Наше целевое ключевое слово (а)
    • Оптимизированные теги заголовков с целевыми ключевыми словами
  • Код настройки T5 и руководства по использованию
  • Иметь набор заголовков, которые не были оптимизированы, чтобы мы могли протестировать нашу модель.
Мы начнем с набора данных, который уже был создан, и предоставим руководство о том, как мы создали набор данных.

Авторы T5 были достаточно щедры, чтобы предоставить нам подробный блокнот Google Colab, который мы используем для точной настройки T5. Потратив время на его изучение, мы смогли ответить на произвольные викторины. Ноутбук Colab также содержит инструкции по настройке T5 для новых задач. Однако, если вы посмотрите на изменения кода и необходимую подготовку данных, вы обнаружите, что это требует большой работы и что наши идеи могут быть идеальными.

Но что, если бы это было проще? Благодаря Uber Ludwig версии 3, выпущенной несколько месяцев назад, у нас есть несколько очень полезных функций. Версия 3.0 Ludwig включает:
  • Механизм оптимизации гиперпараметров, который увеличивает производительность моделей.
  • Интеграция без кода с репозиторием Hugging Face's Transformers. Это дает пользователям доступ к обновленным моделям, таким как GPT-2, T5, DistilBERT и Electra для задач обработки естественного языка. Некоторые из таких задач включают анализ тональности классификации, распознавание именованных сущностей, ответы на вопросы и многое другое.
  • Он более новый, быстрый, модульный и имеет расширяемый бэкэнд, основанный на TensorFlow 2.
  • Он обеспечивает поддержку многих новых форматов данных, таких как Apache Parquet, TSV и JSON.
  • Он имеет готовую возможность перекрестной проверки k-кратной проверки.
  • При интеграции с весами и смещениями его можно использовать для управления и мониторинга процессов обучения нескольких моделей.
  • Он имеет новый тип векторных данных, который поддерживает зашумленные метки. Это пригодится, если мы имеем дело со слабым контролем.
Есть несколько новых функций, но мы считаем интеграцию с Трансформаторами обнимающего лица одной из самых полезных. Конвейеры объятия лица могут быть использованы для значительного улучшения усилий SEO по созданию заголовков и мета-описаний.

Использование конвейера отлично подходит для прогнозирования моделей, которые уже обучены и уже доступны в модели Bubble. Однако в настоящее время нет моделей, которые могли бы делать то, что нам нужно, поэтому мы объединяем Ludwig и Pipeline, чтобы создать внушительный автоматический заголовок и метаописание для каждой страницы на веб-сайте.

Как мы используем Людвига для точной настройки T5?

Это важный вопрос, поскольку мы стараемся показать нашим клиентам, что именно происходит на их веб-сайтах. Здесь есть клише, которое гласит: «Использовать Людвига для обучения T5 настолько просто, что мы должны рассмотреть вопрос о том, чтобы сделать это незаконным». По правде говоря, мы бы взимали с наших клиентов намного больше, если бы нам пришлось нанять инженера по ИИ, чтобы сделать то же самое.

Здесь вы узнаете, как мы настраиваем T5.
  • Шаг 1. Откройте новую записную книжку Google Colab. После этого мы меняем среду выполнения на использование графического процессора.
  • Мы загружаем уже собранный набор данных Hootsuite.
  • Затем мы устанавливаем Ludwig.
  • После установки мы загружаем обучающий набор данных во фрейм данных pandas и проверяем его, чтобы увидеть, как он выглядит.
  • Затем мы сталкиваемся с наиболее серьезным препятствием - создание правильного файла конфигурации.
Создание идеальной системы требует документации для T5 и постоянных проб и ошибок, пока мы не сделаем все правильно. (это будет иметь большое значение, если вы найдете здесь код Python для создания.)

Обязательно просмотрите словари функций ввода и вывода и убедитесь, что ваши настройки правильно подобраны. Если все сделано правильно, Людвиг начнет использовать «t5-small» в качестве беговой модели. Для более крупных моделей T5 легче изменить ступицу модели и потенциально улучшить ее поколение.

После обучения модели в течение нескольких часов мы начинаем получать впечатляющую точность проверки.

Важно отметить, что Людвиг автоматически выбирает другие важные измерения генерации текста, в основном недоумение и расстояние редактирования. Это низкие цифры, которые нам подходят.

Как мы используем наши обученные модели для оптимизации заголовков

Самое интересное - это испытать наши модели.

Сначала мы загружаем тестовый набор данных с неоптимизированными заголовками Hootsuite, которые модель не видела во время обучения. Вы сможете предварительно просмотреть набор данных с помощью этой команды:

!голова

Hootsuite_titles_to_optimize.csv

Очень впечатляет то, что Людвиг и Т5 могут так много сделать с любым небольшим обучающим набором, и они не требуют дополнительной настройки гиперпараметров. Правильный тест сводится к тому, как он взаимодействует с нашими целевыми ключевыми словами. Насколько хорошо он смешивается?

Создание приложения для оптимизации тегов заголовков с помощью Streamlight

Авторы контента считают это приложение наиболее полезным. Разве не было бы замечательно иметь простое в использовании приложение, не требующее особых технических знаний? Что ж, именно для этого и создан Streamlight.

Его установка, как и использование, довольно проста. Вы можете установить его, используя:

! pip install оптимизировать

Мы создали приложение, которое использует эту модель. При необходимости мы можем запустить его из того же места, где обучаем модель, или мы можем загрузить уже обученную модель туда, где мы планируем запускать скрипт. Мы также подготовили CSV-файл с заголовками и ключевыми словами, которые мы надеемся оптимизировать.

Теперь запускаем приложение. Чтобы запустить модель, нам нужно указать путь к CSV-файлу, в котором есть заголовки и ключевые слова, которые мы надеемся оптимизировать. Имена столбцов CSV должны совпадать с именами во время обучения Людвига. Если модель не оптимизирует все заголовки, не стоит паниковать; получение правильного приличного числа - также большой шаг вперед.

Как эксперты в Python, мы очень взволнованы, работая с этим, поскольку обычно это заставляет нашу кровь перекачивать кровь.

Как создать собственный набор данных для обучения

Используя названия Hootsuite, мы можем обучать моделей, которые будут хорошо работать для наших клиентов, но могут по умолчанию использоваться их конкурентами. Вот почему мы обеспечиваем создание собственного набора данных, и вот как мы это делаем.
  • Мы используем наши собственные данные из Google Search Console или Bing Webmaster Tools.
  • В качестве альтернативы мы также можем получить данные о конкуренции наших клиентов из SEMrush, Moz, Ahrefs и т. Д.
  • Затем мы пишем сценарий для тегов заголовков, а затем разделяем заголовки, которые имеют и не имеют целевого ключевого слова.
  • Мы берем заголовки, которые были оптимизированы с использованием ключевых слов, и заменяем ключевые слова синонимами, или мы используем другие методы, чтобы заголовок был «деоптимизирован».

Заключение

Семальт здесь, чтобы помочь вам автоматически оптимизировать теги заголовков, а также метаописания. Поступая так, вы можете оставаться впереди в поисковой выдаче. Анализ веб-сайта никогда не бывает легкой задачей. Вот почему обучение машины, которая поможет нам в этом, не только экономит деньги, но и экономит время.

В Semalt есть профессионалы, которые настроят ваш набор данных, Людвиг и Т5, чтобы вы всегда оставались выигрышными.

Позвоните нам сегодня.

mass gmail