С
Статьи
308
07 Апреля
0

7 аспектов SEO, о которых нужно рассказать вашему веб-разработчику

admin
Логический склад ума веб-разработчиков вынуждает их принимать SEO-рекомендации слишком буквально. Ключевые слова в URL способствуют ранжированию? Так давайте создадим в каталоге 5 разделов, и напихаем туда все вариации ключевиков! SEO и веб-разработчики Сегодня, я хочу показать вам несколько моментов которые, как мне кажется,  владельцы компаний и оптимизаторы должны разъяснить своим разработчикам. Предварительное обсуждение вещей описанных в этой статье с вашими верстальщиками/программистами поможет избежать ошибок, которые могут дорого обойтись и повлечь проблемы с поисковым ранжированием.

1. Проблемы Javascript фреймворков

Здесь обычно возникает три проблемы, в то время как разработчиков заботит лишь первая:
  1. Способность поисковиков сканировать и исполнять Javascript-код
  2. Передача веса страницы
  3. Индивидуально индексируемые URL
Javascript фреймворки Google утверждает, что их боты способны сканировать и исполнять Javascript, вне зависимости от того, интегрирован ли он в код страницы или подгружается из внешнего файла. Яндекс в конце прошлого года заявил в своем блоге, что их работы начали использовать JavaScripts и CSS при обходе сайтов. Но, по сравнению с Гугл, отечественный поисковик ушел не настолько далеко. Несмотря на то, что JavaScript-ссылки уже поддаются индексации, невозможно доказать, что они действительно передают ссылочный вес также, как это делают обычные ссылки. То есть, заменяя важные навигационные элементы Javascript’ом, вы просто отбираете вес у этих страниц. Это значит, что как только страницы категорий будут встроены во что-нибудь вроде React.js или Angular.js, сразу же нарушится передача ссылочного веса. Тут же все попытаются выяснить, что пошло не так, будут приводить цитаты из документации поисковых систем, и перекладывать ответственность друг на друга. Знакомо такое?

Даже если поместить href-теги в самом начале кода, чтобы они загружались непосредственно при рендере страницы, этого все равно будет недостаточно. Вместо этого лучше параллельно генерировать статичную HTML-версию нужных страниц специально для поисковых систем, для этого есть инструменты предварительного рендера вроде Prerender.io.

И даже при таком подходе существует риск столкнуться с проблемами, связанными с URL. Не используйте хэшбенг (#!), а также “?_escaped_fragment_=” в синтаксисе адресов. Воспользуйтесь HTML5 “History API” для обновления видимой части URL в браузере при помощи “pushState,”, что позволит вам сохранить статичные URL-адреса в формате типа вашдомен/category1/category2/?page=5. В скором времени, я опубликую подробную статью на тему оптимизации страниц под поисковые системы при помощи AJAX, React.js, Angular.js и других JavaScript-фреймворков, не пропустите.

2. Нехватка функций для оптимизации

SEO – это определенно нечто большее, чем теги заголовков, мета-описания и ключевые слова (которые, кстати, потеряли свою актуальность). И все же, мы до сих пор наблюдаем эти поля в качестве особенных функций во многих конструкторах для создания интернет-магазинов. Когда я смотрю на страницу SEO-свойств на многих конструкторов сайтов, меня не покидает мысль о том, что они до сих пор считают мета-теги основным фактором ранжирования... Гораздо важнее, чтобы платформа предлагала следующие возможности:
  • Доступ к редактированию кода страницы: использовать JSON-LD, контейнеры Google Tag Manager, а также многое другое.
  • Настройка 301-редиректа,  шаблоны для переадресации целых категорий, по типам страницы или определенным атрибутам URL.
  • Адаптивный дизайн позволяет привлекать больше трафика с мобильных устройств.
  • Настройка ЧПУ адресов для категорий и продуктов, кастоматизация урлов.
  • Поддержка SSL-сертификатов и HTTPS-протокола.
  • Расширенные сниппеты и семантическая разметка Schema.org.
Кроме редактируемых страниц, фрагментов кода и шаблонов, многих также интересует возможность использования API или интеграции, а также других функций. От ключевых слов отказались уже давно и полностью. И хотя мета-теги пока еще имеют значение, они являются лишь верхушкой айсберга.

3. Простота – это не всегда хорошо

Во многом вина сеошников заключается в том, что они передают требования разработчикам, даже не задумываясь о том, почему все устроено именно так. Да, если технически, то чем ближе URL к корню, тем больше вероятность, что он получит больше веса, и тем быстрее, скорее всего, бот наткнется на него при сканировании сайта. Обратите внимание на слова «технически», «вероятность» и «скорее всего». На самом деле, все не так очевидно... seo-veb-razrabotchikam Ведь есть смысл в том, чтобы поместить товары в директорию /product/ или /products/, вместо того, чтобы выкладывать все в корне. И вот несколько причин, почему это следует делать:
  • Удобство с точки зрения автоматизации сканирования
    • Возможность сканировать только ту или иную директорию
    • Запрет /директории/?*= в robots.txt
  • Простота в анализе данных
    • Возможность указывать поля «Тип страницы» на всех URL, содержащих /product/
    • Возможность использовать XML карту сайта, а также сегментацию в Google Analytics для анализа того, сказалось ли снижение трафика на всем сайте или только на конкретных разделах и типах страниц
  • Логическая архитектура сайта, которая понятна как реальным посетителям, так и ПС
    • Страницы продуктов находится в директории /products/
    • Категории – в /category/
    • Ну блог можно поместить в директорию /blog/
Пусть ваш сайт будет логичным и доступным для индексации. Слишком витиеватая навигация или фильтрация каталога (глубже 3 уровней) очень отрицательно влияет на сканирование. Она препятствует индексации более важных страниц и засоряет выдачу дублированным контентом.

4. Наконец-то JSON-LD

JSON-LD - как влияет на SEO? Зачем нагружать посетителей мета-информацией, которая важна лишь поисковым системам? До недавнего времени, реализация Schema.org включала в себя грамотную разметку того, что уже видно пользователям. Проблема заключалась в том, что если вам нужно было включить разметку о производителе, количестве просмотров и т. д., то приходилось отображать эту информация прямо на странице.
JSON-LD позволяет вам размещать мета-информацию о продукте в исходном коде без необходимости показывать эти данные конечному пользователю.
Google теперь поддерживает JSON-LD разметку в интернет-магазинах, Яндекс тоже добавил об этом информацию в документацию. Есть инструменты для генерации данного типа данных:  JSON-LD Playground  и JSON-LD Markup Generator.

5. Не скрывайте файлы, необходимые для отображения страницы

Пожалуйста, не прячьте от поисковиков файлы, необходимые для отображения страницы. К примеру, убедитесь в том, чтобы хотя бы эти директории не были заблокированы в файле robots.txt:
  • /css/
  • /js/
  • /scripts/
  • /images/
  • и т. д.
А вот что точно следует скрыть от индексации - страницы результатов внутреннего поиска по сайту

6. Теги H1-H6

Уровни вложенности загаловков h1-h2 Обязательно укажите в ТЗ на разработку шаблона/сайта, что на странице должен быть только один заголовок окруженный тегом H1, также уточните про заголовки более нижнего уровня H2-H6. По личному опыту могу сказать, что если не прописать эти подробности в ТЗ, то в большинстве случаев получите неправильную верстку заголовков.

7. Настройте резервное копирование

Это банальный совет, но его не стыдно повторять из раза в раз, поскольку об отсутствии бэкапов рано или поздно придется пожалеть. Регулярное резервное копирование файлов позволит легко восстановить исходное состояние сайта, если какие-то нововведения плохо отразятся на поисковом трафике или других показателях.

Заключение

Пожалуй, на этом все. Разработчики и оптимизаторы должны работать сообща, быть единой командой. Однако, лично я считаю, что все это перестанет иметь хоть какое-то значение после того, как поисковые системы создадут алгоритмы с действительно работающим искусственным интеллектом. Тогда, возможно, все мы останемся не у дел.
0 комментариев
Добавить комментарий