“Зустрічають по одягу, а проводжають по розуму”. Відомий усім вислів добре описує принцип роботи Google. На етапах відбору веб-сторінок і формування пошукової видачі Google аналізує сайти по багатьом параметрам.
До уваги беруться видима частина сайту, а також технічні складові, які веб-користувачу під час візиту не доступні. Зовнішність сайту може бути привабливою, а от “душа” зовсім протилежною.
Привіт усім. Це короткий гайд про технічний оптимізацію. Що це таке? Які параметри сайту аналізувати і які інструменти варто для цього використовувати? Далі розберемося.
Спершу ніж сторінки вашого сайту будуть доступні в Google, пошукова система їх аналізує по багатьом параметрам. Всі алгоритми Google засекреченні, тому точну цифру параметрів не можна назвати, але в деяких джерелах зустрічається інформація про те, що їх більше 200.
Технічні вимоги в SEO можна поділити на неофіційні і офіційні. Неофіційні вимоги базуються на основі гіпотез і тестів SEO-спеціалістів. Офіційні вимоги працівники компанії Google публікують в Центрі Пошуку, або в Твіттері. Технічний SEO-аудит - це виявлення і усунення технічних помилок і доведення сайту до оптимальних параметрів, які відповідають вимогам пошукової системи.
Щоб краще структурувати список помилок і параметрів, технічний SEO-аудит я поділив на 4 рівні:
- Домен
- Сервер
- Сайт
- Веб-сторінка
1. На рівні домена
Домен - це унікальна адреса сайту. Вводите домен в рядок браузера і ви на сайті.
1.1 Вік домена
Вік домена - це показник надійності сайту і довіри пошукової системи до веб-ресурсу. Чим більший вік, тим більше довіри. Цьому свідчать результати дослідження від команди Ahrefs. Було зібрано список сайтів з 2 млн. сторінок пошукової видачі по випадковим запитам і проаналізовано вік веб-сторінок, які в ТОП-10. За результатами середній вік сторінок - трохи більше 2 років.
На етапі запуску нового інтернет-проекту варто розглянути варіант купівлі домену з віком, замість реєстрації нового. Щоб придбати домен з віком слід скористатися послугами спеціальних аукціонів.
Перед купівлею переконайтесь, що домен має схожу тематику з вашим проектом. Для перевірки історії домена використовуйте веб-архів Wayback Machine. Сервіс дозволяє дізнатись вік домена і переглянути сайт в тому вигляді, в якому він був в минулому. Також варто перевірити чи домен не перебуває в чорних списках. В блек списках розміщені IP-адреси або домени з низькою репутацією через які розсилалися спам-листи. Пошукова система відслідковує репутацію доменів, щоб захистити своїх користувачів від підозрілих сайтів. Сервіс mxtoolbox дозволяє перевірити факт попадання вашого домена до чорних списків.
Якщо ви, все таки, вирішили зареєструвати новий домен, наступні поради адресовані саме вам.
Зареєструвати домен за день до перенесенням сайту на веб-сервер - це не найкращий варіант. Як тільки у вашій голові сформувалася ідея:
- сміливо реєструємо доменне ім'я.
- створюємо веб-сторінку в Google Sites
- приєднуємо домен до цієї сторінки
- подаємо заяву на індексацію в Search Console
Такий алгоритм дозволяє “прогріти” домен в пошуковій мережі до запуску сайту.
Не варто реєструвати домен з ключовими слова, так звані SEO-домени. Домени з “ключами” займають лише 5-6% ТОП-10 пошукової видачі, тому такі домени ніяк не допоможуть вам в SEO.
Google використовує певні гео-сигнали для розуміння прив'язки вашого сайту до певного регіону. Це мова контенту, валюта, адреса і домен. Якщо ваш бізнес має певні регіональні рамки: місто, область, країна - варто приглянутись до регіональних і національних доменних зон. Якщо таких рамок немає - сміливо генеруйте домен з міжнародних, тематичних зон.
2. На рівні веб-сервера
Веб-сервер - це місце зберігання файлів веб-ресурсів. Хостинг - це не те саме, це послуга з надання місця на веб-сервері під ресурси вашого сайту.
Стабільність роботи, швидкість завантаження, безпека взаємодії користувача з сайтом, захист даних від злому - це все стосується хостингу.
2.1 Аптайм
Аптайм - це метрика безперервності роботи веб-сервера. 100% аптайм - хороший результат, нище 99% - час задуматись про зміну хостингу.
2.2 Чутливість
Пінг - це час відгуку веб-сервера на запит браузера. Чим більший ping, тим довше веб-сторінка буде завантажуватися. Пінг залежить від швидкості інтернету та від чутливості веб-сервера. На швидкість інтернет-з’єднань ми не можемо вплинути. А от на роботу веб-сервера - ще як можемо.
Чутливість показує наскільки швидко налагоджується зв'язок між браузером і веб-сервером (TTFB). І є 2 фактори, які впливають на чутливість веб-сервера. Це географічне положення та здатність сервера одночасно опрацьовувати велику кількість запитів.
2.2.1 Локація сервера
Якщо веб-сервер знаходиться на значній відстань від браузера користувача - уповільнення швидкості завантаження буде істотним, адже дані будуть долати великий шлях з багатьма вузлами. Тому веб-сервер має розміщуватися в тій самій локації, що й цільова аудиторія сайту.
2.2.2 Продуктивність
Продуктивність веб-сервера - це здатність сервера одночасно опрацьовувати велику кількість запитів. Для перевірки продуктивності запускаємо стрес-тест в спеціальних сервісах loadimpact.com, WebPageTest.org, loaddy.com. Мораль наступна - не економте на хостингу і буде вам щастя.
2.3 Безпечний протокол
Пошукова система піклується про користувача і про його безпеку. Набір правил за якими відбувається передача даних між браузером користувача і веб-сервером називається протоколом. https-протокол забезпечує шифрування інформації і гарантує їхній захист від злому на етапі обміну даних. На сайтах із зашифрованим протокол можна сміливо реєструватися, здійснювати оплату - ваші персональні дані (контактна інформація, номери банківських карт, логіни, паролі, адреси електронної пошти) в безпеці. На інших сайтах краще цього не робити. Наявність https-протоколу враховується, як фактор ранжування.
3. На рівні сайту
3.1 Сторінки в індексі
На цьому етапі перевіряємо, які сторінки нашого сайту індексуються в Google і чи в цьому списку відсутні службові сторінки, які згенеровані адмін частиною сайту. Забіжу трішки наперед, службові сторінки варто закривати від індексування.
Для перевірки використаємо 3 інструменти:
- пошуковий оператор site:. Достатньо в пошуковий рядок прописати команду і Google покаже приблизну кількість сторінок, які індексуються і їхні сніпети.
- веб-краулер Site Analyzer або Screaming Frog. Запускаємо перевірку і отримуємо дані по всім сторінкам сайту.
- Search Console. Найбільш точний інструмент, усі дані ви отримуєте з “внутрішньої кухні” Google.
Тепер співставляємо дані по 3 інструментам. Якщо цифри однакові - добре. Якщо веб-краулер виявив більшу кількість сторінок, ніж Search Console - дивимось, які сторінки сайту не попали в індекс і по якій причині. Найпопулярніші причини наступні: сторінки закритті від індексування атрибутом “noindex”, або в файлі robots.txt. сторінки не мають внутрішніх вхідних посилань і по цій причині боти не змогли їх виявити.
В першому випадку, якщо сторінки помилково закриті від індексування - забираємо атрибут “noindex” з head-частини сторінки, або “disallow” в файлі robots.txt. В другому випадку - додаємо внутрішні посилання на закриті сторінки. Після виконання цих дій, в обох випадках, подаємо заявку на індексування в Search Console.
3.2 Дублі сторінок
Із основ пошукової оптимізації ми вже знаємо, що Google-боти періодично відвідують ваш сайт, щоб виявити останні зміни і внести їх до своєї бази. Ця періодичність обмежена краулінговим бюджетом. Чим вища авторитетність сайту, тим більший бюджет і тим швидше пошукова система виявить нові сторінки або зміни на вашому сайті. В будь якому разі, бюджет потрібно берегти. А щоб його не “розтринькувати” варто контролювати, щоб Google-боти не витрачали свій ресурс на службові сторінки і на дублі сторінок. Дублі - це:
сторінки сайту з повністю або частково ідентичний контентом. Як виявити такі сторінки? Все ті ж веб-краулери Site Analyzer або Screaming Frog виявляють збіги метаданих на сторінках сайту. Ідентичність тайтлу і дескріпшн на сторінках є характерною ознакою дублів. Далі видаляємо дублі і ставимо 301 редірект з дублів на основні сторінки.
Інший варіант дублів - коли сторінка доступна за різними посиланнями (URL). Такі помилки зустрічаються в інтернет-магазинах, в яких один товар може бути в декількох категоріях і URL товару формується через підкаталоги категорій. Більш популярний вигляд такої помилки - “дзеркала сайту”, тобто цілі копії сторінок сайту. Причина такої помилки - не налаштований 301 редирект і тому сторінки сайту доступні за різними URL. В обох випадках ваш краулінговий бюджет витрачається в пусту.
Як виявити і виправити дублі?
Якщо ви власник інтернет-магазину - перегляньте вигляд URL будь-якого товару. Якщо URL картки товару формується без підкаталогу категорії - добре, якщо ні - варто налаштувати формування URL товарів зразу після кореневої папки. Що стосується “дзеркал сайту” - перевірте доступність сайту по різним версія URL: з www, через http-протокол, з файлом index.php. Якщо спрацьовує редірект на основну версію сайту - добре, якщо ні - склеюємо версії сайту на рівні веб-сервера і прописуємо атрибут “Сanonical” в head-частині сайту. Арибут “Сanonical” підказує пошуковим ботам, яка версія сайту основна для індексування, всі інші версії ботами будуть ігноруватися.
3.3 Службові сторінки
Сторінки, які призначені для управління сайтом називають службовими. Такі сторінки мають бути закриті від індексування, тому що не несуть користі для користувачів пошукових систем. Щоб перевірити чи закриті сторінки адмінчастини сайту варто заглянути чи прописаний атрибут “disallow” в файлі robots.txt Так як зміст файлу robots.txt має рекомендаційний характер для пошукових ботів, варто перевірити, чи в head-частині службових сторінок прописаний атрибут “noindex”. Якщо все є - добре, якщо ні - ці атрибути варто додати.
3.4 Мета-теги і заголовки h1
Про важливість і про правила генерування мета-тегів і заголовків h1 я говорив в попередньому відео, кому цікаво - посилання під відео. В звітах веб-краулерів Site Analyzer або Screaming Frog доступні мета-теги і h1 усіх сторінок сайту. На що потрібно звернути увагу? Перше - виділити сторінки на яких ці дані відсутні і їх варто буде заповнити. І друге - перевірити правильність заповнення мета-даних і заголовків. Якщо є помилки, їх варто усунути.
3.5 ЧПУ
Російською “Человеку Понятный Урл”, або англійською “SEO-Friendly URL”. Це посилання сторінок сайту згенеровані, як для людей. ЧПУ підвищують клікабельність сніпетів і користувач отримує підтвердження, що сторінка релевантна запиту. І пошукова система такі поведінкові фактори високо оцінює. В звітах веб-краулерів Site Analyzer або Screaming Frog переглядаємо URL-сторінок сайту. Якщо під час перевірки ви виявили URL, які мають “нелюдський” вигляд - з цим варто щось робити.
3.5 Навігація сайту
На цьому етапі варто переглянути зручність меню, пошуку на сайті. Чи налаштовано “хлібні крихти” на сторінках починаючи з 3-го рівня, чи налаштована пагінація на сторінках блогу. Якщо сайт має декілька мовних версій - варто переглянути мовну навігацію. Перелічені елементи сайту впливають на ранжування сайту через покращення поведінки користувачів.
4. На рівні веб-сторінки
Сайти бувають маленькими, а бувають великими, тому на цьому етапі не потрібно аналізувати усі сторінки сайту. Цінуйте власний час. Для аналізу оберіть рандомні сторінки різних рівнів: home page, комерційну сторінку, головну блогу і інформаційну сторінку. Практика показує, що помилки на обраних сторінках будуть повторюватись на усіх інших.
4.1 HTML-помилки
HTML-розмітка, CSS-стилі і js-скрипти формують видиму частину сторінки. З HTML-розмітки браузер отримує інформацію про елементи веб-документу, їхній порядок та зміст. Пошукові системи, як і браузер користувача сканує HTML-код, щоб знайти і проаналізувати контент. Пошукові боти підпорядковуються стандартам HTML і якщо на сторінці допущені HTML-помилки, пошукові роботи можуть не знайти контент або проаналізувати його некоректно.
validator.w3.org - офіційний інструмент від Консорціуму Всесвітньої Павутини для валідації HTML-коду веб-сторінки.
sitechecker.pro - хороший інструмент для комплексного технічного аудиту сайту. Але в розрізі HTML-помилок нас цікавить метрика “Text to code ratio”. Частка тексту в коді менше 10% може свідчити, або про малу кількість текстового наповнення на сторінці, або про складність коду, а це, в свою чергу, може призвести до проблем індексування веб-сторінки.
4.2 Мікророзмітка
Спеціальні теги і атрибути мікророзмітки дозволяють виводити додаткову інформацію в сніпет веб-сторінки і структурують контент на різні типи даних, щоб пошукова система краще розуміла вміст веб-документу. В Search Console є окремий інструмент для перевірки структурованих даних. Немає помилок - добре, є - готуємо технічне завдання фронт-розробнику.
4.3 Теги підзаголовків h2, h3
Теги заголовків h1 ми вже перевірили на рівні сайту, тепер добрались до підзаголовків. З попереднього відео ми вже знаємо основні вимоги по створенню заголовків, серед який дотримання певної ієрархії і формули написання. Перевіряємо. Можна в ручну, можна використати безкоштовний сервіс “h1 checker”.
4.4 Altи в зображеннях
Alt - це атрибут картинки, який відображається у випадку, коли зображення не може бути показаним в браузері користувача. Також текст атрибуту озвучується спеціальними програмами для користувачів з вадами зору. Через атрибут Alt пошукова система краще розпізнає зміст ваших зображень. Ви отримуєте хорошу можливість генерувати трафік в пошукової системи Google Images, яка опрацьовує більше 20% всіх запитів в мережі Інтернет. А для користувачів з вадами зору ваш контент стане більш доступним. Перевірити заповнення Alt-атрибутів можна вручну в браузері Chrome, або через спеціальні платні сервіси. Під час формування контенту для Alt-атрибутів дотримуйтесь двом правилам:
- “Краткость — сестра таланта”, максимум 3-5 слів
- Не перестарайтесь з “ключовими слова”
4.5 Унікальність контенту
Варто перевірити відсоток оригінального тексту до загального обсягу тексту на веб-сторінці. Для цього використовуємо спеціальні сервіси. Унікальність більше 80% добре, 50-80% - не дуже добре, менше 50% - погано. На контент картки товарів ці правила не розповсюджуються. Картка товару може містити неунікальний текст, який описує параметри товару. Далі в Google Image перевіряємо зображення сторінки на унікальність. Важливо, щоб на сторінках сайту були опубліковані унікальні зображення.
4.6 Щільність ключів
Пошукова система аналізує “ключові слова”, щоб оприділити релевантність веб-сторінки до запитів користувачів. Показник щільності показує долю ключових слів в в тексті. Висока щільність - це погано, такий текст буде нечитабельним і буде мати всі ознаки неякісного контенту. Низька щільність - теж погано, у вас можуть виникнути проблеми з релевантністю веб-сторінки до обраної групи пошукових запитів. Тому слід проаналізувати щільність “ключів” конкурентів, які в ТОП-10 і отримані значення взяти за норму. Також варто дотримуватися правила, щоб “ключі” мали вищу частотність ніж інші слова в тексті.
4.7 Швидкість завантаження сторінки
А це вже тема наступного відео. На сьогодні це все. Як і обіцяв - посилання на чек-лист SEO-аудиту внизу під відео, в описі. Користуйтесь на здоров’я. Якщо це відео було для тебе корисним - жми лайк і підпишись, щоб надалі нічого не пропустити. Зустрінемось онлайн, далі буде…