SEO проблеми при Java Script и новонавлизащите фреймуърци Anguiar и React , защо и как търсачката чете js в сайта или онлайн магазина ни.

Служител на Google Джон Мюлер отговори на Reddit, когато го попитаха за проблеми с атрибута rel = canonical на сайта, използвайки Angular JS.

- Авторът на въпроса написа :

„Имам проблеми с каноничните URL адреси на сайта и смятам, че това се дължи на Angular JS, използван в HTML. За хиляди страници в сайта Google игнорира каноничната връзка и избира своя собствена опция. Проблемът е, че страницата, която Google избира, е грешна.

- Мюлер отговори:

проблеми с каноничните URL адреси на сайт
проблеми с каноничните URL адреси на сайт

„В случай на канонични връзки, първият въпрос от Google ще бъде:„ Дали тези URL адреси са за едно и също съдържание? “ Ако съдържанието е различно, тогава защо Google трябва да мисли по различен начин. "

Ако има проблеми, отговорът обикновено попада в една от двете категории:

Тези URL адреси връщат предимно едно и също съдържание;
Структурата на URL адресите е толкова объркана, че Google не може ефективно да ги провери и да предположи

- След това, Muller засегна JavaScript директно:

„В случая с JS сайтове, причината обикновено е в съдържателната страна. Например, ако използвате настройката за тип SPA, където статичният HTML е предимно същият, а JavaScript трябва да се изпълнява, за да видите уникалното съдържание, тогава, ако този JS не може да бъде изпълнен правилно, съдържанието в крайна сметка ще изглежда същото. "

Има няколко причини, поради които JavaScript може да не се изпълни както трябва. Сред тях са:

  • "Капризен" код;
  • Понякога ресурси (JS файлове) или сървърни отговори (API заявки и т.н.) могат да бъдат блокирани от robots.txt;
  • Понякога JS отнема твърде много време за обработка.

Ако кодът работи за Googlebot, който може да се определи с помощта на инструмент за оптимизация за мобилни устройства, тогава си струва да разгледате дали проблемът е причинен от скоростта на обработка.

Но има един нюанс - липсата на ясна насока или твърда граница за проверка. Освен това, страницата рядко се зарежда еднакво по време на индивидуални проверки.

- Въз основа на това Мюлер дава следния съвет:

„Моят начин е да видя колко време се извършва проверката в инструмента за оптимизация за мобилни устройства, а след това да използвам webpagetest.org, за да разбера колко време отнема да се изтегли критично / уникално съдържание и колко ресурси отнема. Колкото повече ресурси са необходими, толкова повече време е необходимо за изтегляне на критично съдържание и колкото по-голяма е вероятността Google да има проблеми с индексирането си. "

В резултат на това Мюлер предложи Google да възприеме двете страници, цитирани от автора на въпроса, като съдържащи едно и също съдържание. От това следва, че търсачката не вижда уникално съдържание на всяка страница. Това може да се случи, защото зареждането на уникално съдържание може да изисква твърде много заявки. Или отговорите се връщат твърде дълго. В резултат на това Googlebot се фокусира върху HTML, а не със съдържание, което се зарежда с помощта на JavaScript.

Този проблем може да бъде решен чрез намаляване на зависимостите и закъсненията, отбелязва Мюлер.