Google od paru dni rozsyła nowy rodzaj powiadomień do właścicieli stron o blokowaniu zasobów CSS i JS w pliku robots.txt.

Blokowanie CSS i JS w pliku robots.txt

Czytaj również: Mity SEO, które nie mają wpływu na Twoją stronę

W wiadomości można przeczytać:

Nasze systemy wykryły niedawno problem związany z Twoją stroną główną. Problem ten obniża jakość renderowania i indeksowania Twoich treści przez nasze algorytmy. Googlebot nie może uzyskać dostępu do plików JavaScript i/lub CSS z powodu ograniczeń zdefiniowanych w pliku robots.txt. Dzięki tym plikom możemy się dowiedzieć, czy Twoja witryna działa poprawnie, dlatego blokowanie dostępu do tych zasobów może doprowadzić do uzyskania przez witrynę gorszej pozycji w rankingu.

W Google Console można sprawdzić, które dokładnie aruksze stylów oraz skrypty są blokowane w pliku robots.txt i zastosować odpowiednie korekty. Aby poprawić powyższe błedy należy zalogować się do konsoli, przejść do sekcji indeksowanie -> Pobierz jako Google i kliknąć przycisk pobierz i zrenderuj. Nastąpi wtedy próba pobrania strony głównej. Po dłuższej chwili wyświetli się komunikat o zakończeniu tego procesu i można przejść do analizy problemów. Zrenderowana strona oraz wykaz zasobów, miedzy innymi również te, które są blokowane podane są w czytelnej tabelce. Wtedy dokładnie webmaster wie, jakie poprawki należy wprowadzić do pliku robots.txt, aby roboty google nie miały problemów z poprawnym pobieraniu zawartości naszej witryny.

Więcej informacji można znależć w pomocach Google oraz w celu tworzenia bardziej skomlikowanych reguł pomocna będzie specyfikacja pliku robots.txttutaj.

Krzysztof Czukiewski

Właściciel CP System. Pasjonat technologii internetowych. Od 2009 zgłębia tajemnice Wordpressa i optymalizacji SEO. Aktywnie pomaga właścicielom stron www w poprawie ich widoczności w wyszukiwarkach internetowych Google i Bing wykorzystując całą wiedzę i zdobyte przez lata doświadczenie.

Dodaj komentarz

Zamknij menu