Pliki robots.txt: dlaczego są kluczowe dla SEO

Opublikowany: 2022-05-05

Pliki robots.txt, inaczej zwane protokołem wykluczania robotów, są niezbędnym narzędziem SEO. Ten plik tekstowy informuje roboty wyszukiwarek, które strony mogą być dostępne, a następnie indeksowane. Pliki robots.txt uniemożliwiają również robotom dostęp do niektórych części Twojej witryny. Jest to przydatne, jeśli chcesz uniemożliwić indeksowanie stron niepublicznych. Może to obejmować strony, które są nadal opracowywane lub strony logowania online. Jeśli Twoja witryna jest szczególnie obszerna, plik Robots.txt jest również pomocny w zapewnianiu indeksowania najbardziej odpowiednich stron.

Zamieszczając swoje żądania w pliku Robots.txt, wyszukiwarki będą mogły uzyskać dostęp tylko do tych stron, które chcesz. Zapewnia to nie tylko wysoki stopień prywatności, ale także maksymalizuje budżet indeksowania. Chcesz dowiedzieć się więcej? Czytaj dalej, aby uzyskać szczegółowy przewodnik wyjaśniający, dlaczego pliki Robots.txt są niezbędne dla SEO.

Objaśnienie pliku robots.txt

Główne wyszukiwarki, takie jak Google i Bing, wysyłają tak zwane „przeszukiwacze”, aby przeszukiwać witryny. Roboty te, znane również jako „roboty” lub „pająki”, dostarczają wyszukiwarkom ważnych informacji, dzięki czemu Twoja witryna może być prawidłowo zaindeksowana na stronach wyników wyszukiwania (SERP). Ułatwia to internautom odnalezienie Twojej witryny poprzez wprowadzanie zapytań do wyszukiwarek. Plik Robots.txt wyraźnie określa, które strony można przeszukiwać, a których roboty powinny unikać.

Chcesz zablokować wszystkim robotom wyszukiwarek dostęp do strony logowania klienta? Można użyć następującego polecenia Robots.txt:

Agent użytkownika: *
Disallow: nazwa strony internetowej.com/customer-login

Możesz także dostosować polecenia tak, aby skupiały się na konkretnej wyszukiwarce. Jeśli chcesz tylko uniemożliwić robotom Google dostęp do Twoich stron, możesz użyć następującego polecenia:

Klient użytkownika: Googlebot
Disallow: nazwa strony internetowej.com/customer-login

Aby ułatwić sobie życie, możesz dodać dowolną liczbę stron do listy zakazów. Po utworzeniu pliku Robots.txt należy go umieścić w głównym katalogu witryny. Korzystając z powyższych przykładów jako przewodnika, adres URL pliku Robots.txt powinien wyglądać mniej więcej tak:

https://www.nazwastrony.com/robots.txt

Dlaczego blokować dostęp do stron internetowych?

Blokowanie dostępu do niektórych stron internetowych pomoże wzmocnić działania SEO. W związku z tym musisz wiedzieć, kiedy wprowadzić plik Robots.txt do gry. Jeśli Twoja witryna zawiera zduplikowane strony, nie możesz pozwolić robotom indeksującym ich indeksować. Czemu? Indeksowanie zduplikowanych treści może być szkodliwe dla SEO.

Chociaż Google i inne wyszukiwarki nie nakładają na Ciebie kar za powielanie treści, niepotrzebne indeksowanie zduplikowanych stron może utrudnić dobrą pozycję najbardziej wartościowych stron.

Pliki robots.txt ułatwiają również maksymalne wykorzystanie budżetu indeksowania. Indeksowanie botów jest cennym towarem, który może zwiększyć wydajność SEO. Jednak jednoczesne indeksowanie może okazać się przytłaczające w przypadku mniejszych witryn. Większe witryny lub te o wysokim autorytecie mają zwykle większy limit indeksowania.

Jednak mniej ugruntowane witryny muszą działać ze stosunkowo skromnymi budżetami. Zainstalowanie pliku Robots.txt oznacza, że ​​możesz nadać priorytet najważniejszym stronom swojej witryny, dzięki czemu budżet indeksowania nie zostanie zmarnowany na strony drugorzędne i zbędną zawartość.

Mogą również istnieć strony internetowe, do których nie chcesz, aby każdy użytkownik miał dostęp. Jeśli Twoja witryna oferuje usługę lub zawiera lejek sprzedaży, istnieje wiele stron, które będziesz chciał wyświetlić klientom dopiero po wykonaniu przez nich określonej czynności. Jeśli zachęcasz do tych działań kodami rabatowymi lub nagrodami lojalnościowymi, chcesz, aby dostęp do nich mieli tylko użytkownicy, którzy ukończyli podróż klienta. Blokując te strony, uniemożliwiasz przypadkowym użytkownikom natknięcie się na te informacje za pośrednictwem zapytań wyszukiwarek.

Pliki robots.txt są również przydatne, aby uniemożliwić wyszukiwarkom indeksowanie niektórych materiałów, takich jak prywatne zdjęcia. Mogą być również używane do wskazywania lokalizacji mapy witryny, a także do zapobiegania przeciążaniu serwerów, jeśli boty próbują jednocześnie indeksować obrazy.

Jak utworzyć plik Robots.txt

Teraz zbadaliśmy powody, dla których możesz potrzebować pliku Robots.txt, możemy zbadać, jak go utworzyć. Najłatwiejszym sposobem utworzenia pliku Robots.txt jest użycie Narzędzi Google dla webmasterów. Po utworzeniu konta kliknij „dostęp dla robota”, a następnie przejdź do „konfiguracji witryny”. Po wejściu do tej części menu kliknij „wygeneruj plik robots.txt”. To narzędzie umożliwia szybką pracę przy tworzeniu pliku Robots.txt.

Aby zablokować dostęp robota indeksującego, po prostu wybierz opcję „zablokuj”. Następnie możesz wybrać „User-Agent”, aby określić, które roboty wyszukiwarek chcesz zablokować. Teraz możesz wpisać katalogi witryn, do których chcesz ograniczyć dostęp. Zamiast wpisywać cały adres URL strony docelowej, wystarczy dodać rozszerzenie do „katalogów i plików”. Innymi słowy, jeśli chcesz zablokować robotowi dostęp do strony logowania klienta, po prostu wpisz:

/logowanie-klienta

Po sfinalizowaniu stron, które chcesz zablokować, możesz kliknąć „dodaj regułę”, aby wygenerować plik Robots.txt. Wygenerowany plik Robots.txt daje również opcję „Zezwalaj” na wyjątki, co jest przydatne, jeśli chcesz ograniczyć indeksowanie witryny tylko niektórym wyszukiwarkom.

Po ukończeniu wszystkiego możesz teraz kliknąć ikonę pobierania, aby utworzyć ostateczny plik Robots.txt.

Jak zainstalować plik Robots.txt?

Teraz cała ciężka praca została wykonana, czas zainstalować plik Robots.txt. Możesz to zrobić samodzielnie, przesyłając plik za pomocą rozwiązania FTP. Jeśli jednak istnieje kilka luk w Twojej wiedzy programistycznej, najlepiej będzie skorzystać z usług eksperta. Jeśli przypisujesz zadanie programiście, upewnij się, że dokładnie określiłeś, które strony chcesz zablokować i określ wyjątki.

Pliki robots.txt: kluczowe rzeczy do zapamiętania

Aby zapewnić jak najlepsze wykorzystanie plików Robots.txt, należy pamiętać o kilku sprawdzonych metodach. Może się to wydawać oczywiste, ale upewnij się, że robisz inwentaryzację swoich stron i nie blokujesz dostępu do stron o wysokiej wartości, które chcesz przeszukać i zaindeksować.

Chociaż wielu użytkowników korzysta z pliku Robots.txt w celu zablokowania wyświetlania poufnych informacji na stronach wyników wyszukiwania, nie jest to najlepszy sposób na trzymanie takich materiałów z dala od opinii publicznej. Jeśli inne strony zawierają linki do tych, które zostały zablokowane, zawsze istnieje ryzyko, że zostaną zindeksowane. Użyj alternatywnego podejścia, aby ukryć poufne informacje.

Końcowe przemyślenia

Aby upewnić się, że plik Robots.txt nie wpływa negatywnie na SEO, musisz go aktualizować. Za każdym razem, gdy dodajesz do witryny nowe strony, katalogi lub pliki, musisz odpowiednio zaktualizować plik Robots.txt. Chociaż jest to konieczne tylko wtedy, gdy dodajesz zawartość, która musi podlegać ograniczeniom, sprawdzenie pliku Robots.txt jest dobrą praktyką. Nie tylko gwarantuje, że zawartość Twojej witryny jest tak bezpieczna, jak to tylko możliwe, ale może również przynieść korzyści Twojej strategii SEO.

Skutecznie wdrażając plik Robots.txt, możesz zmaksymalizować budżet indeksowania i nadać priorytet najważniejszym stronom, zapobiec indeksowaniu zduplikowanych treści i zminimalizować ryzyko jednoczesnego indeksowania, które wymusza zatrzymanie serwerów.

Biografia autora:

Greg Tuohy jest dyrektorem zarządzającym firmy Docutec, dostawcy drukarek biznesowych i oprogramowania do automatyzacji biura. Greg został mianowany Dyrektorem Zarządzającym w czerwcu 2011 roku i jest siłą napędową zespołu w Grupie Cantec. Natychmiast po ukończeniu studiów ścisłych na UCC w 1995 roku Greg dołączył do rodzinnego biznesu kopiarek/drukarek. Docutec produkuje również drukarki do domów rodzinnych, takie jak drukarki wielofunkcyjne.