plik robots.txt służy do blokowania dostępu do wybranych
części naszego serwisu robotom, wiemy że dawna dany fakt nie
podlega wątpliwości. Niekiedy jednak można zauważyć w indeksie także i
te strony, które .. jakiś czas temu zablokowaliśmy przed wizytą
crawlerów Juz zachwile napisze co to. Dlaczego zatem są one widoczne?
Okazuje się, że nie wszyscy wiedzą, że jest – na pewno w przypadku
Google – jeden „myk”, dzięki któremu opisana powyżej sytuacja może mieć
miejsce. Są nią … linki prowadzące do stron zablokowanych w robots.txt.
Jeżeli robot Google znajdzie odnośniki prowadzące do takiej witryny, to
nie pomoże blokada – strona będzie mogła być zaindeksowana.
Objawem takiego stanu jest np. wyświetlanie się strony w wynikach bez
description, pomimo faktu, że jest ono dostępne na stronie. Strona też
pojawia się i znika w SERPAch, w dodatku z Title, który składa się m.in.
z anchorów linków prowadzących do takiej strony.
Co zrobić, aby wyprostować opisaną wyżej sytuację? Otóż najprostszym jest rozwiązanie odwrotne, tzn. usunięcie linków.
Brak komentarzy:
Prześlij komentarz
PLEASE COMENNT