Експерт за Semalt: Водич за спречување на Google од индексирање на старите страници

Како што расте вашата веб-страница, ќе се потрудите да најдете начини да ја подобрите неговата видливост и кредибилитет на Интернет. Понекогаш, ефектите од тоа како нашите веб-страници работеле остануваат зад себе, и тука треба да обрнеме внимание.
Следете ги следниве совети од Макс Бел, Управувач со успеси на клиентите на „ Семсул“ , со цел да спречите Гугл да ги лази старите страници.

Пред неколку недели, еден од моите клиенти ми рече дека има веб-страница за е-трговија. Помина низ различни промени: од структурата на URL-то до сајтот, сè беше изменето за да се направи страницата повидлива.
Клиентот забележал некои промени во неговата Конзола за пребарување на Google и ги пронашол грешките во Сметањето. Она што тој забележа дека има голем број на стари и нови УРЛ-адреси кои генерираат лажен сообраќај. Сепак, некои од нив ги покажуваа грешките за кои негирав пристап 403 и не е пронајден 404.
Мојот клиент ми кажа дека најголемиот проблем што го имал е старото Мапа на сајтот што постоеше во папката за root. Неговата веб-страница претходно користеше различни додатоци на Мапа на Google XML, но сега тој зависеше од WordPress SEO од Yoast за мапа на сајтот. Меѓутоа, разни стари додатоци на сајтот, создадоа неред за него. Тие беа присутни во коренот папка именувана како мапа на сајтот.xml.gz. Бидејќи започна да ги користи приклучоците Yoast за создавање на сајтови за сите натписи, категории на страници и ознаки, тој повеќе не требаше. За жал, лицето не го доставило сајтот.xml.gz до Конзолата за пребарување на Google. Тој само го доставил својот Мапа на сајтот Yoast, а Гугл исто така ги погази своите стари сајтови.
Што да ползиш?
Лицето не го избриша стариот Мапа на страницата од папката со root, така што се индексираше. Му се вратив на него и објаснив дека мапа на сајтот е само предлог за тоа што треба да биде запишано во резултатите од пребарувачот . Веројатно мислите дека бришењето на старите сајтови ќе го спречи Гугл да го лазнува несоодветниот URL, но тоа не е точно. Моето искуство вели дека Гугл се обидува да ја индексира секоја стара URL адреса неколку пати на ден, осигурувајќи се дека грешките 404 се реални, а не несреќа.
Googlebot може да ја чува меморијата на стари и нови врски што ќе ги најде во мапите на вашата страница. Ја посетува вашата веб-страница во редовни интервали, осигурувајќи се дека секоја страница е индексирана правилно. Googlebot се обидува да процени дали врските се валидни или невалидни, така што посетителите немаат проблем.
Очигледно е дека веб-администраторите ќе бидат збунети кога ќе се зголеми бројот на нивните Грешки во грешка. Сите тие сакаат во голема мерка да го намалат. Како да го информирате Гугл да ги занемари сите стари мапи на страници? Можете да го сторите тоа убивајќи ги сите несакани, и непарни странични страници на страници. Претходно, единствениот начин да се овозможи тоа беа датотеките .htaccess. Благодарност до WordPress што ни обезбеди некои додатоци.

Веб-страниците на WordPress ја имаат оваа датотека во своите папки за root. Значи, само треба да пристапите до FTP и да ги овозможите скриените датотеки во cPanel. Одете во опцијата Управувач со датотеки за да ја уредувате оваа датотека според вашите барања. Не треба да заборавите дека уредувањето неправилно може да ја оштети вашата страница, така што секогаш треба да ги копирате сите податоци.
Откако ќе ја додадете снимката во датотеката, сите истечени УРЛ-адреси ќе исчезнат од вашите Грешки во ползи во ниеден момент. Не треба да заборавите дека Google сака да ја одржувате вашата страница во живо, намалувајќи ги шансите за 404 грешки.