De taak van het verwijderen van afzonderlijke pagina's of de hele site uit zoekmachines wordt geconfronteerd met een webmaster bij het wijzigen van informatie, het wijzigen van een domein, het combineren van verschillende bronnen en een aantal andere redenen. Er zijn verschillende manieren om het probleem op te lossen, afhankelijk van het gewenste resultaat.
instructies:
Stap 1
Verwijder de pagina die moet worden gedeïndexeerd zodat de server een foutbericht retourneert wanneer deze probeert te navigeren naar de geselecteerde webpagina HTTP / 1.1 404 niet gevonden. Om de geselecteerde wijzigingen toe te passen, moet u wachten tot de robot opnieuw toegang heeft tot de vereiste pagina.
Stap 2
Gebruik het rootbestand robots.txt van de robot om geselecteerde secties of pagina's uit te sluiten van indexering door zoekmachines. Om de weergave van het admin-paneel in de zoekmachine te voorkomen, gebruikt u de opdracht: User-Agent: * Diaallow: / admin / Of, om de geselecteerde pagina uit te sluiten van indexering, voert u de waarde in: User-Agent: * Disallow: / selected_page.html # Om de wijzigingen toe te passen, moet de robot opnieuw de geselecteerde pagina bezoeken.
Stap 3
Gebruik de meta-tagging methode om een regel gespecificeerd in HTML code toe te voegen aan alle vereiste pagina's: Dit is nodig om ongewenste pagina's uit te sluiten van de zoekmachine.
Stap 4
Selecteer een methode voor het maken van X-Robots-Tag voor het introduceren van opdrachten in de http-header die niet worden weergegeven in de paginacode: X-Robots-Tag: noindex, nofollow Deze methode is het handigst om geselecteerde pagina's of secties uit te sluiten van indexering van buitenlandse zoekmachines.
Stap 5
Gebruik een speciale webmaster-controlepagina in Yandex: https://webmaster.yandex.ru/deluri.xml of in Google: https://www.google.com/webmasters/tools Dit wordt gedaan om de weergave van de gewenste pagina, sectie of hele site in de geselecteerde zoekmachine.