Drupal använder en sökmotor blockerande metod gemensam för samtliga webbservrar för att hindra sökmotorer från att infoga webbsidor den tjänar in en sökdatabas . Detta används ofta för webbplatser som inte har offentligt tillgängliga uppgifter , eller att hindra sökmotorer från att begära överdriven trafik från en webbplats . Instruktioner
1
Leta upp " robots.txt " -fil i rotmappen på din Drupal webbplats . Rotmappen är också platsen för din hemsida , men dess plats på webbservern kommer att variera beroende på vilket operativsystem du använder för att köra Drupal .
2
Skapa en tom fil med namnet "robotar . txt " i rotmappen om den inte redan finns . Drupal version 5 och senare kommer att skapa en robots.txt-fil som standard , men du kan också lägga till den här filen om det inte redan finns där .
3
Öppna filen robots.txt i en . textredigerare
4
Ersätt innehållet i robots.txt -filen med följande :
User- agent : *
Disallow : /
Detta talar alla webbsöktjänster att hoppa allt innehåll . User agent innebär sökmotorn , det " * " är en vild, vilket betyder alla. Den " /" betyder roten , eller " top " på din hemsida . Därför , genom att förbjuda roten , allt innehåll på alla sidor på webbplatsen - som är hierarkiskt " lägre " än roten - kommer att hoppas
5
Spara filen robots.txt . . Om din webbserver använder en cache webbsida i den igen så att den nya sidan ska skickas till sökmotorer när de begär att robots.txt sidan .