Der Begriff "Index" im Bereich Optimierung und Website-Promotion wird im Zusammenhang mit Suchmaschinen erwähnt. Der Indexierungsprozess ist die Zusammenstellung einer Art Wörterbuch, alphabetisch und nach Nummern sortiert. Ihre Struktur ermöglicht es Ihnen, die Bedeutung der Seite bei der Suche nach bestimmten Informationen zu bestimmen.
Es ist notwendig
- - Webseite;
- - das Internet.
Anleitung
Schritt 1
Ressourcenseiten werden von Suchmaschinen indiziert. Jeder von ihnen hat seinen eigenen Algorithmus zur Verarbeitung einer bestimmten Site. Die Liste der Seiten im Internet wird für eine bestimmte vom Benutzer eingegebene Anfrage angezeigt.
Schritt 2
Suchroboter sind für die Indexierung von Websites verantwortlich. Sie interpretieren die Suchanfragen der Benutzer auf ihre eigene Weise. Um die Indexierung der Site zu verbessern, müssen spezielle Anweisungen für Roboter erstellt werden.
Schritt 3
Um die Indexierung der Site zu verbessern, ist es notwendig, eine Reihe von Maßnahmen zu ergreifen. Erstellen Sie zunächst eine Sitemap im HTML-Format. Dazu reicht es aus, spezielle automatische Generatoren zu verwenden. Schauen Sie zum Beispiel hier:
Schritt 4
Die fertige Sitemap muss in das Hauptverzeichnis, das Stammverzeichnis Ihrer Site, hochgeladen werden. Um die Verfügbarkeit zu überprüfen, geben Sie die Daten in die Suche ein: https:// Ihr Ressourcenname / sitemap.hml. Machen Sie Ihre Sitemap für Suchmaschinen sichtbar. Besuchen Sie Yandex Webmaster und Google Webmaster-Tools.
Schritt 5
Crawler mit einer robots.txt-Datei verwalten. Erstellen Sie es in einem normalen Texteditor.
Schritt 6
Allen Suchrobotern können spezifische Befehle gegeben werden. Disallow ist beispielsweise eine Anweisung, die die Indexierung bestimmter Abschnitte der Site verbietet. Verbieten Sie Seiten, die für den Benutzer und für Suchmaschinen nicht wertvoll sind, zum Beispiel technische Seiten.
Schritt 7
Damit der Robot die Struktur der Site erfährt, schreiben Sie einen Befehl mit einer Karte im Format sitemap.xml. Zum Beispiel: User-Agent: YandexAllow: / Sitemap: https:// mysite.ru / site_structure / my_sitemap.xml
Schritt 8
Erlauben Sie dem Roboter, auf die gesamte Site oder einzelne Seiten zuzugreifen, indem Sie Allow: User-agent: YandexAllow: /
Schritt 9
Legen Sie die Crawl-Delay-Werte fest. Es ist unwahrscheinlich, dass der Roboter Ihre Website ständig besucht, aber dies beschleunigt die Indizierung der Ressource: Benutzeragent: Yandex Crawl-Verzögerung: 2 # setzt ein Timeout von 2 Sekunden 2
Schritt 10
Um eine robots.txt-Datei für Google zu erstellen, besuchen Sie das Google Webmaster Center. Wählen Sie Ihre Website auf der Startseite der Webmaster-Tools aus.
Schritt 11
Klicken Sie im Abschnitt Site-Konfiguration auf Scannerzugriff. Wechseln Sie dann zum Tab robots.txt erstellen, wählen Sie die Standardzugriffseinstellungen für Robots aus und speichern Sie die Datei auf Ihrem Computer. Gehen Sie zum Control Panel Ihrer Site und laden Sie die generierte Datei in Ihr Stammverzeichnis hoch.
Schritt 12
Arbeiten Sie mit sozialen Lesezeichen, achten Sie auf diese: bobrdobr.ru, memori.ru, moemesto.ru, myscoop.ru, rumarkz.ru, 100zakladok.ru, mister-wong.ru, bookmark.searchengines.ru.
Schritt 13
Social Bookmarks sind eigentlich externe Links zu Ihrer Website. Diese Dienste wurden für die Benutzerfreundlichkeit erstellt. Ein Konto auf einer solchen Ressource ermöglicht es, Links zu Ihren Lieblingsartikeln und Websites hinzuzufügen.
Schritt 14
Dies ist, wie in einem Browser, die Schaltfläche "Favoriten", nur die Internetressource ermöglicht es Benutzern, Gruppen nach Interessen beizutreten, und Zugriff auf Lesezeichen kann von jedem Computer aus erhalten werden. Die Zunahme der Anzahl eingehender Links führt dazu, dass die Robots Ihre Website häufiger besuchen.
Schritt 15
Um die Indexierung einer Website zu beschleunigen, ist es notwendig, häufigere Besuche von Robotern auf ihren Seiten sicherzustellen. Um das Ziel zu erreichen, aktualisieren Sie die Seiten der Website regelmäßig und ergänzen Sie sie mit neuen, einzigartigen Informationen.