Maßnahmen auf Webseiten Dritter, um kontinuierlichen Traffic auf die eigene Website zu generieren:
Möglichkeiten für Backlinks
- Eintrag in Suchmaschinen: Google,Yahoo, MSN (Bing)
- mehrere eigene Websites miteinander verlinken,Partnerlinks beim Geschäftspartner (Website)
- in Verbindung mit eigenen Printprodukten (z.B. mittels QR Code)
- Newsletter, eigene Onlinewerbebanner.....
- PRessemitteilungen über Pressedienste wie openpr.de
- Foren (z.B. in der Signatur), Forenbeiträge
- Beiträge auf Blogs mit hohem Page-Rank, z.B. 0am.de, eigene Blogs (möglichst themenspezifisch)
- Kurzlebige soziale Netzwerknachrichten, hervorgehobene soziale Nachrichten
- Social Bookmarkingsysteme, Button "gefällt mir"/"google+1" auf der Webseite
- Angebot Download von mp3/e-book/pdf-Dateien gegen Pay with a tweet
- externe Bilder verlinken, Pinterest
- Link unter YouTube Videos
- bei Affiliatepartnern
- Preisvergleichsportale
- Google Places bzw. Universal Search
- Keywordadvertising
- WIKIs
- Artikelverzeichnisse
- RSS Verzeichnisse
bestimmt Inhalte der website von der Indexierung ausschliessen
bzw. unerwünschte Crawler fernhalten mit der Datei robots.txt.
Es kann sinnvoll sein bestimmte Bereiche von Websites vom Indexieren
durch Suchrobots auszuschließen; etwa dann, wenn dort Programmdateien
liegen oder
Dokumente, an denen noch gearbeitet wird. Vielleicht sollen
Formularergebnisse, Logfiles oder schnell wechselnde
Informationsseiten vor dem Zugriff
durch Webcrawler geschützt werden, weil die Inhalte nur kurze Zeit im
Netz stehen und der Eintrag im Suchindex in jedem Fall inaktuell wäre.
Erstellen einer .htaccess-Datei, um Verzeichnisse mit einem Passwort zu schützen und Fehler abzufangen. Hierfür ein Htaccess & ErrorDocument Generator.
tote Links entfernen
wirken negativ auf das Ranking in Suchmaschinen. Mit dem Xenu`s Link Sleuth Linkchecker kann man die Website auf tote Links checken, um diese zu korrigieren oder zu entfernen.