Projekt:Zeitschriftenvorlage/Suchmaschinenoptimierung

Aus Wikiversity

Schwerpunktaufgabe: Was ist eine Artikelvorlage zu gestalten, damit Suchmaschinen wie Google sie finden können ?[Bearbeiten]

Leitstern[Bearbeiten]

Die Suchmaschinen-Optimierung braucht man, damit Leser auf die Zeitschrift in der Wikiversity aufmerksam gemacht werden können. Die Suchmaschinenoptimierung enthält auch Techniken, die man als Spam ansehen kann. Die fallen natürlich sofort als nutzbare Technik für das Projekt aus. Ich beschränke mich auf die Verfahren, die ich für angemessen halte für eine wissenschaftliche Zeitschrift. Das mache ich immer mit einem Blick zur Seite auf das Schwesterprojekt Wikinews. Da kann man viel übernehmen für ein prototypisches Zeitschriftenmodell.

Wikinews besteht darauf, einen neutralen Standpunkt einzunehmen. Es ist klar, dass das wegfallen muss bei einer wissenschaftlichen Zeitschrift, die ja gerade den Meinungsaustausch anregen soll.

Die Artikel sind mit einer Dokumentenstruktur zu versehen, um optimal von einer Suchmaschine gefunden werden zu können. Das Design der Artikel übernimmt CSS.

Löschregel gegen Spamversuche[Bearbeiten]

Nachdem wir die erste Konvention festgelegt haben, keine Spamtechniken einzusetzen. Das sind meiner Meinung nach die mehrfache Erwähnung von Schlüsselwörtern in Tags und die Verwendung unsichtbarer Schrift und Bilder, dann haben wir also auch schon die ersten Löschregel.

1.Löschregel: Artikel die mehrfache Schlüsselwörter in Tags verwenden sollen nicht veröffentlicht werden.

2.Löschregel: Artikel die unsichtbare Elemente im Textkörper verwenden, um Schlüsselwörter zu verbergen sollen nicht veröffentlicht werden.

3.Löschregel: Artikel mit irreführenden Keywords sollen unveröffentlicht bleiben.

4.Löschregel: Artikel mit mißverständlichen Titel sind unveröffentlicht zu halten.

5.Löschregel: Artikel die auffallend häufig Keywords verwenden, die den Richtwert von 5% am Textseite übersteigt.

6.Löschregel: Verwendung von sehr kleinen Textgrößen, um Keywörter zu verstecken.

7.Löschregel: Inhaltslose Weiterleitungsseiten mit schnellen Refresh.

8.Löschregel: Isolierte Seiten sogenannte Brückenseiten, die nicht mindestens auf eine andere Seite verweisen. Offentsichtlich sind sie auschließlich dazu da, um den Pagerank zu manipulieren. Auch sie sollen an der Veröffentlichung gehindert werden.

9.Löschregel: Doppelte Seiten um den Pagerank zu verbessern sind nicht zu veröffentlichen.

10.Löschregel: CSS kann Überschriften für Suchmaschinen unsichtbar machen. Dadurch erreicht man dass die bewerteten Headers <h1> und <h2> in der Headerhierarchie tiefer rutschen. CSS-Überschrift um die Headerhierarchie zu manipulieren sollen einen Artikel unveröffentlicht lassen.

Dagegen ist das intensive Verlinken sogenanntes Crosslinken innerhalb einer Domain kein Spam. Schließlich ist die Wikiversity eine Virtuelle Universität. Suchmaschinen können die unnatürlichen Linkstrukturen erkennen. Im Augenblick ist das für die Wikiversity kein Problem, es ist jung. Aber um das vorzubeugen, erweitere ich das um eine weitere Löschregel

10.Löschregel: Artikel mit einer intensiven Crosslinking innerhalb der Wikiversity mit http-LInks sind unveröffentlicht zu halten. Stattdessen sollen die Wiki-Links verwendet werden. Daraus folgt, dass die Metatags für den Autor, den Ansprechpartner der Zeitschrift und das Urheberrecht gesetzt sein soll.

Gutartige Techniken in der Suchmaschinenoptimierung[Bearbeiten]

Themenzentrierte Suchmaschinenoptimierung ist das einzige, was ich für verwendbar halte.

  • Themenorientierung

Jeder Sinnzusammenhang gehört auf eine Seite.

  • Titel

Der Titel entspricht dem Inhalt. Er sollte etwa 5-6 Worte lang sein. Wichtige Worte sollen am Titelanfang stehen.

  • Description

Die Seitenbeschreibung sollte etwa 150 - 380 Wörter enthalten und ist eher am Minimum zu orientieren. Es ist sozusagen die Visitenkarte des Artikels und wird auf der Ergebnisseite der Suchmaschine angezeigt. Jede Seite des Artikels kann eine Seitenbeschreibung erhalten.

  • Keywords

Die Keywords entsprechen den üblichen Assoziationen, die ein Fachkundiger mit dem Thema verbindet.

  • Alt-Text

Der Alt-Text zu erläuternden Abbildungen <img src="bild.gif" alt="Beschreibung des Bildes"> sollte immer vorhanden sein. Das Bild ist sichtbar zu machen.

  • Linkpopularität

Linksetzung auf andere gelungene Artikel zu einem Thema, die in einem engen Zusammenhang mit dem Artikel stehen sind erlaubt.

  • Linktext

Der Linktext hat im Zusammenhang mit dem Inhalt auf der Seite zu stehen.

  • URL

Die URL des Artikels in der Wikiversity-Domain ist mit einem Verzeichnisnamen auszustatten der zum Inhalt passt.

  • Elemente
  • Pagerank
1. Der Pagerank ist höher wenn ein Artikel mehr Seiten hat.
2. Eine Artikelseite mit wenigen Links verbessert den Pagerank, also ist es sinnvoll die Links z.B. Zitate und Quellnachweise auf mehrere Seiten zu verteilen.
3. Linkaustausch mit anderen Artikel und Homepages von Autoren und Community-Mitgliedern der Wikiversity.

Zwischenergebnis[Bearbeiten]

Dadurch erhalten wir jetzt ein Zwischenergebnis. Eine Artikelseite enthält Metatags und Kommentare. Metatags sind wichtig um die Katelogisierung von wissenschafltichen Artikel durch uns und von außerhalb zu ermöglichen. Kommentare erklären die Suchmaschinenorientierung. Beide Elemente sind in einer Vorlage unterzubringen für jede Artikelseite.

Metatags für Bibliotheken nach dem Dublin Core[Bearbeiten]

Dublin Core ist ein Standard, um für Bibliotheken sichtbar zu werden. Das ist sicher einer der Voraussetzungen um Zugang zu Bibliothekssuchmaschinen zu erhalten.

Meta-Tags für Browser

Angabe der Inhaltskategorie <meta http-equiv="content-type" content="text/html; charset=iso-8859-1">


Speichern von Seiten verhindern <meta http-equiv="pragma" content="no-cache"> <meta http-equiv="expires" content="0"> <meta http-equiv="cache-control" content="no-cache">


Ablaufdatum der Datei <META HTTP-EQUIV="expires" CONTENT="Wed, 26 Feb 1997 08:21:57 GMT">

Die Sprache der Seite definieren: <meta http-equiv="language" content="de">


Metatags für Robots und Crawler

<meta name="robots" content="index,follow">

Das Gegenteil noindex/nofollow sagt dem Bot er soll die Seite nicht indexieren und die Links nicht verfolgen.

Seiten nicht im Cache speichern

<meta name="robots" content="noarchive">

<meta name="revisit-after" content="30 days">

Im content wird angegeben, nach wieviel Tagen der Robot zur Indizierung wieder vorbeischauen soll.