SEO BEGRIFFE S | SEO Optimization | ZURÜCK ZUR STARTSEITE
Search Engine Optimization | SEO Agency (SEM-Agency)
SEO LEXIKON - LEXIKON in ZUSAMMENARBEIT MIT:
SEM-Agency.de | Interbroich.de | Banana-SEO.COM | PAGERANKSEO.de | SEO-LÖWE.com | SEO6ix.de | seo6ix.com
- SEO Website Optimization
- SEO google top 10 Optimization
- SEO Webdesign | Internetmarketing
Seo BEGRIFFE S | Suchmaschinenoptimierung | GOOGLE OPTIMIERUNG - SEO Services | SEM SEO | Seo LEXIKON
BANANA SEO = Search Engine Optimization | BANANA SEO ist eine anerkannte und populäre SEO Seite aus den Vereinigten Staaten.
SEO | Internetmarketing | SEM SEO
SEO Begriffe S | SEO LEXIKON | ZURÜCK ZUR STARTSEITE
Banana-Seo | Seo LÖSUNGEN | BEGRIFFE ERKLÄREN
SEO LEXIKON - BEGRIFFE MIT BUCHSTABE S
Scooter
Bezeichnung für den Spider der Altavista-Suchmaschine. Altavista verwendet allerdings seit März 2004 den Datenbestand von Yahoo.
Search Engine Results Page
Auf dieser Ergebnisseite werden die nach bestimmten Kriterien sortierten Resultate einer Suchanfrage dargestellt.
Seitentausch
Bei diesem Spam-Versuch wird zunächst eine Spider-optimierte Webseite bei einer Suchmaschine angemeldet. Nach deren Indexierung wird sie gegen eine Seite getauscht, die für die Webseiten-Besucher optimiert worden ist. Das Verfahren ist allerdings nur schwer auszurechnen, das viele Spider Webseiten willkürlich aufrufen und deshalb der optimale Austausch-Zeitpunkt nicht vorausgesehen werden kann.
Seitentitel
Die Titelzeile einer Webseite verdient auch vor dem Hintergrund einer Suchmaschinenoptimierung höchste Aufmerksamkeit, da die darin enthaltenen Keywords für Suchmaschinen eine hohe Relevanz besitzen und bei der Ergebnisanzeige in der ersten Zeile dargestellt werden.
SEM
Search Engine Marketing, Suchmaschinen-Marketing.
Semantische Analyse
Die Semantik als Teildisziplin der Linguistik beschreibt die Bedeutung und die Struktur der menschlichen Sprache. Semantische Kriterien werden auch bei der Analyse von Webseiten durch Suchmaschinen eine immer größere Rolle spielen. Seit März 2003 gehört die Firma Applied Semantics zu Google, die Webseiten-Content semantisch analysiert mit dem Ziel, inhaltlich passende Werbung auf den jeweiligen Seiten einzublenden. Die Software Adsense, mit der Google Adwords-Anzeigen positioniert, arbeitet auf einer vergleichbaren Grundlage. Würde Google die Semantik-Analyse auch zur Bewertung der herkömmlichen Suchergebnisse einsetzen, würden sich neue Möglichkeiten hinsichtlich der Webseiten-Relevanz bzw. der Erkennung von Spam auftun.
SEO
Search Engine Optimizer, Search Engine Optimization; deutsch: SMO -> Suchmaschinenoptimierung. Das Ziel besteht darin, Webseiten so umzugestalten, dass nach einer Suchmaschinenanfrage eine möglichst gute Position erzielt wird.
SERP
Search Engine Results Page, Suchmaschinen-Ergebnisseite. Auf dieser Suchmaschinen-Seite werden die Ergebnisse einer Suchanfrage aufgelistet.
SERPS Pollution
Search Engine Results Pages Pollution, Verschmutzung einer Suchmaschinen-Ergebnisseite. Benennt die Tatsache, dass die Ergebnisseiten einer Suchmaschinenanfrage auch -> False Drops beinhalten, also irrelevante Seiten wie Link-Listen, Doorway Pages, Affiliate-Seiten, die keinen relevanten Content aufweisen.
Server
Zentraler in ein Netzwerk eingebundener Rechner, der als Web- oder Datenbank-Rechner verwendet wird. Als Server-Client wird die Software bezeichnet, die Informationen von einem Server abruft. Auch Suchmaschinen-Spider werden zu Clients, wenn sie Daten von einem Webserver zur weiteren Verarbeitung abrufen.
Session ID
Anhand dieses Wertes kann ein Webserver einen Nutzer oder einen Vorgang eindeutig identifizieren. Cookies oder eine URL, dessen Bestandteil die Session ID ist, können die ID an ein Folgeskript weiterreichen, das dann die Server-Session-Daten wiederfindet. Voraussetzung für die Verwendung von Session IDs ist eine Skript-Sprache auf dem Server wie PHP.
Session Length
Kennzeichnet die Dauer, die ein Besucher auf einer Website verweilt.
Siloing
Dieses Verfahren ordnet den Content einer Website nach Themen und setzt die Inhalte in Beziehung zueinander. Wird Siloing sinnvoll angewendet, kann ein verbessertes Keyword-Ranking erzielt werden.
Sitelinks
Auf den Ergebnisseiten nach einer Google-Suche nach einem gefragten Suchbegriff werden zuweilen innerhalb eines an erster Stelle angezeigten Eintrages weitere Links dargestellt. Diese Sitelinks sucht Google automatisch und zeigt sie mit dem Ziel an, dem User populäre Webseiten anzubieten, in denen er seinen Suchbegriff schnell findet.
Sitemap
Eine Webseite, die die Navigationsstruktur der kompletten Site unter Verwendung von Links übersichtlich darstellt, um einem Besucher die Orientierung zu erleichtern. Liegt sie in standardisiertem XML vor, kann sie von einer Suchmaschine gut zur Indexierung genutzt werden.
Slow Dead
Langsamer Tod. Bezeichnet das Phänomen, das manche Webseiten immer seltener in den Ergebnissen einer Suchanfrage erscheinen. Bei Google in einem solchen Prozess zuerst nur noch als URL, später ohne Beschreibung aufgeführt, bis die Seite vollkommen aus dem Index der Suchmaschine verschwunden ist. Als eine der Ursachen wird das Vorhandensein von Duplicated Content angesehen, der von Suchmaschinen als Spam eingestuft wird.
Social Bookmarks
Social Bookmarking sind Dienste, bei denen sich Nutzer anmelden und ihre Bookmarks z.B. Lesezeichen, Favoriten online platzieren können. Der Vorteil dieses Dienstes ist, dass der Webnutzer nicht mehr an die Bookmark-Sammlung seines lokalen Browsers gebunden ist und damit von überall Zugriff hat. Das Social Bookmarking ist praktisch ein Nachfolgesystem von Webkatalogen und eignet sich u.a. zur Generierung von eingehenden Links.
Spam
Spamdexing. Meint vor dem Hintergrund der Suchmaschinenoptimierung alle Verfahren, mit denen ein besseres Ranking erzielt werden soll, ohne die Suchmaschinen-Richtlinien zu beachten. Der eigentliche Suchmaschinen-Algorithmus soll dabei getäuscht werden. Die Suchmaschinen definieren Spam allerdings unterschiedlich. Werden Spam-Verfahren ausgemacht, kann die Suchmaschine die betreffenden Seiten mit einer Ranking-Abwertung, mit einem Delisting der Domain oder mit einer Sperrung der IP-Adresse sanktionieren. Eine Bestrafung kann befristet oder dauerhaft sein. Suchmaschinen können Spam automatisch erkennen, aber auch die Mitarbeiter von Suchmaschinen-Anbietern oder andere User können Spam identifizieren.
Spam-Bots
Damit sind Spider gemeint, die im Internet nach Daten suchen, um ihre Spam-Absichten zu realisieren: Mit automatisierten Skripten kann das Web nach E-Mail-Adressen durchforstet werden, an die später Spam gesendet wird. Spam-Bots haben auch die Aufgabe, in Gästebüchern einen mit einem Link versehenen Standardtext einzutragen, durch den die Link-Popularity des Spam-Auslösers verbessert wird (-> Gästebuch-Spam).
Spam Policy
Darunter versteht man die von den Suchmaschinenanbietern aufgestellten Richtlinien zur Sanktionierung von Spam-Methoden.
Spam-Report
Spam schadet der Qualität der Suchmaschinenergebnisse. Viele Betreiber bieten deshalb die Option an, Verletzungen der Spam-Richtlinien zu melden, wozu in einem entsprechenden Kontaktformular eine Spam-Report geschrieben werden sollte. Google reagiert offensichtlich nur dann auf einen Spam-Report, wenn ein schwerwiegender Fall vorliegt - das Unternehmen bevorzugt eine technische Lösung des Problems.
Spider
Crawler, Robot, Bot. Automatisierte Programme, die im Internet Webseiten-Content speichern, um ihn von einer Suchmaschine indexieren zu lassen. Die URLs der aufgesuchten Seiten wurden entweder bereits vorher von der Suchmaschine erfasst oder der Spider geht automatisch Web-Links nach und sucht die entsprechenden Webseiten auf. Aufgabe dieser Robot-Systeme ist es, Dokumente zu sammeln, Web-Adressen zu speichern oder zu überprüfen und Dokument von der Suchmaschine analysieren zu lassen.
Splash Page
Einstiegsseite einer Website, die nur Grafikelemente oder Animationen aufweist. Klassisches Beispiel sind Intro-Seiten, die ausschließlich Flash-Animationen abspielen. Wird auf einer Splash Page ein Link zu einer anderen Seite auf JavaScript-Basis realisiert und ein Spider kann JavaScript nicht lesen, kann die Seite nicht indexiert werden.
Sponsored Listing
Sponsored Links. Bei diesem Verfahren werden Einträge in das Ergebnis-Ranking einer Suchmaschine in einer Pay per Click-Auktion ersteigert. Die meisten Suchmaschinen bieten Sponsored Listings an, vor allem jedoch Espotting, Google und Overture.
Spoofing
Darunter versteht man die Angabe einer falschen IP-Adresse beim Datenaustausch mit einem Server: Der Absender gibt nicht seine tatsächliche URL an (IP-Spoofing). Suchmaschinen-Anbieter setzen Spoofing zur Enttarnung von Cloaking-Verfahren verwendenden Spam-Seiten ein. Beim DNS-Spoofing wird der DNS eines fremden Servers übernommen beispielsweise mit dem Ziel, Adressen auf den eigenen oder einen dritten Server umzuleiten.
SSI
Server Side Includes. Mit dieser Webserver-Erweiterung können Webseiten dynamisch generiert oder modifiziert werden. Die im HTML-Dokument enthaltenen Befehle werden ausgeführt, bevor die betreffende Webseite an einen Client ausgeliefert wird. Auf diese Weise können der Inhalt einer anderen Datei oder die von einem Programm erzeugten Daten, das vor dem Ausliefern der Seite aufgerufen wird, in den Quellcode der Seite gelangen. Diese Funktion ermöglicht bei der Suchmaschinenoptimierung mehrere Optionen.
SSL
Secure Sockets Layer. Diese standardisierte Spezifikation dient zur verschlüsselten Datenübertragung zwischen Webserver und Browser.
Stemming
Bildung von Wortstämmen. Meine den Vorgang der Wortzurückbildung auf seinen Stamm. Weiterentwickelte Suchdienste erreichen durch Einsatz des Stemming bessere Suchergebnisse und einen erhöhten Recall. Gibt ein User beispielsweise "Suchmaschinenoptimierung" oder "optimieren" in die Suchfunktion ein, wird bei aktivem Stemming auch das Wort "Optimierung" gefunden. Im deutschsprachigen Raum setzt Google seit 2004 Stemming ein
Stickiness
Misst die Dauer und die Häufigkeit von Website-Besuchen auf der Grundlage bestimmter Algorithmen.
Stop Word
Stop-Wort. Diese Wörter kommen im Sprachgebrauch sehr häufig vor (z.B. in, ein, der, das, und, oder), haben keinen relevanten Informationsgehalt und werden deshalb normalerweise von Suchmaschinen ignoriert. Eine Suchmaschine pflegt eine erweiterbare Liste mit Stop-Wörtern. Google führt auch "www" als Stop-Wort. Bei der Phrasen-Suche kann speziell nach Stop-Wörtern gesucht werden.
Submit
Webseiten werden durch einen Anmeldevorgang kostenlos oder gebührenpflichtig in einen Suchmaschinenindex oder ein Verzeichnis übergeben.
Submission Service
Automatischer, webbasierter Anmeldedienst für Websites zur Anmeldung bei Suchmaschinen und Verzeichnissen.
Suchmaschine
Search Engine. Mit diesem komplexen Suchdienst können Internet User Webseiten finden, die bestimmte Keywords aufweisen. Der Webseiten Content wird von Suchmaschinen gespidert, die Inhalte in Datenbanken abgelegt und Suchanfragen in diesen indexierten Daten ausgeführt. Damit gehören Suchmaschinen neben Web-Verzeichnissen zu den im Internet verwendeten Navigationsinstrumenten. Suchmaschinen weisen in der Regel ähnliche Hauptkomponenten auf: Der Spider (Crawler, Robot) folgt den in die Webseiten eingebauten Links und bewegt sich auf diese Weise durch das Internet. Der Merkmalsextraktor extrahiert aus den aufgerufenen Webseiten Texte und Merkmale, die für die jeweilige Aufgabe relevant sind. Er reduziert damit den Datenbestand, den der Spider durchlaufen hat. Der Indexierer organisiert die extrahierten Texte und Merkmale und ermöglicht damit einen schnellen Zugriff. Aufgabe des Sortieres ist es, die Texte entsprechend ihrer Relevanz bezüglich einer Suchanfrage zu ordnen. Er verwendet dabei suchmaschinenspezifische Algorithmen. Das User-Interface ist die Bildschirmoberfläche, über die ein Benutzer seine Suchanfrage eingeben kann.
Suchmaschinen-Anmeldung
Webseiten können mit einem speziellen Formular bei Suchmaschinen angemeldet werden, um in deren Datenbestand aufgenommen zu werden. Das Formular kann durch automatisierte Tools oder manuell abgeschickt werden. Ein erfolgreicher Anmeldevorgang kann sich allerdings über Monate hinweg erstrecken. Leistungsfähige Suchmaschinen finden neue Webseiten anhand deren Backlinks während eines Spider-Prozesses ohne gesonderte Anmeldung. Allerdings sind nicht alle Suchmaschinen sehr leistungsfähig.
Suchmaschinen-Optimierung
Search Engine Optimization, SEO. Umfasst die Verfahren, mit denen die Relevanzkriterien einer Website verbessert werden können, die ausschlaggebend dafür sind, die Seite in den Suchergebnissen einer Suchmaschine möglichst weit oben anzeigen zu lassen. Diese Verfahren lassen sich unterteilen in On the Page-Optimierung, die sich auf den Inhalt oder auf die Struktur einer Webseite bezieht, und in Off the Page-Optimierung, die darauf abzielt, die Link Popularität einer Seite durch eine gezielte Vermehrung der Backlinks zu verbessern.
Suchstring
Umfasst die Wörter oder Wortkombinationen einschließlich eventueller Verknüpfungszeichen, die vom Benutzer in das Suchfeld einer Suchmaschine eingegeben werden.
Syntax
Schreibweise. Vor dem Hintergrund der Suchmaschinenoptimierung ist mit der Schreibweise die Eingabe der Suchwörter in das Eingabefeld der Suchmaske gemeint. Die Verknüpfungswörter und die Verknüpfungssyntax sind suchmaschinenspezifisch. –> Suchstring.
Zum Anfang der SEO-Erläuterungen
SIE befinden sich im
>> SEO-Lexikon Begriffe mit S
FAN WERDEN | FACEBOOK | ZURÜCK ZUR STARTSEITE
SEM-Agency - auf FACEBOOK
- werde ein Fan! zur Fanseite
- hier klicken