SEO – Search Engine Optimization
SEO – Search Engine Optimization
SEO Definition
Suchmaschinenoptimierung – englisch search engine optimization (SEO) – bezeichnet Maßnahmen, die dazu dienen, die Sichtbarkeit einer Website und ihrer Inhalte für Benutzer einer Websuchmaschine zu erhöhen. Die Optimierung bezieht sich auf die Verbesserung der unbezahlten Ergebnisse im organischen Suchmaschinenranking (Natural Listings) und schließt direkten Traffic und den Kauf bezahlter Werbung aus. Die Optimierung kann auf verschiedene Arten der Suche abzielen, einschließlich Bildersuche, Videosuche, Nachrichtensuche oder vertikale Suchmaschinen.
Die Suchmaschinenoptimierung ist ein Teilgebiet des Suchmaschinenmarketings.
Geschichte
Mitte der 1990er Jahre fingen die ersten Suchmaschinen an, das frühe Web zu katalogisieren. Die Seitenbesitzer erkannten schnell den Wert einer bevorzugten Listung in den Suchergebnissen und recht bald entwickelten sich Unternehmen, die sich auf die Optimierung spezialisierten.
In den Anfängen erfolgte die Aufnahme oft über die Übermittlung der URL der entsprechenden Seite an die verschiedenen Suchmaschinen. Diese sendeten dann einen Webcrawler zur Analyse der Seite aus und indexierten sie.[1] Der Webcrawler lud die Webseite auf den Server der Suchmaschine, wo ein zweites Programm, der sogenannte Indexer, Informationen herauslas und katalogisierte (genannte Wörter, Links zu anderen Seiten).
Die frühen Versionen der Suchalgorithmen basierten auf Informationen, die durch die Webmaster selbst gegeben wurden, wie Meta-Elemente, oder durch Indexdateien in Suchmaschinen wie ALIWEB. Meta-Elemente geben einen Überblick über den Inhalt einer Seite, allerdings stellte sich bald heraus, dass die Nutzung dieser Hinweise nicht zuverlässig war, da die Wahl der verwendeten Schlüsselworte durch den Webmaster eine ungenaue Darstellung des Seiteninhalts widerspiegeln konnte. Ungenaue und unvollständige Daten in den Meta-Elementen konnten so irrelevante Seiten bei spezifischen Suchen listen.[2] Auch versuchten Seitenersteller verschiedene Attribute innerhalb des HTML-Codes einer Seite so zu manipulieren, dass die Seite besser in den Suchergebnissen gelistet wird.[3]
Da die frühen Suchmaschinen sehr auf Faktoren angewiesen waren, die allein in den Händen der Webmaster lagen, waren sie auch sehr anfällig für Missbrauch und Manipulationen im Ranking. Um bessere und relevantere Ergebnisse in den Suchergebnissen zu erhalten, mussten sich die Betreiber der Suchmaschinen an diese Gegebenheiten anpassen. Weil der Erfolg einer Suchmaschine davon abhängt, relevante Suchergebnisse zu den gestellten Suchbegriffen anzuzeigen, konnten unpassende Ergebnisse dazu führen, dass sich die Benutzer nach anderen Möglichkeiten für die Suche im Web umsehen. Die Antwort der Suchmaschinen bestand in komplexeren Algorithmen für das Ranking, die Faktoren beinhalteten, die von Webmastern nicht oder nur schwer beeinflussbar waren. Larry Page und Sergey Brin entwickelten mit „Backrub“ – dem Vorläufer von Google – eine Suchmaschine, die auf einem mathematischen Algorithmus basierte, der anhand der Verlinkungsstruktur Seiten gewichtete und dies in den Rankingalgorithmus einfließen ließ. Auch andere Suchmaschinen bezogen in der Folgezeit die Verlinkungsstruktur bspw. in Form der Linkpopularität in ihre Algorithmen mit ein.
Page und Brin gründeten 1998 Google und das simple Design sowie die besseren Ergebnislisten verhalfen der Suchmaschine zu einem enormen Erfolg.[4][5] Google verwendete Off-Page-Faktoren (wie PageRank und Hyperlinkanalysen) genauso wie On-Page-Faktoren (Frequenz von Schlüsselworten, Metadaten, Seitenstruktur etc.) für das Ranking. Die Suchmaschine wollte damit Manipulationen wie in jenen Suchmaschinen umgehen, die nur die On-Page-Faktoren verwendeten. Das Gewicht, das vom PageRank-Algorithmus zu einer Seite berechnet wurde, ist eine Funktion der Quantität und der Stärke von Backlinks.[6] Der PageRank gibt die Wahrscheinlichkeit wieder, dass ein Benutzer auf einer bestimmten Webseite landet, wenn er durch das Web surft und zufällig Links anklickt.
Obwohl PageRank schwieriger zu beeinflussen war, hatten Webmaster bereits Strategien und Tools zum Linkbuilding entwickelt, die es ihnen erlaubten, das Ranking der Suchmaschine Inktomi zu beeinflussen. Diese Methoden erwiesen sich auch erfolgreich für PageRank. Viele Seiten legten ihren Schwerpunkt auf das Kaufen, Verkaufen und Tauschen von Links, oftmals in großem Ausmaß. Diese Linkfarmen erstellten oftmals tausende Seiten mit dem einzigen Ziel, Linkspamming zu betreiben.[7]
2005 begann Google die Suchergebnisse auf Basis der früheren Suchanfragen registrierter Nutzer zu personalisieren.[8] Bruce Clay erklärte daraufhin 2008, dass Ranking aufgrund der personalisierten Suche keinen Sinn mehr habe und die Diskussionen über Manipulationen beim Ranking von Suchmaschinen obsolet seien, da gleiche Suchanfragen bei unterschiedlichen Nutzern potenziell andere Ergebnisse liefern würden.
2007 benutzte Google bereits mehr als 200 verschiedene Signale, um die Listung spezifischer Webseiten in den Suchergebnissen zu bestimmen.[9]
2007 kündigte Google eine Kampagne gegen gekaufte Links an, die Einfluss auf PageRank ausüben.[10] 2009 teilte Google mit, dass Maßnahmen ergriffen wurden, um die Effekte des sogenannten PageRank-Sculptings einzuschränken. Zuvor war es durch das Setzen des „nofollow“-Attributs auf Links möglich, den PageRank gezielt auf Seiten zu lenken und diesen so mehr Gewicht zu verleihen und das Linkziel dadurch in Google höher zu listen.[11] Dieses Attribut wurde ursprünglich von Google eingeführt, um Linkspam zu bekämpfen. Als Reaktion auf die Veränderung wurden bald andere Techniken angewandt, die Links gezielt versteckten, wodurch PageRank-Sculpting wieder möglich wurde.[12] 2009 gab Google bekannt, die Suchgeschichte aller Nutzer für populäre Suchergebnisse heranzuziehen.[13]
2010 stellte Google das neue Indexsystem Google Caffeine vor. Es ermöglichte Benutzern die Suche nach Nachrichten, Forenbeiträgen und anderweitigem Content kurz nach dem Veröffentlichungsdatum. Google Caffeine stellte einen Wechsel dar in der Art und Weise, wie Google seinen Index aktualisiert.[14]
Die Echtzeitsuche Google Instant wurde 2010 vorgestellt, um Suchergebnisse zeitnaher und relevanter erscheinen zu lassen. Der steigenden Popularität von Sozialen Netzwerken und Blogs wurde mit der Echtzeitsuche Rechnung getragen und verstärkt darauf fokussiert.[15]
Mit dem Panda-Upgrade 2011 wurden schließlich Webseiten abgestraft, die Seiteninhalte von anderen Seiten kopierten – so genannter Duplicate Content.[16] Mit Google Penguin wurden ab April 2012 auch Seiten heruntergestuft, die manipulative Techniken zur Verbesserung des Rankings anwenden (Webspam).
Arbeitsweise
Man unterteilt die Suchmaschinenoptimierung grob in zwei Aufgabenbereiche, die Onpage- sowie die Offpage-Optimierung. Diese Kategorisierung wird an dem Kriterium festgemacht, ob dabei die eigene Seite bearbeitet wird oder man Einfluss auf andere Webseiten nimmt.
Onpage-Optimierung
Die Onpage-Optimierung umfasst alle inhaltsseitigen Anpassungen der eigenen Website. Hierzu zählen die Optimierung des Seiteninhalts (auch Content) in Bezug auf Inhaltsqualität und -strukturierung, Formatierungen, Schlüsselbegriffe, Überschriften etc., aber auch technische Aspekte wie der Header, Tags wie der Seitentitel und Seitengeschwindigkeit, sowie die interne Linkstruktur der Seite. Auch die Benutzerfreundlichkeit wird in diesem Zuge optimiert, da sie für die Verweildauer eine Rolle spielt. Auch der Domainname und die Seiten-URL werden von Suchmaschinen analysiert und fließen in das Ranking ein. In der Regel geschieht die OnPage-Optimierung vor einer Offpage-Optimierung.
Das Aufsuchen und Einlesen der Inhalte von Webseiten folgt bekannten HTML-Standards des Web, weshalb deren Einhaltung bei der Erstellung von Webseiten den ersten Schritt einer Optimierung darstellt. Laut Aussagen von Google stellt die Validität einer HTML-Seite jedoch keinen Einflussfaktor auf deren Ranking dar.[17] Dennoch können Seiten, die besonders HTML-konform sind, vom Browser schneller geladen werden, was von Suchmaschinen durchaus honoriert wird.
Das eigentlich für Suchmaschinen konzipierte Meta-Element „Keyword“ wird von Google inzwischen nicht mehr berücksichtigt. Gleiches gilt für das Meta-Element „Description“. Dieser wird jedoch (abhängig von der Suchanfrage) möglicherweise als Textauszug in den SERPs angezeigt und sollte deshalb insbesondere bei ausgewählten Seiten sorgfältig formuliert werden.[18]
Im Rahmen der stetigen Weiterentwicklung der Suchmaschinen-Algorithmen nehmen die mobilen Endgeräte (Smartphones, Tablets) einen immer wichtigeren Platz bei der Suchmaschinenoptimierung ein. Eine Webseite, die nicht für mobile Endgeräte angepasst ist, wird vor allem bei der mobilen Suche deutlich schlechter gelistet als Webseiten, die zum Beispiel über ein Responsive Design verfügen. Seit dem Juli 2019 ist Google dazu übergegangen, im Zuge seiner Mobile-First-Initiative die Mobilversion der Inhalte für die Indexierung und das Ranking als primäre Quelle zu nutzen.[19]
Ebenfalls werden von Suchmaschinen gesammelte Nutzersignale bei der Rankingberechnung berücksichtigt. Wie häufig ein Nutzer ein Ergebnis anklickt, auf einer Trefferwebseite verweilt oder wieder zur Ergebnisliste zurückkommt, beeinflusst das Ranking. So werden positive Signale für Google erzeugt, wenn der Nutzer längere Zeit auf einer Webseite verweilt, anstatt diese direkt wieder zu verlassen.
Texte
Im Zuge der Suchmaschinenoptimierung hat sich in diesem Bereich ein eigener Schreibstil entwickelt, den man als suchmaschinenoptimierten Stil beschreiben kann. Dieser folgt den „Regeln“, die gewissermaßen durch die Mechanismen der Suchmaschine vorgegeben werden. Es handelt sich dabei um implizite Regeln, da diese anhand der Erfolgsfaktoren der Optimierung rekonstruiert werden, denn ein Suchmaschinenanbieter gibt in der Regel seine Kriterien zur qualitativen Einstufung der indexierten Seiten nicht bekannt. Kennzeichen dieses Stils sind unter anderem Suchbegriffe möglichst am Anfang von Überschriften, Abschnitten und Sätzen sowie Listen und hervorgehobene Wörter.
Die Vorgaben durch die Suchmaschine an Inhalte der Seiten können dabei gänzlich den Regeln klassischer Textproduktion widersprechen. Beispielsweise spielen grammatikalische Regeln für die Suchalgorithmen kaum eine Rolle. Auf diese Weise kann ein oft falsch geschriebenes Keyword mehr zur Optimierung des Rankings beitragen als ein fachlich korrekter Begriff. Dieses Vorgehen nimmt aber ab, da Google und andere Suchmaschinen zunehmend Falschschreibweisen selbstständig erkennen und zuordnen. Außerdem berücksichtigen Suchmaschinen inzwischen korrekte Rechtschreibung ebenso wie korrekte Grammatik.[20]
Da diese Mechanismen einer Entwicklungsdynamik unterliegen, wird dieser Schreibstil ebenso oft angepasst, um jeweils wieder das bestmögliche Ergebnis bei der Optimierung zu liefern. Das bedeutet, dass eine Seite niemals nur einmal optimiert wird. Es bedarf vielmehr einer dauerhaften Überprüfung der Relevanz der verwendeten Keywords, da sich auch das Nutzerverhalten verändert.
Google selbst empfiehlt, Webseiten für Menschen zu optimieren, nicht für die Suchmaschine.
Offpage-Optimierung
Die „Offpage-Optimierung“ findet fernab der zu optimierenden Seite statt und bezeichnet alle Maßnahmen außerhalb der zu optimierenden Webseite.
Es genügt nicht alleine, die Relevanz durch OnPage-Maßnahmen zu erhöhen. Ein gutes Listing in Suchmaschinen und eine gute Linkpopularität wird von der Quantität und Qualität der eingehenden Links auf eine Website (Rückverweis oder auch Backlink genannt) beeinflusst. Umfassender und qualitativ hochwertiger Content ist die erste Maßnahme, um sich Backlinks zu „verdienen“. Bei der Offpage-Optimierung geht es u. a. um die Herausbildung einer Linkstruktur mit anderen Webseiten, um sich besser in bestimmten thematischen Bereichen zu positionieren. Dafür kann man bspw. nach thematisch passenden Webseiten suchen, um sie für eine Linkpartnerschaft zu gewinnen. Eine weitere Maßnahme, um mögliche Linkpartner zu finden, ist die Linkanalyse von Wettbewerbern. Auch der Einsatz sogenannter Link Research Tools kann sich lohnen, um die besten Unterseiten einer Domain zu durchforsten. Zudem ist die Ausgestaltung des Linktextes (Ankertext) der Rückverweise essenziell für das Ranking. Um Websites auf ihr Potenzial hin zu untersuchen, können kostenlose Webanwendungen genutzt werden. Oftmals genügen kleine Veränderungen, um die Platzierung in Suchmaschinen stark zu erhöhen.
Einige Methoden widersprechen den Richtlinien der meisten Suchmaschinen – sie können zum zeitweiligen oder dauerhaften Ausschluss führen.
Umstritten ist, ob neben Backlinks auch sogenannte „Social Signals“ für das Ranking berücksichtigt werden. Dabei handelt es sich um Erwähnungen der Webseite in Form von „Likes“, „Shares“, „Comments“ (Facebook) sowie „Tweets“ und „Retweets“ (Twitter). Hintergrund ist, dass Suchmaschinen nicht nur die Backlinks analysieren, sondern zugleich algorithmisch prüfen, wie intensiv sich Nutzer über eine Webseite innerhalb ausgewählter sozialer Netzwerke wie Facebook oder Google+ austauschen.[21]
Suchbegriffe
Ein Schritt bei der Suchmaschinenoptimierung ist die Auswahl geeigneter Suchbegriffe (Keywords). Hierzu kann man sich frei verfügbarer Datenbanken, wie einer Keyword-Datenbank oder des MetaGer-Web-Assoziators, bedienen. Weiterhin bietet sich die Verwendung des Google-AdWords-Keyword-Tools an, das neben verwandten Suchbegriffen auch die ungefähre Anzahl der monatlichen Suchanfragen pro Suchbegriff auflistet.
Oft wird auch eine umfangreiche Seite in mehrere Einzelseiten aufgeteilt, um diese für verschiedene Suchbegriffe zu optimieren. Hierbei werden Haupt- sowie Nebenkeywords (auch Primär- und Sekundärkeywords) für die jeweiligen Seiten festgelegt. Dabei werden die Suchwörter mit den entsprechenden Inhalten kombiniert.
Eine Art der Optimierung erfolgt durch sogenannte Landingpages. Dabei gelangt der Benutzer mit dem Klick auf den Link auf eine speziell für SEO-Zwecke optimierte Seite. Eine weitere Methode ist es, Pillar-Content anzulegen, also für wichtige Einzelseiten eine oder mehrere Übersichtsseiten anzulegen.
Reverse Engineering
Die führenden Suchmaschinen Google, Bing und Yahoo geben die Algorithmen für das Ranking nicht preis. Diese werden außerdem häufig geändert, um Missbrauch zu erschweren bzw. eine Verbesserung der Ergebnisse zu erreichen.
Bei der Suchmaschinenoptimierung werden auch die Techniken der Sortieralgorithmen von Suchmaschinen untersucht und versucht durch Reverse Engineering der Suchergebnisse zu entschlüsseln. Dabei wird analysiert, wie Suchmaschinen Webseiten und deren Inhalte bewerten und sortieren. Oftmals wird versucht durch statistische Untersuchungen Korrelationen zwischen Größen (wie Seitentitel, Überschrift) und den Suchergebnissen zu finden und so Rückschlüsse auf Rankingfaktoren zu ziehen.[22]
Einige Suchmaschinenoptimierer studieren diese Korrelationen, erstellen eigene Tests oder führen andere Versuche durch und teilten ihre Erkenntnisse.[23] Auch Patente in Bezug auf Suchmaschinen wurden zur Informationsgewinnung über die Funktion herangezogen.[24]
Sonderfälle
Suchmaschinenoptimierung wird nicht nur im Bereich von Webseiten angewendet, sondern auch für Bilder-, Video- oder Nachrichtensuchen. Das Grundprinzip ist dasselbe wie bei der traditionellen Web-Suchmaschinenoptimierung, jedoch kommen weitere Rankingfaktoren hinzu, während andere wegfallen.
Einen Sonderfall stellt auch die akademische Suchmaschinenoptimierung (Academic Search Engine Optimization, ASEO[25]) dar. Hier wird versucht PDF-Dateien für akademische Suchmaschinen wie Google Scholar und CiteSeer zu optimieren.[26] Neben weiteren Faktoren berücksichtigt Google die Suchwortdichte und – anstelle von (Hyper)Links – die Erwähnungen in anderen wissenschaftlichen Publikationen.
Regeln und Manipulation
Methoden, die nicht relevante Webseiten auf vordere Plätze der Ergebnisseiten von Suchmaschinen bringen, werden als Suchmaschinen-Spamming bezeichnet; sie verstoßen gegen Regeln, die Suchmaschinen zum Schutz vor Manipulationen ihrer Suchergebnisse aufstellen.
Eine zur Manipulation verwendete Technik ist, speziell für Suchmaschinen Textseiten zu erstellen und automatisierte Umleitungen auf andere Inhalte einzurichten. Diese Methode, mit so genannten Brückenseiten zu arbeiten, widerspricht jedoch den Richtlinien der meisten Suchmaschinen. Fälle, die von den Suchmaschinenbetreibern aufgedeckt werden, haben oftmals den Bann der betreffenden Seite zur Folge, d. h. die betreffenden Zielseiten werden aus dem Suchindex ausgeschlossen.
So musste BMW Anfang 2006 kurzfristig hinnehmen, dass das Internetangebot des Automobilkonzernes komplett aus Google entfernt wurde, weil eine Reihe von automatisch weiterleitenden Brückenseiten erstellt worden waren.[27] Nachdem BMW die beanstandeten Seiten entfernt hatte, wurde bmw.de wieder in den Google-Index aufgenommen.[28]
Eine Variante stellt die Erstellung von Schattendomains dar. Hier werden die für Suchmaschinen optimierten Inhalte mit den Weiterleitungen auf separate Domains ausgelagert, um die primäre Domain vor möglichen Strafen zu schützen.
Ethische Suchmaschinenoptimierung (engl. white hat search engine optimization) vermeidet Spamming. Sie verzichtet auf unerlaubte Praktiken wie den Einsatz von Brückenseiten oder einer Linkfarm und befolgt die Direktiven der einzelnen Suchmaschinen. Dadurch wird das Risiko eines Ausschlusses oder der Herabstufung in den Suchergebnisseiten vermieden. Im Gegensatz zur ethisch einwandfreien „white hat“-Suchmaschinenoptimierung wird die Optimierung unter Einbeziehung unerwünschter Methoden seitens der Suchmaschinen „black hat“-Optimierung genannt.[29]
Technische Grenzen
Rein grafisch orientierte, primär mit Filmen, Bildern und grafisch eingebetteten Texten gestaltete Seiten, bieten den Suchmaschinen kleinen oder wenig auswertbaren Text. Solche Seiten sollten sowohl mit Hinblick auf SEO als auch auf Benutzerfreundlichkeit und "Barrierefreiheit" vermieden werden.
Zudem gibt es Bereiche, die für Suchmaschinen komplett unsichtbar sind, dies wird als Deep Web bezeichnet. Dabei kann es sich um absichtlich gesperrte Seiten handeln bspw. bei Bereichen, die einen Benutzerzugang erfordern. Es kann sich aber auch um Inhalte handeln, die wegen fehlender Interaktionen, wie einer Benutzereingabe in Form einer Suche, nicht erreichbar sind. Letzteres wird im Zuge einer Optimierung für Suchmaschinen erschließbar gemacht.
Wettbewerbe
Ein SEO-Wettbewerb bzw. SEO-Contest ist eine Möglichkeit, Strategien zu beobachten und auszuprobieren, was mit Produktivsystemen selten mit der notwendigen Freiheit möglich ist. Dabei versuchen die Teilnehmer, mit fiktiven Wörtern möglichst weit vorne bei einer Suchmaschine gelistet zu werden. Es gewinnt die Webseite, die zu einem Stichtag auf Platz 1 bei Google bzw. einer spezifizierten Suchmaschine ist. Zu den bekanntesten Wettbewerbsbegriffen gehören Schnitzelmitkartoffelsalat und Hommingberger Gepardenforelle.
Internationale Märkte
Auf internationalen Märkten sind die Techniken zur Suchoptimierung auf die dominanten Suchmaschinen im Zielmarkt abgestimmt. Sowohl der Marktanteil als auch die Konkurrenz der verschiedenen Suchmaschinen sind von Markt zu Markt unterschiedlich.
2003 gab, Danny Sullivan, ein amerikanischer Journalist und Technologe an, dass 75 % aller Suchen über Google ablaufen. Außerhalb der USA ist der Marktanteil von Google größer. Damit bleibt Google die führende Suchmaschine weltweit ab 2007.[30]
Seit 2009 existieren nurmehr wenige Märkte, in denen Google nicht die führende Suchoptimierungsmaschine ist – dort hinkt Google einem lokalen Marktführer hinterher. Beispiele sind China (Baidu), Japan (Yahoo! Japan), Südkorea (Naver), Russland (Yandex) und die Tschechische Republik (Seznam).
2006 war der Marktanteil von Google in Deutschland 85–90 %. Mit einem Marktanteil von über 95 % ist Google 2018 auch in Österreich die weitaus dominierende Suchmaschine.[31]
Siehe auch
Weblinks
- Google: Richtlinien für Webmaster – Best Practices, die Google beim Finden, Crawlen und Indexieren Ihrer Website helfen
- Yahoo: Qualitätsrichtlinien für Inhalte
- Bing: Richtlinien für unzulässigen und eingeschränkten Inhalt
- Google: Einführung in Suchmaschinenoptimierung (PDF; 10,1 MB)
- Google Search Central: Search Engine Optimization (SEO) Starter Guide
Einzelnachweise
- ↑ Finding What People Want: Experiences with the WebCrawler. 19. April 2019, archiviert vom Original am 19. April 2019; abgerufen am 28. Juli 2020. Info: Der Archivlink wurde automatisch eingesetzt und noch nicht geprüft. Bitte prüfe Original- und Archivlink gemäß Anleitung und entferne dann diesen Hinweis.
- ↑ Metacrap: Putting the Torch to Seven Straw-men of the Meta-utopia
- ↑ What Is a Tall Poppy Among Web Pages?
- ↑ Larry Page and Sergey Brin
- ↑ Is Google Good for You?
- ↑ The Anatomy of a Large-Scale Hypertextual Web Search Engine
- ↑ Link Spam Alliances
- ↑ Google Personalized Search Leaves Google Labs
- ↑ Google Keeps Tweaking Its Search Engine
- ↑ 8 Things We Learned About Google PageRank
- ↑ PageRank Sculpting
- ↑ Google Loses “Backwards Compatibility” on Paid Link Blocking & PageRank Sculpting
- ↑ Personalized Search for Everyone
- ↑ Our New Search Index: Caffeine
- ↑ Relevance Meets the Real-time Web
- ↑ Finding More High-quality Sites in Search
- ↑ Google Webmaster Central Channel: Why doesn’t google.com validate? 2011, abgerufen am 31. Juli 2011.
- ↑ Cutts, Matt: Google Does Not Use the Keywords Meta Tag in Web Ranking. 2009, abgerufen am 31. Juli 2011.
- ↑ Auf die Mobile First-Indexierung vorbereiten. Google, abgerufen am 4. September 2019.
- ↑ Matt Cutts: Should I correct the grammar of comments on my blog? Abgerufen am 5. September 2019.
- ↑ Matt Cutts auf Youtube: Does Google Use Data from Social Sites in Ranking?
- ↑ Dr. Andreas Jaster: Faktorenanalyse und Scheinkorrelationen. Abgerufen am 5. September 2019.
- ↑ Rundown on Search Ranking Factors
- ↑ Understanding Search Engine Patents
- ↑ Karin Lackner, Lisa Schilhan, Christian Kaier,Heinz Wittenbrink: Academic Search Engine Optimization. (PDF) 4. April 2019, abgerufen am 24. Juni 2020.
- ↑ Jöran Beel, Bela Gipp und Erik Wilde: Academic Search Engine Optimization (ASEO): Optimizing Scholarly Literature for Google Scholar and Co. (PDF; 489 kB) Journal of Scholarly Publishing, 2010, S. 176–190, abgerufen am 18. April 2010.
- ↑ Heise online: BMW sieht Google-Vorwürfe gelassen.
- ↑ Stern: BMW ist wieder drin.
- ↑ Jo Bager: Google: Ranking-Update gegen SEO-Spam. In: heise online. 25. April 2012, abgerufen am 23. April 2016.
- ↑ Search Engine Optimizing Europe auf Clickz.com
- ↑ Marktanteile der meistgenutzten Suchmaschinen in Österreich auf statista.com
SEO Bedeutung
SEO Content Strategie
Content Farm
Als Content Farm (auch Content Mill) wird ein Geschäftsmodell im Internet bezeichnet, bei dem der Anbieter einer Plattform durch freie Mitarbeiter Inhalte aus Text, Videos, Fotos und Grafiken produzieren lässt, die durch Suchmaschinenoptimierung möglichst viele Seitenaufrufe („Klicks“) anziehen sollen. Einnahmen entstehen dann durch Online-Werbung. Inhaltlich bestehen die meisten Beiträge in Content-Farmen aus langfristig relevanten Inhalten, die im Gegensatz zu Nachrichten auch auf längere Sicht ohne Eingriffe wie kostspielige Aktualisierungen Leser anziehen können. Im Vordergrund stehen oft Bedienungsanleitungen.
Geschäftsmodelle
Es gibt zwei grundlegende Geschäftsmodelle: Entweder der Anbieter analysiert häufig gestellte Anfragen bei Suchmaschinen und beauftragt Autoren, maßgeschneiderte Texte zu verfassen[1] oder die Autoren sind frei in der Auswahl ihrer Themen und werden in der suchmaschinengerechten Aufbereitung ihrer Inhalte geschult.[2] Im ersten Fall bezahlt der Anbieter die Autoren pro Artikel, im zweiten kann der Plattformbetreiber die Themenwahl den Autoren überlassen, weil er keine Pauschale bezahlt, sondern die Autoren nur beim Abruf ihrer Texte eine Umsatzbeteiligung an generierten Werbeeinnahmen erhalten. Die erste Form wird von Demand Media umgesetzt und ist seit 2010 auch das Geschäftsmodell von AOL,[3] suite101.com ist ein Beispiel für das zweite Geschäftsmodell.
Auftragsarbeiten nach Suchanalyse
Im ersten Schritt werden Themen bestimmt, zu denen die Erstellung von Content lukrativ wäre. Dazu nutzt zum Beispiel Demand Media eine Formel, die aus drei Teilen besteht:[1]
- Häufige Suchanfragen in Suchmaschinen, die speziell genug sind, um ein Thema zu definieren. Dies sind meist Suchanfragen aus mehreren Wörtern. Google bietet dafür Analyse-Tools und Metriken an, die einfachste ist Google Suggest.
- Potentielle Werbeeinnahmen mit einem entsprechenden Artikel. Dazu werden Zahl der Suchanfragen und Click-Through-Rates für vergleichbare Themen und Versteigerungsergebnisse für themenrelevante Google AdWords analysiert.
- Eine Konkurrenzbeobachtung liefert Hinweise, ob entsprechender Content schon woanders vorhanden ist und daher ein eigenes Angebot auf Suchergebnisseiten nur schwer nach oben zu bringen wäre.
Die meisten Arbeiten, die für diesen ersten Schritt nötig sind, werden bei Demand Media automatisiert durchgeführt. Am Ende des ersten Schrittes steht eine Überschrift voller relevanter Schlüsselwörter, die nach kurzer Überarbeitung durch einen Redakteur in eine Datenbank wandert. Nachrichten und nur kurzzeitig aktuelle Themen werden dabei ausgesondert, da der Content möglichst langlebig sein soll.[1] Die statistische Bestimmung von relevanten Themen unterscheidet Content-Farmen von Auskunfts-Websites wie Answers.com, Yahoo Answers und dem 2006 eingestellten Google Answers, die als Themen die von Einzelpersonen gestellten Fragen nutzen, auch wenn die Geschäftsmodelle sich zu überschneiden beginnen.[4]
Im zweiten Schritt können freie Mitarbeiter sich aus der Datenbank ein Thema aussuchen und dazu einen Artikel schreiben oder ein Video produzieren. Dieser Content wird hochgeladen und kurz überprüft:
- Automatisierte Kontrolle gegen Textplagiate
- Redaktionelle Kontrolle. Art und Umfang dieser Kontrolle ist strittig und wird von Kritikern als Grund für eine schlechte Qualität der Content-Farm-Inhalte vorgebracht.
Anschließend werden die Artikel oder Videos über die von der Content Farm beschickten Websites verteilt. Dies sind nicht immer die direkt zur Content-Farm gehörenden Sites wie eHow im Falle von Demand Media, sondern in einigen Fällen über Affiliate Marketing auch andere Websites, die fremden Content zusammen mit Werbung in ihre Site integrieren.[1] Im dritten Schritt ist der Artikel oder das Video möglichst lange online und wird durch Suchmaschinenoptimierung (Search Engine Optimization, SEO) des Content-Farm-Betreibers möglichst hohe Ränge in den Suchergebnissen erreichen und dadurch die prognostizierten Werbeeinnahmen einspielen. Die Produzenten der Beiträge, also Autoren und Videofilmer, werden direkt für ihre Beiträge bezahlt (z. B. 15–20 USD pro Artikel und USD 30 für Videos bei Demand Media, Stand Februar 2010).[1]
Umsatzbeteiligung bei freier Themenwahl
Ein Plattformbetreiber, der Autoren über eine Umsatzbeteiligung bezahlt, kann den freien Mitarbeitern die Auswahl ihrer Themen überlassen. Entscheidend ist hier, dass Autoren ihre Beiträge für Suchmaschinen geeignet aufbereiten, damit sie möglichst oft gefunden und abgerufen werden. Dazu werden die Mitarbeiter in Techniken der Suchmaschinenoptimierung geschult.[2] Hier ist die Bindung zwischen Plattformbetreiber und Mitarbeiter enger, weil die Umsatzbeteiligung für gemeinsame Interessen sorgt. Ziel der Anbieter ist es, qualifizierte Autoren anzuziehen und dauerhaft an sich zu binden.[5]
Unternehmen
Die ersten Unternehmen, die Content Farmen als Hauptaktivität betreiben, stammen aus den USA. Die 2006 gegründete Demand Media Inc. gilt als größter Vertreter, gefolgt von Associated Content. Neben Start-ups, die für diesen Zweck gegründet wurden, gibt es zunehmend etablierte Medien- und Internetunternehmen, die mit dem Scheitern von traditionellen Geschäftsmodellen von Journalismus im Internet auf das Prinzip Content Farm umstellen. Ein Beispiel dafür ist der Service seed.com, den AOL 2010 startete.[6]
Demand Media
Demand Media wurde 2006 durch Richard Rosenblatt und Shawn Colo gegründet, die beide viel Erfahrung mit Start-ups, Finanzierung und Internet-Geschäftsmodellen hatten. Rosenblatt war unter anderem Chairman von Myspace.com. Demand Media nahm 355 Mio. USD Kapital auf und publiziert seinen Content auf Websites wie eHow und LiveStrong. 2009 erreichte das Unternehmen einen Umsatz von etwa 200 Mio. USD.[1] Im Januar 2011 erreichte das Unternehmen bei seinem Börsengang an der New York Stock Exchange (Tickersymbol DMD) einen Unternehmenswert von über einer Milliarde USD.[7]
Associated Content
Associated Content wurde 2005 von Luke Beatty gegründet und hat seinen Sitz in Denver. Bis 2010 hatten 380.000 Mitarbeiter-Accounts für das Unternehmen geschrieben, die Website erreichte im Monat 16 Millionen Besucher.[6] 2010 wurde Associated Content für einen Kaufpreis von ungefähr 100 Mio. USD von Yahoo erworben.[8]
Content-Farmen in Deutschland
Die deutschsprachige Content Farm Suite101.de ging im Februar 2008 online. Nach Angaben der Berliner Niederlassung des Unternehmens gab es dort im August 2010 mehr als 35.000 deutschsprachige Artikel aus Themenbereichen wie Haus, Hobby und Gesundheit, die von 750 Autoren verfasst wurden. Hinter der Website steht das kanadische Unternehmen Suite101.com Media Inc. aus Vancouver, das 2006 unter Beteiligung von Hubert Burda Medias Burda Digital Ventures aus einem seit 1996 bestehenden Unternehmen neu gestartet wurde.[9]
Kritik
Von Kritikern wird vorgebracht, dass viele der in Content-Farmen produzierten Artikel dem Leser nur einen oberflächlichen Nutzen bringen und schlecht recherchiert oder geschrieben seien. Auch sei das Problem von Urheberrechtsverletzungen nicht gelöst. Andere Kritiker verweisen auf die schlechte Bezahlung der freien Mitarbeiter, die das Modell von freien Journalisten oder Autoren, die von ihrer Arbeit leben können, vollends untergrabe. Ein weiterer Kritikpunkt ist das Verdrängen von besseren Suchergebnissen durch die schiere Masse von Content-Farm-Beiträgen und die ausgefeilten SEO-Techniken ihrer Betreiber.[4]
Michael Arrington, Gründer und Chefredakteur von TechCrunch, bezeichnete Content-Farmen wie Demand Media als McDonald’s der Online-Medien: so billig und so schnell wie möglich produziert und massenhaft vorhanden. Das Geschäftsmodell erzeuge ein „race to the bottom“, in dem jeder Autor und Produzent von Online-Medien, der Zeit und Mühe auf seine Inhalte verwende, aus dem Geschäft gedrängt wird.[10]
2009 hielt Jeff Jarvis, Journalistikprofessor an der City University of New York, Befürchtungen für übertrieben, Content-Farmen würden das Internet – bzw. Suchmaschinen – mit billigem Content überfluten: „Mist, der gerade gut genug sei, um Suchalgorithmen zu übertölpeln.“ Das Internet sei schon immer mit „Mist gefüllt“ gewesen. Die Frage, wie man darin gute Inhalte findet, sei nicht neu und die Antwort darauf habe Google zu einem Milliardenunternehmen gemacht. Bessere Suchalgorithmen seien die Antwort auf schlechten Content.[11]
Reaktionen der Suchmaschinen
Die Suchmaschinenbetreiber reagieren auf das Wachsen der Content Farmen durch Anpassung ihrer Suchalgorithmen. Google passt seine Kriterien ständig geringfügig an und nahm im Februar 2011 mit dem Update Google Panda einen massiven Eingriff in die englischsprachigen Suchergebnisse, um Content Farmen zurückzudrängen.[12] Für Content-Farm-Betreiber brachte diese Änderung Verluste an Aufrufen, die 25–30 % erreichten.[13] Im August 2011 aktivierte Google eine solche Änderung auch in Deutschland und weiteren Ländern, um qualitativ höherwertige Artikel besser sichtbar zu machen als Contentfarmen und Shopping- oder Produkt-Verzeichnisse.[14] Die größten Verluste an Sichtbarkeit hatten in absoluten Zahlen die Anbieter gutefrage.net, ciao.de und dooyoo.de, prozentual verloren kelkoo.de, alatest.de, wikio.de, online-artikel.de, webnews.de und suite101.de am meisten.[15] In Deutschland wurden 2010 etwa 90 % aller Suchanfragen im Internet über Google gestellt.[16]
Literatur
- Daniel Roth: The Answer Factory: Demand Media and the Fast, Disposable, and Profitable as Hell Media Model. In: Wired vom 19. Oktober 2009.
Weblinks
- „Beyond Content Farms“ – Serie auf Media Shift von Public Broadcasting Service. (Englisch)
- Content Farms: The Who, What and Why – Artikel von Rishil Lakhani vom 24. Januar 2010. (Englisch)
Einzelnachweise
- ↑ a b c d e f David Carr: Plentiful Content, So Cheap. In: New York Times vom 7. Februar 2010.
- ↑ a b Craig Silverman: How Content Farms Train Their Writers to Write for the Web. In: MediaShift, Public Broadcasting Service vom 22. Juli 2010.
- ↑ Nicholas Carlson: LEAKED: AOL's Master Plan. businessinsider.com, 1. Februar 2011
- ↑ a b Richard MacManus: Content Farms: Why Media, Blogs & Google Should Be Worried (Memento vom 19. Oktober 2010 im Internet Archive). In. ReadWriteWeb vom 13. Dezember 2009.
- ↑ ReadWriteWeb.com: Content Farms 101: Why Suite101 Publishes 500 Articles a Day (Memento vom 28. August 2010 im Internet Archive), 20. Juli 2010
- ↑ a b AP: Yahoo to Buy a Freelance Site, Associated Content. In: New York Times vom 18. Mai 2010.
- ↑ Julianne Pepitone: Demand Media shares soar 33% in IPO. In: CNN Money vom 26. Januar 2011.
- ↑ Yahoo Buys Associated Content for a reported $100 Million. In: Business Insider vom 19. Mai 2010.
- ↑ Helmut van Rinsum: Call a Content - Sie suchen, wir schreiben. In: werben & verkaufen vom 12. August 2010.
- ↑ Michael Arrington: The End Of Hand Crafted Content. In: TechCrunch vom 13. Dezember 2009.
- ↑ Jeff Jarvis: Content farms v. curating farmers. In: BuzzMachine vom 14. Dezember 2009.
- ↑ Spiegel online: Google kickt nervige Null-Inhalte raus, 14. Juni 2011
- ↑ Werben & Verkaufen: Suite101 und die Google-Macht: "Ein Weckruf für die ganze Branche", 7. April 2011
- ↑ Andreas Albert: Suchmaschinenoptimierung: Google geht mit "Panda" gegen Contentfarmen vor (Memento vom 10. September 2011 im Internet Archive). In: Financial Times Deutschland vom 15. August 2011.
- ↑ Panda-Update: Googles Qualitätsoffensive erreicht Deutschland. spiegel.de 15. August 2011.
- ↑ Konkurrent reicht weitere Kartellbeschwerde gegen Google ein. In: Spiegel Online vom 22. Februar 2011.
Content
Webinhalte oder Internetinhalte (engl. Web content) sind digitale Medieninhalte, welche im Web veröffentlicht wurden und abrufbar sind. Sie sind die Gesamtheit dessen, was auf Websites nutzbar ist.
Louis Rosenfeld und Peter Morville schreiben dazu in "Information Architecture for the World Wide Web[1]": "Wir definieren Inhalte ganz allgemein als das gesamte "Zeug" auf ihrer Website. Das kann Dokumente, Daten, Anwendungen, E-Services, Bilder, Audio- und Videodateien, persönliche Webseiten, archivierte E-Mails und noch mehr beinhalten. Wir fassen darunter zukünftiges als auch aktuelles Zeug."
Siehe auch
Quellen
- ↑ Louis Rosenfeld, Peter Morville: Information Architecture for the World Wide Web. 2. Auflage. O'Reilly, 2008, S. 219.
SEO - Strategie
SEO Strategie Definition
Suchmaschinenoptimierung (SEO) ist der Prozess der Beeinflussung der Sichtbarkeit einer Website oder Webseite in den unbezahlten Ergebnissen einer Internet-Suchmaschine, die oft auch als natürliche und organische Ergebnisse bezeichnet werden. Generell gilt: Je früher (oder mit einem höheren Rang in den Suchergebnissen) und je häufiger eine Website in der Suchergebnisliste erscheint, desto mehr Besucher wird sie von den Benutzern der Suchmaschine erhalten, und diese Benutzer können in Kunden konvertiert werden. SEO kann verschiedene Arten von Suchen ins Visier nehmen, darunter Bildsuche, lokale Suche, Videosuche, akademische Suche, Nachrichtensuche und branchenspezifische vertikale Suchmaschinen.
Backlinks aufbauen: Schritt für Schritt hochwertige Backlinks erhalten
Was sind Backlinks und wie können sie Ihnen helfen, Ihre Website zu verbessern? Wir erklären alles über Backlinks und zeigen Ihnen, wie Sie Schritt für Schritt hochwertige Backlinks aufbauen können.
Was sind Backlinks?
Backlinks sind ein wesentlicher Bestandteil jeder erfolgreichen SEO-Strategie. Dabei handelt es sich um Links von einer Website zu einer anderen. Diese Links können auf der Ziel-Website innerhalb des Textes, in den Meta-Daten oder als Teil der URL selbst vorkommen. Ein guter Backlink hat normalerweise eine hohe Qualität und kommt von einer vertrauenswürdigen Website.
Backlinks sind wichtig, weil sie die Art und Weise beeinflussen, wie Google und andere Suchmaschinen Ihre Website bewerten. Eine Website mit vielen hochwertigen Backlinks wird als relevant und vertrauenswürdig eingestuft und erscheint daher häufiger in den Suchergebnissen (SERPs). Umgekehrt wird eine Website mit wenigen oder schlechten Backlinks als weniger relevant angesehen und erscheint seltener in den SERPs.
Da Backlinks eine wichtige Rolle bei der Suchmaschinenoptimierung spielen, ist es wichtig, dass Sie Ihre Linkbuilding-Strategie sorgfältig planen. Es gibt viele verschiedene Möglichkeiten, um Backlinks aufzubauen, aber nicht alle Methoden sind gleichermaßen wirksam. Einige der beliebtesten Möglichkeiten, um Backlinks aufzubauen, sind:
- Veröffentlichung von Gastbeiträgen auf anderen Websites
- Kommentieren Sie auf anderen Blogs oder Foren
- Erstellen Sie hochwertige Infografiken und teilen Sie diese auf sozialen Medien oder anderen Websites
- Nehmen Sie an Online-Diskussionen teil und verlinken Sie auf Ihre Website, wenn es sinnvoll ist
Welche Bedeutung haben Backlinks?
Backlinks sind ein wesentlicher Faktor, um die Sichtbarkeit und das Ranking einer Website in Suchmaschinen zu verbessern. Sie sind ein Indikator für die Qualität einer Website und stellen einen wichtigen Teil der Suchmaschinenoptimierung (SEO) dar. Die Bedeutung von Backlinks hat sich in den letzten Jahren jedoch verändert. Früher wurden sie vor allem als "Stimmen" für eine Website betrachtet und je mehr Backlinks eine Website hatte, desto höher war ihr Ranking in den Suchergebnissen.
Dies ist jedoch nicht mehr der Fall, da Suchmaschinen mittlerweile sehr gut in der Lage sind, die Qualität einer Website zu beurteilen. Eine Website mit vielen Backlinks von minderwertigen Websites wird daher nicht mehr so hoch gerankt wie früher. Stattdessen ist es wichtig, dass die Backlinks, die auf eine Website verweisen, auch qualitativ hochwertig sind. Das bedeutet, dass sie von Websites kommen sollten, die selbst ein hohes Ranking in den Suchergebnissen haben und als vertrauenswürdig gelten.
Zusammenfassend lässt sich also sagen, dass Backlinks weiterhin eine wichtige Rolle bei der SEO spielen, allerdings ist es nun wichtiger denn je, darauf zu achten, dass diese auch qualitativ hochwertig sind.
Wie baue ich hochwertige Backlinks auf?
Nachdem wir uns mit den Grundlagen der Backlinks befasst haben, können wir uns damit beschäftigen, wie man sie am besten aufbaut. Bevor wir jedoch tiefer in die Materie einsteigen, möchten wir klarstellen, dass es keinen einheitlichen Weg gibt, um hochwertige Backlinks zu erhalten. Vielmehr ist es eine Kombination aus verschiedenen Faktoren, die darüber entscheiden, ob ein Link als hochwertig eingestuft wird oder nicht. Dennoch gibt es einige allgemeine Richtlinien, die Sie beim Aufbau Ihrer Backlinks beachten sollten.
Zunächst sollten Sie sicherstellen, dass Ihre Seite suchmaschinenoptimiert ist und einen Mehrwert für die Besucher bietet. Denn nur wenn Ihre Seite attraktiv und nützlich ist, werden andere Websites bereit sein, auf ihre Webpräsenz zu verlinken. Auch der Inhalt Ihrer Website spielt eine wichtige Rolle beim Aufbau von Backlinks. Um erfolgreich Links zu erhalten, sollten Sie interessanten und relevanten Content bereitstellen, der es den Lesern ermöglicht, mehr über Ihr Unternehmen oder Ihre Produkte zu erfahren.
Eine weitere Möglichkeit, um hochwertige Backlinks aufzubauen, besteht darin, Gastbeiträge für andere Websites zu schreiben. Dabei ist es wichtig, dass Sie sich vorher genau informieren, welche Art von Content für die jeweilige Website geeignet ist. Nur so können Sie sicherstellen, dass Ihr Gastbeitrag angenommen wird und Sie im Gegenzug einen qualitativ hochwertigen Link erhalten.
Zusammenfassend lässt sich also sagen, dass es keinen exakten Weg gibt, um hochwertige Backlinks zu erhalten. Vielmehr ist es eine Kombination aus verschiedenen Faktoren, die entscheidend dafür sind. Wichtig ist jedoch immer, dass Ihre Seite optimiert ist und einen Mehrwert für die Besucher bietet. Nur so können Sie sicherstellen, dass andere Websites bereit sind, einen Link zu Ihnen zu setzen.
Die besten Quellen für kostenlose Backlinks
Es gibt viele Möglichkeiten, um an hochwertige Backlinks zu gelangen. Einige der besten Quellen sind:
1. Google My Business
Wenn Sie ein lokales Unternehmen betreiben, ist Google My Business eine großartige Möglichkeit, um kostenlose Backlinks zu erhalten. Alles, was Sie tun müssen, ist, sich für ein kostenloses Konto anzumelden und Ihre Unternehmensinformationen einzugeben. Sobald Ihr Konto bestätigt ist, wird Ihr Unternehmen in der Google-Suche und in Google Maps angezeigt. Dies bedeutet, dass Menschen, die nach Ihrer Art von Unternehmen suchen, auf Ihr Unternehmen verlinken können.
2. Yelp
Yelp ist eine weitere großartige Möglichkeit, um kostenlose Backlinks für Ihr lokales Unternehmen zu erhalten. Wie bei Google My Business müssen Sie sich nur für ein kostenloses Konto anmelden und Ihre Unternehmensinformationen eingeben. Sobald Ihr Konto bestätigt ist, können Menschen, die nach Unternehmen in Ihrer Nähe suchen, auf Ihr Unternehmen verlinken.
3. Facebook-Seiten
Wenn Sie noch keine Facebook-Seite haben, müssen Sie zunächst ein kostenloses Konto erstellen. Sobald Sie angemeldet sind, können Sie eine Seite für Ihr Unternehmen erstellen und Ihre Kontaktinformationen hinzufügen. Nutzer, die auf Facebook nach Unternehmen suchen, werden dann in der Lage sein, auf Ihr Unternehmen zu verlinken.
4. Twitter
Twitter ist eine weitere großartige Quelle für kostenlose Backlinks. Um Backlinks von Twitter zu erhalten, müssen Sie zunächst ein Konto erstellen. Sobald Sie angemeldet sind, können Sie Informationen über Ihr Unternehmen twittern und Menschen bitten, auf Ihr Unternehmen zu verlinken. Es ist jedoch wichtig zu beachten, dass Twitter regelmäßig Links entfernt, die es als Spam identifiziert. Daher ist es wichtig, dass Sie relevante und interessante Tweets verfassen und sicherstellen, dass Ihr Link natürlich in den Tweet integriert ist.
Fazit
Wenn Sie den Aufbau Ihrer Backlinks strategisch angehen, können Sie Ihre Sichtbarkeit in den Suchmaschinen erheblich verbessern. Beachten Sie jedoch einige wichtige Punkte, um nicht in die Fallen zu tappen, die viele Webmaster beim Linkaufbau machen. Zum einen sollten Sie nur auf hochwertige Websites verlinken, die ein gutes Ansehen in den Suchmaschinen haben. Dazu gehören beispielsweise .edu- oder .gov-Websites. Auch Webseiten mit hohem PageRank sind eine gute Wahl. Zum anderen sollten Sie sicherstellen, dass Ihre Backlinks natürlich wirken. Das bedeutet, dass Sie nicht zu viele Links auf einmal erstellen sollten und dass die Links thematisch relevant sein sollten. Wenn Sie diese Punkte beachten, können Sie sicher sein, dass Sie qualitativ hochwertige Backlinks erhalten, die Ihnen dabei helfen, in den Suchmaschinen weiter nach oben zu kommen.
Die Suchmaschinenoptimierung ist für Unternehmen und andere Betreiber von Websites ein wichtiges Feld. Im Rahmen dessen geht es immer wieder um sogenannte Offpage-Maßnahmen. Neben der Erstellung von relevanten Inhalten sind diese maßgeblich für das Ranking der Website in den großen Suchmaschinen. Hier kommt das Linkbuilding ins Spiel. Doch was macht Verlinkungen so wichtig für den Status einer Website?
Was sind Backlinks und wie funktionieren sie?
Verlinkungen sind Querverweise zwischen verschiedenen Seiten im Web. Verlinkt eine fremde Seite auf die eigene Website, wird das Backlink genannt. Backlinks ermöglichen es, dass Besucher einer Website zu einer anderen Seite weitergeleitet werden. Für Unternehmen sind Backlinks in mehreren Punkten interessant. So können diese Rückverweise gezielt als Werbung für die eigene Website und somit auch das eigene Unternehmen eingesetzt werden. Gleichzeitig erhöht die Anzahl der Backlinks die Sichtbarkeit der eigenen Website.
Dabei können sowohl interne Links als auch externe Links als Backlinks gelten. Besonders natürlich lassen sich interne Backlinks auf einer Website einbauen. Hier gibt es zahlreiche Möglichkeiten, Querverweise zwischen einzelnen Seiten zu schalten und somit die Backlink-Dichte zu erhöhen. Doch Achtung: Linkstuffing ist nicht förderlich! Werden zu viele unnatürliche Links eingebaut, kann das den gegenteiligen Effekt haben und die Sichtbarkeit in den Suchmaschinen wieder verschlechtern.
Backlinks und Suchmaschinenoptimierung
Ein Backlink ist eine Offpage-Maßnahme im Bereich der Suchmaschinenoptimierung. Onpage-Maßnahmen sind beispielsweise hochwertiger Content mit Mehrwert für die Besucher. Offpage-Maßnahmen haben weniger mit dem Erscheinungsbild der Website zu tun, sondern mehr damit, wie User die Website nutzen. Sie werden im Backend bearbeitet und liefern den Besuchern ein gutes Nutzer-Erlebnis auf der Seite. On- und Offpage-Maßnahmen sollten in jedem Fall gleichwertig behandelt werden, denn nur so erreicht die eigene Website ein gutes Ranking in den Suchmaschinen.
Beim Linkaufbau gibt es natürlich ein paar Dinge zu beachten. Wer hier detaillierte Informationen sucht, kann sich umfassend bei ROCKET BACKLINKS beraten lassen. Unter anderem sind die Ankertexte der Backlinks essenziell. Denn hier entscheidet sich, ob User auf den Link klicken oder nicht.
Die weltweit größte Suchmaschine, Google, nutzt Backlinks als eines der wichtigsten Kriterien für ihr Ranking innerhalb der Suchergebnisse.
Googles Ranking: Backlinks auf Platz 2
Grundsätzlich gilt: Je mehr Backlinks auf eine Website verweisen, desto besser wird diese Seite in den Suchmaschinen gerankt. Allerdings sind Backlinks nicht das einzige Kriterium für ein gutes Ranking. Die größte Suchmaschine, Google, hat über 200 Kriterien, nach denen Websites gerankt werden. Die Backlinks belegen innerhalb der Google-Kriterien Platz 2. Dies zeigt, wie wichtig Links sind, wenn es um eine gute Platzierung in den Ergebnissen der Suchmaschinen geht. Auf Platz 1 liegt übrigens hochwertiger Content.
Allerdings können Backlinks auch den gegenteiligen Effekt haben. So werden Websites von Google abgestraft, wenn sie viele unnatürliche Backlinks innerhalb kürzester Zeit erhalten. Guter Content und zahlreiche Backlinks gehen also Hand in Hand.
Tipp: Wer viele Backlinks auf die eigene Website hat, muss von Zeit zu Zeit überprüfen, ob alle Links noch funktionieren. Dafür gibt es online verschiedene Tools, die sogenannte Broken Links ausfindig machen sollen. Hier lohnt es sich, den Betreiber der jeweiligen Seite zu kontaktieren, um die Links wiederherstellen zu lassen. Den Broken Links führen zu einem tendenziell schlechteren Ranking bei Google und anderen Suchmaschinen.
Backlinks sollten hohe Qualität aufweisen
Bei Backlinks kommt es mehr auf Qualität als auf Quantität an. Als Grundsatz gilt: Es ist für das Ranking gut, wenn eine Website viele Backlinks auf sich vereinigt. Doch darüber hinaus sollten die Links, die auf die eigene Website verweisen, themenrelevant sein. Ein zusätzliches Kriterium ist die Art des jeweiligen Backlinks. Damit ein Backlink von Google direkt für das Suchmaschinenranking genutzt wird, muss er das Attribut „Dofollow“ haben. Das bedeutet, dass der Google-Algorithmus dem Link direkt folgt und ihn explizit für das Ranking nutzt. Für dieses Attribut muss derjenige, der den Link setzt, nichts weiter tun. Ein „Nofollow“-Link hingegen muss explizit bestimmt werden und wirkt sich anders auf das Ranking aus. Hier wird im HTML-Code der Verlinkung das Attribut rel=“nofollow“ gesetzt, wodurch der Google-Bot dem Link nicht mehr folgt. Das bedeutet jedoch nicht direkt etwas Negatives – ganz im Gegenteil kann das Attribut notwendig sein, da manche Links sich laut Google sogar negativ auswirken können, wenn sie Dofollow wären. Entsprechend sind Nofollow-Links ein wichtiger Teil einer guten Backlink-Struktur.
Für Backlinks, die das Ansehen der eigenen Website erhöhen sollen, sind Nofollow-Attribute nicht sinnvoll.
Folgende Formate bieten sich für Backlinks generell an:
- Interviews mit Link zum Interviewpartner
- Gastartikel mit Link zum Gastautoren
- Empfehlungen mit Verlinkung zur jeweiligen Website
- Postings in den sozialen Medien mit entsprechenden, relevanten Verlinkungen
Links, die gegen Googles Standards verstoßen, gelten als schlechte Backlinks. Hier müssen Unternehmen die Augen offenhalten, um solche Links zu erkennen und diese entsprechend abzulehnen. Denn wenn es zu viele schlechte Backlinks gibt, kann die eigene Seite abgestraft werden und erscheint in der Google Suche weiter hinten. Wenn Seiten, die bereits von Google und Co. abgestraft wurden, Backlinks generieren, ist das schlecht für die verlinkten Seiten. Das Gleiche gilt für wenig themenrelevante Links und Links auf Seiten, die qualitativ schlechten Content bieten.
Neben der Suchmaschinenoptimierung, kurz SEO, gehören weitere Bereiche zum Online Marketing. Es gilt, hier ganzheitlich aufgestellt zu sein.
Linkbuilding funktioniert in beide Richtungen
Eine beliebte Methode für das Setzen von Backlinks ist der sogenannte Linktausch. Hierbei tun sich mindestens zwei Websites zusammen und verlinken die andere Seite auf der eigenen Seite. Dies kann sowohl in einem kleinen Rahmen mit einem einzelnen Tausch als auch auf regelmäßiger Basis geschehen. Wichtig ist hier natürlich auch, dass die beiden Seiten inhaltlich zusammenpassen. Zwei Unternehmen aus Branchen, die überhaupt nichts miteinander zu tun haben, sollten von dieser Methode Abstand nehmen. Für Unternehmen, die gut zusammenpassen, kann Linktausch eine tolle Möglichkeit des Online Marketings sein.
Mehrere Seiten können sich so gegenseitig unterstützen und das Ranking der eigenen und der anderen Website verbessern. Eine andere Option ist es, für Backlinks zu bezahlen. In der Regel sollten solche Links entsprechend im HTML-Code gekennzeichnet sein, damit klar ist, dass der Link im Grunde Werbung ist. Trotzdem kann ein gekaufter Backlink das Ranking der eigenen Seite verbessern.
Bilder:
Abb. 1: Pixabay.com © parveender (CC0 Creative Commons)
Abb. 2: Pixabay.com © 377053 (CC0 Creative Commons)
Abb. 3: Pixabay.com © muneebfarman (CC0 Creative Commons)
PSI - PageSpeed Insights
Google PageSpeed Insights
Google hat 2018 einen PageSpeed Insight-Leistungstest eingeführt. Dieses kostenlose Leistungstest-Tool bietet detaillierte Informationen zur Ladegeschwindigkeit einer Website und gibt Empfehlungen zu den besten Praktiken zur Webseitenoptimierung. Der Test von Google liefert basierend auf der Leistung der Website eine Punktzahl von 0 bis 100, was deutlich besser ist als die meisten anderen Leistungstest-Tools.
Google PageSpeed Insights
Wenn Sie die Seite PageSpeed Insights besuchen und Ihre URL eingeben, überprüft das Google Performance Tool die Leistung und Geschwindigkeit Ihrer Website. Ein besserer Performer zu werden, führt zu einer besseren Benutzererfahrung und einem höheren Ranking bei Google. Die Leute sind natürlich neugierig, wie sie dieses Tool verwenden können, um zu sehen, ob ihre Geschwindigkeit und Leistung gut sind. Google stellt ein Tool zur Leistungsanalyse bereit, das verfügbar ist, wenn Sie eine URL eingeben. Klicken Sie nach Eingabe der URL auf die Schaltfläche "Analysieren" im URL-Feld, und die Leistung Ihrer Website wird bewertet. Dies ist eine hervorragende Möglichkeit, die Leistung einer Website zu verfolgen und auf die Google Web Core Vitals zuzugreifen, indem Sie diese Aktion ausführen.
Das Web Core Vitals-Tool von Google überwacht die Leistung einer Website auf den Ergebnisseiten der Google-Suchmaschine. Google PageSpeed Insights liefert Vorschläge, um die Ladezeit der Website zu verbessern und den Performance-Overhead zu reduzieren. Durch die Überwachung dieser Messwerte empfiehlt Google möglicherweise, die Größe von Bilddateien zu reduzieren oder überflüssiges JavaScript von der Website zu entfernen. Das Tool von Google zum Testen der Leistung von Websites ist völlig kostenlos. Nach der Durchführung des Tests stellt Google PageSpeed Insite einen Bericht mit Empfehlungen zur Verbesserung der Leistung der Website bereit.
PageSpeed Optimierung
PageSpeed Insights
PageSpeed Optimierung Video
https://www.youtube.com/watch?v=GiFoMgLHiPY
PageSpeed Insights (ehemals Google PageSpeed) ist ein Online-Dienst des Unternehmens Google, um die Ladezeit einer Internetpräsenz zu untersuchen und ggf. zu optimieren.[1] PageSpeed Insights beachtet dabei neben dem Aufbau von HTML-, CSS- und JavaScript-Dateien auch die Integration von Bildern ohne Interlacing oder die Cache-Vorgaben der Website. Neben einem Online-Dienst bietet Google eine Erweiterung für den Apache HTTP Server und Nginx und unter dem Namen Lighthouse auch ein Browser-Plugin und ein in Google Chrome entwickeltes Audit-Tool an.
PageSpeed wurde 2011 auf der Technologiekonferenz Google I/O erstmals vorgestellt.
Im Juli 2011 wurde außerdem ein Hosting-Angebot namens Google Page Speed Service vorgestellt. Im Laufe der Jahre hat Google eine Vielzahl von Tools zur Messung und Optimierung der Ladezeit bereitgestellt. Neben PageSpeed Insights und den Chrome DevTools gibt es auch Google Lighthouse. Um hier eine Vereinheitlichung herzustellen hat Google die Web Vitals Initiative ins Leben gerufen, welche 3 maßgebliche Metriken zur Nutzererfahrung heranzieht: Ladezeit, Interaktivität und visuelle Stabilität. Für jeden der drei Aspekte gibt es eine Kennzahl:
Largest Contentful Paint (LCP): Die Dauer des Ladevorgangs, bis der Hauptinhalt einer Seite geladen ist.
First Input Delay (FID): FID misst die Zeit von der ersten Interaktion eines Benutzers mit einer Seite bis zu der Zeit, zu der der Browser auf diese Interaktion reagieren kann.
Cumulative Layout Shift (CLS): Die Kennzahl CLS misst, wie stabil das Layout einer Webseite ist und ob sich einzelne Layout-Elemente verschieben, während die Seite geladen und vom Browser gerendert wird.
Mit den Core Web Vitals stellt Google einheitliche Qualitätssignale bereit, die die Nutzererfahrung auf einer Webseite widerspiegeln.[2]
Webseiten: Online-Dienst
Google PageSpeed Insights kann direkt im Browser aufgerufen werden. Der Besucher muss lediglich die URL einer Webseite eingeben. In der Regel zeigt PageSpeed nach weniger als zwei Minuten dann einen Bericht an, der in Kategorien mit hoher, mittlerer und niedriger Priorität untergliedert ist. PageSpeed berechnet für jede Seite einen Gesamtwert, der maximal 100 Punkte erreichen kann. Es werden dabei gesonderte Berichte für die Mobil- und Desktopversion der Webseite ausgegeben. Dabei gilt es nicht nur die Ladezeiten von Bildern, CSS und JavaScript-Files zu optimieren, sondern auch verschiedene Caching-Funktionen zu testen, um somit dem Besucher eine schnell ladende Webseite präsentieren zu können. Tipps, Hinweise, Tutorials und viele Codeschnipsel können dabei hilfreich sein.
Andere Aufrufmöglichkeiten
In den Entwicklertools von Google Chrome ist das Analysetool unter dem Namen Lighthouse integriert. Auch ein separates Browser-Plugin für Chrome wird angeboten. Alternativ steht eine API zur Verfügung, über die Page Speed Insights-Abfragen automatisiert durchgeführt und die Ergebnisse maschinenlesbar zurückgegeben werden[3] und auf die auch Plugins zugreifen können.
Webserver
Auf der Google I/O 2011 wurde mod_pagespeed erstmals gezeigt, das die Ladezeit einer Internetpräsenz automatisch verbessern soll. Die Optimierungsvorschläge, die Google Page Speed Online oder das Browser-Plugin einem Webmaster machen, werden größtenteils automatisch umgesetzt. Seit Juli 2011 gibt es auch eine gehostete Version namens Google Page Speed Service, mit der kein Eingriff in die Serverkonfiguration notwendig ist. Stattdessen liefert Google die Website über seine eigenen Rechenzentren aus, wo auch die Geschwindigkeitsoptimierung erfolgt. Das Angebot wurde in den Medien teilweise als Angriff auf die Unabhängigkeit von Webmastern kritisiert.[4]
Auswirkungen auf die Suchergebnisplatzierung
Seit 2010 ist die Geschwindigkeit einer Website ein Signal für die Berechnung der Positionen in den Suchergebnissen von Google, seit 2018 ebenso für mobile Suchergebnisse und Google Ads.[5] Zusätzlich limitiert Google das Crawling Budget je Website, also die Anzahl der Unterseiten, die Google von einer Website aufruft. Schnellere Websites führen zu einer höheren Crawling-Frequenz von Google, was beispielsweise bei Online Shops mit zahlreichen Produkten einen Einfluss hat.[6]
Ab 90 Punkten gilt laut Google ein PageSpeed als gut, ab 50 Punkten als durchschnittlich und darunter als schlecht. Die maximal erreichbare Punktzahl ist 100.[7]
Weblinks
- Offizielle Website
- Core Web Vitals (englischsprachig)
Einzelnachweise
- ↑ Netzwelt.de: Schneller Surfen mit Google Page Speed, abgerufen am 30. Juli 2011
- ↑ Web Vitals. Abgerufen am 10. Mai 2020 (englisch).
- ↑ Google Page Speed Insights API
- ↑ Spiegel Online: Google lockt Webmaster mit kurzen Ladezeiten, abgerufen am 30. Juli 2011
- ↑ Speed is now a landing page factor for Google Search and Ads. Abgerufen am 2. Februar 2022 (englisch).
- ↑ Was das Crawling-Budget für den Googlebot bedeutet. Abgerufen am 2. Februar 2022.
- ↑ Informationen zur PageSpeed Insights API. Abgerufen am 2. Februar 2022.
TTFB - Time to First Byte
TTFB - Time to First Byte : Die Zeit bis zum ersten Byte (TTFB) bezieht sich auf die Zeit zwischen der Anforderung der Seite durch den Browser und dem Empfang des ersten Informationsbytes vom Server. Diese Zeit beinhaltet die DNS-Suche und die Verbindung über TCP-Handshake und SSL-Handshake, wenn die Anfrage über https gesendet wird.
Was ist TTFB?
TTFB ist ein Maß für die Zeit zwischen einer Ressourcenanforderung und dem Beginn des ersten Bytes der ankommenden Antwort.
TTFB ist die Summe der folgenden Anforderungsphasen:
- Umleitungszeit
- Startzeit des Service Workers (falls zutreffend)
- DNS-Abfrage
- Verbindung und TLS-Aushandlung
- Anfrage, bis das erste Byte der Antwort eintrifft
Die Reduzierung der Zeit für den Verbindungsaufbau und der Latenz im Backend trägt zur Reduzierung von TTFB bei.
TTFB ist keine Kernmetrik von Web Vitals, daher ist es nicht unbedingt erforderlich, dass eine Website einen „guten“ TTFB-Schwellenwert erreicht, solange dies nicht ihre Fähigkeit beeinträchtigt, bei wichtigen Metriken gut abzuschneiden.
INP - Interaction to Next Paint
INP - Interaction to Next Paint ist eine neue experimentelle Metrik, die die Reaktionsfähigkeit einer Webseite über alle Interaktionen auf einer Seite hinweg misst. Eine geringe Interaktion mit Next Paint stellt sicher, dass die Seite jederzeit zuverlässig reagiert.
Um die Metrik „Interaktion bis zum nächsten Malen“ zu berechnen, werden alle Unterschiede zwischen jeder Benutzerinteraktion und der endgültigen Präsentationsänderung auf der Seite gespeichert.
Was ist die Interaktion mit Next Paint?
INP misst, wie viel Zeit zwischen Benutzereingaben und dem nächsten UI-Update vergeht. Diese Verzögerung besteht aus drei Komponenten:
- Eingabeverzögerung: Alle Hintergrundaufgaben auf der Seite, die die Ausführung des Ereignishandlers verhindern
- Verarbeitungszeit: Zeit, die für die Ausführung von Event-Handlern in JavaScript aufgewendet wird
- Präsentationsverzögerung: Zeit, die für die Neuberechnung des Seitenlayouts und das Zeichnen der Seitenelemente aufgewendet wurde
FCP - First Contentful Paint
FCP ist eine Metrik zur Messung der Seitenladegeschwindigkeit, die den ersten Punkt der Zeitleiste anzeigt, an dem ein Benutzer alles auf dem Bildschirm sehen kann. Ein schneller FCP hilft dem Benutzer zu verstehen, dass etwas passiert, und verbessert seine Wahrnehmung der Ladegeschwindigkeit.
Was ist FCP?
Die Metrik First Contentful Paint berücksichtigt, wie lange es dauert, bis der gesamte Inhalt der Seite auf dem Bildschirm angezeigt wird. Diese Metrik berücksichtigt den „Inhalt“ von Bildern, Text, <svg>-Elementen und nicht weißen <canvas>-Elementen. Bei der Berechnung dieser Metrik bezieht sich „Inhalt“ auf alle Elemente außer weißen Leinwand- oder Textelementen.
Bilder und Text erscheinen zuerst auf dem Bildschirm, wenn sie im zweiten Rahmen betrachtet werden. An diesem Punkt beginnt Final Cut Pro mit der Verarbeitung.
Bei der Messung von LCP, was gleichbedeutend mit First Contentful Paint ist, müssen Sie zwischen Seiten unterscheiden, die fertig geladen sind, und solchen, bei denen dies nicht der Fall ist. Durch den Vergleich der Ergebnisse zwischen den beiden ist es leicht zu erkennen, welche Seite vollständig geladen wurde. Vergleichen Sie diese Ergebnisse mit den Ergebnissen des CPP einer Seite, wenn die gesamte Seite vollständig geladen ist.
Was ist ein hoher FCP-Score?
Der First Contentful Paint ist definiert als die Zeit, die es dauert, bis die Bilder einer Webseite vollständig geladen sind. Um für die meisten Benutzer ein qualitativ hochwertiges Erlebnis zu gewährleisten, sollten die meisten Websites darauf abzielen, zuerst 1,8 Sekunden oder weniger zu malen. Ein guter Richtwert ist das 75. Perzentil der Seitenladezeiten. Dies ist zwischen mobilen und Desktop-Browsern aufgeteilt.
Google PageSpeed vs Lighthouse
Google Lighthouse ist ein kostenloses, automatisiertes Open-Source-Tool, das Ihre Websites einer Reihe von Audits und Tests unterzieht. Es bietet eine visuelle Darstellung der Qualität und Leistung Ihrer Website auf allen Geräten, einschließlich Mobilgeräten und Desktops. Es identifiziert auch häufige Probleme, die die Leistung Ihrer Website beeinträchtigen, und bietet Lösungen zu deren Behebung.
PSI - PageSpeed Insights von PageSpeed zeigt die folgenden Daten
Die PSI-App verwendet Lighthouse, um Daten zum Leuchtturm einer Website abzurufen. Lighthouse simuliert die Anzeige eines Mobilgeräts und ermittelt Leistungsmetriken, wie z. B. erste inhaltsvolle Darstellung und Zeit bis zur Interaktivität. Messwerte zur Leistungsanalyse enthalten eine von drei Kategorien mit 90 oder höheren Bewertungen, die als ausgezeichnet gelten. Der Leistungsfaktor liegt zwischen 0 und 100, wobei ein Wert zwischen 80 und 90 als gutes Ergebnis gilt.
PageSpeed Insights Alternativen
SEO Lexikon
Linkbuilding
Linkbuilding Definition
Was bringen Backlinks?
Linkaufbau (auch Linkbuilding genannt) beschreibt die absichtliche Erhöhung der Anzahl und Qualität von Backlinks, d. h. Links, die auf eine Webseite verweisen. Der Linkaufbau ist dem Bereich der Suchmaschinenoptimierung (SEO) zuzuordnen. Zum Linkaufbau gehören z. B. Link-Tausch oder Linkbaiting.
Ziele
Mit dem Linkaufbau werden vordergründig zwei Ziele verfolgt:
- Positive Signale an die Suchmaschinen senden, damit die Platzierungen zu bestimmten Suchbegriffen (Keywords) in den Suchergebnisseiten der Suchmaschinen verbessert werden. Hierzu soll die Linkpopularität beziehungsweise der PageRank der Webseite erhöht werden, sowie die Webseite durch Wahl eines passenden Linktextes für den Suchbegriff relevanter gemacht werden.
- Besucher auf die Zielseite lenken.
Arbeitsweise
Während die Onpage- bzw. Onsite-Optimierung einer Webseite der Optimierung der Strukturen und Inhalte dient, wird der Fokus beim Linkaufbau auf das Umfeld der betreffenden Webseite gelegt (Off-Page-Optimierung).
Linkaufbau bezeichnet die gezielte Erzeugung der auf die eigene Webseite verweisenden Backlinks. Während früher die Anzahl und Stärke der Backlinks ausschlaggebend für ein erfolgreiches Linkbuilding war, wird heutzutage ein möglichst natürliches Linkwachstum simuliert. Beim organischen Linkaufbau wächst die Anzahl der Backlinks und die damit verbundene Domainpopularität einer Webseite auf natürlichem Weg. Das eigene Linkwachstum kann durch Maßnahmen wie hochwertige Inhalte (Content), themenrelevante und regelmäßig aktualisierte Informationen sowie PR-Maßnahmen beeinflusst werden.
Im Gegensatz dazu stehen Methoden, die zum Beispiel durch Linkkauf, Linkmiete, Linktausch, künstliche Linkfarmen, Expired Domains und deren bestehende Verlinkungen aus der Zeit vor der Domainlöschung oder auch Schattendomains auf eine Anhäufung der eigenen Domainpopularität setzen. Ein forcierter Linkaufbau besteht häufig aus Linkquellen wie Presse- und PR-Artikeln oder Links aus Texten, die zum Beispiel in Artikelverzeichnissen und freien Blogs nur zu dem Zweck des Linkaufbaus untergebracht werden. Da diese Maßnahmen aktiv durchgeführt werden, spricht man hierbei auch von einem künstlichen Linkaufbau. Auch die Teilnahme in sozialen Netzwerken, das Kommentieren auf Blogs oder Antworten in Experten-Communitys werden häufig zum Linkaufbau verwendet. Selbst Wikipedia-Artikel werden genutzt, um Links zu bekommen. Foren-, Blog- und Wikibetreiber setzen daher bei externen Links, die von Nutzern eingefügt werden können, oft automatisch das nofollow-Attribut. Eine solche Auszeichnung entwertet einen Link für die Suchmaschinen. Google hat mit der Einführung der beiden Linkattribute „ucg“ & „sponsored“ 2019 zwei neue Attribute eingeführt, womit nofollow-Links unterschiedliche Gewichtungen erhalten.[1]
Dem künstlichen Linkaufbau durch gezielte Suchmaschinenoptimierung wirken Suchmaschinen durch regelmäßige Änderungen des Ergebnisalgorithmus entgegen. In diesem Zuge werden Webseiten, auf die in kurzer Zeit eine hohe Anzahl unnatürlicher Links gesetzt wurden, in den Suchergebnissen nach hinten befördert oder zum Teil auch gänzlich aus dem Index gelöscht. Mittlerweile ist Google in der Lage, künstliche Linkstrukturen wie gleiche Netzwerke, reziproken Linktausch oder die Teilnahme an Tausch- und Verkaufsnetzwerken aufzudecken. Insbesondere seit dem Google Pinguin-Update, welches sich gegen Webseiten mit künstlichem Linkprofil richtet, achtet Google auf eine branchen- und themenübliche Linkstruktur.
Siehe auch
Einzelnachweise
- ↑ Evolving “nofollow” – new ways to identify the nature of links. Google Webmaster Central Blog, 10. September 2019, abgerufen am 10. Dezember 2019.
Linkbuilding-Strategien
Aufbau
- Interne Links
- Social Media Links
- Embedded Code Links
- RSS Links
- Partner Link
- Externe Seiten Links
Linktausch
Linktausch Definition
Ein Textlinktausch ist die Verknüpfung zweier Internetseiten untereinander, die einen normalen, textbasierten HTML-Hyperlink verwenden. Als Linkpartner werden die beteiligten Websites bezeichnet. Textlinktausch als SEO-Maßnahme ist Teil des Linkaufbau.
Ziele
Ein Textlinktausch hat das Ziel, neue Besucherströme von der verlinkenden Seite auf die verlinkte Seite zu ziehen. Darüber hinaus wird die Methode für die Suchmaschinenoptimierung im Rahmen des Linkbuilding benutzt. Der Link dient dann zur Verbesserung der Platzierung der verlinkten Webseite in den Suchergebnissen. Diese ergibt sich aus der Funktionsweise von Suchmaschinen. Diese suchen Internetseiten nach Links ab, um auf diese Weise zum einen die Anzahl der eingehenden Links auf eine bestimmte Seite zu ermitteln, gleichzeitig aber auch die Linktexte mit dem Inhalt der Zielseite abzugleichen. Dieses Prinzip der Linkpopularität hat das Ziel, die Wichtigkeit einer Seite in einem bestimmten Kontext (Suchanfrage) zu bewerten.
Ein Linktausch zur Verbesserung der Suchergebnisse widerspricht i. d. R. den Richtlinien der Suchmaschinenbetreiber.[1]
Arten
Es gibt mehrere Formen des Linktausches.
Reziproker Linktausch
Der am einfachsten zu handhabende Typ ist der reziproke Linktausch: In diesem Fall werden zwei Webseiten direkt miteinander verlinkt.
Nicht-reziproker Linktausch
Beim nicht-reziproken Linktausch sind mehr als zwei Webseiten beteiligt – im einfachsten Fall drei. Eine Person betreibt in diesem Fall entweder mehrere Webprojekte unter verschiedenen Domains oder er besitzt sogenannte Linktauschprojekte. Diese Projekte dienen ausschließlich dazu, Links zu anderen Webseiten zu setzen, um dadurch von dem Partner Backlinks zu seinem Hauptprojekt zu erhalten.
Eine weitere Möglichkeit besteht darin, mit mehreren Linkpartnern ein Linktausch-Netzwerk zu erschaffen, so kann beispielsweise die Person A zu C verlinken, Linkpartner C verlinkt zu B und B zu A.
Ziel der Drei-Wege-Links ist es, den Linktausch für Suchmaschinenbetreiber schwerer erkennbar zu machen. Je mehr unterschiedliche Linkpartner in einem Netzwerk zusammenarbeiten, desto schwieriger wird es für Suchmaschinen, diese Netzwerke aufzuspüren.
Entwicklung
Wurde anfänglich nur die Anzahl der eingehenden Links durch die Suchmaschinen gezählt, wurden die Verfahren der Suchmaschinen aufgrund des sich rasant entwickelnden Spam kontinuierlich verfeinert. Neben der Mitbewertung der Linktexte spielt heute auch der Linktyp eine Rolle. So werden von Suchmaschinen oft reziproke Links von Nicht-reziproken Links unterschieden, was den Tausch von Links erschwert.
Tauschbörsen und Artikelverzeichnisse
Zur Vereinfachung des Textlinktausches existieren Tauschbörsen. Diese lassen sich in manuell verwaltete und automatisierte Systeme sowie kommerzielle und nicht-kommerzielle unterteilen. Teilnehmer laufen Gefahr, bei Suchmaschinen negativ eingestuft zu werden, da der Betreiber einer Suchmaschine theoretisch selbst als Linktauschpartner auftreten könnte. Dennoch wird Linktausch, neben dem Kauf von Links, derzeit noch immer als effektives Mittel zur Suchmaschinenoptimierung eingesetzt.
Eine Zeit lang wurden auch Artikelverzeichnisse zur Generierung von Links verwendet, dort werden Links gegen Inhalte getauscht. Allerdings werten die Suchmaschinen solche Links nicht mehr sehr stark.
Linktauschprogramme
Ein Linktauschprogramm ist eine Software, die den Textlinktausch für Webseitenbetreiber oder Suchmaschineoptimierer unterstützt. Im Vordergrund steht hierbei die Verwaltung von Links und Linkpartnern, sowie die Akquise neuer Partner. Linktauschprogramme verstoßen meistens gegen die Richtlinien der Suchmaschinenbetreiber.
Sonstiges
Der Begriff Linkpartner kann nach einem Beschluss des Deutschen Patent- und Markenamtes nicht als Marke geschützt werden, da er allgemein beschreibend ist.
Einzelnachweise
- ↑ Google Search Console-Hilfe: Linktauschprogramme. Google, abgerufen am 24. Januar 2018.
SEO Content Strategie
Content Farm
Als Content Farm (auch Content Mill) wird ein Geschäftsmodell im Internet bezeichnet, bei dem der Anbieter einer Plattform durch freie Mitarbeiter Inhalte aus Text, Videos, Fotos und Grafiken produzieren lässt, die durch Suchmaschinenoptimierung möglichst viele Seitenaufrufe („Klicks“) anziehen sollen. Einnahmen entstehen dann durch Online-Werbung. Inhaltlich bestehen die meisten Beiträge in Content-Farmen aus langfristig relevanten Inhalten, die im Gegensatz zu Nachrichten auch auf längere Sicht ohne Eingriffe wie kostspielige Aktualisierungen Leser anziehen können. Im Vordergrund stehen oft Bedienungsanleitungen.
Geschäftsmodelle
Es gibt zwei grundlegende Geschäftsmodelle: Entweder der Anbieter analysiert häufig gestellte Anfragen bei Suchmaschinen und beauftragt Autoren, maßgeschneiderte Texte zu verfassen[1] oder die Autoren sind frei in der Auswahl ihrer Themen und werden in der suchmaschinengerechten Aufbereitung ihrer Inhalte geschult.[2] Im ersten Fall bezahlt der Anbieter die Autoren pro Artikel, im zweiten kann der Plattformbetreiber die Themenwahl den Autoren überlassen, weil er keine Pauschale bezahlt, sondern die Autoren nur beim Abruf ihrer Texte eine Umsatzbeteiligung an generierten Werbeeinnahmen erhalten. Die erste Form wird von Demand Media umgesetzt und ist seit 2010 auch das Geschäftsmodell von AOL,[3] suite101.com ist ein Beispiel für das zweite Geschäftsmodell.
Auftragsarbeiten nach Suchanalyse
Im ersten Schritt werden Themen bestimmt, zu denen die Erstellung von Content lukrativ wäre. Dazu nutzt zum Beispiel Demand Media eine Formel, die aus drei Teilen besteht:[1]
- Häufige Suchanfragen in Suchmaschinen, die speziell genug sind, um ein Thema zu definieren. Dies sind meist Suchanfragen aus mehreren Wörtern. Google bietet dafür Analyse-Tools und Metriken an, die einfachste ist Google Suggest.
- Potentielle Werbeeinnahmen mit einem entsprechenden Artikel. Dazu werden Zahl der Suchanfragen und Click-Through-Rates für vergleichbare Themen und Versteigerungsergebnisse für themenrelevante Google AdWords analysiert.
- Eine Konkurrenzbeobachtung liefert Hinweise, ob entsprechender Content schon woanders vorhanden ist und daher ein eigenes Angebot auf Suchergebnisseiten nur schwer nach oben zu bringen wäre.
Die meisten Arbeiten, die für diesen ersten Schritt nötig sind, werden bei Demand Media automatisiert durchgeführt. Am Ende des ersten Schrittes steht eine Überschrift voller relevanter Schlüsselwörter, die nach kurzer Überarbeitung durch einen Redakteur in eine Datenbank wandert. Nachrichten und nur kurzzeitig aktuelle Themen werden dabei ausgesondert, da der Content möglichst langlebig sein soll.[1] Die statistische Bestimmung von relevanten Themen unterscheidet Content-Farmen von Auskunfts-Websites wie Answers.com, Yahoo Answers und dem 2006 eingestellten Google Answers, die als Themen die von Einzelpersonen gestellten Fragen nutzen, auch wenn die Geschäftsmodelle sich zu überschneiden beginnen.[4]
Im zweiten Schritt können freie Mitarbeiter sich aus der Datenbank ein Thema aussuchen und dazu einen Artikel schreiben oder ein Video produzieren. Dieser Content wird hochgeladen und kurz überprüft:
- Automatisierte Kontrolle gegen Textplagiate
- Redaktionelle Kontrolle. Art und Umfang dieser Kontrolle ist strittig und wird von Kritikern als Grund für eine schlechte Qualität der Content-Farm-Inhalte vorgebracht.
Anschließend werden die Artikel oder Videos über die von der Content Farm beschickten Websites verteilt. Dies sind nicht immer die direkt zur Content-Farm gehörenden Sites wie eHow im Falle von Demand Media, sondern in einigen Fällen über Affiliate Marketing auch andere Websites, die fremden Content zusammen mit Werbung in ihre Site integrieren.[1] Im dritten Schritt ist der Artikel oder das Video möglichst lange online und wird durch Suchmaschinenoptimierung (Search Engine Optimization, SEO) des Content-Farm-Betreibers möglichst hohe Ränge in den Suchergebnissen erreichen und dadurch die prognostizierten Werbeeinnahmen einspielen. Die Produzenten der Beiträge, also Autoren und Videofilmer, werden direkt für ihre Beiträge bezahlt (z. B. 15–20 USD pro Artikel und USD 30 für Videos bei Demand Media, Stand Februar 2010).[1]
Umsatzbeteiligung bei freier Themenwahl
Ein Plattformbetreiber, der Autoren über eine Umsatzbeteiligung bezahlt, kann den freien Mitarbeitern die Auswahl ihrer Themen überlassen. Entscheidend ist hier, dass Autoren ihre Beiträge für Suchmaschinen geeignet aufbereiten, damit sie möglichst oft gefunden und abgerufen werden. Dazu werden die Mitarbeiter in Techniken der Suchmaschinenoptimierung geschult.[2] Hier ist die Bindung zwischen Plattformbetreiber und Mitarbeiter enger, weil die Umsatzbeteiligung für gemeinsame Interessen sorgt. Ziel der Anbieter ist es, qualifizierte Autoren anzuziehen und dauerhaft an sich zu binden.[5]
Unternehmen
Die ersten Unternehmen, die Content Farmen als Hauptaktivität betreiben, stammen aus den USA. Die 2006 gegründete Demand Media Inc. gilt als größter Vertreter, gefolgt von Associated Content. Neben Start-ups, die für diesen Zweck gegründet wurden, gibt es zunehmend etablierte Medien- und Internetunternehmen, die mit dem Scheitern von traditionellen Geschäftsmodellen von Journalismus im Internet auf das Prinzip Content Farm umstellen. Ein Beispiel dafür ist der Service seed.com, den AOL 2010 startete.[6]
Demand Media
Demand Media wurde 2006 durch Richard Rosenblatt und Shawn Colo gegründet, die beide viel Erfahrung mit Start-ups, Finanzierung und Internet-Geschäftsmodellen hatten. Rosenblatt war unter anderem Chairman von Myspace.com. Demand Media nahm 355 Mio. USD Kapital auf und publiziert seinen Content auf Websites wie eHow und LiveStrong. 2009 erreichte das Unternehmen einen Umsatz von etwa 200 Mio. USD.[1] Im Januar 2011 erreichte das Unternehmen bei seinem Börsengang an der New York Stock Exchange (Tickersymbol DMD) einen Unternehmenswert von über einer Milliarde USD.[7]
Associated Content
Associated Content wurde 2005 von Luke Beatty gegründet und hat seinen Sitz in Denver. Bis 2010 hatten 380.000 Mitarbeiter-Accounts für das Unternehmen geschrieben, die Website erreichte im Monat 16 Millionen Besucher.[6] 2010 wurde Associated Content für einen Kaufpreis von ungefähr 100 Mio. USD von Yahoo erworben.[8]
Content-Farmen in Deutschland
Die deutschsprachige Content Farm Suite101.de ging im Februar 2008 online. Nach Angaben der Berliner Niederlassung des Unternehmens gab es dort im August 2010 mehr als 35.000 deutschsprachige Artikel aus Themenbereichen wie Haus, Hobby und Gesundheit, die von 750 Autoren verfasst wurden. Hinter der Website steht das kanadische Unternehmen Suite101.com Media Inc. aus Vancouver, das 2006 unter Beteiligung von Hubert Burda Medias Burda Digital Ventures aus einem seit 1996 bestehenden Unternehmen neu gestartet wurde.[9]
Kritik
Von Kritikern wird vorgebracht, dass viele der in Content-Farmen produzierten Artikel dem Leser nur einen oberflächlichen Nutzen bringen und schlecht recherchiert oder geschrieben seien. Auch sei das Problem von Urheberrechtsverletzungen nicht gelöst. Andere Kritiker verweisen auf die schlechte Bezahlung der freien Mitarbeiter, die das Modell von freien Journalisten oder Autoren, die von ihrer Arbeit leben können, vollends untergrabe. Ein weiterer Kritikpunkt ist das Verdrängen von besseren Suchergebnissen durch die schiere Masse von Content-Farm-Beiträgen und die ausgefeilten SEO-Techniken ihrer Betreiber.[4]
Michael Arrington, Gründer und Chefredakteur von TechCrunch, bezeichnete Content-Farmen wie Demand Media als McDonald’s der Online-Medien: so billig und so schnell wie möglich produziert und massenhaft vorhanden. Das Geschäftsmodell erzeuge ein „race to the bottom“, in dem jeder Autor und Produzent von Online-Medien, der Zeit und Mühe auf seine Inhalte verwende, aus dem Geschäft gedrängt wird.[10]
2009 hielt Jeff Jarvis, Journalistikprofessor an der City University of New York, Befürchtungen für übertrieben, Content-Farmen würden das Internet – bzw. Suchmaschinen – mit billigem Content überfluten: „Mist, der gerade gut genug sei, um Suchalgorithmen zu übertölpeln.“ Das Internet sei schon immer mit „Mist gefüllt“ gewesen. Die Frage, wie man darin gute Inhalte findet, sei nicht neu und die Antwort darauf habe Google zu einem Milliardenunternehmen gemacht. Bessere Suchalgorithmen seien die Antwort auf schlechten Content.[11]
Reaktionen der Suchmaschinen
Die Suchmaschinenbetreiber reagieren auf das Wachsen der Content Farmen durch Anpassung ihrer Suchalgorithmen. Google passt seine Kriterien ständig geringfügig an und nahm im Februar 2011 mit dem Update Google Panda einen massiven Eingriff in die englischsprachigen Suchergebnisse, um Content Farmen zurückzudrängen.[12] Für Content-Farm-Betreiber brachte diese Änderung Verluste an Aufrufen, die 25–30 % erreichten.[13] Im August 2011 aktivierte Google eine solche Änderung auch in Deutschland und weiteren Ländern, um qualitativ höherwertige Artikel besser sichtbar zu machen als Contentfarmen und Shopping- oder Produkt-Verzeichnisse.[14] Die größten Verluste an Sichtbarkeit hatten in absoluten Zahlen die Anbieter gutefrage.net, ciao.de und dooyoo.de, prozentual verloren kelkoo.de, alatest.de, wikio.de, online-artikel.de, webnews.de und suite101.de am meisten.[15] In Deutschland wurden 2010 etwa 90 % aller Suchanfragen im Internet über Google gestellt.[16]
Literatur
- Daniel Roth: The Answer Factory: Demand Media and the Fast, Disposable, and Profitable as Hell Media Model. In: Wired vom 19. Oktober 2009.
Weblinks
- „Beyond Content Farms“ – Serie auf Media Shift von Public Broadcasting Service. (Englisch)
- Content Farms: The Who, What and Why – Artikel von Rishil Lakhani vom 24. Januar 2010. (Englisch)
Einzelnachweise
- ↑ a b c d e f David Carr: Plentiful Content, So Cheap. In: New York Times vom 7. Februar 2010.
- ↑ a b Craig Silverman: How Content Farms Train Their Writers to Write for the Web. In: MediaShift, Public Broadcasting Service vom 22. Juli 2010.
- ↑ Nicholas Carlson: LEAKED: AOL's Master Plan. businessinsider.com, 1. Februar 2011
- ↑ a b Richard MacManus: Content Farms: Why Media, Blogs & Google Should Be Worried (Memento vom 19. Oktober 2010 im Internet Archive). In. ReadWriteWeb vom 13. Dezember 2009.
- ↑ ReadWriteWeb.com: Content Farms 101: Why Suite101 Publishes 500 Articles a Day (Memento vom 28. August 2010 im Internet Archive), 20. Juli 2010
- ↑ a b AP: Yahoo to Buy a Freelance Site, Associated Content. In: New York Times vom 18. Mai 2010.
- ↑ Julianne Pepitone: Demand Media shares soar 33% in IPO. In: CNN Money vom 26. Januar 2011.
- ↑ Yahoo Buys Associated Content for a reported $100 Million. In: Business Insider vom 19. Mai 2010.
- ↑ Helmut van Rinsum: Call a Content - Sie suchen, wir schreiben. In: werben & verkaufen vom 12. August 2010.
- ↑ Michael Arrington: The End Of Hand Crafted Content. In: TechCrunch vom 13. Dezember 2009.
- ↑ Jeff Jarvis: Content farms v. curating farmers. In: BuzzMachine vom 14. Dezember 2009.
- ↑ Spiegel online: Google kickt nervige Null-Inhalte raus, 14. Juni 2011
- ↑ Werben & Verkaufen: Suite101 und die Google-Macht: "Ein Weckruf für die ganze Branche", 7. April 2011
- ↑ Andreas Albert: Suchmaschinenoptimierung: Google geht mit "Panda" gegen Contentfarmen vor (Memento vom 10. September 2011 im Internet Archive). In: Financial Times Deutschland vom 15. August 2011.
- ↑ Panda-Update: Googles Qualitätsoffensive erreicht Deutschland. spiegel.de 15. August 2011.
- ↑ Konkurrent reicht weitere Kartellbeschwerde gegen Google ein. In: Spiegel Online vom 22. Februar 2011.
Content
Webinhalte oder Internetinhalte (engl. Web content) sind digitale Medieninhalte, welche im Web veröffentlicht wurden und abrufbar sind. Sie sind die Gesamtheit dessen, was auf Websites nutzbar ist.
Louis Rosenfeld und Peter Morville schreiben dazu in "Information Architecture for the World Wide Web[1]": "Wir definieren Inhalte ganz allgemein als das gesamte "Zeug" auf ihrer Website. Das kann Dokumente, Daten, Anwendungen, E-Services, Bilder, Audio- und Videodateien, persönliche Webseiten, archivierte E-Mails und noch mehr beinhalten. Wir fassen darunter zukünftiges als auch aktuelles Zeug."
Siehe auch
Quellen
- ↑ Louis Rosenfeld, Peter Morville: Information Architecture for the World Wide Web. 2. Auflage. O'Reilly, 2008, S. 219.
SEO Maßnahmen
- Gute Domain , am besten eine krze Domain , ohne Bindestrich
- Conent first – Guten Content das Ihre Besucher lange auf Ihren Seiten verweilen
- Webseitengeschwindigkeit – PSI – PageSpeed Insights
SEO Agentur
Webseitendoktor Ihre SEO Agentur mit Erfahrung für vordere Positionen in den Suchmaschinen
Kontaktformular
Fragen zum Thema?