Ankündigung
|
Affiliate Partnerprogramme von Amazon sind mit diesem * Sternchen gekennzeichnet.
Somit können wir unsere Internetpräsenz finanzieren.
|
Navigation
|
|
|
Keyword Penalty
|
Geschrieben: 22.01.2017 um 12:13 von bernd
|
Keyword Penalty . Was genau sind die Ursachen gewesen
- Keyword Manipulationen
- Spam Webseitenaufbau
- Zu viel Werbung und kein Content
Ganz klar wurde hier über Jahre versucht an das schnelle Geld zu kommen durch Webseiten die nur den einen einzigen Zweck hatten Besucher auf die Seiten zu locken mit Schlüsselwörter die sehr lukrativ und jede Menge Umsatz generierten. Diese Klientel hat so ein Ausmaß angenommen das früher oder später es zu einem Crash kommen musste. Vorderste Plätze in den Suchanzeigen wurden regelrecht bombardiert und kaum Mehrwert generiert.
Das schnelle Geld und der Schuss der nach hinten los ging.
Hier trifft es wieder eine Minderheit die sich ausschließlich nur zu diesem Zweck erfunden hat Manipulationen im großen Stiel durchzuführen und jetzt in der defensive das beste daraus zu machen versucht. Hier kann man jetzt mal sehen wie in den verschiedensten Foren und Blocks darüber geschrieben wird und tatsächlich nur dem einen Zweck dienlich war das schnelle Geld zu verdienen.
Dieser Zug ist abgefahren und alle die Geld dafür ausgegeben haben müssen feststellen das Manipulation nichts einbringt außer einer Herabstufung.
Regelbasierte Manipulationen werden von Google Mitarbeitern überprüft .
Es scheint noch nicht bei allen angekommen zu sein das diese Prüfungen manuell durch Mitarbeiter des Suchmaschinengiganten durchgeführt werden. Das heißt nichts anderes wie jeder Verdacht wird explizit beobachtet und bei einem Regelverstoß ein Penalty ausgesprochen. Viele werden sage das ist aber nicht die feine Art wie man das durchzuziehen versucht, aber im Grunde auch dahinter stehen eine bessere Suchrelevanz zu erzielen. Diese Art der Beeinflussung hat solche Ausmaße angenommen das gegenseitige Überrumpelung im Ranking, Kämpfe ausgelöst haben nur um ganz vorne zu stehen.
Einer versuchte den anderen zu übertrumpfen was voll in die Hose ging.
Wir haben zwar eine freie Marktwirtschaft aber auch dort gibt es Spielregeln die einzuhalten sind und in unserem Fall Richtlinien von Google.
- Was genau ist hier geschehen ?
- Hätte man es verhindern können ?
- Ist jetzt alles zu spät ?
- Frage ( 1 ) Hier wurden bestimmte Keywords also Schlüsselwörter im Content so oft wie möglich erwähnt .
- Frage ( 2 ) Nat?rlich durch einfache Befolgung der Richtlinien von Google. Da steht das jegliche Manipulationen Suchergebnisse zu beeinflussen zu unterlassen sind und zu einem langweiligen Ausschluss führen kann.
- Frage ( 3 ) Zu üpät ist es für die welche davon betroffen wurden. Hier muss nachgebessert werden und wenn alles seine Ordnung und Richtigkeit hat das nächste Ranking abzuwarten.Solche die noch alles beim alten vorfinden haben noch die Möglichkeit dies schnellstens zu ändern bevor auch Sie davon betroffen sind.
- Duplicate Content verursacht große Kosten bei Google.
Dieser Duplicate Content ist ein wichtiger Kostenfaktor und braucht unheimliche Ressourcen und Rechnerleistung wenn sich die Spider auf ihren täglichen Crawling Touren befinden. Einfach gesagt geht es hier darum das sich wiederholender Text der schon auf einer Seite oder vielen weiteren abgelegt wurde,nicht nochmals eingelesen werden muss,also Content der schon auf Seiten in vielfachen Format existiert. Energieeinsparungen rechnen sich bei den großen Suchmaschinen und es wird alles daran gesetzt diese auf ein Minimum zu reduzieren. Da kommen also die Duplicate Content Seiten genau zur richtigen Zeit um diesen Missbrauch Einhalt zu gebieten. Finger weg von kostenlosen Content. Größte Vorsicht ist auch angebracht,wenn Sie Texte veröffentlicht haben nicht nur auf Ihren Seiten sondern auch auf anderen Seiten mit dem selben Wortlaut und Textinhalt. Diese Seiten werden auch als Spam eingestuft und ziehen auch hier eine Herabstufung nach sich. Es muss also sehr genau überlegt werden wenn man sich nicht selber abwerten will, was man wo ? wie viel schon geschrieben hat. Hier kann nur ein .htaccess Eintrag Abhilfe schaffen und die Crawler außen vor stehen lassen um nicht im Index der Suchmaschinen zu landen. Seiten die bisher kostenlosen Content eingebaut haben also Information die zur Veröffentlichung frei gegeben wurden werden durch diese Maßnahmen besonders schwer betroffen . Hier hilft nur wenn ein Richtlinienverstoß ausgesprochen wurde die sofortige Löschung dieser Dateien. Archive wird es besonders treffen und sollten auch einer Prüfung auf doppelten Content unterzogen werden. Verzichten sie also in Zukunft auf solche kostenlosen Angebote, die in den allermeisten Fällen auch nur dem einen Ziel dienlich sein sollten so oft wie möglich verlinkt zu werden.
Duplicate Content unbedingt vermeiden.
Als Anwender kann man nur folgendes machen wenn man unter Beobachtung steht und weit nach hinten gestuft wurde. Überprüfen sie alle doppelten Text - Passagen auch im Kopf und Fußbereich jeder Webseite. Doppelten Text also Content Artikel die von einer Unterseite zur nächsten Unterseite kopiert wurden ohne zusätzlichen Content hinzu zufügen oder viel schlimmer Text von anderen Seiten kopieren und auf Ihre Webseiten einbauen.Ohne diese Schritte werden Sie nicht mehr zurück kommen in die Suchmaschine und müssen nachdem wirklich alles bereinigt wurde einen neuen Antrag auf Indexierung stellen.
Spamverdacht in Blocks führt zur Abstrafung
Manipulationen in Blogs nur zum Zweck Spam zu verbreiten geht Google vehement nach.Es nimmt immer mehr überhand wie Blogs mit ihrem Linksaufbau umgehen und versucht haben Google auszutricksen. Dieser Schuss ging aber tüchtig nach hinten los,denn seit den letzten Updates werden diese sogenannten Spam Blogs abgestraft. Vor ab gibt es aber noch eine E-Mail von Google wo klar darauf hingewiesen wird um welche Verfehlungen es sich handelt und nicht im Fenster der Google Richtlinien liegen. Nach Erhalt dieser E-Mail ist es schon zu spät auch nur Ansatzweise etwas zu unternehmen da dieser Penalty wieder eine Neu Anmeldung bedarf um in den Google Index aufgenommen zu werden. Überstürzte Handlungen oder Panikattacken bringen nichts und müssen behutsam angegangen werden damit auch wirklich alle Beanstandungen beseitigt sind. Denken sie daran:Spamverdacht in Blocks führt zur Bestrafung
Manuelle Überprüfungen durch Google Mitarbeiter
ziehen eine Wiederaufnahme in den Google Index nach sich und wird durch einen extra Browser der nur für diese Funktion programmiert wurde abgeglichen. Alle aber wirklich alle Verfehlungen und wenn es nur noch ein Link sein sollte der unter Spamverdacht stand ,werden hier dem Google Mitarbeiter angezeigt und setzt die Seite weiter unter Ausschluss.
- Keywords und Textpassagen Manipulationen.
Manchmal kann man eben nur noch mit dem Kopf schütteln , wenn man sieht zu welch unleugbaren Methoden gegriffen wird um in den Suchmaschinen an vorderster Position zu landen. Weiße Schrift auf weißem Hintergrund oder versteckte Links denken so manche kann nicht gesehen werden und schreiben zusätzliche Textpassagen mit allen relevanten zur Seite gehörenden Keywords hinein. Viele Anwender hier wird von einer Zahl die in die Millionen geht Weltweit, werden Ihr blaues Wunder erleben wenn unverhofft Post von Google eintrifft . Doch dann ist es schon zu spät und das Prozedere zum Ausschluss hat begonnen.
Seiten schreiben nur für die Suchmaschinen führt zu einem Google Penalty
auch Cloaking genannt und ist nach Ansicht von Google ein grober Richtlinienverstoß und lässt eine Index Entfernung nach sich ziehen mit allen zur Webseite gehörenden Unterseiten. Melden von Seiten an Google mit einer falschen Landingpage also Umleitungsseiten meistens durch einen Java - Script Code realisiert,weißen die schwere des Vergehens auf da diese falsche Daten liefern. Hält man sich vor Augen,dass 75 % aller Suchanfragen Weltweit über die Google Suchmaschine durchgeführt werden,kann sich jeder vorstellen welche katastrophalen Auswirkungen solche Verbannung nach sich ziehen kann,wenn ein Businessgeschäft dahinter steht.
Automatische Anfragen an Google
sollte man nicht anwenden, wenn diese nicht von Google zertifiziert und zum Einsetzen frei gegeben wurde. Um hier nicht einem Irrtum zu unterliegen das diese Automatischen Scripte alle Regelkonform mit den Google Richtlinien übereinstimmen,sollte man sich unbedingt vorher das OK von Google holen. Als großer Energieverbraucher ist Google bemüht aufwendige Anfragen oder Abfragen die nichts mit dem eigentlichen Kerngeschäft der Websuche zu tun haben so gut wie möglich außen vor zu lassen. Ressourcensparender Einsatz steht vor allem und ist ein festgestecktes Ziel in naher Zukunft . Da haben natürlich solche Ressourcenfresser wie schlecht programmierte Scripte und Software keinen Platz und obliegen einer genauen Prüfung wie oft und in welchen Abständen diese Anfragen stattfinden und wie hoch der Nutzwert für Google ist.
- Versteckter Content bewirkt eine Abstrafung.
- Webseiten die bewusst mit verstecktem Content von Google lokalisiert wurden werden in der Regel innerhalb kürzester Zeit Abgestraft. Viele Anwender benutzen diese Manipulation bewusst um durch versteckte Keywords im Google Ranking weiter vorne zu stehen. Unter verstecktem Content versteht man Textpassagen oder Wörter die mit der Hintergrundfarbe der Webseite übereinstimmen und somit nicht sichtbar sind für den Leser. Aber nur für den Leser ist diese Google Manipulation auf den ersten Blick nicht sichtbar - für Google aber schon. Ganze Keywordreihen werden teilweise von den Anwendern am Schluss einer Webseite versteckt eingesetzt oder auf der Webseite verteilt. Diese Art von Webseitenmanipulation bestraft Google sehr hart und kann unter Umständen sogar einen Ausschluss aus dem Google Index nach sich ziehen. Versteckte Links gehören ebenso zu der immer weiter steigenden Liste mit den Google Abmahnungen und sollten sofort von den entsprechenden Webseiten entfernt werden.
Copyright@ Bernd Springer 79539 Lörrach Hartmattenstrasse 55
|
Zuletzt aktualisiert: 27.03.2019
|
|
Alle Zeitangaben in WEZ +2. Es ist jetzt 12:22 Uhr.