Eine detaillierte Analyse der Filter Google

(1 Bewertungen Bewertung: 5 von 5)
Загрузка ... Wird geladen ...

Google Sandbox

Zu Beginn des Jahres 2004 kam es als ein geheimnisvolles Konzept der SEO - Google Sandbox, oder " Sandbox »Google. Diese Bezeichnung gab dem neuen Spam-Filter von Google, mit dem Ziel bei der Auswahl der Ausgabe von neuen Websites erstellt

Подробный разбор фильтров Google

SandBox Filter wird in der Tatsache, dass keine neuen Websites in einer Suchmaschine bei der Ausstellung für alle Sätze manifestiert. Dies geschieht, obwohl sich rechts Förderung durchgeführt (und ohne Anschluss Spam-Techniken), und das Vorhandensein von einzigartigen und Qualität der Inhalte.

Bis heute betrachtet die SandBox nur die englische Segment und Websites in Russisch und anderen Sprachen der Verarbeitung dieses Filters wird nicht ausgesetzt. Aber wahrscheinlich wird der Filter in der Lage, Einfluss zu erweitern.

Angenommen, das Ziel SandBox-Filter - löschen aus der Emission von Spam-Sites - in der Tat, das Aussehen der Ergebnisse kann nicht monatelang niemand Spammer Suche erwarten. Aber gleichzeitig, leidet unter einer großen Anzahl von qualitativ hochwertigen, neue Standorte.

Zuverlässige Informationen fehlt, wir gezielt nicht verstehen, was die SandBox-Filter.

Es gibt eine Reihe von Annahmen, die aus der Erfahrung abgeleitet werden, dass unten dargestellt:

  1. SandBox - junge Filter-Websites. Die neue Website fällt in die "Sandbox", wobei unsicheren Zeit in ihrer Suche nach dem System übersetzt sie in "normal".
  2. SandBox - Filter Links, die auf den neuen Seiten gesetzt werden. Wir werden versuchen, von den Annahmen der vorherigen fundamentalen Unterschied zu sehen - der Filter ist nicht auf das Alter der Website angewendet, und Links zu den Websites des Alters. In anderen Worten, hat Google keine Ansprüche auf die Website, aber es wird berücksichtigt externe Links wird versagt, wenn das Datum ihres Erscheinens hat keine zehn Monate vergangen sein. Da die Rankings die wichtigsten Faktoren externer Links sind, dann ignorieren sie ist gleichbedeutend mit der Suchmaschine Abwesenheit Website auszugeben. Welche dieser Annahmen wahr ist, ist es schwierig zu sagen, aber wahrscheinlich sind sie beide richtig.
  3. Die Website kann in der "Sandbox" von drei Monaten bis zu einem Jahr oder mehr enthalten sein. Es wird beobachtet, dass die Seiten aus der "Sandbox" massiv. Das heißt, die Begriffe "Sandbox" nicht individuell für jeden Standort definiert und für Gruppen (Websites, die im Zeitbereich erstellt wurden, in einer einzigen Gruppe fallen). Der Filter wurde dann zu einer Gruppe entfernt, also eine Gruppe von Websites wird "Sand" unterschiedlichen Zeiten sein.

Wie Sie feststellen, ob eine "Sandbox" Google

Typische Symptome, wenn Sie vermuten, Website:

  1. Ihre Website wird regelmäßig von Suchmaschinen besucht und indiziert durch Google.
  2. Ihre Website wurde PageRank erhalten und Suchmaschine findet und zeigt die korrekte externe Referenz.
  3. Die Suche auf der Website (www.site.com) korrekte Ergebnisse geben, mit dem richtigen Titel, eine Beschreibung der Ressource (Snippet).
  4. Ihre Website für die Suche nach einzigartigen und seltenen Sätze, die in den Text-Seiten enthalten sind.
  5. Ihre Website nicht zeigen, bis auf weitere Forderungen in den ersten tausend Ergebnisse, auch für diejenigen, unter denen sie ursprünglich erstellt wurde. Manchmal gibt es Ausnahmen, und die Webseite wird in der 500 gelegen - 600 Positionen über mehrere Anforderungen, die, natürlich, das Wesen nicht ändert.

Praktisch keine Methode, um den Filter zu umgehen. Es gibt eine Reihe von Annahmen wie getan werden kann. Doch diese Annahme ist nicht mehr als das, für den durchschnittlichen Webmaster kaum akzeptabel, in RuNet den Assistenten ausführen. Die grundlegende Methode - auf der Website (der wichtigste Ort wird noch durch die Quellcode-Page-Optimierung besetzt) ​​arbeiten. Und natürlich - bis zum Filter warten.

Wenn der Filter steigenden Bewertungen von etwa 400 bis 500 Positionen und oben.

Google LocalRank

25. Februar 2003 von Google patentiert einen neuen Algorithmus für das Ranking Seiten, genannt LocalRank. Und es ist auf einer großen Idee, dass die Seiten nicht ordnen Sie sie auf einer globalen Referenz Zitat basiert, und in der Gruppe von Seiten, die thematisch auf die Anfrage verwandt sind, nach dem Zitat.

LocalRank Algorithmus in der Praxis nicht verwendet wird (zumindest in der Form, in der Patentschrift beschrieben), aber die Patente enthalten eine Reihe von tollen Ideen, die jeder lesen sollte Optimierer. Mainstreaming von verweisenden Seiten durch fast jede Suchmaschine verwendet. Obwohl es offenbar zu anderen Algorithmen. Cheats-Source-Suchmaschinen oder Google, Yandex hat keine vorhanden. Nicht nur sie die Grundsätze ihrer Arbeit. Daher wird nur eine gründliche Studie der Patente erlauben die allgemeinen Ideen zu verstehen, wie ihre Arbeit in der Praxis realisiert werden können.

Beim Lesen der Post, im Hinterkopf behalten, gibt es eine theoretische Informationen und ist nicht eine Anleitung zum Handeln in der Praxis.

Die Grundidee des Algorithmus LocalRank durch drei Punkte ausgedrückt:

  1. Mit Hilfe eines Algorithmus, der die erforderliche Anzahl der relevanten Dokumente zu diesem Suchbegriff (bezeichnet durch die Anzahl N) wählt. Zunächst werden diese Dokumente nach den Kriterien (dies kann PageRank, Aktualität oder Auswertung oder eine andere Kriterium il ihre Gruppierung sein) sortiert. Numerische Kriterien Ausdruck bezeichnen, zum Beispiel OldScore.
  2. Jeder der N-up erfolgt Ranking, in dem Ende, von denen jeder einen neuen Rang erhält. Bezeichnet den Rang LocalScore.
  3. Im dritten Schritt wird der Wert LocalScore OldScore und multipliziert, am Ende stellt sich NewScore (neuer Wert), nach denen die endgültige Rangfolge Seiten.

Der Schlüssel für den Algorithmus ist das Verfahren der neuen Reihe, in Folge, von denen jede Seite einen neuen Rang LocalScore zugeordnet ist. Wir beschreiben diesen Prozess im Detail.

0. Mit dem Ranking-Algorithmus, wählen N Seiten, die Ihren Suchkriterien entsprechen. Das neue Ranking-Algorithmus nur N-Seiten. Jede dieser Gruppe ist der Rang OldScore.

1. Für eine Seite in den Berechnungen LocalScore zuteilen alle Seiten von N, die die externen Links auf dieser Seite sind. Die Menge der Seiten M. Bemerkenswert ist, dass in einer Vielzahl von M nicht innerhalb der gleichen Seite Host (Host erfolgt Filterung erfolgt auf der IP-Adresse), sowie Seiten, die Spiegel des Originals fallen.

2. Auf einer Teilmenge von Li Partition der Menge M. In der Untergruppe umfasst Seite Attributen kombiniert werden:

  1. Die Zugehörigkeit zu einer ähnlichen oder den gleichen Host. Beispielsweise Seiten, die die ersten drei Bytes der IP-Adressen identisch sind, in dieselbe Gruppe fallen. Kurz gesagt, die Seiten, IP-Adresse, die auf den Bereich xxx.xxx.xxx.0 gehört - wird xxx.xxx.xxx.255, die zur selben Gruppe gehören.
  2. Seiten, die ähnliche Inhalte oder angemessene haben (Spiegel, Spiegel).
  3. Seiten der gleichen Website (Domain).

3. Jede Seite in der Reihe Li rangiert (OldScore). Von jedem der Sätze durch eine einzige Seite aus, in die der größte OldScore, andere - aus der Betrachtung ausgeschlossen. So stellt sich heraus, eine bestimmte Gruppe von K-Seiten, die Links zu dieser Seite zu stellen.

4. In der Menge der K-Seiten werden nach den Parametern OldScore sortiert, dann in einer Vielzahl von K sind nur die ersten Seiten k (k - bestimmte vorgegebene Anzahl), andere - werden aus der Betrachtung ausgeschlossen.

5. Im fünften Schritt vorwärts LocalScore. Für die restlichen k-Seite fasst ihre Bedeutung OldScore. Dies wird durch die Formel:

Hier m - Parameter angegeben, kann es ein bis drei (leider, die Information in der Patentschrift enthalten auf dem Algorithmus beschrieben, eine detaillierte Beschreibung der Parameter nicht angegeben wird) variieren.

Später, als die Berechnung der LocalScore von N für jede Seite abgeschlossen ist, NewScore die berechneten Werte und Re-sort die Seite nach den neuen Kriterien. Für die Berechnungen NewScore eine Formel verwenden:

NewScore (i) = (a + LocalScore (i) / MaxLS) * (b + OldScore (i) / MaxOS)

i - Seite, für die ein neuer Rang berechnet wird;
a und b - sind die Anzahl (Patente keine vollständige Informationen zu diesen Optionen);
MaxLS - die maximale berechnete Wert LocalScore;
MaxOS - maximale OldScore.

Ich werde versuchen, um weg von Mathematik und wiederholen Sie die oben im Klartext gesagt. :)

In der Anfangsphase einer ausgewählten Anzahl von Seiten, die mit der Abfrage übereinstimmen. Machen Sie es auf Algorithmen, die nicht berücksichtigen Themen von Links (zB generalisierte Link-Popularität und Relevanz).

Nach der Bestimmung der Gruppe von Seiten berechnet jede lokale Linkpopularität werden. Alle Seiten in eine oder andere Weise mit dem Thema der Suchanfrage verbunden und, natürlich, eine ähnliche Art von Thema. Nach der Analyse einer ausgewählten Gruppe von Links Seiten (ohne Berücksichtigung der anderen Seiten im Internet), so erhalten wir eine lokale oder thematische Link-Popularität.

Nach der Verwendung der vorherigen Schritte haben wir Werte OldScore (Seite Rankings auf der Basis von Relevanz, insgesamt Linkpopularität und andere Faktoren) und LocalScore (Rating Seiten thematische Seiten). Auf der Grundlage einer Kombination von zwei Faktoren waren Ranglisten-Seiten und angezeigt Gesamtbewertung.

Zuletzt geändert am: 10/08/2013 um 05:15
Veröffentlichung: Freitag, 2. Januar 2009 um 14:15 Uhr
Wählen Sie die Sprache:

Kommentare: 1

Durchschnittliche bar: 4.96 von 5
  1. SFrolov
    4. Januar 2009 um 02:54

    Sehr informativ. Davor nur der Sandbox gehört, und irgendwie schlich, aber wissen kann nicht schaden. Vielen Dank für das Material.

    Antworten

Haben Sie etwas zu sagen? Schweige nicht!


Ihr Kommentar wird nach moderiert erscheinen.
Spam und off-topic Beiträge werden gelöscht.

Um PHP-Code einzufügen, verwenden Sie den tag:
<pre lang="php"> php-code </ pre>


Ich bin kein Spammer!