Es wird immer wieder behauptet, dass über neunzig Prozent des Internets von niemandem angeschaut werden trotz der mächtigen Suchmaschinen Google, Bing und Yahoo. Es gibt sogar Untersuchungen, die behaupten, dass über 95% der Webseiten im Internet im „dunklen“ liegen. Alle Seiten, die nicht auf der ersten Seite von Google erscheinen – oder sogar nicht unter den top 3 Treffern bei einem gesuchten Stichwort sind – werden von Anwendern nicht gefunden und sind damit irrelevant.
Unter dieser Prämisse ist es ganz natürlich, dass Webseiten, die auch Besucher auf ihrer Seite bekommen wollen möglichst versuchen bei relevanten Stichworten in den gängigen Suchmaschinen weit vorne zu stehen. Die großen sind hier natürlich Google, Bing und Yahoo, wobei Google der unangefochtene Platzhirsch ist.
Kampf zischen Suchmaschinen Optimierer (SEO) und Suchmaschinen Anbieter
Die Suchmaschinenanbieter arbeiten stetig daran die Ergebnisse für ihre Anwender und damit die Suchenden zu verbessern und versuchen qualitativ hochwertigen Inhalt eher hoch in den Ergebnissen zu positionieren (ranken). Das Ranking der eigenen Seite kann auf „legale“ Wege durch qualitativ hochwertigen Inhalt der Seite verbessert werden, oder durch „illegale“ Wege wie übertriebenes Backlinking und Keywordstuffing. Die Suchmaschinenanbieter arbeiten stetig daran gegen diese „unlauteren“ Wege von SEO’s vorzugehen. Während es früher noch relativ leicht war mit unlauteren Mitteln seine Seite hoch zu ranken ist dies heute nicht mehr so einfach.
Das Ranking wird dabei grob zusammengefasst von drei Bereichen beeinflusst.
- Metadaten der Webseite: Technische Metadaten, URLs usw.
- Inhalt auf der Seite: Textmenge und Aufbau, Überschriften, Verlinkungen
- Externe Verweise und Traffic: wie oft und in welchem Kontext wird die Seite verlinkt und wie viele Besucher hat sie
Nun ist es bei Google so, dass Google entschieden hat das Metadatum „Keywords“ nicht mehr zu verwenden, da sich ja eigentlich aus dem Inhalt der Seite die Keywords/Schlüsselbegriffe ergeben. Es wurden in der Vergangenheit viel zu unpräzise Angaben bei den Keywords gemacht oder auch falsche Angaben, um die Suchmaschinen zu überlisten und sein Ranking zu verbessern.
Wie verarbeitet eine Suchmaschine meine Webseite?
Nun gibt es bei Suchmaschinen ein paar Mechanismen, wie sie die Inhalte der Webseiten verarbeiten (vereinfachte Darstellung).
- Crawlen: Aufstöbern von Inhalten, auswerten und bewerten
- Indizieren: In die Indexdatenbank einsortieren, sodass diese bei Suchabfragen gefunden werden können
Wenn eine Webseite gecrawled wurde bedeutet dies noch nicht, dass sie auch im Index steht und bereit ist gefunden zu werden. Diese zwei Schritte laufen unabhängig voneinander ab. Die konkreten Auswirkungen, was dies bedeutet habe ich bei meiner Seite beobachtet. Und zwar hatte ich ca. 20 Seiten auf meinem Blog veröffentlicht. Diese wurden von Bing gecrawled und indiziert. Aber plötzlich sind die indizierten Seiten immer weniger geworden und auf etwa die hälfte reduziert. Das bedeutet einige meiner Seiten sind nicht mehr auffindbar über die Suchmaschine. Aber warum ist das so?
Die folgende Grafik aus den Bing Webmaster Tools zeigt, wie die Seiten (Pages) meiner Webseite im Index von Bing im Laufe eines Monats immer weniger werden.

Was sagt Microsoft zu dem Verhalten des Bing Index?
Ich habe eine Anfrage an den Bing Support geschickt. Ich wollte verstehen warum meine indizierten Seiten plötzlich wieder aus dem Index verschwinden. Folgende Antwort habe ich dazu erhalten:
„Thanks again for contacting Bing Webmaster Support. During my investigation I was able to notice that there are no technical issues linked to the cause of your indexation in Bing. If we take a look at the data our „Reports & Data“ section of our Webmaster Tools you can see some conclusive data showing low ranking signals (such as links, and traffic), and total pages indexed.
As you can see when your site was receiving signals that is when we had the most pages indexed for you in Bing search. As traffic has decreased for your site so has the total pages Indexed. As mentioned before when the popularity of your page increases, more of your pages will be indexed. I want to include some additional resources for you with this communication not provided in the last communication to further assist with this issue.
http://www.bing.com/webmaster/help/why-is-my-site-not-in-the-index-2141dfab
http://blogs.bing.com/webmaster/2014/05/09/10-seo-myths-reviewed
http://blogs.bing.com/webmaster/2014/04/24/is-seo-the-future-no-and-heres-why
http://blogs.bing.com/webmaster/2014/10/17/building-authority-setting-expectations
http://blogs.bing.com/search-quality-insights/2014/12/08/the-role-of-content-quality-in-bing-ranking/
Please let me know if you have any additional concerns about this issue, and I will get back with you as soon as I can.“
Etwas plakativ zusammengefasst verstehe ich darunter: Wenn eine neue Seite nicht bald verlinkt wird, oder hohe Besucherzahlen hat, dann wird sie wieder aus dem Index geworfen und ist somit nicht für neue Besucher auffindbar. Dies wiederum bedeutet im Umkehrschluss, dass erst gar keine hohen Besucherzahlen entstehen können, wenn ich die neue Seite nicht über andere Wege als die Suche bewerbe oder bekannt mache.
Ketzerisch könnte ich nun behaupten: Bei Google habe ich diese Erfahrungen nicht in dem Maße gemacht, wie bei Bing – also könnte eine höhere Besucherquote über Google das Ranking bei Bing nach oben treiben. Hmm, genau so stelle ich mir das vor. :-/
Nachdem ich dies bei Microsoft genau so adressiert habe erhielt ich folgende bestätigende Antwort:
Thanks for giving me an opportunity to provide some additional details here. Our crawlers detect traffic signals in general. These traffic signals can be obtained by submitting your URL to Bing, submitting a sitemap, detecting links to your page from other sources, and clicks. Generally if your site doesn’t generate the traffic we won’t always show all of your pages due to what is considered „relevance“ to users search. Not very often do we see the main page of a website drop out of the index, or „relevant“ pages that receive sufficient traffic signals. I do see your concerns with new pages and relevance, I do notice however that your site does not utilize keyword meta-tags. These are a great way for your site to hint at our crawlers which keywords should be relevant for your site, and can help with ranking for certain keywords. I have included some information below on this meta tag.
<meta name=“keywords“ content=“keyword1, keyword2, keyword3, …“>
This meta tag is used by our crawlers to help determine the context of the page and also help search results determine relevancy. One word of caution – Be sure not to over stuff this meta tag with keywords as that is a violation of the Webmaster Guidlines (See ‚Key Word Stuffing‘ on this page for more information). Once this tag is put in place it will help it to rank with the specified keywords. I hope this helps. Please feel free to respond to this message if you have any additional information or if anything I have mentioned is unclear. I am happy to help!
Thanks,
Bedeutet für mich wieder plakativ zusammengefasst: Generiere so schnell es geht Traffic, sonst fliegt die Seite raus. Und die zweite Erkenntnis für mich ist, dass Bing offensichtlich anders als Google noch mit dem Keywords-Metadatum arbeitet. Nach dem Einführen von Keywords ist die Zahl meiner Indizierten Seiten tatsächlich wieder gestiegen. Dennoch liegt die Zahl der Seiten im Index bei Bing (25) immer noch weit unter der Seitenzahl bei Google (86).
Was habt ihr für Erfahrungen mit Bing gegenüber Google gemacht? Könnt ihr meine Erfahrungen bestätigen, oder habt ihr eine andere Meinung dazu? Schriebt es gerne in die Kommentare.