In der Frühzeit des Netzes – also vor zehn bis 15 Jahren – gab es erst Yahoo, dann AltaVista und schließlich ein kleines StartUp namens Google mit einem revolutionären Algorithmus. Dieser war so erfolgreich, dass das Thema Suche bis vor nicht allzu langer Zeit zu einer Monokultur zu werden drohte: Hochprofitabel für wenige, alle anderen in der einen oder anderen Form belastend.

Von den bekannten Problemen dieser Monokultur möchte ich hier nur die wichtigsten ansprechen: Viele Webseiten werden überhaupt nicht oder nur mit deutlicher zeitlicher Verzögerung indiziert. Dies führt vor allem dazu, dass neue Websites – unabhängig von ihrer Relevanz – im Netz praktisch unsichtbar sind, es sei denn, ein Budget für Search-Engine-Marketing steht zur Verfügung. Letztlich ist es Google, das entscheidet, was relevant ist und mit Traffic belohnt wird; es grenzt somit an eine Self-fulfilling Prophecy. Die ursprüngliche Idee, dass man Relevanz durch einen unbestechlichen Algorithmus definieren kann, wird zunehmend ad adsurdum geführt, denn manuelles Nacharbeiten ist mittlerweile auch bei Google nicht mehr unüblich. Niemand kann den Effekt von SEO-Maßnahmen vorhersagen, dieser ist praktischerweise Google-gegeben. Der Google-Algorithmus ist nicht transparent und nährt daher den SEO-Stand sehr gut. Denn auf der anderen Seite sind die Kosten für das SEO-Voodoo und die Google-Spin-Doctors sehr genau zu ermitteln und in der Regel horrend. Last but not least: Für eine Echtzeitsuche ist Google konzeptionell nicht eingerichtet: Googles Ideal ist die Vollindizierung aller Webseiten, nicht jedoch die Fokussierung auf einen steten Informationsfluß, wie er von Social Media-Sites erzeugt wird.

Es ist also nicht überraschend, dass wir in letzter Zeit nicht nur den schleichenden Niedergang der traditionellen Google-Rivalen Yahoo Search und Microsoft Live-Search beobachten konnten. Es gibt darüber hinaus mindestens zwei neue, interessante Entwicklungsströmungen für Suchmaschinen:

(1) Struktur in den Datenwust und den resultierenden Informationsüberfluß aus dem Netz zu bringen. Bekannteste Vertreter sind in dieser Sparte sind: Wolfram AlphaGoogle Squared und Microsoft Bing.

(2) Echtzeitsuche – oder neudeutsch „Real-time Search“ – in Informationsflüssen der Social Media-Sites, insbesondere jedoch bei Twitter darzustellen, was jetzt oder in den letzten Stunden oder Tagen diskutiert worden und somit aktuell ist bzw. war.

Was macht Twitter nun zu einer universellen Quelle für Echtzeitinformation? Mehrerlei: Twitter ist ein ideales Medium für das kontinuierliche, themenspezifische (Mit-)Teilen von Information. Der Mangel an Platz erfordert die Kommunikation des Wesentlichen in maximal 140 Zeichen – kein Platz für suchmaschinenoptimiertes, keywordfokussiertes Geschwafel, sondern ein Wiederbeleben des Faß-Dich-kurz in Zeiten des Überflusses. Dennoch können Tweets über das Einbinden von URLs mit Content auf einer zusätzlichen Ebene in Verbindung gebracht werden. Twitter beginnt somit, die RSS-Feeds abzulösen. Mehr noch: Retweets ermöglichen eine virale Verbreitung von Neuigkeiten und Informationen: Es ist die technische Grundlage für das Informationsverhalten „if the news is that important, it will find me.“

Letzterer Punkt ist von besonderer Bedeutung: Jeff Jarvis nennt dieses Phänomen “peer replace editor”. Es ist in anderen Worten ein sozialer Filter: Neuigkeiten aus von mir geschätzten Quellen erhalten eine höhere Bedeutung, ein besseres Ranking, als andere. Die heutige Twitter-Suche ermöglicht nur bedingt, die Gesamtheit aller Informationen auf Twitter einem derart geänderten Informationsverhalten – auch als Social Search bekannt – auf Seiten der Nutzer zugänglich zu machen. Deren Suchergebnisse sind heute eine chronologische Auflistung von Tweets der letzten 28 Tage zu den Suchbegriffen:

Über die Advanced Search lassen sich Verfeinerungen berücksichtigen, so zum Beispiel über:

  • Logische Operatoren für Suchbegriffe
  • Twitterer
  • Orte
  • Daten
  • Attitudes (Smileys, Fragen)
  • Das Vorhandensein von Links.

Man erkennt auf den ersten Blick, dass dieses System nicht nur für Manipulationen anfällig ist, sondern auch noch ernsthafte Beschränkungen hat, die den Alltagsnutzen stark einschränken. Wie ließe sich aber nun die heutige Twitter-Suche so verändern, dass ihr Nutzen sich erhöht? Vor allem durch Berücksichtigung von zwei Aspekten: Inhaltlicher Relevanz und Reputation bzw. „Authority“ des Twitterers.

(3) Inhaltliche Relevanz:

Wie bereits zuvor skizziert, fördert das erzwungene Maßhalten durch die Beschränkung der Tweetlänge die Fokussierung auf das Wesentliche. Und dieses läßt sich in Hinblick auf die themenspezifische Relevanz nutzen. Passende Maßnahmen wären zum Beispiel:

Eine inhaltliche Analyse der dem Tweet beigefügten Links. Dies erforderte eine Auflösung der Links und Indizierung des verlinkten Contents. Laut Santosh Jayaram, Twitters Vice President (VP) of Operations und ehemaliger Manager des Google Search Quality Teams, wird Twitter dies in absehbarer Zeit tun. Interessante Artikel dazu gibt es bei cnet News und bei TechCrunch. Unterstützt wird diese Aussage dadurch, dass bit.ly zeitgleich neuer Twitter-URL-Verkürzungsdienst geworden ist und sich Ende März 2009 eine Finanzierungsrunde über zwei Millionen US-Dollar von prominenten Investoren – darunter O’Reilly Alpha Tech Fund und Mitch Kapor – sichern konnte.

Die Identifizierung relevanter Content-Sourcen seitens Twitter. Eine Verlinkung auf Mashable ist zum Beispiel für Social Media-Themen oftmals relevanter als eine solche auf SPIEGEL ONLINE, da letztere in der Regel Content von Primärquellen wie Mashable verwendet, aber selbst keine relevant erstmalig veröffentlicht.

Ich würde auch dafür plädieren, einem Twitterer einen Bonus in folgenden Fällen zu gewähren: Für die „Verlinkung“ von zueinander gehörendem Content, zum Beispiel durch zwei relevante Links in einem themenspezifischen Tweet. Und für die erstmalige Identifikation von relevantem Content: Der 63. Tweet eines Blog-Posting ist thematisch weniger relevant, als dessen erste Verbreitung. Derartige Boni überschnitten sich dann auch mit dem Bereich Reputation:

(4) Reputation oder „Authority“ des Twitterers:

Technisch bedingt kann es bei Twitter keinen „Pagerank“ geben – um einmal in Google-Speech zu verweilen. Stattdessen scheint sich jedoch die Retweet-Häufigkeit als entsprechende Währung zu etablieren. Was gibt es aber noch, jenseits der RT-Häufigkeit? Es gibt heute bereits verschiedene Werkzeuge, um das Wirken eines Twitterers zu analysieren, zum Beispiel Twitalyzer (siehe Abbildung) oder Twinfluence.com.

Typische Kriterien für die Einstufung eines Twitterers sind aktuell zum Beispiel:

  • Häufigkeit des Tweetens,
  • RT-Quote, das heißt wie häufig werden dessen Tweets von anderen retweetet,
  • Conversations, also wie oft interagiert ein Twitterer mit anderen aus der Community via @Replies,
  • Generosity: Retweetet eine Twitterer auch Tweets von anderen?
  • Anzahl der 2nd-Level-Follower etc.

Eine erste Echtzeitsuche, welche die Reputation bzw. die „Authority“ ebenfalls berücksichtigt, ist das letzte Woche gestartet Topsy (siehe auch hier für Infos):

Neben den Vorteilen sind die Probleme in Sachen Reputation und „Authority“ ebenfalls offensichtlich: Viele Kriterien lassen sich manipulieren und dies teilweise auf eine komplexe Art, die nur schwer zu identifizieren ist. Idealerweise sollten diese Manipulationsversuche bei der Bestimmung der Reputation keine Berücksichtigung finden, sondern einen Malus bewirken. Was gilt es also zu verhindern? Hierzu eine Auswahl meiner Favoriten, die unabhängig von dem Aufwand ihrer technischen Gegenmaßnahmen betrachtet werden sollten:

Neben organisch gewachsenen Twitter-Profilen, gibt es auch solche auf Steroiden, die herausgefiltert werden sollten, um Reputations-Verfälschungen auszuschließen. Hier unterscheidet sich die Echtzeitsuche in keiner Weise von Google. Merkmale, die zu einer Herabstufung der Reputation führen sollten, wären zum Beispiel: Autofollow - Wer Dienste wie Socialtoo nutzt, möchte in erster Line Follower sammeln und verdient einen Abzug. Ebenso solche, die ausnahmslose die Reziprozitätsregel oder “Folgst Du mir, folge ich Dir” anwenden:

Wer in regelmäßigem Rhythmus in Massen anderen folgt und die nicht Zurückfolgenden gleich wieder entfollowt. Ggf. könnte auch eine Diversität unter den Followern – auf Basis von deren eigener Reputation – als Negativkriterium herangezogen werden. Meine Vermutung ist, dass jemand, der ernsthaft twittert und ein organisch gewachsenes Netzwerk hat, unbewußt ein bestimmtes statistisches Muster erzeugt – gleich und gleich gesellt sich eben gern.

Dann gibt es noch die Bot-Problematik zu berücksichtigen, da Twitter über die API für Maschinenwesen praktisch frei zugänglich ist. Twitter wird von Content-Bots bevölkert, die de facto spammen, indem sie zum Beispiel bestimmte RSS-Feeds auslesen, diese neu verpacken und dann tweeten. Es soltle keine Reputation für Maschinen geben. Daneben existieren auch diverse Retweet-Bots, die von der Reputationsmessung ausgeschlossen werden müssen. Ein Beispiel hier. Ich habe manchmal den Eindruck, es gibt bereits RT-Botnetze à la ebay-Bewertungsnetze in dessen Anfängen. Wenn nicht, dann kommen sie sicherlich noch.

Wie hoch ist der Gesprächsanteil eines Twitterers? Schreibt dieser auch Direct Messages? Wenn nicht, ist dies abträglich. Dies gilt auch für Auto-Direct-Messaging-Befürworter, welche das Messaging mittlerweile fast unnutzbar machen. Oder kommuniziert der Twitterer nur über @Replies? Das deutet auf wahlloses Ansprechen hin; ggf. ist eine solche Person ein Troll wie aus Foren und Communities bekannt. Und es gilt die alte Regel: Don’t feed the troll – und sicherlich nicht über Reputation. Ergeben sich in den Gesprächen richtige Threads, weil die Reply-Optionen genutzt werden? Wenn nicht, siehe oben.

Die „Unredlichkeit“ – unerwünscht jedoch nur schwer zu erkennen: Zum Beispiel Twitterer, die ausschließlich RSS-Feeds und Google-Alerts zu (diversen) Einzelthemen weitergeben, quasi humanoide Content-Bots. Es gibt auch Twitterer, welche die Weitergabe von fremden Tweets unter eigenem Label vornehmen und nicht als Retweet kennzeichnen. Dies verstößt unter anderem auch gegen die Nutzungsbestimmungen von Twitter.

Ein weiteres Thema in diesem Feld ist der #Followfriday. Ursprünglich eine gute Idee, die mittlerweile inflationäre Ausmaße annimmt und das Signal im Rauschen ertränkt. Hier würde sich eine genauere Analyse empfehlen: Wer empfiehlt wen wie häufig? Wie verhält es sich mit der Reziprozität? Empfiehlt A Twitterer B nur deswegen, weil B zu vor Twitterer A empfohlen hat? Retweets von #Followfriday-Empfehlungen sollten generell mit einem Malus bedacht werden. Betreibt jemand #Followfriday-Spam, zum Beispiel mittels automatisch generierten Vorschlägen? Man kann seriöserweise kaum mehr als vier bis acht Empfehlungen pro Freitag machen und dies ist bereits richtig fordernd. Manche sprechen #Followfriday-Empfehlungen für Twitterer aus, denen sie selbst nicht folgen. Wer heute schon einmal etwas genauer die #Followfriday-Empfehlungen unter die Lupe nehmen möchte, dem sei Top Follow Friday empfohlen:

Dieser kurze Überblick sollte verdeutlichen, dass Echtzeitsuche kein triviales Unterfangen ist, sondern einen enormen technischen Aufwand nach sich zieht – selbst wenn man wie Twitter an der Quelle sitzt. Bisher gibt es keine Äußerungen seitens Twitter, wie sich künftig die Reputation eines Twitterers darstellen wird. Und so lange ist Spekulieren erlaubt, hoffentlich auch in den Kommentaren zu diesem Beitrag!

Fazit:

Die Echtzeitsuche ist nicht nur ein ausgesprochen interessantes Thema, sondern wir erleben derzeit quasi live, wie die Karten auf dem Markt der Suche neu gemischt werden. Googles Position ist meines Erachtens bei weitem nicht so gefestigt, wie es den Anschein erweckt. Und je stärker sich Tendenzen im Nutzerverhalten – wie zum Beispiel die Echtzeitsuche auf Social Media-Sites im Allgemeinen und Twitter im Besonderen (Social Search) – verfestigen, desto mehr werden sich die Etablierten am Markt einfallen lassen müssen. Und dies vermutlich schneller als gedacht: Die Anzahl der Unique Visits der Subdomain Search.twitter.com hat sich von Oktober 2008 bis April 2009 mit 2,7 Mio. mehr als vervierfacht. Vielleicht verstehen einige nun, die das Fehlen eines Erlösmodells für Twitter als seinen größten Mangel ansehen und Twitter deswegen eine Zukunft absprechen, weswegen Twitters VCs so unendlich viel Geduld haben: The next Big Thing?

Über den Autor:

Stefan Wolpers, bloggt und twittert für susuh.de, einem Marktplatz für Dienstleistungen. Daneben macht er unter stefans-eisrezepte.de Eiscreme selbst und veröffentlicht die Rezepte für andere Nutzer.

Stefan ist Initiator des @Twittwochs – einem Tweetup für Menschen, die sich beruflich mit Social Media im Allgemeinen und Twitter bzw. Microblogging im Besonderen beschäftigen. Mittlerweile ist der Twittwoch bereits in Köln, Hamburg, München und Berlin etabliert.

Auswahl von Suchmaschinen:

Topsy
Twazzup
Tweefind
Twitalyzer Search
PicFog (Bilder)
Twitmatic (Videos)

GD Star Rating
loading...
Alle Bilder in diesem Artikel unterliegen der Creative-Commons-Lizenz (Namensnennung-Keine Bearbeitung, CC BY-ND; Link zum rechtsverbindlichen Lizenzvertrag). Ausgenommen sind anders gekennzeichnete Bilder unter anderem von Panthermedia, Fotolia, Pixelio, Morguefile sowie Pressefotos oder verlagseigenes Bildmaterial.