Monetarisierung von Inhalten

Mit dem letzten Update des Google-Suchalgorithmus hat es einige deutliche Verschiebungen in der natürlichen Suchausgabe gegeben. Immer stärker werden Blogs, die ein eng umrissenes Keyword aber auch drum herum hervorragende Informationen bieten. Offensichtlich hat die semantische (also Web 3.0) Erkennungsfunktion richtig guten Inhalt noch weiter priorisiert, als dies bislang schon der Fall war. Was sind die Auswirkungen für den Markt?

Fachleute, welche hobbymäßig einen Blog betreiben und richtig gute Inhalte einpflegen, freuen sich über mehr Besucher und mehr Interesse. Bitte verstehen Sie Fachleute jetzt nicht zu eng. Es kann sich ebenso um einen Produktmanager oder Entwicklungsingenieur, wie andererseits um eine Hausfrau oder einen Schüler handeln, die besonders leidenschaftlich ein Thema bearbeiten. Hier sind die großen Communities plötzlich ebenfalls sehr gut unterwegs, weil bei ihnen viel und guter Inhalt produziert wird. Leidtragende dürften vor allem Billigwebseiten mit beliebig austauschbaren Inhalten und auch Verlagstitel sein, welche ohne eigene, gründliche Recherche die ähnliche Meldung wie 20 andere abbilden. Die Beliebigkeit ist tödlich für nachrangig gute Platzierungen.

Dabei produzieren Verlage vergleichsweise teuer. Communities wiederum haben idR vergleichsweise dürftige Werbeeinnahmen – kaum ein erfahrener Online Marketer zahlt über 5 EUR für 1.000 Werbeeinblendungen eines Banners auf Social Media und Communities ohne saubere Selektion. Der so genannte TKP, also Tausend Kontakte Preis, bewegt sich nach unten.

Ein guter und für viele Marktteilnehmer richtiger Weg könnte die Einbeziehung von fähigen Blogschreibern in normale Redaktionen sein. Damit erhält man schnell ein sehr fundiertes Gerüst und gut schreiben können viele Menschen auch ohne journalistische Ausbildung. Die Spezialisten ziehen einfach besser – zuerst bei den Suchmaschinen und dann bei den Besuchern, welche Themen gründlich aufbereitet bekommen. Oder ist es nicht eher umgekehrt? Sind die Besucher zufrieden, merkt das natürlich auch Google. Auf gute Inhalte, interessante Artikel folgen längere Besuchszeiten, sie werden von viel mehr Menschen verlinkt und Referenzmeinungen haben einfach mehr Gewicht. In so fern gehen gute Inhalte doppelt konform. Sie werden von Benutzern geschätzt und gleichzeitig von Google hoch bewertet.

Auch würde ich mich von den normalen TKP weg bewegen und eher nach Leads Ausschau halten. Wo sitzen die Firmen, welche Neukunden suchen, wo sind die passenden Benutzergruppen? Diese Mitspieler gezielt zusammen zu führen, bringt oft mehr als ein paar einfache Werbeeinblendungen. Hier sehe ich nicht nur die klassischen Affiliate-Netze, sondern direkte Beziehungen von Werbetreibenden und Inhaltsproduzenten, vielleicht mit auf beratende Vermarktung spezialisierten Agenturen. Womit wir wieder bei den TKP wären. Hier ist in zunehmenden Fällen Adsense als kontextsensitive – also inhaltlich passende – Werbung schlagkräftiger geworden sowie natürlich Leads, seit die TKPs massiv wegbröckeln. Insgesamt wird die Vermarktung gerade bei mittleren Webseiten schwieriger. Neue Wege werden auf persönliche, gezielte Vermarktung spezialisierte Firmen anbieten, die eben nicht nur Banner verkaufen und irgendwo unterbringen.

Cloud Services auf dem Vormarsch

Das deutsche und europäische Cloud-Hosting ist auf dem Vormarsch. Ich hatte dazu ja schon einmal etwas geschrieben, siehe Clouds weg aus den USA. Immer mehr Dienste sind verfügbar, welche auf rein europäischen oder deutschen Plattformen laufen und somit einem Mindestmaß an Datenschutz genügen. Offenbar stellen sich auch gerade verschiedenste deutsche Provider zudem auf, um mit eigenen Lösungen einen Teil des lukrativen Wachstumsmarkts zu bedienen.

Was es alles so an Lösungen mit Internettechnologie gibt, kann man sehr gut auf verschiedenen Webseiten sehen, etwa hier: Clouds. Mittels netzbasierten Systemen ist einfach vieles leichter. Dies gilt insbesondere für die übergreifende Kommunikation zwischen verschiedenen Gerätefamilien, Desktop, Smartphone und Tablet. Bislang musste man für eine einheitliche Datenhaltung oft zwischen verschiedenen Anwendungen wechseln, was Mehrarbeit und eine sehr teure Infrastruktur (Hardware und Programmierung) bedingte. Lässt man alles im Web und bei Clouds laufen, hat man oft einen einheitlichen Zugang zu Informationen und obendrein geringere Kosten bei der Erweiterung von Funktionen. Geschweige, dass diverse Arbeitsschritte komfortabler und effizienter ausfallen können.

Bevor man Clouds nutzt, ist etwas Gedankenarbeit lohnend. Die Aufbau- und Ablauforganisation kann man mit vielen Systemen 1:1 abbilden. Aber warum sollte man nicht gleich ein paar Optimierungen in den Prozessen vornehmen? Hier liegt für mich ein Riesenpotential in vielen Firmen. Auch sind einheitliche Sicherheitssysteme und Regeln für die Nutzung der Clouds nötig – Stichwort Compliance. Wer sich hier einmal die Zeit nimmt, ein vernünftig durchdachtes Konzept zu entwickeln, kann in einem Schritt die sinnvolle oder überflüssige Informationsversorgung organisieren. Mit den heutigen Mitteln der Cloud kann man sehr schöne, strategisch tragfähige und nachhaltige Mechanismen entwickeln, welche nicht nur Informationen schneller zugänglich und die Handhabung unter dem Strich preiswerter machen.

Das geht oft schon in den Bereich Wissensmanagement, berührt natürlich Online Marketing und setzt sich in viele angrenzende Bereiche fort. Ein herrliches Spielfeld für diejenigen, welche Informationsflüsse designen können. Auch etwas anderes darf nicht vernachlässigt werden. Bekannterweise ist Web 3.0 das semantische Web. Wenn man schon aktuelle Technologie hat, kann man doch schnell noch eine fein steuerbare Verknüpfung von Arbeitsabläufen und Firmenwissen schaffen. Die Mitarbeiter erhalten zunächst ihre maßgeschneiderten Informationen, können aber zusätzlich und geräteunabhängig im Bedarfsfall auch benachbarte Themen, Hintergrundinformationen oder auch technische Dokumentationen abrufen……….

Web 3.0 – die Semantik in Google

Das Web 3.0 wird ja von vielen als semantisches Web gedeutet. Gut, es gibt keine offizielle Definition und erst recht kein so großes Interesse wie beim Schlagwort Web 2.0 aber es tut sich gewaltig etwas bei Suchmaschinen. Das Hummingbird-Update von Google favorisiert ganz klar Webseiten, welche ein Thema erzählerisch stimmig und inhaltlich sauber darstellen. Gegenüber reinen Keyword-Wüsten aus der Frühzeit der Suchmaschinenoptimierung zählt immer mehr der leserliche Gesamteindruck einer Webseite.

Sprachliche Varianz ist beim Web 3.0 gefragt und eine saubere Aufarbeitung der Inhalte. Webseiten müssen spätestens ab September 2013 ganz klar für den Menschen gemacht sein und dürfen sich nicht nur an beliebigen, veränderbaren Algorithmen orientieren. Der Weg dorthin führte seit einigen Jahren deutlich erkennbar über das Panda-Update von Google. Hier wurden zum ersten Mal Webseiten von Menschen beurteilt und zum Maßstab der Suchmaschinentechnik gemacht. Was gut lesbar, unterhaltend und informativ war, kam auf die besseren Plätze in der natürlichen Suche. Spätestens mit Hummingbird ist dieser Weg nun bei einem möglichst weiten Entgegenkommen für den Suchenden angelangt.

Google versucht, zu verstehen, was der Nutzer meint. Hierfür liest es den Kontext rund um Schlüsselbegriffe ein und kann sehr wohl unterscheiden, ob es sich um gekünstelte Konstrukte zur Manipulation von Suchergebnissen oder tatsächlich brauchbare Informationen handelt. Als Beispiel sei einmal das Wort „und“ genannt. Früher war dies ein so genanntes Stop-Wort und wurde als nicht bedeutend angesehen. Heute erkennt Google, dass ein inhaltlicher Zusammenhang zwischen zwei Teilen eines Satzes besteht und „schaut“ auf beiden Seiten nach, wie Worte und Ausdrücke korrelieren. Richtig gelesen. Die Semantik des Web 3.0 sucht nach Analogien, nach sich bedingenden Beschreibungen, nach sinnvollen Ergänzungen eines Themas, nach Links und weiterführenden Informationen, welche dem Benutzer ein gutes Resultat liefern.

Das ist bei weitem nicht bei allen Suchmaschinen abgebildet. Viele erkennen nach wie vor viele Links – oft egal, woher – und fast beliebige Textkörper als wichtig. Google hat sich mit der semantischen Erkennung und der Analyse von Bedeutungen sehr weit in den Suchergebnissen von etwa Bing, Yahoo oder Fireball distanziert. Man muss schon entscheiden, wo und wie man am ehesten punkten möchte. In den meisten Fällen wird die höchste Bedeutung beim Marktführer liegen, einfach aufgrund der Marktdominanz von über 90% in Deutschland. Wer bislang nur auf primitive Texte oder viele Links setzte, muss seine Webseiten ändern, wenn man langfristig vorne bei Google mitspielen möchte.

USA hören mit – das Web gefangen von Big Brother

Seien wir mal ehrlich, eigentlich dürfte es niemand überrascht haben, dass die NSA munter Google, Skype, Facebook und zig andere Webdienste anzapft. Schon in den Jahren des kalten Krieges sorgte das Abhörnetz Echelon nicht nur fürs Herumspionieren im Ostblock, sondern zapfte lustig am deutschen Datenverkehr – wie auch dem vieler anderer Staaten.

Mich beunruhigt die Tatsache an sich nicht so – man musste damit rechnen und nicht ohne Grund läuft meine Kommunikation seit langem entweder über eigene Systeme oder die deutscher Provider. Etwas wirklich Wichtiges oder vertrauliche Kundeninfos gehen keinesfalls über soziale Netze. Denen traue ich eh keinen Millimeter über den Weg.

Was mich eher beschäftigt und was ich nicht abschätzen kann, ist eine mögliche Weitergabe von Wirtschaftsdaten. Als offizielle Internetschurken kann man ohne Gewissensbisse China und Russland nennen. Die klauen sich bekannterweise über das Internet alles, was nicht niet- und nagelfest ist. Staatliche Stellen stehlen und stellen Konstruktionspläne oder Verfahren fix der eigenen Wirtschaft zur Verfügung. In wie weit das auch die USA machen, kann ich nicht beurteilen. Für unwahrscheinlich halte ich es nicht, da beispielsweise schon einmal Daten für moderne Windkraftanlagen aus Deutschland irgendwie auf verschlungenen Wegen in den USA aufgetaucht sind. Denkt man zudem an die veröffentlichten Dossiers von Wikileaks, ergibt das sehr schnell ein Bild von ziemlicher Schnüffelei.

Ein offenes Geheimnis ist jedenfalls das Drehtür-Prinzip. Selbst hochrangige Politiker oder Manager wechseln in den USA munter zwischen Industriejobs und Regierung, Behörden und Ministerien. Kann gut sein, dass sich dort einmal Interessen überlagern.

Meine Skepsis gegenüber Obama jedenfalls sehe ich mehr als gerechtfertigt. Es brauchte nicht viel, um in der Öffentlichkeit besser auszusehen als Pannen-Bush, sein Vorgänger. Die Euphorie und den Hype um Obama habe ich in der Form nicht mitgemacht und erst mal zugeguckt, was der denn so treibt und wie er tatsächlich arbeitet. Für mich persönlich war Bush Schulnote 5-, Obama 4-. Also nicht gut.

Bis ich eines Besseren belehrt werde, bleibt das erst mal so. Auch wird für mich bleiben, sehr vorsichtig mit Daten umzugehen. Einigermaßen sicher fühle ich mich nur, wenn entweder ich oder vertrauenswürdige Personen den Finger drauf halten. Vielleicht ist das ja eine Erkenntnis für ein Web 3.0: Trau keinen öffentlichen Netzen oder internationalen Diensten. Gestalte Deinen Kommunikationsfluss 3.0 so, dass nur vertrauenswürdige, im Idealfall eigene, Systeme genutzt werden.

Google+ zieht weiter an

Vor einiger Zeit habe ich ja schon mal drauf hingewiesen: Bei Google+ tut sich einiges. Vor allem im Profibereich räumt es zunehmend besser ab, was ganz klar zu Lasten von Facebook gehen dürfte. Entsprechend kann ich fürs Online Marketing nur nochmals empfehlen, sich auch schnell einen Account zu besorgen und mit der Firma dort präsent zu sein.

Die Kernfrage bleibt allerdings, ob Google+ eine kritische Masse erreicht, ab der es ein Selbstläufer wird…..

Als die Communities freigeschaltet wurden, habe ich mir schnell einige besorgt. Nicht, dass die übermäßig Besucher anziehen (sollen!) – das wäre ja wieder unbezahlte Mehrarbeit hoch drei. Aber man kann sich schnell und einfach ein hübsches Aushängeschild verschaffen, mit dem man arbeiten kann und das sich wahrscheinlich auch auf die Positionen in Suchmaschinen auswirkt. Immerhin gibt es auch so etwas wie Authorität von Schreibern und die dürfte für Google doch deutlich einfacher zu messen sein, als es bspw. bei Facebook der Fall ist.

Apropos Communities. Manchmal komme ich mir vor, wie ein Wahrsager des Web 3.0. Vor einiger Zeit hatte ich geschrieben, dass die ganzen Standard-Plattfomen gegenüber hoch spezialisierten Communities verlieren. Ist prompt so eingetroffen. Das ganz normale Per-Script-auf-Hosting-Forum hängt in vielen Fällen Facebook und Co. wieder ab. Logisch, erstens kassieren die Betreiber und nicht nicht die Plattform die Werbeeinnahmen. Zweitens haben die Betreiber eine gute Kontrolle über die Kommunikationssteuerung und können zielgerichtet Störenfriede und peinliche Werbeversuche kicken. Das hebt deutlich die Qualität der Gespräche und sorgt für eine bedeutend flüssigere und angenehmere Unterhaltung.