Monetarisierung von Inhalten

Mit dem letzten Update des Google-Suchalgorithmus hat es einige deutliche Verschiebungen in der natürlichen Suchausgabe gegeben. Immer stärker werden Blogs, die ein eng umrissenes Keyword aber auch drum herum hervorragende Informationen bieten. Offensichtlich hat die semantische (also Web 3.0) Erkennungsfunktion richtig guten Inhalt noch weiter priorisiert, als dies bislang schon der Fall war. Was sind die Auswirkungen für den Markt?

Fachleute, welche hobbymäßig einen Blog betreiben und richtig gute Inhalte einpflegen, freuen sich über mehr Besucher und mehr Interesse. Bitte verstehen Sie Fachleute jetzt nicht zu eng. Es kann sich ebenso um einen Produktmanager oder Entwicklungsingenieur, wie andererseits um eine Hausfrau oder einen Schüler handeln, die besonders leidenschaftlich ein Thema bearbeiten. Hier sind die großen Communities plötzlich ebenfalls sehr gut unterwegs, weil bei ihnen viel und guter Inhalt produziert wird. Leidtragende dürften vor allem Billigwebseiten mit beliebig austauschbaren Inhalten und auch Verlagstitel sein, welche ohne eigene, gründliche Recherche die ähnliche Meldung wie 20 andere abbilden. Die Beliebigkeit ist tödlich für nachrangig gute Platzierungen.

Dabei produzieren Verlage vergleichsweise teuer. Communities wiederum haben idR vergleichsweise dürftige Werbeeinnahmen – kaum ein erfahrener Online Marketer zahlt über 5 EUR für 1.000 Werbeeinblendungen eines Banners auf Social Media und Communities ohne saubere Selektion. Der so genannte TKP, also Tausend Kontakte Preis, bewegt sich nach unten.

Ein guter und für viele Marktteilnehmer richtiger Weg könnte die Einbeziehung von fähigen Blogschreibern in normale Redaktionen sein. Damit erhält man schnell ein sehr fundiertes Gerüst und gut schreiben können viele Menschen auch ohne journalistische Ausbildung. Die Spezialisten ziehen einfach besser – zuerst bei den Suchmaschinen und dann bei den Besuchern, welche Themen gründlich aufbereitet bekommen. Oder ist es nicht eher umgekehrt? Sind die Besucher zufrieden, merkt das natürlich auch Google. Auf gute Inhalte, interessante Artikel folgen längere Besuchszeiten, sie werden von viel mehr Menschen verlinkt und Referenzmeinungen haben einfach mehr Gewicht. In so fern gehen gute Inhalte doppelt konform. Sie werden von Benutzern geschätzt und gleichzeitig von Google hoch bewertet.

Auch würde ich mich von den normalen TKP weg bewegen und eher nach Leads Ausschau halten. Wo sitzen die Firmen, welche Neukunden suchen, wo sind die passenden Benutzergruppen? Diese Mitspieler gezielt zusammen zu führen, bringt oft mehr als ein paar einfache Werbeeinblendungen. Hier sehe ich nicht nur die klassischen Affiliate-Netze, sondern direkte Beziehungen von Werbetreibenden und Inhaltsproduzenten, vielleicht mit auf beratende Vermarktung spezialisierten Agenturen. Womit wir wieder bei den TKP wären. Hier ist in zunehmenden Fällen Adsense als kontextsensitive – also inhaltlich passende – Werbung schlagkräftiger geworden sowie natürlich Leads, seit die TKPs massiv wegbröckeln. Insgesamt wird die Vermarktung gerade bei mittleren Webseiten schwieriger. Neue Wege werden auf persönliche, gezielte Vermarktung spezialisierte Firmen anbieten, die eben nicht nur Banner verkaufen und irgendwo unterbringen.

Cloud Services auf dem Vormarsch

Das deutsche und europäische Cloud-Hosting ist auf dem Vormarsch. Ich hatte dazu ja schon einmal etwas geschrieben, siehe Clouds weg aus den USA. Immer mehr Dienste sind verfügbar, welche auf rein europäischen oder deutschen Plattformen laufen und somit einem Mindestmaß an Datenschutz genügen. Offenbar stellen sich auch gerade verschiedenste deutsche Provider zudem auf, um mit eigenen Lösungen einen Teil des lukrativen Wachstumsmarkts zu bedienen.

Was es alles so an Lösungen mit Internettechnologie gibt, kann man sehr gut auf verschiedenen Webseiten sehen, etwa hier: Clouds. Mittels netzbasierten Systemen ist einfach vieles leichter. Dies gilt insbesondere für die übergreifende Kommunikation zwischen verschiedenen Gerätefamilien, Desktop, Smartphone und Tablet. Bislang musste man für eine einheitliche Datenhaltung oft zwischen verschiedenen Anwendungen wechseln, was Mehrarbeit und eine sehr teure Infrastruktur (Hardware und Programmierung) bedingte. Lässt man alles im Web und bei Clouds laufen, hat man oft einen einheitlichen Zugang zu Informationen und obendrein geringere Kosten bei der Erweiterung von Funktionen. Geschweige, dass diverse Arbeitsschritte komfortabler und effizienter ausfallen können.

Bevor man Clouds nutzt, ist etwas Gedankenarbeit lohnend. Die Aufbau- und Ablauforganisation kann man mit vielen Systemen 1:1 abbilden. Aber warum sollte man nicht gleich ein paar Optimierungen in den Prozessen vornehmen? Hier liegt für mich ein Riesenpotential in vielen Firmen. Auch sind einheitliche Sicherheitssysteme und Regeln für die Nutzung der Clouds nötig – Stichwort Compliance. Wer sich hier einmal die Zeit nimmt, ein vernünftig durchdachtes Konzept zu entwickeln, kann in einem Schritt die sinnvolle oder überflüssige Informationsversorgung organisieren. Mit den heutigen Mitteln der Cloud kann man sehr schöne, strategisch tragfähige und nachhaltige Mechanismen entwickeln, welche nicht nur Informationen schneller zugänglich und die Handhabung unter dem Strich preiswerter machen.

Das geht oft schon in den Bereich Wissensmanagement, berührt natürlich Online Marketing und setzt sich in viele angrenzende Bereiche fort. Ein herrliches Spielfeld für diejenigen, welche Informationsflüsse designen können. Auch etwas anderes darf nicht vernachlässigt werden. Bekannterweise ist Web 3.0 das semantische Web. Wenn man schon aktuelle Technologie hat, kann man doch schnell noch eine fein steuerbare Verknüpfung von Arbeitsabläufen und Firmenwissen schaffen. Die Mitarbeiter erhalten zunächst ihre maßgeschneiderten Informationen, können aber zusätzlich und geräteunabhängig im Bedarfsfall auch benachbarte Themen, Hintergrundinformationen oder auch technische Dokumentationen abrufen……….

Web 3.0 – die Semantik in Google

Das Web 3.0 wird ja von vielen als semantisches Web gedeutet. Gut, es gibt keine offizielle Definition und erst recht kein so großes Interesse wie beim Schlagwort Web 2.0 aber es tut sich gewaltig etwas bei Suchmaschinen. Das Hummingbird-Update von Google favorisiert ganz klar Webseiten, welche ein Thema erzählerisch stimmig und inhaltlich sauber darstellen. Gegenüber reinen Keyword-Wüsten aus der Frühzeit der Suchmaschinenoptimierung zählt immer mehr der leserliche Gesamteindruck einer Webseite.

Sprachliche Varianz ist beim Web 3.0 gefragt und eine saubere Aufarbeitung der Inhalte. Webseiten müssen spätestens ab September 2013 ganz klar für den Menschen gemacht sein und dürfen sich nicht nur an beliebigen, veränderbaren Algorithmen orientieren. Der Weg dorthin führte seit einigen Jahren deutlich erkennbar über das Panda-Update von Google. Hier wurden zum ersten Mal Webseiten von Menschen beurteilt und zum Maßstab der Suchmaschinentechnik gemacht. Was gut lesbar, unterhaltend und informativ war, kam auf die besseren Plätze in der natürlichen Suche. Spätestens mit Hummingbird ist dieser Weg nun bei einem möglichst weiten Entgegenkommen für den Suchenden angelangt.

Google versucht, zu verstehen, was der Nutzer meint. Hierfür liest es den Kontext rund um Schlüsselbegriffe ein und kann sehr wohl unterscheiden, ob es sich um gekünstelte Konstrukte zur Manipulation von Suchergebnissen oder tatsächlich brauchbare Informationen handelt. Als Beispiel sei einmal das Wort „und“ genannt. Früher war dies ein so genanntes Stop-Wort und wurde als nicht bedeutend angesehen. Heute erkennt Google, dass ein inhaltlicher Zusammenhang zwischen zwei Teilen eines Satzes besteht und „schaut“ auf beiden Seiten nach, wie Worte und Ausdrücke korrelieren. Richtig gelesen. Die Semantik des Web 3.0 sucht nach Analogien, nach sich bedingenden Beschreibungen, nach sinnvollen Ergänzungen eines Themas, nach Links und weiterführenden Informationen, welche dem Benutzer ein gutes Resultat liefern.

Das ist bei weitem nicht bei allen Suchmaschinen abgebildet. Viele erkennen nach wie vor viele Links – oft egal, woher – und fast beliebige Textkörper als wichtig. Google hat sich mit der semantischen Erkennung und der Analyse von Bedeutungen sehr weit in den Suchergebnissen von etwa Bing, Yahoo oder Fireball distanziert. Man muss schon entscheiden, wo und wie man am ehesten punkten möchte. In den meisten Fällen wird die höchste Bedeutung beim Marktführer liegen, einfach aufgrund der Marktdominanz von über 90% in Deutschland. Wer bislang nur auf primitive Texte oder viele Links setzte, muss seine Webseiten ändern, wenn man langfristig vorne bei Google mitspielen möchte.

USA hören mit – das Web gefangen von Big Brother

Seien wir mal ehrlich, eigentlich dürfte es niemand überrascht haben, dass die NSA munter Google, Skype, Facebook und zig andere Webdienste anzapft. Schon in den Jahren des kalten Krieges sorgte das Abhörnetz Echelon nicht nur fürs Herumspionieren im Ostblock, sondern zapfte lustig am deutschen Datenverkehr – wie auch dem vieler anderer Staaten.

Mich beunruhigt die Tatsache an sich nicht so – man musste damit rechnen und nicht ohne Grund läuft meine Kommunikation seit langem entweder über eigene Systeme oder die deutscher Provider. Etwas wirklich Wichtiges oder vertrauliche Kundeninfos gehen keinesfalls über soziale Netze. Denen traue ich eh keinen Millimeter über den Weg.

Was mich eher beschäftigt und was ich nicht abschätzen kann, ist eine mögliche Weitergabe von Wirtschaftsdaten. Als offizielle Internetschurken kann man ohne Gewissensbisse China und Russland nennen. Die klauen sich bekannterweise über das Internet alles, was nicht niet- und nagelfest ist. Staatliche Stellen stehlen und stellen Konstruktionspläne oder Verfahren fix der eigenen Wirtschaft zur Verfügung. In wie weit das auch die USA machen, kann ich nicht beurteilen. Für unwahrscheinlich halte ich es nicht, da beispielsweise schon einmal Daten für moderne Windkraftanlagen aus Deutschland irgendwie auf verschlungenen Wegen in den USA aufgetaucht sind. Denkt man zudem an die veröffentlichten Dossiers von Wikileaks, ergibt das sehr schnell ein Bild von ziemlicher Schnüffelei.

Ein offenes Geheimnis ist jedenfalls das Drehtür-Prinzip. Selbst hochrangige Politiker oder Manager wechseln in den USA munter zwischen Industriejobs und Regierung, Behörden und Ministerien. Kann gut sein, dass sich dort einmal Interessen überlagern.

Meine Skepsis gegenüber Obama jedenfalls sehe ich mehr als gerechtfertigt. Es brauchte nicht viel, um in der Öffentlichkeit besser auszusehen als Pannen-Bush, sein Vorgänger. Die Euphorie und den Hype um Obama habe ich in der Form nicht mitgemacht und erst mal zugeguckt, was der denn so treibt und wie er tatsächlich arbeitet. Für mich persönlich war Bush Schulnote 5-, Obama 4-. Also nicht gut.

Bis ich eines Besseren belehrt werde, bleibt das erst mal so. Auch wird für mich bleiben, sehr vorsichtig mit Daten umzugehen. Einigermaßen sicher fühle ich mich nur, wenn entweder ich oder vertrauenswürdige Personen den Finger drauf halten. Vielleicht ist das ja eine Erkenntnis für ein Web 3.0: Trau keinen öffentlichen Netzen oder internationalen Diensten. Gestalte Deinen Kommunikationsfluss 3.0 so, dass nur vertrauenswürdige, im Idealfall eigene, Systeme genutzt werden.

Presseinformationen im Online Marketing

Zum Online Marketing gehören Presseinformationen. Sei es zum Linkaufbau, sei es, um direkt Journalisten oder mögliche Kunden auf seine Webseite zu führen. Die Frage ist nur, wo soll man damit hin? Zunächst einmal ist bei „normalen“ Medien wie Zeitung, Magazin oder TV ein guter Ansprechpartner Pflicht. In den Medien mit genau definierten Branchen und Kundeninteresse kann man auf eine brauchbare Resonanz hoffen. Anders sieht es online aus. Presse funktioniert hier nicht nach dem alten Schema: eine Meldung an den Redakteur, gut ists. Vielmehr erfordert Online PR eine fein differenzierte Strategie von der Kundenansprache bis zur Auswahl der Plattformen. Immer schön im Hinterkopf behalten: Google redet ein gewaltiges Wörtchen mit, wie eine Meldung wirkt. Zudem spricht man nicht nur die „klassischen“ Journalisten an, sondern gleich noch eine Menge Blogbetreiber und Besucher sozialer Plattformen, welche unter Umständen gänzlich andere Bedürfnisse und Vorlieben haben als ein Print-Redakteur.

Natürlich gibt es auch im Web eine Menge Verteiler für die verschiedensten Branchen und Themen. Das kann reichen von allgemeinen Portalen wie Pressebox, Pressehof, OpenPr und zig anderen Systemen bis hin zu spezialisierten Blogs oder auch Communities und Foren in sozialen Netzen. Wer jetzt glaubt, hier ohne viel Recherche seine Presseinfos sinnvoll unterzubringen, irrt. Zunächst einmal ist zu checken, was denn online überhaupt mit den Pressemedlungen passiert. Werden sie etwa x-mal in genau dem gleichen Wortlaut auf anderen Servern repliziert? Was taugen die Portale an sich, wie seriös werden sie wahrscheinlich von Google angesehen? Sind dort wahrscheinlich interessierte Journalisten oder Blogbetreiber unterwegs, welche die eigene Info übernehmen, weil sie als relevant erachtet wird? Man sieht schon: Pressearbeit in einem Web 3.0 hat deutlich komplexere Züge.

Wer sich einfach nur auf zig Portalen mit dem gleichen Text einträgt, läuft in eine doppelte Falle. Google mag genau so wenig doppelten Inhalt, wie Journalisten eine schlechte Pressemitteilung als relevant erachten. Man könnte wichtige Blogger übersehen und in Communities daneben liegen. Und wenn das Portal aus irgendwelchen Gründen eine Strafe von Google kassiert hat, ist eine dort veröffentlichte Pressemitteilung sogar ggf. kontraproduktiv – so etwas schadet direkt auch der eigenen Seriosität.

Besser ist es, genau passenden Inhalt in der Presseinformation abzubilden. Passend für einen allgemeinen Verteiler, passend für interessierte Blogbetreiber, passend für den persönlich bekannten Redakteur der Zeitschrift und auch passend für die anvisierte Gruppe möglicher Kunden in sozialen Netzen. Das ist um ein Vielfaches aufwändiger als in den klassischen Medien – die Meldung und die Inforamtionen sind ggf. jeweils getrennt zu erstellen. Sprachlich und von der Technologie her muss es genau auf die Zielgruppe und deren Interessen ausgerichtet sein. Und, nicht vergessen, die Pressemitteilung sollte natürlich auch trotz der technischen Gesichtspunkte lesenswert sein sowie einen vernünftigen Informationswert enthalten. Mit beliebigem Gerede geht man gerade online sonst gnadenlos unter.