Wann immer ich in den letzten Jahren auf KI-Konferenzen gewesen bin, kam früher oder später die Sprache unweigerlich auf Business Intelligence und Big Data. Doch wie passt das zusammen? Wo sind Überschneidungen und auf welche Veränderungen müssen wir uns einstellen? Wir waren uns immer einig, dass Big Data für alle Geschäftsprozesse ein heißes Thema ist. Deswegen möchte ich hier die wichtigsten Entwicklungen kurz nachzeichnen.
Die Geschäftsanalyse mit einer Strategic Intelligence-Software ermöglicht die Verbindung von Warenwirtschaft, Customer-Relationship-Management und weiteren Daten in elektronischer Form. Für eine Vielzahl von Fragestellungen liefert mir ein BI-Tool rückblickende Informationen und eine endliche Menge an Diagrammen bzw. Antworten.
Business Intelligence eignet sich aus diesem Grund vor allem zur Beschreibung von Kundengruppen, Durchschnittswerten oder einfachen linearen Zusammenhängen.
Im Gegensatz zum Zugriff auf Kennzahlen beschreibt Big Data viel mehr eine besondere Notwendigkeit im Umgang mit komplexen und dynamischen Datenmengen. Um diese Datenströme effizient auszulesen und zu explorieren, reichen klassische Datenbanktechnologien und einfache Regressionsmodelle nicht mehr aus. Solche Daten werden mit Big Data Analytics und Machine Learning-Methoden näher untersucht, um verborgene Zusammenhänge und Muster zu erkennen.
Mit BI-Tools bekomme ich also eine rein deskriptive Zusammenfassung der aktuellen Situation bzw. Vergangenheitsdaten. Ich erhalte damit Antworten auf die Frage nach dem „Was“. Sobald ich aus diesem Datenrauschen Vorhersagen und Zusammenhänge extrahieren und diese automatisch interpretieren möchte, ist klassisches „BI“ unzureichend. Die Frage nach dem „Warum“ und mögliche Handlungsableitungen aus diesen Erkenntnissen bleibt beim BI außen vor.
Im KI-Zeitalter werden BI-Ansätze um die essentielle Frage nach dem „Warum“ ergänzt. Beschreibende Business Intelligence-Informationen werden mit dem maschinenbasierten „Schürfen“ nach verborgenen Erkenntnissen erweitert. Neu erkannte Zusammenhänge unterstützen mich somit deutlich effektiver bei der Suche nach Optimierungspotentialen in meiner gesamten Wertschöpfung oder Wettbewerbsvorteilen am Markt.
Advanced Analytics-Methoden und Maschinelles Lernen helfen mir also zeitsparend, das „Wie“ und „Warum“ in meinen Daten besser zu verstehen.
Je komplexer die Datenmengen, desto größer ist der mögliche Informationsgewinn. Durch eine enge Verzahnung von Advanced Analytics und Big Data-Methoden ermöglicht epicinsights eine enorme Informationsdichte. Dieses engmaschige Netzwerk aus Informationen und die darin verwobenen Beziehungen machen wir zu Ihrem einzigartigen Wettbewerbsvorteil!
Für jeden Kunden nutzen wir unsere modulare Predictive Analytics-Plattform epicAi. Diese Zusammenstellung unterschiedlicher technologischer Komponenten gewährleistet eine tiefgehende Identifikation Ihres Datenpotentials und signifikanter Zusammenhänge. Wir verarbeiten und strukturieren große Datenmengen in Echtzeit und können damit u.a. relevante Targeting-Prozesse personalisieren.
Postskriptum: Für welche Fragestellungen arbeiten Ihre Marketing- und Sales-Entscheider mit Business Intelligence-Tools? Berichten Sie uns doch von Ihren Erfahrungen an lutz@epic-insights.com – Wir freuen uns darauf.
Für den Erfolg des eigenen Unternehmens ist das Gewinnen von Erkenntnissen aus Daten mittlerweile essenziell wichtig. Damit einher geht natürlich auch die Entwicklung einer passenden Digitalstrategie. Denn nur, wer sein eigenes Datenuniversum nutzen kann, dem erschließen sich alle Chancen von Big Data. Der Einstieg in die Welt von Big Data, Advanced Analytics und Co. ist mit einigen Detailfragen verbunden, die wir im Folgenden aufgreifen möchten.
Gartner, Inc. definiert den Begriff durch drei große V:
IBM erweiterte die Definition um Veracity, also die Glaubwürdigkeit bzw. Verlässlichkeit der Daten. Diese Dimension ist in der Praxis äußerst wichtig. Erst die Berücksichtigung der Veracity von Big Data sichert die Aussagekraft meiner Ergebnisse.
Die Erweiterung Value berücksichtigt den unternehmerischen Wert der Daten. Hierbei erfolgt eine Begriffsabgrenzung von „Smart Data“, um den inhärenten Mehrwert bestimmter Daten im Gegensatz zum allgemeinen „Big Data“ hervorzuheben. In diesem Sinne ist Big Data (m)ein großes, potentielles (Daten-) Universum und Smart Data eine Teilmenge davon, verknüpft mit den entsprechenden Business-Zielen und -Informationen, die ich zu einer wertschöpfenden Route verknüpfe.
Big Data ist also sehr breit gefächert und wird zum Teil sehr unterschiedlich benutzt. Dieser Beitrag folgt dem oben dargestellten Verständnis und konzentriert sich darauf, relevante Informationen aus allen Daten zu gewinnen, die zur Beantwortung meiner Fragestellungen verwendet werden können.
Nahezu alle Geschäftsmodelle werden in Zukunft von einer Digitalstrategie profitieren. Es ist jedoch zu beachten, dass es eine One-Fits-All Lösung in diesem Bereich nicht geben wird. Jeder Kunde, jedes Business und jeder Datenraum sind individuelle Größen. Ergeben sich Synergie-Effekte in der Prozessierung, umso besser!
Es macht also wenig Sinn, bereits zu Beginn meines Projekts eine allumfassende und teure Infrastruktur zu implementieren. Stattdessen empfiehlt es sich, zunächst einen abgegrenzten und definierten „smarten“ Versuchsballon steigen zu lassen, um die Aussagekraft und Handhabbarkeit meiner Daten hinsichtlich der zu definierenden Ziele zu testen. Dazu haben sich die folgenden fünf Schritte bewährt:
Ein möglichst geringer Aufwand für die eigenen Ressourcen und gleichzeitig eine valide Einschätzung meines Big Data-Potentials stehen dabei im Fokus. Angelehnt an agilen Projekt-Methoden suche ich nach sog. „Quick Wins“, teste auf effiziente Weise und im MVP-Modus neue Methoden und Technologien. Erst im Anschluss erweitere ich meine Cases iterativ entweder vertikal und/oder horizontal.
Innerhalb einer Potential-Analyse gilt es vor allem, den Datenraum des Kunden zu erfassen und ein möglichst umfassendes Bild des Status-Quo zu erhalten. Auf der Suche nach einem ersten Use Case z.B. für Machine Learning Anwendungen, welcher effizient und mit gutem Erfolgspotential bestückt sein sollte, ergeben sich meist weitere Ansatzpunkte.
So trifft man nicht selten auf komplett neue Themenfelder und weiterführende Fragestellungen, die selbst in einem sehr frühen Stadium der Big Data Potential-Analyse auf die strategische Unternehmensebene zurückwirken.
Nach der Aggregierung der entsprechenden Daten, beginnt mit Data Mining das „Schürfen“ nach verborgenen Erkenntnissen. Mit Hilfe dieser multivariaten Methoden, welche Analysen in hochdimensionalen Räumen erlauben, können Strukturen in Daten gefunden werden.
Ein großer Vorteil: Diese Erkenntnisse sind allein durch die reinen Daten definiert und nicht durch menschliche Annahmen verzerrt. So werden häufig grundlegend andere oder neue Zusammenhänge zwischen Daten- und Business-Ebene aufgedeckt, als anfänglich erwartet.
Data Mining bietet sich bei tatsächlich großen und komplexen prozess- und systemübergreifenden Daten an. Der zeitliche Aufwand für eine erste Bereinigung und Aufbereitung dieser großen Datenbestände sollte jedoch nicht unterschätzt werden. Dieser Punkt ist vorab relativ schwer planbar und vor allem abhängig von den Erfahrungen der Experten und natürlich von der vierten Dimension „Veracity“. (siehe oben)
An ein Investment in Big Data, Automatisierung und KI Prozesse sind oftmals unterschiedliche Erwartungshaltungen geknüpft. Als CEO möchte ich fundiertere Informationen für strategische Entscheidungen, als CFO günstigere Informationen und als CIO schlankere Prozesse. Das alles kann mit Big Data möglich werden. Dazu müssen lediglich die hier aufgezeigten Fallstricke beachtet werden.
Postskriptum: Sehen Sie in Big Data lediglich ein Buzzword oder eine echte Chance für die Weiterentwicklung ihrer Geschäftsprozesse? Berichten Sie uns doch von Ihren Erfahrungen an info@epic-insights.com – Wir freuen uns darauf!
Als Manager eines Onlineshops sehe ich mich ständig neuen Trends und Herausforderungen gegenüber, die es zu beachten gilt. In der Welt des E-Commerce gibt es dabei unzählige Anwendungsfälle, die Künstliche Intelligenz optimieren könnte. Sehr populär sind aktuell die beiden Themenfelder Usability und Produktempfehlungen, da sie vergleichsweise unkompliziert zu realisieren sind. Zudem besitzen sie hohes Potenzial, um mit dem Einsatz von Künstlicher Intelligenz die Conversion-Rate meines Onlineshops zu erhöhen. Schnelle Implementierung und messbare Ergebnisse sind beim Thema KI-Integration kritische Faktoren. Dieser Beitrag nimmt diese beiden Optimierungsfelder auf und beleuchtet sie näher.
Ein häufiger Ansatzpunkt bei den strategischen Planungen meiner Online-Kampagnen sind die Erfahrungswerte vergangener Maßnahmen. Damit sind meine Möglichkeiten jedoch noch lange nicht ausgereizt. Gerade die immer größer werdenden Datenmengen, die täglich auflaufen, bieten mir eine einmalige Chance. Sie helfen mir, meine Besucher noch besser kennenzulernen und und aus den Informationen Schlüsse auf zukünftige Optimierungen zu ziehen. Die Herausforderung dabei: Diese Daten sind ohne maschinelle Hilfe nur schwer miteinander zu verknüpfen. Viele verborgene Zusammenhänge bleiben somit auf der Strecke.
Künstliche Intelligenz hilft mir, die unmittelbar relevanten Stellschrauben im Shop zu identifizieren und für meine Zwecke zu nutzen. Durch die Möglichkeit, große Datenmengen in Echtzeit zu verarbeiten, zu analysieren und einen Mehrwert daraus zu generieren, entsteht ein klarer Wettbewerbsvorteil.
Für Usability-Optimierungen und Produktempfehlungen lassen sich relativ schnell Use-Cases entwickeln, bei denen Künstliche Intelligenz aus der Masse an Daten einige völlig neue „Insights“ generieren kann. Allgemeines Ziel ist dabei: der User findet genau das, was er sucht – und zwar auf schnellstem Wege.
Gute Usability beeinflusst den Erfolg jedes Shops maßgeblich. Die kontinuierliche Optimierung der Usability sollte daher ein zentraler Baustein meiner E-Commerce Strategie sein. Doch was zeichnet „gute“ Usability aus? Diese Frage lässt sich einfacher beantworten, wenn man sie auf den Kopf stellt: Wann spricht man eigentlich von „schlechter“ Usability?
Bei schlechter Usability ist das Auffinden von Informationen oder Produkten im Onlineshop umständlich. Hohe Ladezeiten, eine inkonsistente Informationsarchitektur, bis hin zu fehlplatzierten Call To Action-Elementen oder Infos auf den Einzelseiten – die Bandbreite an Usability-Themen ist sehr hoch. So führt z.B. ein unstrukturierter Aufbau dazu, dass User es als anstrengend empfinden, den Shop zu bedienen und in Folge dessen abspringen. Um das zu vermeiden gilt es, den User mit so wenig wie möglich Klicks an sein Ziel zu führen – sei es die Informationsbeschaffung zu einem Produkt, das beste Angebot oder ein Kauf.
Zum Beispiel hat User 1 bereits exakte Vorstellungen von dem Produkt. Er oder sie kennt den Hersteller, Produktnamen usw. und möchte auf dem Weg zum Ziel nicht aufgehalten werden. Nennen wir ihn den „Performer“. Eine gute Suche im Shop ist hierbei eine gute Möglichkeit, um diesen User zu seinem Ziel zu führen. User 2 dagegen hat zunächst kein konkretes Kaufinteresse und kommt lediglich zum „Stöbern“ vorbei. So kann dieser User über zusätzliche Bedienhilfen wie Produktteaser, Rabattaktionen oder Beratungs- und Kaufassistenten zum Kauf überredet werden. Dieses Angebot könnte User 1 hingegen eher ablenken und negativ beeinflussen.
Um jetzt beide User-Typen zu einer Conversion im Shop zu bewegen, gilt es, dem jeweiligen User schon möglichst früh den für ihn relevantesten Content und Service-Angebote auszuspielen. Je früher das passiert, desto eher ist der User an seinem Ziel, desto geringer ist die Gefahr, dass er irritiert wird und verloren geht. Der erste Kontakt von User und Produkt ist beispielsweise mit dem Aufrufen der Startseite des Shops verbunden. Genau dort kann man ansetzen. Aber wie schaffe ich es, einem Unbekannten, der zum ersten Mal auf der Startseite meines Shops landet, den passenden Content auszuspielen? Schließlich kenne ich ihn zu diesem Zeitpunkt noch nicht.
Diese natürliche Herausforderung jeder User Journey lässt sich beantworten, indem man auf der individuellen Einstiegsseite des Nutzers die Inhalte anbietet, die für ihn die größte Interaktionswahrscheinlichkeit haben. Das kann für jeden User-Typen unterschiedlich sein: Produkte, die am häufigsten gekauft wurden, Angebote, die einmalig zur Verfügung stehen, oder Inhalte, mit denen ein vergleichbarer User zuvor schon interagiert hat. Maschinelles Lernen sagt diese Inhalte für jeden einzelnen Nutzer treffsicher vorher. Jeder User bekommet damit eine individuell angepasste Lösung. Mittels Künstlicher Intelligenz werden also die User, die nur stöbern und empfänglich für Sonderangebote sind, und auch die „Performer“, mit für sie relevanten Inhalten bedient – und das bereits sehr früh auf Basis noch sehr weniger Daten.
Da man sehr wahrscheinlich über einen längeren Zeitraum viele ähnliche Käufertypen wie diese in seinem Shop hat, sind KI-relevante Optimierungen auf diese Datenbasis aufzubauen. Dazu muss jedoch zunächst der Anwendungsfall konkret definiert werden.
Für User 1-ähnliche Besucher (Performer) könnte dieser lauten:
Für User 2-ähnliche User, also die Stöbernden gehe ich ähnlich vor. Hier werden Content-Typen wie Angebote, Beratungs-Services und Brand-Content möglicherweise positiver wirken – vielleicht sogar Spontankäufe herbeiführen. Das wird meine Datenauswertung zeigen. Entsprechend versuche ich mit Hilfe Künstlicher Intelligenz, frühestmöglich meine Nutzer als Stöbernden zu identifizieren und ihnen sukzessive entsprechende Content-Angebote unterbreiten. In Echtzeit wird die Maschine den Erfolg ihrer Vorhersagen erkennen und entsprechend die definierten Content-Angebote hinsichtlich ihrer Relevanz re-priorisieren.
Eine große Herausforderung ist die ständige, dynamische Anpassung meiner Produktempfehlungen an die veränderlichen Bedürfnisse meiner Besucher. Dabei ist es elementar wichtig, eine Veränderung der Wünsche meiner potenziellen Kunden zeitnah zu erkennen und diesen Trend in Form von personalisierten Empfehlungen zu berücksichtigen.
Anhand von Produktdaten und deren Anbindung an mein CRM-System werden die Recommendation-Engines häufig auf Basis von Nutzer-Käufen in Kombination mit Produkt-Eigenschaften antrainiert und personalisierte Produktempfehlungen ausgegeben. Konkret gesagt: Es werden Käuferdaten und Produktdaten in eine Beziehung gesetzt, um daraus die Kaufwahrscheinlichkeiten bei ähnlichen Nutzern zu errechnen. Denen wiederum spiele ich bei positiver Tendenz diese Produkte aus und optimiere sie stetig hinsichtlich meiner Erfolgsquote.
Künstliche Intelligenz kann solch ein personalisiertes Empfehlungssystem verbessern und wettbewerbsfähiger machen. Die im Hintergrund wirkenden Regeln kommen dann von der Maschine und werden nicht mehr starr durch Regelsysteme vorgegeben. Dabei gilt: Der Fokus liegt ganz auf dem Verhalten potentieller Kunden. Auf dieser Daten-Basis kann ich meine Produktempfehlungen nach Relevanz neu sortieren. Die Maschine verarbeitet mit Hilfe der Algorithmen die hereinkommende Datenflut und verrät mir, inwiefern die Produktempfehlung zutreffend für User waren, die sich im Shop aktiv bewegt haben. Sprich: die Maschine versteht die Zusammenhänge der Elemente, die miteinander agiert haben. Daraus leitet sie ab, inwiefern das Produkt für User 1 relevant war und welches Produkt für User 2 relevant sein wird.
Anhand diesem KI-gestützten Echtzeit-Monitoring der Verhaltensmuster meiner Nutzer und deren Vorlieben kann ich dann schneller erkennen, welche strategischen Impacts für meinen Onlineshop möglich sind. So werden Produkte, die sich gut verkaufen und eine Relevanz zu einem anderen Produkt zeigen – auch wenn diese bisher unbekannt war – als mögliche Cross- und Up-Selling-Möglichkeit aufgedeckt. Ich kann also dem User im Shop zusätzliche oder hochwertigere Artikel im Zuge von personalisierten Empfehlungen dank Künstlicher Intelligenz ausspielen. Genauso gut können Inkonsistenzen zwischen den Produkten, Usern und den Produktempfehlungen, die zu Abbrüchen während der User-Journey führen, erfasst und in den strategischen Planungen berücksichtigt werden. Das beugt z.B. der Ausspielung von Content-Inhalten, die für den User keine Relevanz haben, vor.
Mithilfe von Fluiden Personas lassen sich diese erhobenen Verhaltensdaten meiner Nutzer in Profile übersetzen. Diese Profile bilden in Echtzeit vorhandene oder entstehende Trends ab. Darauf aufbauend macht die Unterstützung Künstlicher Intelligenz meine Produktempfehlungen „fluide“. So spielt sie beispielsweise über eine Schnittstelle für jeden User die individuell relevantesten Empfehlungen und Inhalte aus. Durch die selbstlernenden Algorithmen lässt sich dieser vollautomatische Prozess innerhalb kurzer Zeit immer weiter verbessern und sorgt so für eine optimale User-Journey, zufriedene Kunden und folglich zu höheren Conversions.
Das alte Konzept der Persona hält oftmals nicht mehr mit der dynamischen Business-Realität mit;
besonders im Hinblick auf die immer diffuser werdenden Datenmengen
Mit wachsendem Datenaufkommen wird die intelligente Datenverarbeitung zur Schlüsseldisziplin im E-Commerce Business. Grade für die Customer-Experience sind Data Mining und Machine Learning eine gute Unterstützung für echten Business-Value aus den eigenen Daten. Damit können Shop-Manager auf die individuellen Verhaltensweisen ihrer User aktiv reagieren. So erkennen sie auch, welche Produktempfehlung und welcher Content für den jeweiligen User-Typ geeignet ist.
Mittels Künstlicher Intelligenz können Shop-Manager völlig wertungsfrei, rein objektiv und datenbasiert, ihren Onlineshop optimieren, ohne dabei viel Zeit für Daten-Analysen zu verlieren. Sie liefert ihm das, was er auch wirklich wissen will.
Ein Ausblick: Potentiell werden solche Predictive Analytics-Methoden auf zukünftige Anwendungsfälle erweitert. Beispielsweise kann das Tracking von epicAi im E-Commerce Business Content-Inhalte vorhersagen und im Sinne von „Engage“ eine präskriptive Analysetechnik Anwendung finden. Mittels der Vorhersagen lassen sich so vordefinierte Ziele erreichen und anhand dessen gezielt Inhalte ausspielen. Also z.B. eine Vorhersage für einen User, der bereit ist, einen bestimmten Preis für ein Produkt zu zahlen, triggert im nächsten Schritt gezielt Vergünstigungen in Form von Rabatten.
Auf diesem Wege unterstützt Künstliche Intelligenz nicht nur die tägliche Arbeit digitaler Marketeers und Sales Professionals. Sie sorgt weiterhin durch selbstlernende Algorithmen und individuelle Content-Aussteuerung auch für ein personalisiertes und damit maßgeschneidertes Nutzungserlebnis in meinen Shop.
Der Siegeszug der so genannten „Algorithm Economy“ bringt – wie so oft bei digitalen Trends – eine Menge Wirrungen rund um „neue“ Begrifflichkeiten und Buzzwords mit sich. Egal ob Job-Plattform, Content-Management-System, Bots oder Newsletter-Tool – scheinbar muss alles heutzutage irgendwas mit Künstlicher Intelligenz machen, wenn es fancy sein will. Man bekommt den Eindruck, was früher das Bluetooth, ist heute die KI (oder nennen wir es AI, weil „Artificial Intelligence“ eh viel cooler klingt?)
Fakt ist, nicht erst seit Watson wissen wir – alles ist besser Dank „AI“!
Doch was bedeutet dieser oftmals missverständlich benutzte Klumpen neuer, heilsbringender Zauberworte, die seit einiger Zeit alle Gefilde des Online-Marketings durchziehen, wie es einst Social, Big Data und Co. taten?
Artificial Intelligence (EN) / Künstliche Intelligenz (DE) beschreibt eine spezielle Menge moderner statistischer Verfahren. Ziel Künstlicher Intelligenz ist es, automatisch Entscheidungen auf Basis unzureichend vorliegender Informationen im Millisekunden-Bereich zu treffen. KI ermöglicht die Verarbeitung großer, zum Teil sich widersprechender Datenmengen. Methoden Künstlicher Intelligenz ebnen damit den Weg von „traditionell“ eher „stumpfen“ Entscheidungsregeln hin zu vernetzten, komplexen Entscheidungen durch Maschinen. KI-Methoden sind also in der Lage, das Gesamtbild, das heißt, die Gesamtheit aller verfügbaren Informationen, in ihre Entscheidungen einzubeziehen. Diese Methoden haben damit mehr mit menschlicher Intuition und Intelligenz gemein, als mit fest verdrahteten Programmen klassischer Methoden. Mit Künstlicher Intelligenz lassen sich z.B. Onlineshops optimieren.
Big Data ist ein Schlagwort, welches moderne Techniken der Datenanalyse zusammenfasst. Von Big Data ist dann die Rede, wenn die Datenquellen entweder zu groß, zu schnell oder unzureichend annotiert sind und klassische Datenbanktechnologien und Analyseverfahren nicht mehr ausreichen. Für KMUs tritt typischerweise der letzte Fall (unterannotierte Daten) ein. Zur Analyse solcher Daten werden dann Methoden aus dem Bereich der künstlichen Intelligenz und des Data Mining herangezogen. Der Einstieg in das Big Data-Universum ist allerdings mit einigen Detailfragen verbunden.
Data Science ist ein interdisziplinäres Feld, welches sich mit der Untersuchung, Verarbeitung und Nutzung von Daten beschäftigt. Es besteht aus modernen Programmierparadigmen, statistischer Methodik und Techniken auch aus dem Bereich der Künstlichen Intelligenz. In der Algorithmic Economy nimmt Data Science eine zentrale Rolle ein.
Ein Algorithmus ist eine Folge von mathematischen Berechnungen und Anweisungen, die ausgehend von einem Input einen Output generiert. Ein konkretes Beispiel: mit prädiktiven Algorithmen lassen sich Produktkäufe für bis dato unbekannte User vorhersagen.
Maschinelles Lernen (Machine Learning) bezeichnet das Auffinden innerer Zusammenhänge von Daten ohne menschliches Zutun. Dafür werden nur die Informationen aus den vorliegenden Daten genutzt und menschlicher Bias minimiert. Häufig findet maschinelles Lernen Zusammenhänge, die menschlichen Beobachtern verborgen bleiben. Ziel von Machine Learning ist typischerweise das Training eines sog. Klassifizierers (Algorithmus), um zukünftiges Verhalten vorherzusagen (siehe auch Unstrukturierte Daten)
Deep Learning ist eine Untergruppe der Methoden aus dem Bereich Machine Learning. Typischerweise kommt der Begriff „Deep Learning“ aus dem Bereich künstlicher neuronaler Netzwerke. Beim Deep Learning wird ein zu lösendes Problem in mehreren Schichten nacheinander analysiert um optimale Ergebnisse zu gewinnen. Jede Schicht dringt dabei tiefer (daher „deep learning“) in die Problemsphäre ein. Obwohl die zugrundeliegende Methodik relativ alt ist, ist der Begriff kürzlich u.a. von Google neu popularisiert worden.
Neuronale Netze sind eine weitere spezielle Methode des maschinellen Lernens. Die neuronalen Netze sind dem menschlichen Gehirn nachempfunden, daher der Name. Derartige Netze haben sehr viele verschiedene Anwendungsfälle und sind typischerweise sehr starke Klassifizierer. Sie eigenen sich aber auch für Regressionen oder zum Clustering.
Data Mining ist ein übergeordneter Begriff deskriptiver analytischer Methoden. Ziel von Data Mining ist dabei nicht die Konstruktion von Klassifizierern (Algorithmen) oder Regressionsformeln für die Vorhersage zukünftigen Verhaltens. Es geht beim Data Mining vor allem um das „Schürfen“ nach verborgenen Erkenntnissen. Solche Erkenntnisse sind nur von den Daten definiert und nicht durch menschliche Annahmen verzerrt. So werden häufig grundlegend andere Zusammenhänge aufgedeckt, als anfänglich erwartet. Ein Beispiel für unerwartete Einblicke sind unsere Fluiden Personas.
Advanced Analytics ist ein Schlagwort, welches die Methoden moderner Statistik zusammenfasst. Dieses Wort soll z.B. Methoden der künstlichen Intelligenz oder des Data Mining von „klassischer“ Statistik abgrenzen. Advanced Analytics sind dabei typischerweise multivariate Methoden, die Analysen in hochdimensionalen Räumen erlaubt, wobei die Daten sehr stark voneinander abhängen.
Deskriptive Analytics (deskriptive/beschreibende Analysetechniken) hat zum Ziel, den Ist-Stand eines Datensatzes zu beschreiben. Dabei sollen die eigenen Daten, und damit die Kunden, Mitarbeiter oder Arbeitsgeräte, besser verstanden werden, um in Zukunft besser auf sie eingehen zu können. Typische Methoden sind Clustering, Nearest Neighbors oder Hypothesentests.
Mit Predictive Analytics (prädiktive/vorhersagende Analysetechniken) lässt sich von bekannten Daten und Ergebnissen auf unbekannte oder zukünftige Ergebnisse schließen. Typischerweise soll mit sog. prädiktiven Algorithmen von bekannten Ereignissen, über die mehr Informationen vorliegen, auf jene Erkenntnisse geschlossen werden, die erst in der Zukunft eintreten. Damit kann frühzeitig reagiert werden. Beispiele sind das Schätzen von Preisbereitschaft oder den Wünschen des Kunden (die definitiv erst nach dem Kauf bekannt sind), um frühzeitig zu (re)agieren.
Prescriptive Analytics (preskritive/normative Analysetechniken) ist eng verwandt mit Predictive Analytics. Ziel ist es, mittels Vorhersagen ein bestimmtes Ziel zu erreichen, also normativ auf den Vorgang einzuwirken. Dies umfasst z.B. die Vorhersage von Preisbereitschaft, um dann gezielt Rabatte auszuspielen, um den Umsatz zu erhöhen.
Strukturierte Daten sind Daten, für die Relationen untereinander und relevante Information bekannt und z.B. in einer Datenbank abgelegt sind. Dadurch ist es möglich, nach Eigenschaften zu filtern oder zu sortieren. Beispiele sind Alter und Geschlecht in gut geführten CRMs. Relationelle Datenbanken können solche Daten sehr gut verarbeiten.
Unstrukturierte Daten, oder besser: unterannotierte Daten, sind Daten, für die Relationen zwischen den Daten und relevanten Information nicht und nur teilweise bekannt sind. Dadurch gibt es keinen direkten Weg, nach diesen Informationen zu suchen oder zu filtern. Beispiel sind Preisbereitschaft oder relevanter Content im aktuellen Moment. Diese Informationen sind nicht direkt zugänglich und müssen mittels höherer analytischer Methoden geschätzt werden.
Clustering ist eine Unterkategorie des Data Minings. Ziel ist die Zusammenfassung „ähnlicher“ Daten zu größeren Strukturen (Clustern). Dadurch können Grobstrukturen in Daten gefunden werden. Clustering kann entweder durch Teilung des Gesamtdatensatzes (Top-Down) oder durch Zusammenfassung von Einzelpunkten (Bottom-Up) geschehen. Ziel ist typischerweise, die Daten besser zu verstehen, um dann geeignete Maßnahmen zur weiteren Auswertung zu finden.
Ein Classifier/Klassifizierer ist ein mathematischer Algorithmus, der vorhandene Informationen auf eine Klassenzugehörigkeit abbildet. Ein Beispiel ist ein Algorithmus, der als Input die bisher besuchten Websites eines Nutzers entgegennimmt und eine Geschlechtszugehörigkeit für den Nutzer ausgibt. Classifier operieren typischerweise auf unvollständigen Informationen, sodass diese Ausgabe selten perfekt ist. Die Ausgabe wird deshalb häufig „Schätzung“ genannt.
Eine Regression ist ein mathematischer Algorithmus, der vorhandene Informationen auf eine oder mehrere reelle Zahlen abbildet. Ein Beispiel ist ein Algorithmus, der als Input die bisher besuchten Websites entgegennimmt und die Preisbereitschaft schätzt. Regressionen operieren typischerweise auf unvollständigen Informationen, sodass diese Ausgabe selten perfekt ist. Die Ausgabe wird deshalb häufig „Schätzung“ genannt.
Sie dient als erster Versuch, einen groben Überblick über die verschiedenen Methoden und Bereiche zu geben. Welche Technologien und Methoden zum Einsatz kommen, wenn man „mal etwas mit Künstlicher Intelligenz“ machen möchte, ist u.a. stark vom Anwendungsfall, dem Ziel und der Qualität der vorliegenden Daten abhängig.
„Personas“ sind als Marketing-Instrument und internes Hilfsmittel zur Produktentwicklung in vielen Branchen mittlerweile nicht mehr wegzudenken. Gerade im Hinblick auf die immer weiter ansteigenden und dabei diffuser werdenden Datenmengen, die z.B. im Bereich E-Commerce anfallen, hält das Konzept der „Buyer Persona“ oftmals nicht mehr mit der sich verändernden Business-Realität mit.
Die sogenannte „Buyer Persona“ ist eine fiktive Person mit verschiedenen Eigenschaften, Merkmalen und speziell kreierten persönlichen Hintergründen. Für die Erstellung von Personas wird im Allgemeinen einer von zwei Ansätzen verfolgt, die sich vor allem in der Herkunft der Information über die Zielgruppe unterscheiden. Eine „reale Persona“ basiert vor allem auf qualitativen und quantitativen Daten aus der Markt- und Anwenderforschung.
Zusätzlich zur „realen Persona“ hat sich noch eine zweite Vorgehensweise etabliert: die „realistische Persona“. Anders als bei der „realen Persona“ stammen die Daten zur Erstellung des fiktiven Nutzerprofils nicht direkt von der Zielgruppe selbst. Viel mehr definieren Marketingstrategen diese mittels ihres gesammelten Anwenderwissens. Das schließt z.B. Befragungen mit den Mitarbeitern aus dem Vertrieb sowie Annahmen der Entwickler über die Zielgruppe mit ein.
Unterziehen wir dieses Konzept nun einer tiefergehenden Analyse, so werden wir feststellen, dass sich gerade im Zusammenspiel mit dem immer größer werdenden eigenen Datenpool schnell zahlreiche Probleme ergeben können.
Einige davon wollen wir im Folgenden näher beleuchten.
Indem ich selbst auswähle, welche Eigenschaften und Profilinformationen für meine „Buyer Persona“ relevant sind, verlasse ich den Weg der datengestützten, objektiven Analyse. Das eröffnet die Gefahr, durch falsche Priorisierung
und Auswahl der „Buyer Persona“-Eigenschaften das Sichtfeld von vornherein zu verengen und dadurch einen falschen Fokus zu setzen.
Die Grundlagen für die Erstellung vieler „Buyer Personas“ sind große Studien zum Verbraucherverhalten und/oder aktuelle Marktforschungsdaten. Je nach Budget und Zeit können noch Einzel-Interviews und vielerlei wissenschaftliche Tests und Befragungen ergänzt werden. Mit steigender Komplexität steigt oftmals aber auch das Fehlerpotential bei der methodischen Auswertung. Durch Hinzunahme unterschiedlicher Datenquellen und Anbieter ist eine Zusammenführung der Daten und damit die Verallgemeinerbarkeit der Aussagen wiederum schwierig. Kaufe ich mir Daten von Spezialunternehmen für diese Art von Daten, ist Qualität und Herkunft dieser nicht 100%ig klar. Es benötigt Vertrauen, dass auch echte Daten geliefert werden, welche hinreichend aktuell und qualitativ in Ordnung sind.
Bei allgemeinen Markforschungsdaten und Verbraucherdaten ist das Abstraktionslevel hoch und unter Umständen werden der Unternehmens- und Markenkontext oder lokale Besonderheiten nicht ausreichend berücksichtigt. Bei Einzelinterviews ist der Aufwand sehr hoch und die Verallgemeinerbarkeit der Aussagen der Testpersonen oftmals fraglich. Es gilt, für sich die richtige Balance aus repräsentativen Daten und Einzelstichproben entsprechend der Ziele (und Budgets) zu finden.
Menschen und ihre Entscheidungsprozesse sind es allemal. Und sie verändern sich. Täglich. Ich werde die Komplexität niemals einfangen, das muss mir bewusst sein. Als Unternehmen benötige ich grobe, verallgemeinerbare Aussagen als Orientierungshilfe für mein Marketing und den Vertrieb. Ich brauche Stereotype, denn diese bieten mir Orientierung im Chaos. Die erfassten Buyer Persona-Daten bieten also eine erste inhaltliche Orientierung, sie werden aber niemals genau die Menschen in ihrer Komplexität ausreichend charakterisieren, die ich mit meinem Produkt oder meiner Dienstleistung ansprechen will, nämlich MEINE potentiellen Kunden.
So kann ich z.B. auf Basis einer Studie zum Kaufverhalten in Online-Shops für Turnschuhe einen modischen Trend zu sportlichem Schuhwerk im Alltag ableiten und richte infolge dessen meine Verkaufsaktivitäten verstärkt auf den Verkauf von Schuhwerk aus. Trends sind flüchtig, daher habe ich keine Zeit, mein Bauchgefühl wissenschaftlich zu verifizieren. Umfassende Analysen dauern Wochen, wenn nicht Monate. Und Handlungen habe ich daraus noch nicht abgeleitet, wenn ich die Ergebnisse habe. Also gehe ich nach groben Analysen und Erfahrungswerten vor.
Dieses Vorgehen ist logisch, führt jedoch nicht zwingend zu mehr Verkäufen. Denn die Annahme, dass auch die eigenen Nutzer dem in der Studie postulierten Trend folgen werden, kann genauso gut dazu führen, dass Zeit, Budget und Ressourcen für Kampagnen investiert werden, die die eigene Zielgruppe entgegen der Studie nicht im Geringsten interessieren.
Meine „Buyer Persona“ bildet zwar meine bereits gewonnenen Kunden recht gut ab, ignoriert aber die überwältigende Mehrheit der Nutzer und „Nicht-Kunden“, die meinen Online-Shop oder meine Webseite täglich besuchen. Das betrifft über 90% meines Traffics – alle die, die am Ende der User Journey nicht im CRM auftauchen. Doch genau diese Nutzer sollten das Ziel all meiner Marketing- und Sales-Aktivitäten, mindestens aber meiner Analysen sein. Denn sie sind der Link zwischen meiner Marke (immerhin waren sie mal da) und der Welt da draußen. Sie liefern mir mögliche Puzzle-Stücke, die mein Bauchgefühl über mögliche Trendentwicklungen stützen könnten. Hierfür braucht es ein kontinuierliches Monitoring.
Als Marketer / Sales Manager sehe ich mich also großen Herausforderungen gegenüber. Ich muss den steigenden Anforderungen bei der Konzeption und Umsetzung meiner Entwicklungs- und Verkaufsstrategie gerecht werden. Nicht nur muss ich meine Kampagnen über mehrere Kanäle hinweg konsistent und glaubhaft ausspielen, ich muss außerdem das dynamische Verhalten und die sich ständig verändernden Eigenschaften meiner Nutzer über die Zeit hinweg im Blick behalten. Und das idealerweise in meinem Markenkontext und auf allgemeiner Marktebene.
Doch wie könnte dann ein Vorgehen zur „Trend“-Erkennung aussehen? Die Antwort darauf liegt im Einsatz von künstlicher Intelligenz. Sie erlaubt es, mithilfe selbstlernender Algorithmen dynamisch und in Echtzeit passende „Personas-Segmente“ zu erstellen, welche auf Basis der Traffic-Quellen und konsumierter Content-Themen basiert. Die Basis dafür ist das individuelle Verhalten meiner Nutzer, welches aus Muster und Veränderungen dieser analysiert wird. Als weiteres Element wird dabei der Faktor Zeit mit einbezogen und analysiert, wie sich relevante Nutzereigenschaften und –Interessen über einen bestimmten Zeitraum hinweg verändern.
Ergänzend zu festen, stereotyp festgelegten „Kunden-Repräsentationen“ kann man sich „fluide Personas“ als dynamische, umstands-/ situationsbezogene „Interessenprofile“ oder „Eigenschaftstypen“ vorstellen. Eine solche „fluide
Persona“ basiert damit nicht mehr auf meinen subjektiven Annahmen und Interpretationen, sondern rein objektiv auf meinen Daten.
Dank unserer innovativen Smart Data-Technologie ist es uns gelungen, den oben genannten Prozess zu automatisieren und mithilfe unserer intelligenten Software „fluide Personas“ in Echtzeit zu generieren.
Eingebunden in die digitale Wertschöpfung kann dank dieser „fluiden Personas“ die Ausrichtung von Marketing- und Sales-Aktivitäten komplett neu gedacht und automatisiert abgebildet werden.
Schließen Sie potentielle Zielgruppen bei Marketing- und Sales-Aktivitäten nie wieder mit unvollständigen Annahmen aus.
Hier finden Sie eine effizientere Ausrichtung Ihrer MarketingmaschineDer Schlüssel zu einer erfolgreichen Kundengewinnung und nachhaltigen Bindung ist Wissen. Was sind die Bedürfnisse meiner Zielgruppe? Welche Merkmale zeichnen jeden einzelnen Nutzer aus? Was macht meine Kunden einzigartig? Erst dieses Wissen erlaubt es mir, meine Zielgruppe richtig zu verstehen und zu adressieren. Um allerdings an dieses Wissen zu gelangen, gilt es einige Herausforderungen zu überwinden.
Die Nutzung klassischer „Buyer Personas“ als stereotypisches Extrakt aus vielerlei (fremder) Datenquellen hilft mir bei der abstrakten Abgrenzung und Fokussierung meiner Zielgruppe. Als umfassendes Mittel zur Identifikation der Interessen meiner potentiellen Kunden ist dieser Ansatz jedoch allein nicht ausreichend. Zu groß ist die Gefahr, durch einen einseitigen Blick auf meine virtuellen „Wunsch-Kunden“ die Unterschiede zur Realität zu verkennen. Doch wie soll ich nun aus einem großen Pool multidimensionaler Daten aus Tracking, Produktkatalogen und anderen Datenquellen das Wissen extrahieren, das ich brauche?
Um die Frage beantworten zu können, wird es Zeit, einen dynamischeren Plan zu verfolgen. Einerseits realisiere ich „klassisch“ meine idealen Kundengruppen anhand statischer soziodemographischer und ökonomischer Daten, auf Basis von Markforschung und Umfragen. Andererseits muss ich das Ohr am Puls meines Online-Shops haben – also mich auf die Analyse der User Journeys und Content-Rezeption konzentrieren. Dank meiner eigenen Datenhoheit in diesem Bereich muss ich das nicht nur zu einem bestimmten Zeitpunkt, sondern über die Zeit hinweg machen. Damit bin ich in der Lage, Veränderungen der Verhaltensweisen meiner Nutzer zu entdecken und darauf angemessen zu reagieren.
Klassischerweise nehme ich als Marketer und Online-Shop-Betreiber eine Top-Down-Betrachtung auf meine Daten ein. Ich schaue von oben auf meine Kunden, ziehe Marktforschungsdaten heran und versuche aus der Vogelperspektive verallgemeinerbare Aussagen zu treffen, die ich auf meine Buyer-Persona transferiere. Dafür ziehe ich meine Kundendaten heran und nehme demografische Daten, Wohnort, Alter und Geschlecht hinzu. Bereits hier macht sich eine konsistente First-Party-Datenstrategie bezahlt (Wie das geht, beantworten wir u.a. gern hier). Als Ergebnis erhalte ich eine Handvoll virtuelle Persönlichkeiten, die mein Idealbild meiner Kunden entsprechen und aus denen ich nun passende Content-Angebote sowie die Kanäle zur Distribution dieser ableite.
An diesem strategisch wichtigen Ziel angelangt, muss ich mir darüber bewusst sein, dass das abstrakte Abbild meiner selbst konstruierten und interpretierten „Buyer-Persona“-Realität nicht unbedingt dem realen Setting derjenigen Nutzer entspricht, die ein Interesse daran haben, meine Produkte zu kaufen. Ich laufe Gefahr, dem sog. „Survivorship-Bias“ zu unterliegen. Um eine möglichst neutrale Position bei der Bewertung meiner Zielgruppen zu erlangen, muss ich diese daten- und faktenbasiert bewerten und mit der Realität abgleichen. Ein Blick ins CRM reicht dafür nicht aus. Ich muss meine Betrachtungsperspektive ändern. Doch wie geht das?
Um meine virtuelle Zielgruppen-Welt mit der realen Nutzerwelt abzugleichen, muss ich einen „Bottom-Up“-Blickwinkel einnehmen. Dazu sehe ich mir JEDEN EINZELNEN Nutzer an, der zum Stöbern oder aus anderen Gründen bei mir auf dem Online-Shop vorbeikommt – und suche im Verhalten und bei der Content-Rezeption nach Mustern und Gemeinsamkeiten. Daraus leite ich wiederum von 1-n Usern verallgemeinerbare Erkenntnisse ab und abstrahiere diese. Und plötzlich habe ich eine neue Welt an Informationen vor mir. Eine 1:1 Betrachtung von Usern bei einem Traffic von mehreren zehntausend Sessions pro Monat/Woche/Tag ist zugegeben eine echte Herausforderung! Nein, es ist unmöglich, diese komplexe Welt aus menschlicher Wahrnehmungsperspektive zu erfassen. Sie ist gleichzeitig umfänglich, lückenhaft und inkonsistent, sie besitzt einen erdrückenden Detailgrad und lässt nur schwerlich die Identifikation eines roten Fadens durch das menschliche Auge zu. Und es ist eine Welt, die sich mit einer enormen Geschwindigkeit in einer nicht handhabbaren Frequenz ändern kann.
Nun ist mittlerweile bekannt: Machine Learning verschafft uns heute Einblicke in bisher verschlossene Welten. Was für die Wissenschaft gilt, kann so fern beim Thema Online-Marketing nicht sein. Dank moderner KI-Methoden können wir das Chaos „Nutzerverhalten“ durchdringen und vielerlei Erkenntnisse daraus ableiten. Es braucht nur eine Maschine, die in der Lage ist, die hohe Dynamik der Daten just-in-time zu erfassen sowie Muster zu erkennen und deren Wandel über einen Zeitraum hinweg abzubilden.
Mit Fluiden Personas machen wir genau das! Und im Unterschied zu einem rein CRM-basierten Ansatz erhalten wir hiermit Zusatzinformationen über die „Nicht-Kunden“, also den größten Teil des täglichen Traffics auf Online-Shops und Websites, der mir zuvor verschlossen blieb. Über das Beobachten des Verhaltens, das Ableiten von Mustern und der Wahrnehmung der zeitlichen Veränderlichkeit dieser lässt sich so ein recht komplettes, ein „fluides“ Bild des Nutzerverhaltens zeichnen und die entscheidende Frage beantworten: Passen meine virtuelle Personas zum realen Bild meiner Nutzer? Was sind ihre Interessen und, abgeleitet daraus, wie kann ich über spezifische Content-Themen oder Cross-Selling-Angebote auf sie reagieren?
Zu guter Letzt bieten Fluide Personas durch den anonymen KI-Ansatz einen großen Vorteil beim Datenschutz. Klassische Personenmerkmale wie demografische Daten, Wohnort, Alter oder Geschlecht sind für dieses Konzept unerheblich und liefern bei der Analyse keine zusätzlich notwendigen Information.
Fluide Personas als dynamische, umstands- bzw. situationsbezogene „Interessenprofile“ oder „Eigenschaftstypen“ sind eine perfekte Ergänzung zu festen, virtuell konstruierten „Kunden-Darstellern“ à la Personae aus strategischen Zielgruppen-Analysen auf Basis von Markforschungs- und Kundendaten. Sie bieten den Realitätsabgleich und das Echtzeit-Monitoring zu meinen Themenwelten und liefern mir Insights darüber, was meinen Nutzern wirklich wichtig ist. Sie beinhalten die tatsächlichen Interessen und Eigenschaften meiner Nutzer und „wachsen“ bzw. verändern sich entsprechend des Verhaltens meiner Nutzer über die Zeit. Durch die automatisierte, vorurteils- und wertungsfreie Betrachtung meiner Daten durch Fluide Personas erhalte ich einen unverstellten und objektiven Blick auf meine Nutzer und potentiellen Kunden, auf die ich meine entsprechenden Maßnahmen aufsetzen kann. Die Basis des Bildes, das sich dabei von den Menschen ergibt, die meine Seite bzw. meinen Shop täglich besuchen, sind dabei die Verhaltensdaten ALLER Nutzer (unabhängig ob Kunde oder Nicht-Kunde), die mit individuellen Zugriffen abgeglichen und verfeinert werden.
Das heißt: Fluide Personas ermöglichen es mir als Webseiten- oder Shop-Betreiber bzw. als Marketing- & Sales-Verantwortlicher nicht nur, meine Zielgruppe endlich vollumfänglich und multidimensional zu erfassen. Meine „Insights“ sind darüber hinaus rein objektiv, datenbasiert und durch mathematisch-maschinelle Verarbeitung auch völlig wertungsfrei.
Erfahren Sie mehr darüber, wie unsere Fluide Persona-Solutions Ihnen mit künstlicher Intelligenz helfen können, Ihre Nutzer auf eine völlig neue Art und Weise kennen zu lernen: epic-insights.com