Wir sind auf der Dmexco 2019!

gefördert durch:

DMEXCO-Förderung durch den Europäischen Fonds für Regionale Entwicklung

Sie haben Interesse an Themen rund um Big Data und Künstliche Intelligenz?

Dann sind WIR genau der richtige Ansprechpartner für Sie!

Treffen Sie uns auf der DMEXCO 2019
am 11. und 12. September
in der Messe Köln
Halle 9.1/ Stand F023

Kontaktieren Sie uns über info@epic-insights.com

Egal, ob Sie mit Ihrer Idee noch ganz am Anfang stehen oder bereits konkrete Vorstellungen für die Analyse und Verarbeitung Ihrer Daten haben:

Unser erfahrenes Data-Science-Team steht Ihnen in den verschiedensten Anwendungsfeldern wie E-Commerce Personalisierung, Social Data oder Custom AI Entwicklung mit Rat und Tat zur Seite.

Gemeinsam finden wir die Lösung, die zu Ihnen passt.

KI-newcomer

Wie kann ich meine Daten besser nutzen?

Finden Sie mit Hilfe einer Potential-Analyse die Geschichte in Ihren Daten!

Advanced

Welche KI-Use-Cases sind für mich möglich?

Entdecken Sie
die Flexibilität von epicAi in den verschiedensten Anwendungsfeldern!

KI-Profi

Wie kann ich mein Potential noch weiter ausschöpfen?

Entwickeln Sie mit uns
Ihre perfekte Branchenlösung, von Logistik
bis E-Commerce!

Individuell. Branchenübergreifend. Kompetent.

Haben wir Ihr Interesse geweckt?

Schauen Sie sich hier unsere Best Case Beispiele an und vereinbaren Sie noch heute einen persönlichen Termin über info@epic-insights.com

Wir freuen uns auf Sie!

„Mich reizt die Vielfalt von Data Science Consulting“

Interview mit einem unserer Machine Learning-Experten

Was ist Deine Aufgabe im Rahmen unserer Data Science Consulting-Projekte?

Ich arbeite hier als Machine Learning-Programmierer und kümmere mich zusätzlich um Datenanalysen. Das heißt, dass ich Informationen und Zusammenhänge aus großen Datenmengen heraushole. Diese Daten können Text, Bilder, Videos oder auch Trackinginformationen sein.

In unseren Projekten geht es darum, Daten in handlungsrelevante Informationen zu verwandeln. Hierfür setzen wir auf modernste Methoden der Datenanalyse und des Machine Learnings, um beispielsweise Vorhersagen zu treffen oder Muster zu erkennen. Mein Ziel ist es, unseren Kunden dabei zu helfen, fundierte Entscheidungen auf Basis von Daten zu treffen und ihr Geschäftspotenzial voll auszuschöpfen.

Darüber hinaus sehe ich es als meine Aufgabe, unsere Kunden bei der Implementierung von Machine Learning-Lösungen zu unterstützen und ihnen das notwendige Know-how zu vermitteln. Denn nur so können sie auch in Zukunft von den Vorteilen datengetriebener Entscheidungen profitieren.

Was reizt Dich besonders Teil einer Beratungsagentur für Data Science zu sein?

Es ist toll, dass meine Aufgabe einen direkten Mehrwert für unsere Kunden hat. Ich finde diejenigen Informationen, mit denen ihre Angebote, Customer Journeys und strategischen Entscheidungen besser werden.

Meine Daten sind je nach Fragestellung super unterschiedlich. Mich reizt die Vielfalt unserer Beratungsprojekte im Bereich Data Science. Je nach Projekt beschäftige ich mich mit Bildverarbeitung, mit Textanalysen und mit Zeitreihen. Am meisten Spaß macht die Suche nach der passenden Machine Learning-Methode für den jeweiligen Anwendungsfall; denn die unterschiedlichen Algorithmen haben je nach Einsatzbereich ihre Vor- und Nachteile.

Was sind typische Anforderungen im Bereich Data Science Consulting?

Datenanalysen zur Mustererkennung oder Zielgruppensegmentierung beginnen immer mit dem Säubern und Strukturieren der Daten. Anschließend wählen wir Algorithmen aus, die zum Datensatz und der Fragestellung passen.

Dazu gehören auch Performancevergleiche verschiedener Algorithmen im Hinblick auf die spezifischen Kundenherausforderungen und die Möglichkeiten der Datensätze. Die wichtigste Aufgabe ist dabei das modellieren der Daten. Die Modelle, die letztlich im Livebetrieb verwendet werden sollen, um die gesuchten Informationen aus neuen Daten vorherzusagen, müssen dabei auf einen optimalen Fit gebracht werden. Und die Kundendaten sind permanent in Bewegung und Veränderungen unterworfen – genauso müssen die Modelle und Ergebnisse selbst nach Release überwacht und adaptiert werden.

Was hat Maschinelles Lernen mit Künstlicher Intelligenz zu tun?

Künstliche Intelligenz ist das übergeordnete Konzept – quasi eher ein Marketing-Buzzword- zu dem auch Machine Learning gehört. Machine Learning-Verfahren sind eine der wichtigsten Voraussetzungen für die systematische Erarbeitung von komplexer KI-Software.

Anm. d. Red.: Bitte beachtet auch unseren bestehenden Beitrag dazu.

Kannst Du in aller Kürze Deep Learning und Machine Learning voneinander abgrenzen?

Deep Learning ist aktuell sehr populär und sehr stark. Beim Deep Learning wird ein Netzwerk aus unterschiedlichen Neuronen und Schichten zur Mustererkennung eingesetzt. Deep Learning ist ein Teil von Machine Learning. Quasi ein Werkzeug von vielen in meiner Werkzeugkiste. Deep Learning wird sehr häufig z.B. im Zusammenhang mit Bilderkennung eingesetzt, denn dort funktioniert es sehr gut. Auf anderen Daten muss es aber auch nicht das Werkzeug der ersten Wahl sein. Je nach Einsatzbereich funktioniert Deep Learning besser oder schlechter, es kommt immer auf den Anwendungsfall, die Daten und viele andere Faktoren an, die ich im Rahmen des Projektes zur Verfügung habe.

Warum ist erscheint Data Science Consulting manchmal so kompliziert? 

Ein erfolgreiches Projekt steht und fällt nicht nur mit der Auswahl der richtigen Algorithmen und der passenden Datenmodellierung. Die gesamte technische Klaviatur muss korrekt aufeinander eingestellt sein. Bei der Echtzeit-Personalisierung mit Künstlicher Intelligenz zum Beispiel braucht man viel Rechenpower und effiziente Algorithmen, die auf wenigen und teilweise auch sehr dynamischen Daten maximale Ergebnisse ausgeben. Da spielt das Thema Genauigkeit eine große Rolle, die im Sinne einer guten Performance manchmal auch weniger hoch sein muss, wie in anderen Anwendungsfällen. Die Server müssen schnell reagieren.

Die gesamte Wertschöpfung muss penibel aufeinander abgestimmt sein, um hocheffizient zu arbeiten – wie in einem Formel-1-Wagen. Daher müssen alle Systemteile sehr schnell aufeinander reagieren und im Problemfall eben auch die Fallbacks kennen. Vom Tracking, welches die User-Session erkennt, über die eigentliche Vorhersage durch das System bis hin zum ausliefernden Javascript, was den Content in wenigen Millisekunden an den User im Frontend ausgibt – alles muss exakt ineinander greifen, damit der Nutzer selbst nicht irritiert wird, oder die Usability der Website leidet.

Jetzt mal aus dem Nähkästchen: Was ist die größte Stärke Eures Data Science-Teams?

Wir sind ein vergleichsweise kleines Team. Dadurch können wir uns sehr schnell abstimmen. Wir bringen ganz unterschiedliche Erfahrungen und Expertisen mit. Das hilft uns bei den sehr unterschiedlichen Projekten und Technologien, mit denen wir jonglieren.

Und ich denke unsere Start-Up-Kultur ist ein Vorteil. Wir dürfen auch mal unkonventionelle Lösungen ausprobieren. Wenn es dem Kunden nützt, dann gibt es eigentlich keine Restriktionen.

Super, vielen Dank für das Gespräch!

So wurden wir AI MASTER 2019

Fachjury honoriert unsere
Personalisierungslösung epicAi

Am 24. Januar 2019 überzeugte epicinsights auf der international bekannten Konferenz AI Masters in Berlin mit ihrer Predictive Analytics-Plattform epicAi. Die 11-köpfige Fachjury des AI Masters Publicis Award wählte aus mehr als 100 nationale und internationale Startups epicinsights als Gewinner-Team aus.

„epicinsights konnte nicht nur mit einem innovativen AI Ansatz überzeugen, sondern auch mit der Anwendung der Lösung im Business. Im Rahmen des Auswahlprozesses konnte sich die Jury einen sehr guten Eindruck verschaffen, wie eine Umsetzung für die Partnerunternehmen aussehen und welchen Mehrwert dieser bringen würde.“

AI-MASTERS-Schirmherr René Lamsfuß,
Quelle

Der Weg zum #AIMasterChallenge-Titel

Die AI Masters Publicis Challenge gliederte sich in einen mehrstufigen Prozess. Startpunkt war ein Startup Pitch auf der DMEXCO 2018:

Sebastian Kratz erklärt, wie wir mit epicAi individuelle Customer Journeys ermöglichen.

Dem Auftakt auf der DMEXCO folgten zwei weitere Pitches, die sich mit dem Einsatz des von epicAi für verschiedene Herausforderungen in den Bereichen E-Commerce und Marketing beschäftigten. Die Präsentationen wurden von der einer 11-köpfigen Jury beurteilt.

Abschließend visualisierten wir unsere Lösungskompetenz am Abend des 24. Januar 2019 mit einem Video. Das hier war unser Beitrag:

„Wir freuen uns riesig über die Auszeichnung und die Bestätigung, dass wir auf dem richtigen Weg sind. Das ist Rückenwind um weiter in den noch sehr jungen KI-Markt vorzudringen. Neben dem Fokus auf den Vertrieb konzentrieren wir uns jetzt auf die konkrete Projektumsetzung mit dem Team von Publicis Media!“

Michael Mörs, CEO

Im Anschluss an die offizielle Preisverleihung folgte direkt ein Videointerview mit Michael. Darin verrät er, wie epicinsights die Jury überzeugte und wofür er das Preisgeld von 25.000€ ausgeben wird:

Die offizielle Pressemitteilung finden Sie hier.
Weiterführende Informationen zu epicAi finden Sie hier.
Wir freuen uns auch über Ihre Zuschriften an info@epic-insights.com.

Pressekontakt:
epicinsights
Jendrik Lutz
Leutragraben 1
Intershop Tower
D-07743 Jena
t: +49 3641 316 99 76
f: +49 3641 573 3301
m: lutz@epic-insights.com

So funktioniert Personalisierung mit Machine Learning Methoden

Effiziente User Journeys trotz Performance Gap

Eine aktuelle KI-Studie zeigt: im Digital-Business wird der Geschäftserfolg entscheidend von einer effizienten und effektiven Personalisierung beeinflusst. Personalisierung meint die nutzerbasierte Ausspielung von Content und Interaktionsmöglichkeiten. Ein typisches Ziel ist z.B. die Optimierung der User-Journey durch Minimierung der Abbruchquote mit Hilfe von personalisierten Empfehlungen.

Künstliche Intelligenz und Personalisierung

Dabei ist es nach wie vor nicht leicht, relevante Empfehlungen an den Mann (resp. die Frau) zu bringen. Das Thema Relevanz ist zwar wichtig, gleichzeitig aber auch schwer fassbar und noch viel komplizierter zu messen. Bisher war Relevanz im dynamischen Datenrauschen lediglich über nicht-repräsentative Umfragen oder post-interaktiv anhand fragwürdiger KPIs annährend evaluierbar. Dank KI-Methoden wird sie nun ganzheitlicher, statistisch greifbar.

Künstliche Intelligenz im Bereich der Website-Personalisierung setzt u.a. auf Machine Learning-Algorithmen. Sie ist in der Lage, Content für verschiedene User Journeys optimal auszusteuern. Für jeden Nutzer sagen Künstliche Intelligenz-Anwendungen die relevanteste Next-Best-Action in Echtzeit vorher und lösen entsprechende Prozesse zur Ausspielung des Contents aus. Aber lässt sich eine User Journey wirklich vollumfänglich und mit wenigen Klicks, quasi Plug and Play, personalisieren?

Anspruchsvolle Künstliche Intelligenz

Ob überall dort, wo KI draufsteht, auch wirklich Künstliche Intelligenz drin ist, mag man bezweifeln können. Denn es gibt einige technische Herausforderungen, die bei der Personalisierung von User Journeys mittels Künstlicher Intelligenz zu beachten sind. Eine davon nennen wir den Performance Gap.

Effektive Personalisierung als Big Data-Problem

Nehmen wir an, die Personalisierungsmethode nutzt als Datengrundlage die große Vielfalt der Verhaltensdaten, welche über Behavior-Tracking kontinuierlich auf der Website bzw. dem Onlineshop eingesammelt wird. Performance Gap bezeichnet in diesem Kontext die Lücke zwischen der vorhandenen und der notwendigen Datenvielfalt (resp. Datenmenge), die ich für ein effektives Training meiner Algorithmen benötige.

Sehr vereinfacht gesagt, brauche ich umfangreiche und gut strukturierte Daten, um Machine Learning-Algorithmen zu trainieren. Auf Grund der Besucherfrequenz einzelner Seiten meines Shops ist die Datendichte für einzelne Schritte einer User Journey jedoch unterschiedlich umfangreich. Prädiktive Algorithmen, die ohne vorherige Sichtung des Daten-Potentials auf verschiedenen Seiten einer Internetpräsenz wahllos implementiert werden, arbeiten unterschiedlich effizient und liefern z.T. unzureichende Resultate. Warum ist das so?

Die natürliche Herausforderung jeder User Journey

Stellen wir uns vor, wir haben einen Online-Shop mit einer sehr einfachen User-Journey. Diese erstreckt sich von der Startseite über die Kategorien bis zu den Produktseiten. Dort angelangt, kann der Besucher Artikel in den Warenkorb legen und von hier aus den Checkout durchführen.

Bekanntermaßen hat jeder Online-Shop entlang dieses „Funnels“ eine nach hinten heraus stark abnehmende Besucherfrequenz auf einzelnen Seiten. Dies ist zum einen dadurch bedingt, dass es am Anfang des Funnels recht wenige Seiten (z.B. Startseite, Kategorien-Seiten etc.) gibt, welche sich nach hinten heraus in eine Vielzahl an Einzelseiten (z.B. Produktseiten) auffächern. Zum anderen gehen mit jedem Seitenwechsel eine nicht unwesentliche Anzahl von Nutzern verloren – aus diversen Gründen. Ganz am Ende, auf der Success-Page des Checkout, bleiben verhältnismäßig wenige Nutzer pro Tag übrig.

Man kann pauschal sagen: Am Anfang habe ich sehr viele User, über die ich sehr wenige Informationen habe. Im weiteren Verlauf der „Reise“ bis hin zum Kauf bleiben mir nur sehr wenige User erhalten, über die ich jedoch sehr viele Informationen (z.B. CRM-Daten) habe.

Für eine effektive Personalisierung gilt es daher, frühstmöglich folgende Frage zu klären: An welchen Orten meiner Website habe ich einen ausreichenden Datenmix um einen Machine Learning-Algorithmus in die Lage zu versetzen, für jeden Besucher die relevanteste Next-Best-Action vorherzusagen?

Die wirkungsvollste Personalisierung an der bestmöglichen Stelle

Um eine wirkungsvolle Künstliche Intelligenz möglichst ressourceneffizient in meine Website zu integrieren, gilt es zunächst, jene Stellen der User Journeys zu identifizieren, welche das größte Optimierungspotential haben. Wenn diese Quick-Wins einmal realisiert sind, geht es an eine schrittweise Ausweitung der Integration. Strategisch sollte neben der eigentlichen Optimierungsstrecke auch immer das Ziel im Auge behalten werden, dass eine konsolidierte User Journey durch alle Seiten hinweg zu einem kontinuierlicheren Datenstrom führen kann. Dies dient der Erschließung neuer Optimierungscases und fördert die sukzessive Schließung aller Performance Gaps auf meiner Seite.

Seit 2016 ist epicinsights Ihr zuverlässiger Datenspezialist und Technologie-Partner für die Verarbeitung und Analyse von mehrdimensionalen Datenräumen. Unsere Teams aus Projektmanagern, Software-Entwicklern, Data Science- und Machine Learning-Spezialisten begleitet Sie in die Welt der Künstlichen Intelligenz – Hands-on mit Leidenschaft, Zuverlässigkeit und einem nachhaltigen Selbstverständnis.

Postskriptum: Welche Tricks und Möglichkeiten nutzen Sie um den Performance Gap zu überwinden?

Berichten Sie uns doch von Ihren Erfahrungen an lutz@epic-insights.com

Wir freuen uns darauf.

Predictive Marketing mit Bottom-Up-Perspektive

Den versteckten Datenschatz mit Hilfe von KI aufspüren.

Operative und strategische Marketingentscheidungen werden zunehmend auf Grundlage einer reichen Datenfülle getroffen. Bisher wurden Business- und Customer-Intelligence-Systeme jedoch hauptsächlich für eine Top-Down-Betrachtung genutzt. Heute hingegen sind Big Data und Künstliche Intelligenz die zukunftsweisenden Stichworte und ermöglichen Predictive Marketing von unten nach oben, durch die Bottom-Up-Perspektive.

Was ist der Unterschied zwischen Top-Down und Bottom-Up?

Wenn ich als Marketing- und Sales-Entscheider auf eine Top-Down-Betrachtung zurückgreife, dann betrachte ich verfügbare Informationen mit meinen strategischen Planvorhaben, Erfahrungen und Annahmen aus einer langen Berufspraxis. Das bedeutet: Meine Zielgruppen leite ich aus den bestehenden Kundendaten und Vertriebskanälen ab. Bei der Planung neuer Kommunikationsmaßnahmen erstelle ich also (bewusst oder unbewusst) ein Spiegelbild – quasi ein Best-of – früherer Maßnahmen. 

Die Bottom-Up-Perspektive beginnt dagegen bei meinen kleinteiligen Daten, die aus meinen Tracking-Instrumenten heraus generiert werden. Die kleinste Einheit ist hier die Session-ID eines Website- oder Anzeigen-Besuchers. Neugierig schaue ich in der Fülle an Informationen nach Trends und nichtlinearen Zusammenhängen, die statistisch nachweisbar in (m)einem Datenhaufen vorhanden sind. In diesem Fall starte ich die Planung meiner Kommunikationsmaßnahmen nicht bei den Erfolgen vergangener Quartale. Bottom-Up orientiert sich viel stärker an den Bedürfnissen, die mir die Daten meiner digitalen Angebote unmittelbar und in Echtzeit kommunizieren.

Top-Down war früher unschlagbar.

Klassischerweise nahm ich als Marketer und Shop-Besitzer eine Top-Down-Betrachtung auf meine potentiellen Kunden ein. Ich suchte in meinem Business Intelligence-Tool und externen Marktforschungsdaten nach den passenden Kennzahlen und überführte diese in meine Strategie. Was kauften meine (potentiellen) Kunden im vergangenen Quartal? Welche Einkommensgruppen gehören zu meiner relevanten Zielgruppe? Welche weiteren sozio-demographischen Merkmale hat welche Gruppe? Damit fand ich hervorragend, wonach ich suchte. Jedoch war der Abstraktionsgrad und die Unschärfe bei diesem Ansatz sehr hoch. Die zentrale Frage: Wie geht man mit Informationen um, die auf Grund der hohen Flughöhe gar nicht erkennbar sind? Welches potentielle Risiko gehe ich ein, essentielle Informationen durch diesen Ansatz nicht wahr-zunehmen? Bin ich mir darüber bewusst, dass ich potentiell wichtige Informationen vernachlässige, weil ich gar nicht weiß, dass es sie gibt?

Warum weiß ich für Predictive Marketing zu wenig?

Für neue Marktanteile brauche ich neue Kunden. Diese erreiche ich mit relevanten Inhalten an relevanten Kontaktpunkten. Mit einer gewissen Erfahrung kenne ich diese, finde meine Nische und die richtigen Stellschrauben, um alle Maßnahmen aufeinander einzustellen. Ich bilde Schablonen und werde effizienter bei der Umsetzung von Maßnahmen. Gleichzeitig laufe ich Gefahr, Trends und Veränderungen zu ignorieren und essentielle Details zu übersehen. Gerade die wahrgenommene Relevanz meiner Themen verändert sich dynamisch – monatlich, wöchentlich, täglich.

Nehmen wir an, das unmittelbare Verhalten meiner Nutzer ist Ausdruck einer abstrakten Kenngröße namens Relevanz, so kann ich dieser KPI Attribute zuordnen und das Thema entsprechend messbar machen. Damit ist es möglich, Kommunikationsmaßnahmen anhand des realen Nutzerverhaltens abzuleiten. Aus der maximal granularen Datenwelt erhalte ich neue Impulse, um regelmäßig aus den Schablonen auszubrechen und neue kommunikative Räume und Zielgruppen zu erschließen.

Was ist Predictive Marketing?

Im Predictive Marketing wird Top-Down nicht durch Bottom-Up ersetzt. Vielmehr öffne ich meinen strategischen Fokus für große Datenmengen und erweitere meine Perspektive, indem beide Ansätze kombiniert werden. Wenn ich bspw. eine Verkürzung der User-Journeys plane, ermöglicht mir die Untersuchung großer Datenmengen (von Unten nach Oben) die Identifikation der richtigen Ansatzpunkte für diese Verkürzung.

Für einen Informationsgewinn durch die Bottom-Up-Betrachtung brauche ich keine neuen Prozesse, Mitarbeiter, Hardware oder Softskills. Moderne Data Mining-Methoden und webbasierte Reportings ermöglichen den Zugriff auf eine Fülle von neuen Insights, ohne meine bestehenden Geschäftsprozesse durcheinander zu bringen.

Im Bottom-Up-Prozess gewonnene Information können die Grundlage für die Erstellung rein datengetriebener, auf echten Verhaltensdaten basierender Personas sein. Diese sind realistischer als klassische Buyer Personas, die aus Marktforschungsabteilungen kommen oder auf einem Bauchgefühl beruhen. 

Predictive Marketing macht meine Kommunikation dynamischer und kundenorientierter.

Mit Hilfe meiner Bottom-Up-Perspektive gewinne ich erstaunliche Einblicke. Und das mit Daten, die ich jeden Tag über meine Website und weitere digitale Kanäle frei Haus geliefert bekomme. Ich erhöhe somit die Vielfalt meiner Marketing-Optionen. Ich erhalte realistischere Informationen über mögliche Entwicklungsfelder und erkenne schneller die Veränderung von Prioritäten.

Alles, was ich dazu brauche, ist ein Abbild von den Besuchern meiner Seite bzw. meines Shops, welches die Verhaltensdaten ALLER Nutzer (unabhängig ob Kunde oder Nicht-Kunde) berücksichtigt. epicinsights nennt diese Form der Nutzerklassifiaktion Fluide Persona.

Mit der Bottom-Up-Perspektive auf fluide Personas gestalte ich mein Marketing zeitgemäß und kann schnell und zielgerichtet auf Veränderungen im Kundenverhalten reagieren. Gleichzeitig ersetzt künstliche Intelligenz nicht meine kreative Arbeit, meine strategische Geschäftsausrichtung und mein Wissen über Marktbedingungen und Konkurrenten. Vielmehr komplementieren Bottom-Up-Informationen klassische Top-Down-Prozesse.

Wie sind Ihre bisherigen Erfahrungen mit Predictive Marketing? Berichten Sie uns doch von Ihren Erfahrungen an lutz@epic-insights.com – Wir freuen uns darauf.

Wie prägt Künstliche Intelligenz zukünftige Effizienzsteigerungen für KMU?

Besonders kleinere und mittlere Unternehmen profitieren von KI

Laut Statistischem Bundesamt sind rund 96% aller Unternehmen in Deutschland sogenannte kleine und Kleinstunternehmen mit weniger als 50 Mitarbeitern. Eine technologisch orientierte Effizienzsteigerung ist für diese Unternehmen existentiell, denn sie operieren mit einem begrenzten Maß an finanziellen und personellen Ressourcen. Gleichzeitig stehen sie durch das Internet und eine fortschreitende Globalisierung in einem übernationalen Konkurrenzkampf.

Mit KI sind für KMUs Kostensenkungen und eine gestärkte Wettbewerbsfähigkeit verbunden

Im Allgemeinen sind die Gründe für KI in KMU neben dem zunehmenden Wettbewerb auch ein erhöhter Kostendruck zu Lasten der Unternehmen. Mehrkosten können oftmals nicht an Kunden weitergegeben werden. Umsatz- und Ertragssteigerungen sollen diese Aufwände daher bei gleichbleibenden Mitarbeitereinsatz egalisieren.

Ein großer deutscher Hersteller für Sportbekleidung setzt deswegen bereits heute auf vollautomatisierte Fabriken. Die Produktivität ist dort 5x höher als im Industriedurchschnitt. Das ist ein eindringliches Beispiel für maschinengestützte Effizienzsteigerung auf deutschem Boden.

Einem aufmerksamen Marketer wird nicht entgangen sein, dass Entwicklungen wie Industrie 4.0 oder auch Big Data-Analytics mit dem Versprechen der Effizienzsteigerung durch Digitalisierung eng verwoben sind. In diesem Beitrag lesen Sie, wie Effizienzsteigerungen durch KI-orientierte Prozessoptimierung möglich werden; zunächst gibt es jedoch eine Begriffserklärung.

Was leistet KI für KMUs?

Der Einsatz von Künstlicher Intelligenz in KMU betrifft vor allem die Ausgestaltung von Geschäftsprozessen auf eine Weise, dass der Wirkungsgrad dieser Geschäftsprozesse optimiert wird. Ziel von KI in KMU ist ein gleichbleibend hoher oder sogar erhöhter (wirtschaftlicher) Ertrag bei gleichzeitig vermindertem Einsatz von finanziellen Ressourcen oder Mitarbeitern.

Häufig werden die Begriffe Optimierung, Produktivitätssteigerung oder auch Effektivitätssteigerung als Synonyme für diese Effizienzsteigerung verwendet.

Was sind datengetriebene Maßnahmen zur Effizienzsteigerung?

Wenn ich als Unternehmer Potenziale der Effizienzsteigerung angehen möchte, dann habe ich im Grunde drei Möglichkeiten: Effizienzsteigerung durch Software, Automatisierung oder Prozessoptimierung.

Die Effizienzsteigerung durch Software geht nur gemeinsam mit den Mitarbeitern.

Tätigkeiten und Aufgaben werden vereinfacht, um (auch mentale) Umrüstzeiten zu verringern. Ihre Mitarbeiter arbeiten mit Softwarelösungen, die ihnen Arbeitsprozesse intelligent abnehmen und damit die Effizienz Ihres Unternehmens steigern. Mehrstufige Business-Prozesse müssen nicht kompliziert sein. Ein durchdachtes Tool kann Ihren Kollegen somit aufwendige Arbeitsschritte abnehmen und sie schneller an das Ziel Ihrer Wertschöpfungskette bringen. Dies wird mittelfristig und in mehreren iterativen Projekten zur Integration selbstlernender Algorithmen innerhalb Ihrer digitalen Prozess-Landschaft führen.

Den Wirkungsgrad ganzer Prozessketten maximieren.

Bei der Effizienzsteigerung durch Prozessoptimierung werden Datenströme solange harmonisiert, bis die Informationen der einzelnen Prozessschritte nahtlos ineinandergreifen. Diese Maßnahme der Effizienzsteigerung ist besonders mit dem Aufstieg der modernen Fließbandproduktion verknüpft und führt bis heute zur Neuausrichtung organisatorischer und technischer Prozesse.

Eine dritte Maßnahme: Effizienzsteigerung ist Prozessoptimierung mithilfe von Automation.

Ein verbesserter Wirkungsgrad wird dabei durch einen verbesserten Input von Ressourcen, eine optimierte Mechanik innerhalb der Geschäftsprozesse und eine Maximierung des Ertrags erreicht. Im Hinblick auf den Aufstieg Künstlicher Intelligenz (KI)  ist jene Effizienzsteigerung durch Prozessoptimierung eine Option, die wohl als nachhaltigste Form der Effizienzsteigerung bezeichnet werden kann.

Effizienzsteigerung durch Künstliche Intelligenz

Besonders im Bereich des Data Strategy Development ist Prozessoptimierung ein Trendthema. Datengetriebene Dokumentenverarbeitung oder Marketing Automation sind typische Beispiele für eine datengestützte Effizienzsteigerung bzw. KI in KMU.

Viele Arbeitsmittel und Ressourcen in Unternehmen sind nur begrenzt verfügbar (z.B. Zeit, Rechenkapazitäten, Know-How etc.). Anders ist dies bei Daten und Informationen. Diese sind kostenlos und werden stündlich neu generiert. Jede Interaktion eines potenziellen Kunden mit unserer Website oder unseren Social-Media-Inhalten ist eine wertvolle Information. Daher ist der Bereich des Zielgruppenmarketings prädestiniert für eine Transformation. 

Die Möglichkeiten zur Effizienzsteigerung beginnen bei einer KI-gestützten Zielgruppenanalyse und erstrecken sich bis zur dynamischen, individualisierten und vollautomatischen Konvertierung.

Wie Mitarbeiter Künstliche Intelligenz implementieren

Die Nachhaltigkeit von KI in KMU steht und fällt mit den Mitarbeitern. Sie tragen die Effizienzsteigerung von Prozessen. Aus diesem Grund ist es sinnvoll die Mitarbeiter mitzunehmen. Künstliche Intelligenz und Data Analytics sollen ihre Arbeit ergänzen und nicht ersetzen. In einem ersten Schritt kann ich den Prozess aus Recherche, Datenerhebung, Gewichtung und Zielgruppensegementierung mit entsprechenden Softwarelösungen und statistischen Verfahren vereinfachen.

Schließlich bietet dieser Prozess noch weitere Optimierungsstufen. Die Ergebnisse dieser Zielgruppensegmentierungen lassen sich vollautomatisch weiterverwenden, sodass Algorithmen passende Produkte anbieten oder sogar ganze Webseiten und Informationsangebote individuell und in Echtzeit optimieren. Mit agilen Projekt-Methoden werden die ersten „Quick Wins“ auf weitere Cases erweitert – entweder vertikal und/oder horizontal.

KI für KMU von epicinsights

epicinsights ermöglicht datengetriebene Erkenntnisse durch eine einzigartige Kombination von Softwarelösungen und statistischen Verfahren zur Erfassung und Verarbeitung anonymer Verhaltensdaten: epicAi. Dieses Big Data Infrastruktur-Framework untersucht große, komplexe und dynamische Datenmengen automatisch, datengetrieben und in Echtzeit auf Ähnlichkeitsstrukturen, Querverbindungen und Trends.

Unser erfahrenes Team aus Projektmanagern, Software-Entwicklern, Data Science- und Machine Learning Spezialisten begleitet Sie in die Welt der künstlichen Intelligenz und liefert maßgeschneiderte Machine Learning basierte Individual-Lösungen entlang Ihrer digitalen Wertschöpfung.

Sie haben eine Datenquelle und möchten herausfinden,
welche Potentiale sich damit aufschließen lassen?

LASSEN SIE SICH BERATEN!

Ist Big Data Analytics eine Business Intelligence-(R)Evolution?

Wann immer ich in den letzten Jahren auf KI-Konferenzen gewesen bin, kam früher oder später die Sprache unweigerlich auf Business Intelligence und Big Data. Doch wie passt das zusammen? Wo sind Überschneidungen und auf welche Veränderungen müssen wir uns einstellen? Wir waren uns immer einig, dass Big Data für alle Geschäftsprozesse ein heißes Thema ist. Deswegen möchte ich hier die wichtigsten Entwicklungen kurz nachzeichnen.

Was ist Business Intelligence?

Die Geschäftsanalyse mit einer Strategic Intelligence-Software ermöglicht die Verbindung von Warenwirtschaft, Customer-Relationship-Management und weiteren Daten in elektronischer Form. Für eine Vielzahl von Fragestellungen liefert mir ein BI-Tool rückblickende Informationen und eine endliche Menge an Diagrammen bzw. Antworten. 

Business Intelligence eignet sich aus diesem Grund vor allem zur Beschreibung von Kundengruppen, Durchschnittswerten oder einfachen linearen Zusammenhängen.

Big Data und Business Intelligence

Im Gegensatz zum Zugriff auf Kennzahlen beschreibt Big Data viel mehr eine besondere Notwendigkeit im Umgang mit komplexen und dynamischen Datenmengen. Um diese Datenströme effizient auszulesen und zu explorieren, reichen klassische Datenbanktechnologien und einfache Regressionsmodelle nicht mehr aus. Solche Daten werden mit Big Data Analytics und Machine Learning-Methoden näher untersucht, um verborgene Zusammenhänge und Muster zu erkennen.

Mit BI-Tools bekomme ich also eine rein deskriptive Zusammenfassung der aktuellen Situation bzw. Vergangenheitsdaten. Ich erhalte damit Antworten auf die Frage nach dem „Was“. Sobald ich aus diesem Datenrauschen Vorhersagen und Zusammenhänge extrahieren und diese automatisch interpretieren möchte, ist klassisches „BI“ unzureichend. Die Frage nach dem „Warum“ und mögliche Handlungsableitungen aus diesen Erkenntnissen bleibt beim BI außen vor.

Big Data Analytics erweitert Business Intelligence-Informationen

Im KI-Zeitalter werden BI-Ansätze um die essentielle Frage nach dem „Warum“ ergänzt. Beschreibende Business Intelligence-Informationen werden mit dem maschinenbasierten „Schürfen“ nach verborgenen Erkenntnissen erweitert. Neu erkannte Zusammenhänge unterstützen mich somit deutlich effektiver bei der Suche nach Optimierungspotentialen in meiner gesamten Wertschöpfung oder Wettbewerbsvorteilen am Markt.

Advanced Analytics-Methoden und Maschinelles Lernen helfen mir also zeitsparend, das „Wie“ und „Warum“ in meinen Daten besser zu verstehen.

Big Data Analytics als Wettbewerbsvorteil

Je komplexer die Datenmengen, desto größer ist der mögliche Informationsgewinn. Durch eine enge Verzahnung von Advanced Analytics und Big Data-Methoden ermöglicht epicinsights eine enorme Informationsdichte. Dieses engmaschige Netzwerk aus Informationen und die darin verwobenen Beziehungen machen wir zu Ihrem einzigartigen Wettbewerbsvorteil!

Für jeden Kunden nutzen wir unsere modulare Predictive Analytics-Plattform epicAi. Diese Zusammenstellung unterschiedlicher technologischer Komponenten gewährleistet eine tiefgehende Identifikation Ihres Datenpotentials und signifikanter Zusammenhänge. Wir verarbeiten und strukturieren große Datenmengen in Echtzeit und können damit u.a. relevante Targeting-Prozesse personalisieren.

Postskriptum: Für welche Fragestellungen arbeiten Ihre Marketing- und Sales-Entscheider mit Business Intelligence-Tools? Berichten Sie uns doch von Ihren Erfahrungen an lutz@epic-insights.com – Wir freuen uns darauf.

Mit welchen 5 Schritte kann ich meine Digitalstrategie entwickeln?

Für den Erfolg des eigenen Unternehmens ist das Gewinnen von Erkenntnissen aus Daten mittlerweile essenziell wichtig. Damit einher geht natürlich auch die Entwicklung einer passenden Digitalstrategie. Denn nur, wer sein eigenes Datenuniversum nutzen kann, dem erschließen sich alle Chancen von Big Data. Der Einstieg in die Welt von Big Data, Advanced Analytics und Co. ist mit einigen Detailfragen verbunden, die wir im Folgenden aufgreifen möchten.

Was meint Big Data eigentlich?

Gartner, Inc. definiert den Begriff durch drei große V:

IBM erweiterte die Definition um Veracity, also die Glaubwürdigkeit bzw. Verlässlichkeit der Daten. Diese Dimension ist in der Praxis äußerst wichtig. Erst die Berücksichtigung der Veracity von Big Data sichert die Aussagekraft meiner Ergebnisse.

Die Erweiterung Value berücksichtigt den unternehmerischen Wert der Daten. Hierbei erfolgt eine Begriffsabgrenzung von „Smart Data“, um den inhärenten Mehrwert bestimmter Daten im Gegensatz zum allgemeinen „Big Data“ hervorzuheben. In diesem Sinne ist Big Data (m)ein großes, potentielles (Daten-) Universum und Smart Data eine Teilmenge davon, verknüpft mit den entsprechenden Business-Zielen und -Informationen, die ich zu einer wertschöpfenden Route verknüpfe.

Big Data ist also sehr breit gefächert und wird zum Teil sehr unterschiedlich benutzt. Dieser Beitrag folgt dem oben dargestellten Verständnis und konzentriert sich darauf, relevante Informationen aus allen Daten zu gewinnen, die zur Beantwortung meiner Fragestellungen verwendet werden können.

Immer der erste Schritt: Mein Big Data-Potential erkennen

Nahezu alle Geschäftsmodelle werden in Zukunft von einer Digitalstrategie profitieren. Es ist jedoch zu beachten, dass es eine One-Fits-All Lösung in diesem Bereich nicht geben wird. Jeder Kunde, jedes Business und jeder Datenraum sind individuelle Größen. Ergeben sich Synergie-Effekte in der Prozessierung, umso besser!

Es macht also wenig Sinn, bereits zu Beginn meines Projekts eine allumfassende und teure Infrastruktur zu implementieren. Stattdessen empfiehlt es sich, zunächst einen abgegrenzten und definierten „smarten“ Versuchsballon steigen zu lassen, um die Aussagekraft und Handhabbarkeit meiner Daten hinsichtlich der zu definierenden Ziele zu testen. Dazu haben sich die folgenden fünf Schritte bewährt:

Digitalstrategie in 5 Schritten

  1. Zielsetzung: Klare Ziele helfen bei der Suche nach Lösungen. Ressourcen & Methoden lassen sich dabei flexibel einsetzen.
  2. Rahmenbedingungen: Die technische Infrastruktur muss angepasst & evtl. aufgerüstet werden. Mitarbeiter sollten über mögliche Veränderungen informiert werden.
  3. Potentialanalyse: Ist der aktuelle (technische) Stand des Unternehmens bekannt, kann an den richtigen Stellen optimiert werden.
  4. Datenaggregation: Alle notwendigen Daten müssen verfügbar & zugänglich sein.
  5. Umsetzung: Die Umsetzung der Digitalstrategie sollte schrittweise erfolgen mit Auswertung der einzelnen Etappen.

Ein möglichst geringer Aufwand für die eigenen Ressourcen und gleichzeitig eine valide Einschätzung meines Big Data-Potentials stehen dabei im Fokus. Angelehnt an agilen Projekt-Methoden suche ich nach sog. „Quick Wins“, teste auf effiziente Weise und im MVP-Modus neue Methoden und Technologien. Erst im Anschluss erweitere ich meine Cases iterativ entweder vertikal und/oder horizontal.

Innerhalb einer Potential-Analyse gilt es vor allem, den Datenraum des Kunden zu erfassen und ein möglichst umfassendes Bild des Status-Quo zu erhalten. Auf der Suche nach einem ersten Use Case z.B. für Machine Learning Anwendungen, welcher effizient und mit gutem Erfolgspotential bestückt sein sollte, ergeben sich meist weitere Ansatzpunkte.

So trifft man nicht selten auf komplett neue Themenfelder und weiterführende Fragestellungen, die selbst in einem sehr frühen Stadium der Big Data Potential-Analyse auf die strategische Unternehmensebene zurückwirken.

Mit welchen Fragen nähere ich mich meiner Datenstrategie und schätze ihre Tragweite ab?
  • Welche Datensilos möchte ich gerne einreißen?
  • Auf welche Daten habe ich Zugriff?
  • Wie kann dieser Datenzugriff mgl. automatisiert erfolgen?
  • Welche Struktur haben meine Daten?
  • Bin ich in der Lage meine Daten selbständig zu aggregieren und zu verarbeiten?
  • Kann ich die notwendige Infrastruktur selbst entwickeln und implementieren? (make or buy)
  • Habe ich „inhouse“ Zugriff auf die dafür notwendigen Ressourcen und fachliche Expertise oder kaufe ich mir diese extern ein?

Mit Data Mining die verborgenen Geschichten in den Daten erkennen

Nach der Aggregierung der entsprechenden Daten, beginnt mit Data Mining das „Schürfen“ nach verborgenen Erkenntnissen. Mit Hilfe dieser multivariaten Methoden, welche Analysen in hochdimensionalen Räumen erlauben, können Strukturen in Daten gefunden werden.

Ein großer Vorteil: Diese Erkenntnisse sind allein durch die reinen Daten definiert und nicht durch menschliche Annahmen verzerrt. So werden häufig grundlegend andere oder neue Zusammenhänge zwischen Daten- und Business-Ebene aufgedeckt, als anfänglich erwartet.

Data Mining bietet sich bei tatsächlich großen und komplexen prozess- und systemübergreifenden Daten an. Der zeitliche Aufwand für eine erste Bereinigung und Aufbereitung dieser großen Datenbestände sollte jedoch nicht unterschätzt werden. Dieser Punkt ist vorab relativ schwer planbar und vor allem abhängig von den Erfahrungen der Experten und natürlich von der vierten Dimension „Veracity“. (siehe oben)

Sind die hohe Erwartungen gerechtfertigt?

An ein Investment in Big Data, Automatisierung und KI Prozesse sind oftmals unterschiedliche Erwartungshaltungen geknüpft. Als CEO möchte ich fundiertere Informationen für strategische Entscheidungen, als CFO günstigere Informationen und als CIO schlankere Prozesse. Das alles kann mit Big Data möglich werden. Dazu müssen lediglich die hier aufgezeigten Fallstricke beachtet werden.

Postskriptum: Sehen Sie in Big Data lediglich ein Buzzword oder eine echte Chance für die Weiterentwicklung ihrer Geschäftsprozesse? Berichten Sie uns doch von Ihren Erfahrungen an info@epic-insights.comWir freuen uns darauf!

Wie Künstliche Intelligenz Onlineshops optimiert

Als Manager eines Onlineshops sehe ich mich ständig neuen Trends und Herausforderungen gegenüber, die es zu beachten gilt. In der Welt des E-Commerce gibt es dabei unzählige Anwendungsfälle, die Künstliche Intelligenz optimieren könnte. Sehr populär sind aktuell die beiden Themenfelder Usability und Produktempfehlungen, da sie vergleichsweise unkompliziert zu realisieren sind. Zudem besitzen sie hohes Potenzial, um mit dem Einsatz von Künstlicher Intelligenz die Conversion-Rate meines Onlineshops zu erhöhen. Schnelle Implementierung und messbare Ergebnisse sind beim Thema KI-Integration kritische Faktoren. Dieser Beitrag nimmt diese beiden Optimierungsfelder auf und beleuchtet sie näher.

Ein häufiger Ansatzpunkt bei den strategischen Planungen meiner Online-Kampagnen sind die Erfahrungswerte vergangener Maßnahmen. Damit sind meine Möglichkeiten jedoch noch lange nicht ausgereizt. Gerade die immer größer werdenden Datenmengen, die täglich auflaufen, bieten mir eine einmalige Chance. Sie helfen mir, meine Besucher noch besser kennenzulernen und und aus den Informationen Schlüsse auf zukünftige Optimierungen zu ziehen. Die Herausforderung dabei: Diese Daten sind ohne maschinelle Hilfe nur schwer miteinander zu verknüpfen. Viele verborgene Zusammenhänge bleiben somit auf der Strecke.

Die Lösung: Künstliche Intelligenz

Künstliche Intelligenz hilft mir, die unmittelbar relevanten Stellschrauben im Shop zu identifizieren und für meine Zwecke zu nutzen. Durch die Möglichkeit, große Datenmengen in Echtzeit zu verarbeiten, zu analysieren und einen Mehrwert daraus zu generieren, entsteht ein klarer Wettbewerbsvorteil.

Für Usability-Optimierungen und Produktempfehlungen lassen sich relativ schnell Use-Cases entwickeln, bei denen Künstliche Intelligenz aus der Masse an Daten einige völlig neue „Insights“ generieren kann. Allgemeines Ziel ist dabei: der User findet genau das, was er sucht – und zwar auf schnellstem Wege.

Usability – Wie macht Künstliche Intelligenz Gutes besser?

Gute Usability beeinflusst den Erfolg jedes Shops maßgeblich. Die kontinuierliche Optimierung der Usability sollte daher ein zentraler Baustein meiner E-Commerce Strategie sein. Doch was zeichnet „gute“ Usability aus? Diese Frage lässt sich einfacher beantworten, wenn man sie auf den Kopf stellt: Wann spricht man eigentlich von „schlechter“ Usability?

Bei schlechter Usability ist das Auffinden von Informationen oder Produkten im Onlineshop umständlich. Hohe Ladezeiten, eine inkonsistente Informationsarchitektur, bis hin zu fehlplatzierten Call To Action-Elementen oder Infos auf den Einzelseiten – die Bandbreite an Usability-Themen ist sehr hoch. So führt z.B. ein unstrukturierter Aufbau dazu, dass User es als anstrengend empfinden, den Shop zu bedienen und in Folge dessen abspringen. Um das zu vermeiden gilt es, den User mit so wenig wie möglich Klicks an sein Ziel zu führen – sei es die Informationsbeschaffung zu einem Produkt, das beste Angebot oder ein Kauf.

Das wiederum bringt uns zu folgendem Problem: Es gibt zahlreiche unterschiedliche User-Typen, die unter Umständen an unterschiedlichen Punkten in ihrer Entscheidungsfindung für den Kauf eines Produktes stehen. Dabei hat jeder unterschiedliche Ziele, Produktkenntnisse und eine andere E-Commerce Affinität.

Zum Beispiel hat User 1 bereits exakte Vorstellungen von dem Produkt. Er oder sie kennt den Hersteller, Produktnamen usw. und möchte auf dem Weg zum Ziel nicht aufgehalten werden. Nennen wir ihn den „Performer“. Eine gute Suche im Shop ist hierbei eine gute Möglichkeit, um diesen User zu seinem Ziel zu führen. User 2 dagegen hat zunächst kein konkretes Kaufinteresse und kommt lediglich zum „Stöbern“ vorbei. So kann dieser User über zusätzliche Bedienhilfen wie Produktteaser, Rabattaktionen oder Beratungs- und Kaufassistenten zum Kauf überredet werden. Dieses Angebot könnte User 1 hingegen eher ablenken und negativ beeinflussen.

Um jetzt beide User-Typen zu einer Conversion im Shop zu bewegen, gilt es, dem jeweiligen User schon möglichst früh den für ihn relevantesten Content und Service-Angebote auszuspielen. Je früher das passiert, desto eher ist der User an seinem Ziel, desto geringer ist die Gefahr, dass er irritiert wird und verloren geht. Der erste Kontakt von User und Produkt ist beispielsweise mit dem Aufrufen der Startseite des Shops verbunden. Genau dort kann man ansetzen. Aber wie schaffe ich es, einem Unbekannten, der zum ersten Mal auf der Startseite meines Shops landet, den passenden Content auszuspielen? Schließlich kenne ich ihn zu diesem Zeitpunkt noch nicht.

Diese natürliche Herausforderung jeder User Journey lässt sich beantworten, indem man auf der individuellen Einstiegsseite des Nutzers die Inhalte anbietet, die für ihn die größte Interaktionswahrscheinlichkeit haben. Das kann für jeden User-Typen unterschiedlich sein: Produkte, die am häufigsten gekauft wurden, Angebote, die einmalig zur Verfügung stehen, oder Inhalte, mit denen ein vergleichbarer User zuvor schon interagiert hat. Maschinelles Lernen sagt diese Inhalte für jeden einzelnen Nutzer treffsicher vorher. Jeder User bekommet damit eine individuell angepasste Lösung. Mittels Künstlicher Intelligenz werden also die User, die nur stöbern und empfänglich für Sonderangebote sind, und auch die „Performer“, mit für sie relevanten Inhalten bedient – und das bereits sehr früh auf Basis noch sehr weniger Daten.

Effiziente User Journeys trotz Performance Gap

Ein konkretes Beispiel: Optimierung mittels Künstlicher Intelligenz

Da man sehr wahrscheinlich über einen längeren Zeitraum viele ähnliche Käufertypen wie diese in seinem Shop hat, sind KI-relevante Optimierungen auf diese Datenbasis aufzubauen. Dazu muss jedoch zunächst der Anwendungsfall konkret definiert werden.

Für User 1-ähnliche Besucher (Performer) könnte dieser lauten:

Für User 2-ähnliche User, also die Stöbernden gehe ich ähnlich vor. Hier werden Content-Typen wie Angebote, Beratungs-Services und Brand-Content möglicherweise positiver wirken – vielleicht sogar Spontankäufe herbeiführen. Das wird meine Datenauswertung zeigen. Entsprechend versuche ich mit Hilfe Künstlicher Intelligenz, frühestmöglich meine Nutzer als Stöbernden zu identifizieren und ihnen sukzessive entsprechende Content-Angebote unterbreiten. In Echtzeit wird die Maschine den Erfolg ihrer Vorhersagen erkennen und entsprechend die definierten Content-Angebote hinsichtlich ihrer Relevanz re-priorisieren.

Produktempfehlungen – nach Relevanz neu sortieren

Eine große Herausforderung ist die ständige, dynamische Anpassung meiner Produktempfehlungen an die veränderlichen Bedürfnisse meiner Besucher. Dabei ist es elementar wichtig, eine Veränderung der Wünsche meiner potenziellen Kunden zeitnah zu erkennen und diesen Trend in Form von personalisierten Empfehlungen zu berücksichtigen.

Anhand von Produktdaten und deren Anbindung an mein CRM-System werden die Recommendation-Engines häufig auf Basis von Nutzer-Käufen in Kombination mit Produkt-Eigenschaften antrainiert und personalisierte Produktempfehlungen ausgegeben. Konkret gesagt: Es werden Käuferdaten und Produktdaten in eine Beziehung gesetzt, um daraus die Kaufwahrscheinlichkeiten bei ähnlichen Nutzern zu errechnen. Denen wiederum spiele ich bei positiver Tendenz diese Produkte aus und optimiere sie stetig hinsichtlich meiner Erfolgsquote.

Künstliche Intelligenz kann solch ein personalisiertes Empfehlungssystem verbessern und wettbewerbsfähiger machen. Die im Hintergrund wirkenden Regeln kommen dann von der Maschine und werden nicht mehr starr durch Regelsysteme vorgegeben. Dabei gilt: Der Fokus liegt ganz auf dem Verhalten potentieller Kunden. Auf dieser Daten-Basis kann ich meine Produktempfehlungen nach Relevanz neu sortieren. Die Maschine verarbeitet mit Hilfe der Algorithmen die hereinkommende Datenflut und verrät mir, inwiefern die Produktempfehlung zutreffend für User waren, die sich im Shop aktiv bewegt haben. Sprich: die Maschine versteht die Zusammenhänge der Elemente, die miteinander agiert haben. Daraus leitet sie ab, inwiefern das Produkt für User 1 relevant war und welches Produkt für User 2 relevant sein wird.

Anhand diesem KI-gestützten Echtzeit-Monitoring der Verhaltensmuster meiner Nutzer und deren Vorlieben kann ich dann schneller erkennen, welche strategischen Impacts für meinen Onlineshop möglich sind. So werden Produkte, die sich gut verkaufen und eine Relevanz zu einem anderen Produkt zeigen – auch wenn diese bisher unbekannt war – als mögliche Cross- und Up-Selling-Möglichkeit aufgedeckt. Ich kann also dem User im Shop zusätzliche oder hochwertigere Artikel im Zuge von personalisierten Empfehlungen dank Künstlicher Intelligenz ausspielen. Genauso gut können Inkonsistenzen zwischen den Produkten, Usern und den Produktempfehlungen, die zu Abbrüchen während der User-Journey führen, erfasst und in den strategischen Planungen berücksichtigt werden. Das beugt z.B. der Ausspielung von Content-Inhalten, die für den User keine Relevanz haben, vor.

Neusortierung der Relevanz ist heute unabdingbar

Mithilfe von Fluiden Personas lassen sich diese erhobenen Verhaltensdaten meiner Nutzer in Profile übersetzen. Diese Profile bilden in Echtzeit vorhandene oder entstehende Trends ab. Darauf aufbauend macht die Unterstützung Künstlicher Intelligenz meine Produktempfehlungen „fluide“. So spielt sie beispielsweise über eine Schnittstelle für jeden User die individuell relevantesten Empfehlungen und Inhalte aus. Durch die selbstlernenden Algorithmen lässt sich dieser vollautomatische Prozess innerhalb kurzer Zeit immer weiter verbessern und sorgt so für eine optimale User-Journey, zufriedene Kunden und folglich zu höheren Conversions.

Ich sehe was, was du nicht bist …

Das alte Konzept der Persona hält oftmals nicht mehr mit der dynamischen Business-Realität mit;
besonders im Hinblick auf die immer diffuser werdenden Datenmengen

HIER FINDEN SIE MEHR INFORMATIONEN

Zusammenfassung

Mit wachsendem Datenaufkommen wird die intelligente Datenverarbeitung zur Schlüsseldisziplin im E-Commerce Business. Grade für die Customer-Experience sind Data Mining und Machine Learning eine gute Unterstützung für echten Business-Value aus den eigenen Daten. Damit können Shop-Manager auf die individuellen Verhaltensweisen ihrer User aktiv reagieren. So erkennen sie auch, welche Produktempfehlung und welcher Content für den jeweiligen User-Typ geeignet ist.

Mittels Künstlicher Intelligenz können Shop-Manager völlig wertungsfrei, rein objektiv und datenbasiert, ihren Onlineshop optimieren, ohne dabei viel Zeit für Daten-Analysen zu verlieren. Sie liefert ihm das, was er auch wirklich wissen will.

Ein Ausblick: Potentiell werden solche Predictive Analytics-Methoden auf zukünftige Anwendungsfälle erweitert. Beispielsweise kann das Tracking von epicAi im E-Commerce Business Content-Inhalte vorhersagen und im Sinne von „Engage“ eine präskriptive Analysetechnik Anwendung finden. Mittels der Vorhersagen lassen sich so vordefinierte Ziele erreichen und anhand dessen gezielt Inhalte ausspielen. Also z.B. eine Vorhersage für einen User, der bereit ist, einen bestimmten Preis für ein Produkt zu zahlen, triggert im nächsten Schritt gezielt Vergünstigungen in Form von Rabatten.

Auf diesem Wege unterstützt Künstliche Intelligenz nicht nur die tägliche Arbeit digitaler Marketeers und Sales Professionals. Sie sorgt weiterhin durch selbstlernende Algorithmen und individuelle Content-Aussteuerung auch für ein personalisiertes und damit maßgeschneidertes Nutzungserlebnis in meinen Shop.

KI, Big Data, Machine Learning, Predictive Analytics usw. kurz erklärt

Der Siegeszug der so genannten „Algorithm Economy“ bringt – wie so oft bei digitalen Trends – eine Menge Wirrungen rund um „neue“ Begrifflichkeiten und Buzzwords mit sich. Egal ob Job-Plattform, Content-Management-System, Bots oder Newsletter-Tool – scheinbar muss alles heutzutage irgendwas mit Künstlicher Intelligenz machen, wenn es fancy sein will. Man bekommt den Eindruck, was früher das Bluetooth, ist heute die KI (oder nennen wir es AI, weil „Artificial Intelligence“ eh viel cooler klingt?)

Fakt ist, nicht erst seit Watson wissen wir – alles ist besser Dank „AI“!

Doch was bedeutet dieser oftmals missverständlich benutzte Klumpen neuer, heilsbringender Zauberworte, die seit einiger Zeit alle Gefilde des Online-Marketings durchziehen, wie es einst Social, Big Data und Co. taten?

Wir räumen auf mit dem Halbwissen rund um die AI-Buzzword-Blackbox! Es folgt eine Begriffs-Spezifikation:

Künstliche Intelligenz /Artificial Intelligence (KI / AI)

Artificial Intelligence (EN) / Künstliche Intelligenz (DE) beschreibt eine spezielle Menge moderner statistischer Verfahren. Ziel Künstlicher Intelligenz ist es, automatisch Entscheidungen auf Basis unzureichend vorliegender Informationen im Millisekunden-Bereich zu treffen. KI ermöglicht die Verarbeitung großer, zum Teil sich widersprechender Datenmengen. Methoden Künstlicher Intelligenz ebnen damit den Weg von „traditionell“ eher „stumpfen“ Entscheidungsregeln hin zu vernetzten, komplexen Entscheidungen durch Maschinen. KI-Methoden sind also in der Lage, das Gesamtbild, das heißt, die Gesamtheit aller verfügbaren Informationen, in ihre Entscheidungen einzubeziehen. Diese Methoden haben damit mehr mit menschlicher Intuition und Intelligenz gemein, als mit fest verdrahteten Programmen klassischer Methoden. Mit Künstlicher Intelligenz lassen sich z.B. Onlineshops optimieren.

Big Data

Big Data ist ein Schlagwort, welches moderne Techniken der Datenanalyse zusammenfasst. Von Big Data ist dann die Rede, wenn die Datenquellen entweder zu groß, zu schnell oder unzureichend annotiert sind und klassische Datenbanktechnologien und Analyseverfahren nicht mehr ausreichen. Für KMUs tritt typischerweise der letzte Fall (unterannotierte Daten) ein. Zur Analyse solcher Daten werden dann Methoden aus dem Bereich der künstlichen Intelligenz und des Data Mining herangezogen. Der Einstieg in das Big Data-Universum ist allerdings mit einigen Detailfragen verbunden.

Data Science

Data Science ist ein interdisziplinäres Feld, welches sich mit der Untersuchung, Verarbeitung und Nutzung von Daten beschäftigt. Es besteht aus modernen Programmierparadigmen, statistischer Methodik und Techniken auch aus dem Bereich der Künstlichen Intelligenz. In der Algorithmic Economy nimmt Data Science eine zentrale Rolle ein.

Algorithmus

Ein Algorithmus ist eine Folge von mathematischen Berechnungen und Anweisungen, die ausgehend von einem Input einen Output generiert. Ein konkretes Beispiel: mit prädiktiven Algorithmen lassen sich Produktkäufe für bis dato unbekannte User vorhersagen.

Machine Learning

Maschinelles Lernen (Machine Learning) bezeichnet das Auffinden innerer Zusammenhänge von Daten ohne menschliches Zutun. Dafür werden nur die Informationen aus den vorliegenden Daten genutzt und menschlicher Bias minimiert. Häufig findet maschinelles Lernen Zusammenhänge, die menschlichen Beobachtern verborgen bleiben. Ziel von Machine Learning ist typischerweise das Training eines sog. Klassifizierers (Algorithmus), um zukünftiges Verhalten vorherzusagen (siehe auch Unstrukturierte Daten)

Deep Learning

Deep Learning ist eine Untergruppe der Methoden aus dem Bereich Machine Learning. Typischerweise kommt der Begriff „Deep Learning“ aus dem Bereich künstlicher neuronaler Netzwerke. Beim Deep Learning wird ein zu lösendes Problem in mehreren Schichten nacheinander analysiert um optimale Ergebnisse zu gewinnen. Jede Schicht dringt dabei tiefer (daher „deep learning“) in die Problemsphäre ein. Obwohl die zugrundeliegende Methodik relativ alt ist, ist der Begriff kürzlich u.a. von Google neu popularisiert worden.

Neuronale Netze

Neuronale Netze sind eine weitere spezielle Methode des maschinellen Lernens. Die neuronalen Netze sind dem menschlichen Gehirn nachempfunden, daher der Name. Derartige Netze haben sehr viele verschiedene Anwendungsfälle und sind typischerweise sehr starke Klassifizierer. Sie eigenen sich aber auch für Regressionen oder zum Clustering.

Data Mining

Data Mining ist ein übergeordneter Begriff deskriptiver analytischer Methoden. Ziel von Data Mining ist dabei nicht die Konstruktion von Klassifizierern (Algorithmen) oder Regressionsformeln für die Vorhersage zukünftigen Verhaltens. Es geht beim Data Mining vor allem um das „Schürfen“ nach verborgenen Erkenntnissen. Solche Erkenntnisse sind nur von den Daten definiert und nicht durch menschliche Annahmen verzerrt. So werden häufig grundlegend andere Zusammenhänge aufgedeckt, als anfänglich erwartet. Ein Beispiel für unerwartete Einblicke sind unsere Fluiden Personas.

Advanced Analytics

Advanced Analytics ist ein Schlagwort, welches die Methoden moderner Statistik zusammenfasst. Dieses Wort soll z.B. Methoden der künstlichen Intelligenz oder des Data Mining von „klassischer“ Statistik abgrenzen. Advanced Analytics sind dabei typischerweise multivariate Methoden, die Analysen in hochdimensionalen Räumen erlaubt, wobei die Daten sehr stark voneinander abhängen.

Descriptive Analytics

Deskriptive Analytics (deskriptive/beschreibende Analysetechniken) hat zum Ziel, den Ist-Stand eines Datensatzes zu beschreiben. Dabei sollen die eigenen Daten, und damit die Kunden, Mitarbeiter oder Arbeitsgeräte, besser verstanden werden, um in Zukunft besser auf sie eingehen zu können. Typische Methoden sind Clustering, Nearest Neighbors oder Hypothesentests.

Predictive Analytics

Mit Predictive Analytics (prädiktive/vorhersagende Analysetechniken) lässt sich von bekannten Daten und Ergebnissen auf unbekannte oder zukünftige Ergebnisse schließen. Typischerweise soll mit sog. prädiktiven Algorithmen von bekannten Ereignissen, über die mehr Informationen vorliegen, auf jene Erkenntnisse geschlossen werden, die erst in der Zukunft eintreten. Damit kann frühzeitig reagiert werden. Beispiele sind das Schätzen von Preisbereitschaft oder den Wünschen des Kunden (die definitiv erst nach dem Kauf bekannt sind), um frühzeitig zu (re)agieren.

Prescriptive Analytics

Prescriptive Analytics (preskritive/normative Analysetechniken) ist eng verwandt mit Predictive Analytics. Ziel ist es, mittels Vorhersagen ein bestimmtes Ziel zu erreichen, also normativ auf den Vorgang einzuwirken. Dies umfasst z.B. die Vorhersage von Preisbereitschaft, um dann gezielt Rabatte auszuspielen, um den Umsatz zu erhöhen.

Strukturierte Daten

Strukturierte Daten sind Daten, für die Relationen untereinander und relevante Information bekannt und z.B. in einer Datenbank abgelegt sind. Dadurch ist es möglich, nach Eigenschaften zu filtern oder zu sortieren. Beispiele sind Alter und Geschlecht in gut geführten CRMs. Relationelle Datenbanken können solche Daten sehr gut verarbeiten.

Unstrukturierte Daten

Unstrukturierte Daten, oder besser: unterannotierte Daten, sind Daten, für die Relationen zwischen den Daten und relevanten Information nicht und nur teilweise bekannt sind. Dadurch gibt es keinen direkten Weg, nach diesen Informationen zu suchen oder zu filtern. Beispiel sind Preisbereitschaft oder relevanter Content im aktuellen Moment. Diese Informationen sind nicht direkt zugänglich und müssen mittels höherer analytischer Methoden geschätzt werden.

Daten-Clustering

Clustering ist eine Unterkategorie des Data Minings. Ziel ist die Zusammenfassung „ähnlicher“ Daten zu größeren Strukturen (Clustern). Dadurch können Grobstrukturen in Daten gefunden werden. Clustering kann entweder durch Teilung des Gesamtdatensatzes (Top-Down) oder durch Zusammenfassung von Einzelpunkten (Bottom-Up) geschehen. Ziel ist typischerweise, die Daten besser zu verstehen, um dann geeignete Maßnahmen zur weiteren Auswertung zu finden.

Classifier

Ein Classifier/Klassifizierer ist ein mathematischer Algorithmus, der vorhandene Informationen auf eine Klassenzugehörigkeit abbildet. Ein Beispiel ist ein Algorithmus, der als Input die bisher besuchten Websites eines Nutzers entgegennimmt und eine Geschlechtszugehörigkeit für den Nutzer ausgibt. Classifier operieren typischerweise auf unvollständigen Informationen, sodass diese Ausgabe selten perfekt ist. Die Ausgabe wird deshalb häufig „Schätzung“ genannt.

Regression

Eine Regression ist ein mathematischer Algorithmus, der vorhandene Informationen auf eine oder mehrere reelle Zahlen abbildet. Ein Beispiel ist ein Algorithmus, der als Input die bisher besuchten Websites entgegennimmt und die Preisbereitschaft schätzt. Regressionen operieren typischerweise auf unvollständigen Informationen, sodass diese Ausgabe selten perfekt ist. Die Ausgabe wird deshalb häufig „Schätzung“ genannt.

Übrigens ist dies keinesfalls eine vollständige Liste.

Sie dient als erster Versuch, einen groben Überblick über die verschiedenen Methoden und Bereiche zu geben. Welche Technologien und Methoden zum Einsatz kommen, wenn man „mal etwas mit Künstlicher Intelligenz“ machen möchte, ist u.a. stark vom Anwendungsfall, dem Ziel und der Qualität der vorliegenden Daten abhängig.