Richtige Entscheidungen ohne Zögern: KI Forecasting in der Bedarfsplanung

Für Online-Händler ist es essentiell, seine Warenbestände in Abhängigkeit von Verkaufsperformance und Lieferzeiten für Neuwaren im Blick zu behalten, um Überbestand, Warenknappheit oder gar Out-of-Stock-Situationen zu vermeiden. Die letzten Jahre waren dabei geprägt durch Lieferkettenprobleme, aber auch eine starke Nachfrage auf der Käuferseite während der Corona-Pandemie. Kurzum, das Online-Geschäft ist hochdynamisch und besonders bei einem großem Sortiment und vielen Distributionswegen ist Balancieren von Warenbeständen eine große Herausforderung. Damit die Orchestrierung zwischen Verkaufsperformance, Warenbeständen und Lagerprozessen gelingt, gibt es allerlei hilfreiche Wege, welche die Entscheidungsfindung für Warenbedarfe unterstützen sollen.

Im folgenden Beitrag soll es daher um die Einsatzmöglichkeiten von KI-basierten Assistenten gehen, die für mehr Zeit bei der Entscheidungsfindung im Warenmanagement sorgen können.

Warum ist eine Warenwirtschaftssoftware mit KI sinnvoll?

Eine Warenwirtschaftssoftware ist vor allem dafür ausgelegt, Waren- und Bestelldaten sowie Fullfillment-Prozesse zu verwalten. Sobald das Online-Geschäft eine gewisse Komplexität erreicht, kann es durchaus Sinn machen, zusätzliche Analyse- und Prognose-Fähigkeiten auf das ERP-System aufzusetzen, um die Auswertungsfähigkeit und strategische Entscheidungen zu fördern. Besonders für Multichannel Online-Händler ergeben sich hierdurch spannende neue Chancen für die Auswertung der eigenen Geschäftsaktivität. Eine Künstliche Intelligenz (kurz: KI) kann beispielsweise dafür sorgen, Absatz und Bedarfe langfristig zu prognostizieren und Empfehlungen für Warenbestellungen zu geben.

Bei allen KI-Anwendungen gilt die Grundregel: Je besser die Datengrundlage ist, mit der die Modelle trainiert werden, desto exakter ermittelt eine Forecasting-KI Prognosen und Trends für zukünftige Zeiträume. Aber auch ohne eine bereits perfekt orchestrierte Datenwelt können KI-Projekte eine gute Chance sein, um fehlerhafte oder falsche Daten, sowie systemische Probleme zu identifizieren. Händler reduzieren nachhaltig durch inkonsistente Daten ausgehende Business-Risiken, indem sie mittels KI-Modellen gezielt und in kürzester Zeit millionenfach Datensätze prüfen lassen und somit Anomalien und Inkonsistenzen aufdecken, die sonst im Verborgenen blieben. Durch die Kombination von verschiedenen Analyse- und KI-Modellen ergänzen ERP-Systeme um zuverlässige Prognosedaten, welche die Logistikprozesse im Verkauf, aber auch im Einkauf deutlich einfacher koordinierbar machen.

Eine KI kann dabei unterstützen, diese Challenges im Alltag von Multichannel Händlern zu bewältigen:

Einsatzmöglichkeiten von Warenwirtschaftssoftware mit KI

Methoden des Maschinellen Lernens bzw. KI-Modelle werden in vielen Facetten genutzt, um die Analyse und Verarbeitung von ERP-Daten zu verbessern. Die Entscheidungsfindung in Logistikprozessen und in der Verkaufsplanung unterstützt eine KI mit konkreten Berechnungen und Empfehlungen. Zur Einordnung unterscheidet man „KI“ in folgende Advanced Analytics-Bereiche:

Künstliche Intelligenz ist also dafür geeignet, Geschäftsprozesse zu automatisieren und so die Effizienz in Handelsunternehmen zu erhöhen. Dabei gilt es, die Komplexität für die Anwender zu reduzieren und aus der komplexen Datenlage heraus wichtige Informationen zusammenzutragen, um Handlungen daraus abzuleiten. Die nachhaltige Automatisierung von Prozessen im Warenwirtschaftsmanagement spart damit Zeit und Ressourcen. Sie reduziert zudem Risiken und Fehler im System, die ggf. unentdeckt blieben.

Woher weiß ich, ob eine KI für mein Business geeignet ist?

Warenwirtschaftsmanagement im großen Stil erfordert ein System mit hoher Leistung und der Fähigkeit jeden Tag viele Daten zuverlässig zu verarbeiten. Um herauszufinden, welche KI-Architektur eine optimale Ergänzung zu ihren etablierten Warenwirtschaftsprozessen ist, gilt es zunächst die Qualität, den Umfang, die Aktualität sowie die Validität Ihrer ERP-Daten zu analysieren. Dazu werden in einer sogenannten Potenzialanalyse mehrere Schritte durchlaufen, die das Datenpotenzial und die Implementierungschancen evaluiert.

Wenn alle Kriterien hinreichend erfüllt sind, erarbeitet das interdisziplinäre Team die passenden Modellierungs- und Prozess-Komponenten, welche sich in Ihre bestehenden Business-Logik und Ihre individuellen Prozesse einfügen. Das Ziel ist eine robuste, wartbare und einfach zu bedienende Lösung, mit der Anwender im Tagesgeschäft effizient arbeiten können.

Wagen Sie gemeinsam mit uns von epicinsights den Sprung. Wir führen einen unverbindlichen Quick Check Ihrer Daten durch. Für mehr Infos rund um das Thema KI in der Warenwirtschaft und zu den einzelnen Schritten Ihrer Potenzialanalyse stehen wir gern immer bereit. Sprechen Sie uns einfach an!

Besser vorausplanen mit Forecasts von Castly

Castly ist eine Warenwirtschaftssoftware mit KI, die Ihre täglichen Herausforderungen im Multichannel E-Commerce lösen kann. Das Tool liefert Predictive Analytics, die Ihre komplexen Datenstrukturen intelligent aufbereitet und Bedarfsplanung zum No Brainer macht.

Daten Quick Check anfordern

Maximale Vorhersagequalität aus minimalen Daten mit Fluide Personas

Setzt Google mit FLoC jetzt auf Fluide Personas?

Es war ein Paukenschlag für die digitale Werbewelt, als Google vor wenigen Wochen das Ende des personalisierten Werbetrackings in seiner jetzigen Form ankündigte. Bis zuletzt blieb zwar noch ein etwas zwiespältiges Gefühl haften, woher der selbstlose Sinneswandel auf Google´s Cashcow-Thema wohl kam. Immerhin machte Google die Ankündigung inmitten der 3rd-Party-Cookie-Enddebatte, während Apple und Facebook gerade richtig ins Werbetracking-Battle durchstarteten. Zusammen mit der Ende Januar ebenfalls von Google angekündigten Privacy Sandbox für Chrome und mit dem allgemeinen Privacy-First-Trends bei Browsern deutet vieles auf einen schneller werdenden Strukturwandel im Markt hin. Inwiefern dieser auch zu einer stärkeren Machtzentralisierung führt, bleibt zu beobachten.

Müssen Targeting- und Personalisierungsinstrumente zukünftig mit immer weniger Daten auskommen?

Bei stetig sinkender Datenvielfalt durch Tracking-Einschränkungen steigen gleichzeitig die Anforderungen der Kunden und Werbetreibenden in Sachen Zielgenauigkeit und KPI-Benchmarks. Wie kann das funktionieren?

Der Schlüssel steckt – wie so oft – in der algorithmischen Verwertung der Daten. Wie kann man die Auflösung der bestehenden Daten verbessern? Welche Methoden eignen sich dafür, aus einem minimalistischen Datenansatz maximale Vorhersagegenauigkeit zu ziehen? Diese Fragen beschäftigen uns seit 2015. Unsere Antwort: Fluide Personas.

Es wird also Zeit, sich die neuartige Cookie-Free-Personalisierungslösung von Google (FLoC) näher anzuschauen und mit unseren Fluiden Personas (FLuP?) zu vergleichen. Also: FloC vs. FLuP… Los geht’s:

Wie funktioniert FLoC?

FLoC heißt Googles System hinter dem neuen „Interest based advertising“ Konzept. FLoC bedeutet „Federated Learning of Cohorts“.  Bisher wurden mittels Third-Party-Cookies alle Nutzer individuell auf Websites getrackt. Stark vereinfacht erklärt, wurden in der „alten Welt“ Herr Müller und Frau Maier also eins zu eins im Internet verfolgt. Mittels User-IDs wurden dabei ihre detaillierten Vorlieben und ihr Verhalten gespeichert. Die Tracking-Informationen wurden taxonomisch auf passende Werbetargetings gematcht. Wenn Herr Müller und Frau Maier also z.B. in der Zielgruppe der Werbetreibenden waren oder eine bestimmte Seite besucht hatten, bekamen sie eine entsprechende Anzeige ausgespielt, insofern die Tracking-ID passte.

Mit dem Federated Learning of Cohorts werden Nutzer auf Grund ihrer Eigenschaften und ihres Verhaltens auf Websites in Gruppen bzw. Kohorten eingeteilt. Dadurch sollen Einzelpersonen in der Menge verschwinden. Damit das gelingt, findet die sogenannte k-Anonymität Anwendung. Hierbei werden die Nutzer in so große Kohorten eingeteilt, bis keine Rückschlüsse mehr auf Einzelne möglich sind. Zum Schutz der User-Privatsphäre erfolgt die Verarbeitung der gesammelten Informationen geräteintern. Algorithmen auf dem Endgerät selbst weisen den Nutzer einer bestimmten Kohorte zu. Es wird also kein Cookie mehr generiert, der Daten des Users übermittelt. Laut Google haben Tests bereits gezeigt, dass Werbetreibende mit mindestens 95% der Conversions rechnen können, die sie bisher aus Third-Party-Cookies generiert haben. Mit verbesserter Datenlagen sollen sich die Ergebnisse weiter steigern.

Wie ähnlich sind sich FLoC und FLuP?

Der datenschutzkonforme Ansatz von Fluiden Personas, wie auch von Googles FLoC geht davon aus, dass es für Personalisierung prinzipiell unnötig ist, zu wissen, wer Herr Müller und Frau Maier eigentlich sind. Stattdessen wird nach Mustern und Ähnlichkeiten im Verhalten des gesamten Schwarms gesucht, zu denen ein Nutzer am ehesten passt, um daraus Prognosen für die Zielerreichung (z.B. Kauf) abzuleiten.

Das Individuum geht in der Gruppe auf

Ein User wird bei FLoC genau dem Schwarmverhalten bzw. dem segmentierten Cluster zugeordnet (Gruppen-IDs), das seinem Verhalten entspricht. Statt über seine individuelle Tracking-ID wird jeder User nachträglich über die Gruppen-ID werbeseitig adressierbar. Laut Google verschwindet der User damit aus Datenschutzperspektive im Schwarm von vielen. Spannend wird weiter zu beobachten sein, wie Google den Trade-off zwischen Anonymität und Individualität setzen wird (k-Anonymität). Denn hierbei verhalten sich die Faktoren Größe einer Gruppe und Grad der Individualisierung (der Anzeigen) gegensätzlich zueinander.

Bei Fluiden Personas und dem verbundenen Tracking gehen wir ähnlich vor

Bei Fluiden Personas als Grundlage für Content-Personalisierung von Websites läuft die Personalisierung ähnlich wie bei Google. Es werden Gruppen auf Basis der Zielerreichung gebildet (z.B. Nutzer, die ein bestimmtes Produkt gekauft haben). Bei der personalisierten Content-Ausspielung werden nur Parameter des Echtzeitverhaltens beobachtet und in Relation zu den zuvor trainierten Daten aus der Gruppe verglichen, die das Ziel (z.B. Conversion) ebenfalls erreicht haben. Die jeweiligen Gruppen (bzw. Segmente) werden dabei über rein algorithmisch festgelegte Eigenschaftssammlungen des Verhaltens definiert. Es wird also auf der Gruppe trainiert und die Ergebnisse der Vorhersagen pro Individuum ausgespielt, ohne dass es wichtig ist, wer das Individuum genau ist. Auch hier geht also der Einzelne in der Gruppe unter.

Statt einen Nutzer (auf Cookie-ID-Ebene) in der Tiefe zu analysieren und auf mehr oder weniger lückenhaften Datenfragmenten eins zu eins zu bearbeiten, werden alle „oberflächlichen“ (nicht personenbezogenen) Signale und Metadaten aller Nutzer als Trainingsgrundlage der Personalisierungs-KI genutzt. Da je nach Anonymisierungslevels für den Einsatz einer künstlichen Intelligenz ggf. nicht genug Daten vom Einzelnen vorhanden sind, bedient man sich der passenden Daten aus der ähnlichsten Gruppe. Die Anreicherung mit Schwarmdaten ist wichtig, denn ohne genug „Datenfutter“ können die Algorithmen nicht sauber arbeiten. Die Gruppierung selbst läuft nur im KI-Training, in welches alle anonymisierten Verhaltensdaten einfließen und welche nicht auf das Individuum zurückführbar sind. Bei Fluiden Personas erfolgt die Entscheidung und Ausspielung des Contents komplett browserseitig und in Echtzeit. Sie hinterlässt keine Datenspuren über den Moment der Ausspielung hinaus.

Der Nutzer bleibt 100% anonymisiert.

Datengenerierung vs. Traffic entlang der User Journey in einem Online-Shop

Eine weitere Säule, auf der die hohe Genauigkeit unserer Personalisierungs-KI baut, ist die Datenbasis selbst. Wir haben kein eigenes technisches Ökosystem, keinen eigenen Browser, mit Millionen von Nutzern. Unsere Kunden ebenfalls nicht. Das brauchen wir auch nicht, da wir für unsere Kunden nur im Mikrokosmos ihrer Markenwelt agieren und dort sinnvolle Daten aggregieren wollen. Daher werden für Fluide Personas getreu dem Motto „Werde Herr im eigenen Datenhaus“ Daten auf First-Party-Ebene generiert. Die Vorhersage-Algorithmen laufen auf den rohen Verhaltenseigenschaften, die auf Grundlage unserer einzigartigen Tracking-Engine deutlich mehr Daten auflösen, als es herkömmliche Tools leisten. Mit 200-facher Datenauflösung im Vergleich zu am Markt gängigen Lösungen gibt es hier nochmal ordentlich Datenboost für das Training der Künstlichen Intelligenz.

Das Konzept von Fluiden Personas und Google FLoC ist also tatsächlich sehr ähnlich, auch wenn es methodisch einige Unterschiede gibt. Im Vergleich zu Google arbeiten Fluide Personas quasi auf mikroskopischem Level (a.k.a. der Website oder dem Shop einer Marke). Die algorithmische Verarbeitung ist entsprechend granular. Google muss hier Faktor 1.000.000.000 größer ansetzen. Entsprechend sind die methodischen Ansätze hinter der Philosophie verschieden und technische Vergleiche sparen wir uns lieber komplett. Die Ergebnisse von FLoC sollen lt. Google mindestens genauso gut sein, wie die „alte“ Variante. Wir wissen, dass dieser datenschutzfreundliche Ansatz im Mikrokosmos „Website“ unserer Kunden sehr gut funktioniert. Wir sind daher guter Dinge, dass Google das entsprechend auch im Scale „Internet“ schafft. 

Fazit: Eine personalisierte User Experience und Datenschutz schließen sich nicht aus

Die Personalisierungsphilosophie hinter FLuP und Googles FLoC verfolgt die gleichen Ansätze: Statt die einzelne Ameise auf dem Ameisenhaufen zu beobachten, blicken wir auf den gesamten Ameisenhaufen und versuchen Muster und Strukturen im Verhalten aller zu erkennen. Wenn ein einzelner User ein ähnliches Verhalten, wie das einer zuvor entdeckten Gruppen zeigt, werden hierüber die Zielerreichung des Individuums vorhergesagt und entsprechend passende Content-Angebote ausgespielt. Bei Fluiden Personas erfolgt dieser Abgleich mit jedem neuen, noch so kleinen Signal, das empfangen wird, während der User auf der Website surft.

Fakt ist: Personalisierung und Datenschutz sind vereinbar! Es muss Transparenz und Selbstwirksamkeit beim Nutzer hergestellt werden, darüber zu entscheiden, wie stark seine Interessen und die Vorteile eines personalisierten Angebots genutzt werden. Und es muss endlich ein Ende haben, Nutzer in statische Schubladen zu packen, aus denen es kein Entkommen gibt. Statt allein auf persönlichen Eigenschaften aufzusetzen, muss der Dynamik und Veränderlichkeit des digitalen Wesens Rechnung getragen werden. Denn: Einer guten Personalisierungsengine muss es egal sein, welches Geschlecht und Einkommen ein Nutzer hat. Der Brückenschlag zwischen Datenaggregation und Transparenz ist eine große Herausforderung, die es zu lösen gilt.

Bei FLoC sind aktuell noch viele technische und datenschutzseitige Fragen offen – besonders im Bereich Transparenz und Beeinflussbarkeit des Users selbst. Mit seinem technischen Ökosystem rund um Chrome und Android hat Google mit oder ohne FLoC, mit oder ohne Cookies, weitreichenden Zugriff auf alle Daten. Es bleibt spannend, wie sich die Entwicklungen fortsetzen, wie viel Machtverschiebung und Verdrängung der Strukturwandel für den Markt bedeuten werden. Und nicht zuletzt gilt zu beobachten, wie dieser Strukturwandel mittelfristig in der Mediawelt nachhallt und ob intelligente, unbürokratische Standards gefunden werden, die Nutzerinteressen und Werbeinteressen miteinander vereinen können.

Wollen Sie mehr über Fluide Personas erfahren?

Lassen Sie sich von uns beraten!

3 Herausforderungen für KI-Projekte im Unternehmen

Sie sind an eigenen KI-Projekten interessiert, wissen aber noch nicht so recht, wo und wie Sie anfangen sollen? Hier finden Sie drei Herausforderungen, die Sie dabei beachten müssen. Natürlich liefern wir Ihnen auch passende Lösungen, diese zu überwinden.

1 KI-Projekte brauchen eine klare Zielstellung

Die Integration von intelligenten Assistenten mit Hilfe von entsprechenden KI-Projekten ist mittelfristig ein unausweichlicher Schritt Richtung Digitalisierung. Gemäß einer Bitkom-Studie halten 72% der befragten Unternehmen Künstliche Intelligenz für einen relevanten Trend bei ihren Investitionsplanungen. Viele Entscheider haben hohe Erwartungen an die Technologie und dem daraus (erhofften) resultierenden Mehrwert für ihr Unternehmen. Doch wer die Sache ohne klare, datengetriebene Business Strategie und Zieldefinition angeht, verzettelt sich schnell.

Zu Beginn eines KI-Projekts muss konkret festgelegt werden, was damit erreicht werden soll. Welchen Business Impact will ich aus dem Einsatz von KI generieren? Wichtig ist hierbei vor allem, realistische Ziele zu setzen. Ebenso muss sich frühzeitig um die Skalierbarkeit und Integration Gedanken gemacht werden. Nur so können einmal erprobte Lösungen im Anschluss vertikal und horizontal um weitere Use Cases ergänzt und in die Wertschöpfung integriert werden. Für die Festlegung dieser Ziele sollten sowohl die Daten- und Analyseteams als auch entsprechende Fachbereiche und Entscheider mit einbezogen werden. Durch den Austausch zwischen Führungskräften und Datenexperten wird nicht nur sichergestellt, dass Künstliche Intelligenz am richtigen Ort Anwendung findet, sondern auch, dass Ihr KI-Projekt mit den allgemeinen Geschäftszielen konform ist.

2 Häufig fehlt es für KI-Projekte an Daten & Infrastruktur

Ohne nutzbare Datenbasis arbeitet auch der beste KI-Assistent nicht wirklich intelligent. Vor allem die Datenqualität und -quantität sind entscheidend für verlässliche Ergebnisse der Machine Learning Modelle. Viele Unternehmen besitzen diese Daten schon, die Herausforderung besteht viel mehr darin, sie zu erfassen, effektiv zu nutzen und auszuwerten. Ein Beispiel hierfür sind die sogenannten Dark Data. Eine weitere Herausforderung, vor allem für KMU, stellt zu häufig die (fehlende) Infrastruktur für die Speicherung und Verarbeitung der benötigten Datenmenge dar. Die unterschiedlichen Komponenten müssen sehr schnell aufeinander reagieren, im Problemfall ineinandergreifen und eben auch die Fallbacks kennen.

Die Lösung beider Probleme ist die Anpassung bzw. Optimierung der unternehmenseigenen Datenarchitektur. Diese muss den neuen Anforderungen gerecht werden, aber auch ausreichend flexibel sein, um mit dem Erfolg mitzuwachsen. Datenwissenschaftler und -analysten profitieren ebenfalls von diesem Infrastruktur-Update. Verbesserte Speicherlösungen, Methoden der Erfassung und Tools zur Verarbeitung von Daten erleichtern ihnen die Arbeit.

3 Kosten & Ressourcen sind nicht zu unterschätzen

Natürlich ist auch der Kosten- und Ressourcenaufwand für solche KI-Projekte nicht zu vernachlässigen. Besonders kleine und mittlere Unternehmen operieren mit einem begrenzten Maß an finanziellen und personellen Ressourcen. Für sie ist es schwieriger, die notwendigen Mittel freizumachen. Hinzu kommt, dass oftmals Fachkräfte fehlen und damit ebenso das nötige Know-How.

Doch auch diese Hürden sind überwindbar. Kosteneffiziente Lösungen für kleinere Unternehmen sind KI-Frameworks, welche aus funktionalen, abgestimmten Einzelkomponenten bestehen, die sich auch separat integrieren lassen. Das erspart dem Unternehmen die Bereitstellung riesiger Rechenressourcen, ermöglicht aber dennoch den Zugriff auf leistungsfähige KI-Lösungen, die mit dem zunehmenden Erkenntnishunger mitwachsen.

Fakt ist: Jedes Unternehmen muss bei der Entscheidung zum Einstieg in die Welt der KI dafür sorgen, dass konsequent und nachhaltig finanzielle Mittel, Zeit und Ressourcen zur Verfügung stehen, um diese Reise zum Erfolg zu führen. Rückschläge müssen einkalkuliert werden; es darf aber auch mit Erkenntnissen gerechnet werden, die zu erfragen zuvor niemand in der Lage gewesen wäre.

epicinsights ist Ihr kompetenter Berater für alle Themen rund um Künstliche Intelligenz. Mit einem umfassenden Tech-Stack und unserer eigenen Big Data-Infrastruktur realisieren wir für Sie maßgeschneiderte Data-Lösungen und unterstützen Sie auch beim Aufbau datenzentrierter inhouse Teams und Anwendungen.

Möchten Sie Ihr eigenes KI-Projekt starten?

Wir unterstützen Sie!

Data Science als Baustein der eigenen Wettbewerbsfähigkeit

Immer mehr Unternehmen erkennen die Wirkung, die Data Science auf ihre Wettbewerbsfähigkeit hat. Ein eigenes inhouse Data Team macht Data Science zu einem essenziellen Bestandteil der Unternehmensstrategie. Nach 5 Jahren am Markt sehen wir starke Trends zum Insourcing und plädieren absolut dafür. Data Science ist ein Inhouse-Thema!

Data Science und Machine Learning Teams müssen jedoch sehr gut in die Unternehmensstruktur und -kultur integriert werden, damit sie positive Wirkungen entfalten können. Die Gründung eines Data-Teams (oder einer „Data Unit“) und das richtige Stuffing sind an sich bereits große Herausforderungen – aber nur der erste Schritt.

Hier geben wir einen Überblick über verschiedene Integrationsmöglichkeiten einer Data Unit ins Unternehmen.

Dezentrale Data Science-Lösungen

Dezentralisiert arbeiten die einzelnen Datenexperten direkt in den verschiedenen Unternehmensabteilungen. Dazu kommt es vor allem dann, wenn sich die Nachfrage nach Data Science Expertise organisch entwickelt und über die Jahre hinweg vergrößert. Die Abteilungen bemerken ihren Bedarf an Datenanalyse und stellen entsprechendes Fachpersonal ein.

Ein Vorteil dieser Lösungen ist, dass die Data Scientists durch ihre Verankerung in einer Abteilung sehr nah am Tagesgeschehen und damit sensibler für die zu lösenden Probleme sind. Sollte es doch Rückfragen geben, ist zudem eine direkte und schnelle Abstimmung mit den Auftraggebern möglich.

Doch diese Modelle haben auch einige Nachteile. Die Zersplitterung der Data Scientists macht eine Standardisierung der Prozesse und Methoden fast unmöglich. Die einzelnen Datenwissenschaftler kommen zumeist nicht miteinander in Berührung. Das erschwert den Data Science-spezifischen Wissensaustausch und verhindert Synergieeffekte. Darunter leidet am Ende auch die Wettbewerbsfähigkeit, wenn wichtige Zusammenhänge und Verschränkungen unerkannt bleiben. Höhere Kosten für Tools und Infrastruktur sowie ein Effizienzverlust sind die Folgen.

Dezentrale Data Science-Lösungen eignen sich am besten für Unternehmen, die weniger Priorität auf datadriven setzen. Doch auch Unternehmen, die erst am Anfang der Integration von Data Science stehen, profitieren von diesen Lösungen. Auf dem Weg zur eigenen inhouse Data Unit sind dezentrale Lösungen zunächst kosten- und ressourcensparender.

Embedded Model

Ein Beispiel für eine dezentralisierte Data Science Lösung ist das Embedded Model. Hierbei teilt sich das Data Science Team nach Bedarf auf unterschiedliche Abteilungen auf, je nach dem, wer ihre Arbeit gerade braucht. Die einzelnen Datenwissenschaftler berichten trotzdem an einen zentralen Head of Data Science. Sie können eine einheitliche Prozess- und Tech-Umgebung aufbauen und nutzen.

Vorteil dieses Modells ist bspw., dass in den einzelnen Abteilungen Datenexperten als Teil eines multidisziplinären Teams vor Ort sind und die Problemstellungen mit den Fachbereichen gemeinsam lösen. Zudem vereinfacht dieses Modell vor allem für kleinere Unternehmen den Managementaufwand, der bei einem zentralen Data Science Team anfallen würde.

Durch die ständige Zuweisung in verschiedene Abteilungen kann sich jedoch nur schwer ein Zugehörigkeitsgefühl aufbauen und der eigentliche Teamgedanke und der so wichtige und notwendige Austausch innerhalb des Data Teams geht verloren. Wegen der Dezentralisierung und Arbeit in den einzelnen Abteilungen werden Optimierungen außerdem nur lokal vorgenommen. Die Gefahr von Insellösungen und Silo-Anwendungen ist hoch. Einen langfristigen Mehrwert für das Unternehmen liefern jedoch eher globale Strategien und ganzheitlich gedachte Optimierungsprojekte.

Auch dieses Modell eignet sich eher für Unternehmen, die bei data driven Strategien am Anfang stehen. Es kann für als Vorstufe – quasi „Experimentierphase“ betrachtet werden, um Data Science langfristig als Kernelement zu verankern. Abteilungen werden schnell handlungsfähig, Mehrwerte können direkt evaluiert werden und das hilft dabei, die Unternehmenskultur auf „data driven“ ganzheitlich vorzubereiten.

Zentrale Data Science-Lösungen

Hierbei ist ein Team an Data Scientists für alle im Unternehmen anfallenden Data Science Fragestellungen zuständig. So kommen sie mit den verschiedensten Projekten und Anforderungen in Berührung.

Vorteilhaft ist bei diesem Modell vor allem die Wissensbündelung an einem Ort. Durch den direkten Austausch der Datenwissenschaftler unter einander lässt sich die Fachkompetenz schneller ausbauen und Spezialisierungen vereinfachen. Zumeist ist auch der Teamleiter ein Experte in Sachen Data Science und damit in der Lage, die anfallenden Aufgaben effizient zu verteilen.

Ein sich daraus ergebender Nachteil ist jedoch die Isolationsgefahr des Data Teams vom Rest des Unternehmens. Die Datenwissenschaftler sind nicht direkt im Tagesgeschäft involviert und verlieren möglicherweise den Blick für das große Ganze. Zudem wird die Kommunikation mit anderen Abteilungen erschwert. Es dauert eine Weile, um Team und Infrastruktur lauffähig zu haben. Dafür muss sichergestellt werden, dass zwar ein notweniger Austausch mit Fachabteilungen stattfindet, aber operative Aufgaben des Tagesgeschäfts nicht die übergeordneten Ziele des Data Teams kannibalisieren.

Eine zentralisierte Data Unit eignet sich vor allem für große Unternehmen. Die diversen und riesig anfallenden Datenmengen (Stichwort: Big Data) erfordern stetig wachsende Analysen und dementsprechend auch ausgebildete Analysten. Der Mehrwert des zentralen Teams kann vor allem durch die Verbindung der Datentöpfe und die Betrachtung aus einer ganzheitlichen Perspektive geliefert werden. Wichtig bei dieser Lösung ist jedoch vor allem, die Analyse Funktion der Unit nicht zu einer Support Funktion für andere Abteilungen werden zu lassen.

Center of Excellence Model

Ebenso zentralisiert ist das Data Science Team beim Center of Excellence Model (CoE) als eigene Abteilung angelegt. Die Erwartung hierbei ist, dass die Unit unabhängig vom Rest des Unternehmens arbeitet, um ungestört forschen zu können. Daher wird das Data Science Team auch als Innovationsschmiede des Unternehmens betrachtet. Ein dabei häufig auftretendes Problem ist, die Data Unit zu sehr vom Unternehmensalltag abzuschirmen. Die Datenwissenschaftler sind dadurch weder mit Infrastruktur noch Geschäftsmodell des Unternehmens vertraut und können so auch keine passenden Lösungen liefern.

Andererseits können sich durch die starke Zentralisierung dieses Modells die Data Science Teammitglieder vollkommen auf ihre Arbeit fokussieren und innovative Ideen entwickeln; was unter anderen Umständen nicht so einfach möglich ist. Das Center of Excellence Model ist zudem auf verschiedene andere Arten von Abteilungen oder Teams anwendbar. Für große Unternehmen ist bspw. ein eigenes KI Center of Excellence denkbar.

Wie bereits angemerkt, kann bei diesem Modell das fehlende Wissen über die Unternehmensprozesse ein Problem darstellen. Darüber hinaus ist es für KMU sehr kostenintensiv, ein solches Expertenteam von Grund auf aufzubauen; hier eignen sich vermutlich andere (dezentrale) Lösungen besser.

Erfahrungsgemäß erfolgt die Integration von Data Science in Unternehmen oftmals nach dem gleichen Ablauf. Zunächst kommen dezentrale Lösungen zum Einsatz. Wie bereits angemerkt, erfolgt diese Art der Integration durch die organisch steigende Nachfrage nach Data Science in den einzelnen Abteilungen. Ist dieser erste Schritt gemacht, schafft das Embedded Model eine Vorstufe zur alleinstehenden Data Unit. Die einzelnen Datenwissenschaftler sind zwar noch auf die Abteilungen verteilt, berichten aber an einen zentralen Head of Data Science. Ab hier ist es nicht mehr weit zur vollständigen Zentralisierung und eine eigenständige Data Unit nur der logische nächste Schritt.

Hybride Modelle

Neben den dezentralen und zentralen Modellen für die Integration eines Data Science Teams im Unternehmen gibt es auch Modelle, die sich keiner der beiden Arten eindeutig zuordnen lassen. Diese entstanden aus der Praxis heraus; die Unzulänglichkeiten der starren Modelle sollten ausgemerzt und ihre Vorteile wiederum gebündelt werden.

Democratic Model

Dieses Modell lässt jeden im Unternehmen zum Datenwissenschaftler werden; zumindest in der Theorie. Durch Business Intelligence Tools und übersichtliche Dashboards hat jeder Mitarbeiter die Möglichkeit, Unternehmensdaten in seine Arbeit mit einzubeziehen. Das Modell ist außerdem mit verschiedenen anderen kombinierbar, bspw. auch mit dem Center of Excellence Model.

Das entlastet die Datenwissenschaftler in ihrer Arbeit. Dadurch können sie sich auf größere Problemstellungen oder Optimierungen konzentrieren. Zudem ist die Investition in Infrastruktur und entsprechende Tools langfristig sehr lohnenswert. Angestellte werden in die Arbeit mit Daten einbezogen und entdecken den Mehrwert, der daraus entsteht.

Natürlich ist die Integration solcher Systeme nicht nur kosten-, sondern auch aufwandsintensiv, was sich nicht jedes Unternehmen leisten kann. Fraglich ist auch, ob die Anwendungen später im Tagesgeschäft überhaupt genutzt werden. Darüber hinaus sind diese Dashboards noch lange keine Datenwissenschaft, dafür sind sie viel zu unterkomplex. Wer also wirklich data driven werden will, braucht ein entsprechendes Expertenteam an seiner Seite.

Wie wäre es mit epicinsights? Wir sind langjähriger Berater für große und kleine Unternehmen rund die Themen Data Science und Künstliche Intelligenz. Wir realisieren wir für Sie maßgeschneiderte Data-Lösungen, Prozesse und unterstützen Sie auch beim Aufbau datenzentrierter inhouse Teams und Anwendungen.

Sie haben eine Datenquelle und möchten wissen,
was generell damit möglich ist?

Wir unterstützen Sie!

IoT liefert die Daten, KI kümmert sich um die Interpretation

Das Internet der Dinge (Internet of Things, IoT) wird unsere Zukunft maßgeblich verändern. Damit das gelingt, braucht es jedoch eine weitere zukunftsweisende Technologie: Künstliche Intelligenz.

Vorteile der Zusammenarbeit von IoT und KI

Das Internet der Dinge und Künstliche Intelligenz bilden die Zukunft der digitalen Welt; beide müssen dafür Hand in Hand gehen. Diese Kooperation wird durch die Verbindung von Künstlicher Intelligenz (engl. AI) und IoT als Artificial Intelligence of Things, kurz AIoT bezeichnet. Erst der Einsatz von KI macht Dinge wirklich intelligent. IoT-Geräte führen Datenanalysen in Echtzeit durch. Daraus entsteht ein nie versiegender, kontinuierlicher Datenstrom.

Genau dort liegt die bisherige Schwachstelle vieler KI-Projekte. Auch wenn die Datenmenge auf den ersten Blick ausreichend erscheint, sind die nimmersatten Algorithmen am Ende doch unterversorgt. Das, was nach Cleaning, Transformation und Modellierung übrig bleibt, um ein sehr spezifisches Problem zu lösen, ist oftmals nur ein Bruchteil des Ursprungsdatensatzes. Die intelligenten Maschinen und Geräte stellen durch ihre Vielzahl an Sensoren hingegen immer wieder neue Echtzeitdaten zur Verfügung.

Im Umkehrschluss profitiert IoT ebenfalls von KI; denn die Künstliche Intelligenz macht auch sogenannte Post-Event-Analysen der Datensätze möglich. Mittels Deep bzw. Machine Learning lassen sich innerhalb der gesammelten historischen Daten wiederkehrende Muster erkennen und analysieren. Das ermöglicht bspw. dem Staubsaugeroboter zuhause, aus seinen Einsätzen zu lernen und irgendwann gezielt in bestimmte Räume fahren zu können.

Zudem macht KI IoT sicherer. Durch das kontinuierliche Monitoring und die Mustererkennung lassen sich normale Aktivitäten schnell und zuverlässig von Angriffen auf die Systeme unterscheiden.

AIoT in der Praxis

Eine IDC-Studie mit Befragten des weltweiten Top-Managements ergab bspw., dass AIoT die Wettbewerbsfähigkeit der Unternehmen im zweistelligen Prozentbereich erhöhte. Als Indikatoren dafür zählten Mitarbeiterproduktivität, Innovationskraft und operative Kosten. Zudem konnten Nutzer von AIoT-Lösungen bspw. auch ihre operativen Vorgänge um 53% beschleunigen.

Wie groß das Potenzial von AIoT für die Qualitätssicherung ist, wird in einem großen deutschen Unternehmen für Elektrotechnik deutlich. Eine automatische optische Inspektion senkte hier die Dauer der Qualitätstests um 45%; das ersparte dem Unternehmen Kosten von 1,3 Millionen Euro. AIoT senkte zudem die Rate nicht erkannter Defekte auf 0% und die Anzahl falscher Alarme auf unter 0,5%.

Ganz anders setzt eine Modekette AIoT im täglichen Geschäft ein. TORY, ein eigens entwickelter Serviceroboter, fährt seit seiner Pilotphase 2015 bereits durch viele Geschäfte. Nach Ladenschluss bewegt er sich selbstständig durch die Läden und scannt die RFID-Tags (Radiofrequenz-Identifikation) der Waren für die Bestandsaufnahme. Dabei erfasst er die genaue Anzahl und Position der Produkte, um Fehlbeständen und Lieferengpässen vorzubeugen. TORY übernimmt damit auch die Stichtagsinventur, die zuvor durch einen externen Dienstleister durchgeführt wurde.

Wie sieht die Umsetzung konkret aus?

Die folgende Grafik soll vereinfacht darstellen, wie AIoT im Alltag eingesetzt und genutzt werden kann:

Auf der linken Seite ist die physische Welt abgebildet, in der sich alle (A)IoT-Geräte und -Maschinen befinden. Die Menge der dort gesammelten Daten wird kontinuierlich in die digitale Welt übermittelt.

Zunächst muss dieses riesige Datenrauschen bereinigt und die essenziellen bzw. geschäftskritischen Daten herausgezogen werden. Daraus entsteht Wissen darüber, was vor wenigen Minuten an den Geräten passiert ist. Eine Produktionsmaschine könnte bspw. über einen zukünftigen Mangel informieren und Reparaturdienste anfordern. TORY meldet zum Beispiel, dass eine Herrenjacke in einer bestimmten Farbe oder Größe nicht mehr im Laden vorhanden ist.

Mit diesen Informationen lassen sich Entscheidungen treffen und zukünftige Ereignisse vorhersagen. Die daraus abgeleiteten Handlungen beeinflussen rückwirkend wieder die physische Welt. So entsteht ein zuverlässiger Kreislauf aus Datenerfassung und -analyse.

epicinsights ist Ihr kompetenter Berater für alle Themen rund um Künstliche Intelligenz. Mit einem umfassenden Tech-Stack und unserer eigenen Big Data-Infrastruktur realisieren wir für Sie maßgeschneiderte Data-Lösungen und unterstützen Sie auch beim Aufbau datenzentrierter inhouse Teams und Anwendungen.

Möchten Sie Ihr eigenes KI-Projekt starten?

Wir unterstützen Sie!

Recap: Rise of AI 2020, die Konferenz für Künstliche Intelligenz

Dieses Jahr hat es in sich, nicht nur für die Event- und Messeszene, aber vor allem die! Wie jedes Jahr hat man feste Must-Go Termine. Rise of AI ist einer davon. Seit 2016 besuche ich das Event, durfte selbst schon auf der Bühne stehen. Stets bin ich über die spannenden Menschen erfreut, die das Event konzentriert und die ich bisher über die Jahre kennenlernen durfte!

Dieses Jahr ist alles anders. Alles neu. die Pandemie, so anstrengend sie ist, ist auch disruptiv und schafft Dinge, die vorher nur wenig attraktiv oder „einfach“ wirkten. Aber was muss, das muss. So haben Veronika, Fabian und ihr Team das Event dieses Jahr auf 99% digital umgekrempelt – mit viel Aufwand und Leidenschaft. Und das mit Erfolg!

Zeit für ein kleines Recap:

2 Tage voller spannender Vorträge, daran hat man sich ja eigentlich schon gewöhnt bei der Rise of AI. 😉 Also, was gabs Neues? Zusammengefasst kann man festhalten: Das Thema KI wird „erwachsener“. Statt sich trauen, heißt es nun immer stärker, sich den Flaum abstreifen, die Ärmel hochkrempeln und anpacken. Auf Blessuren einstellen, diese wegstecken lernen, das Ziel ins Auge fassen und noch einen Gang höher schalten, bitte! (Quasi das Gegenteil von dem, was im Falle Streetscooter bei der Post passierte)

In vielen Keynotes ging es nicht weniger als um die Wege, wie KI den PoC Status in Unternehmen verlassen und „erwachsen“ werden kann. Der Schlüssel dabei: Business Impact & Scalability. Und das von Beginn an!

Darin verbergen sich keine kleinen Wünsche, darin steckt echte Arbeit und viel Komplexität auf Infrastruktur, Prozess, HR und organisatorischer Ebene. Experimentieren ok, aber bitte mit Weitsicht und es muss was bringen – fürs Business. Es ist schön, dass diese Erkenntnis die Event-Bühnen erreicht hat! Und bei einem weiteren Punkt sind sich alle Keynotes einig: AI ist disruptiv, nicht nur technologisch, sondern auch im Sinne eines zwingenden Change Prozesses, der einmal quer durch die Organisation laufen muss, bis hin zur Unternehmenskultur und dem Mindset von Management und Co. KI ist keine reine Spielwiese (mehr), kein Add-on oder „Modul“, es verlangt aber ein Spielwiesen-Mindset im C-Level, bei Politik und bei allen Förderern. Ebenso wie Risikobereitschaft. Und Durchhaltevermögen! Denn die Chancen überragen die Risiken bei weitem und für „German Angst“ darf gerade kein Platz sein. Stattdessen mehr Neugier, mehr Experimentierfreude, weniger Bürokratie, weniger Vorsicht…mehr Zuversicht! Dieser Narrativ schwebt leider nicht erst seit diesem Jahr über den KI-Bühnen des Landes…

Es tut sich was in Germany, das sieht man an einer großen Portion neuer KI Initiativen und Cluster, die entstehen. Wie z.B. die von Merantix, KI Park Deutschland und KI Berlin. Dabei eine persönliche Bitte: Keine geographischen Silos bauen! Regionale Cluster sind wichtig und gut. Und sie entstehen bzw. wachsen mit großen Erfolg. Aber es muss eine übergreifende Strategie her, die alle Spots aktiv verbindet. Denn KI-Expertise ist in Deutschland verteilt und fragmentiert auf verschiedenste Business Bereiche und Regionen. Der alleinige Fokus auf lokale, virtuelle Hotspots reicht nicht. (auch die Berlin-Power allein reicht nicht… sorry guys 😛 ). Besonders nicht, wenn man in den Dimensionen „Europa“ und „Global“ denken will. Eine große Aufgabe, das zu bewerkstelligen, aber meiner Meinung nach ein wichtiger Schritt in die gemeinsame Zukunft!

Noch ein paar Gedanken zum Thema Remote Event. Zugegeben, ich hatte einige Vorbehalte gegenüber digitalen Events. Habe die meisten gemieden. Ich bin auch absolut kein Fan von: „Lass Konzept A auf Paradigma B portieren – wird schon genauso gut klappen!“. Z.B. beim Thema Messen schön zu beobachten. Oder vor 10 Jahren, als PR nun Social Media machen musste. Das Copy & Paste von bewährten Konzepten in neue Welten hat noch nie wirklich gut geklappt!

Es war mein erstes Digital-Event, bei dem ich 2 Tage von Anfang bis Ende dabei war. Naja fast. Ich mag Live-Events, networking, drinking, talking. Nette Leute treffen, in real und Person! Dieses Jahr gab es das leider nicht. Ich fand es schwer zu fokussieren, wenn man zuhause oder im Büro mehrere Stunden am Stück streamed. Zu viel Ablenkung. Vor Ort hat man keine Wahl, da gibt es die volle Injektion. Feinster Eskapismus. Das ist gut und wichtig. Quasi wie ein 48h Dauer-Energieschub, den man wieder mit nach Hause ins besinnliche Saaletal nehmen und dort fürs Business weiter verdauen kann. Das hat man natürlich remote nicht in der Ausprägung. Dafür kann man die Sessions aber nach und nach über mehrere Tage häppchenweise konsumieren. Sich etwas Zeit blocken, wo man Ruhe finden kann. Das war gut und führt zu einem weiteren Vorteil: Man kann alle Sessions sehen, während man in live wegen überschneidender Slots und Networking eben einige verpasst und es deutlich stressiger ist.

Das Networking und der Realtalk gehen verloren, das ist die (leider sehr weittragende) Downside des Modus. Aber das ist nicht ROAI-spezifisch, nicht Event-spezifisch. Das betrifft gerade den allgemeinen (Zwischen-)Zeitgeist, der hoffentlich 2021 wieder endet.

Das schöne an diesem Event war, dass es nicht allzu starke Placement-Vorträge gab, viel Quality Input. Sehr gut getaktet und wie immer gut moderiert, gern mehr davon!   

So, well: Nach 4 Jahren ROAI, Hut ab an Fabian und Veronika für ihr nimmermüdes Engagement! Freude auf ROAI’21, stay safe!

Cheers, Michi

Wie das Internet der Dinge mit Hilfe von KI alles verändert

Das Internet der Dinge (engl. Internet of Things, IoT) stellt die Verbindung zwischen realer und digitaler Welt her. Seit Jahren wächst diese Technologie kontinuierlich und auch für die Zukunft werden goldene Zeiten und fast grenzenlose Möglichkeiten für das Internet der Dinge prognostiziert. Welche Vorteile IoT für Ihr Unternehmen bietet und welche Rolle Künstliche Intelligenz dabei spielt, erfahren Sie im Folgenden.

Was ist das Internet der Dinge?

Die Bezeichnung ist eigentlich selbsterklärend: Verschiedenste Gegenstände werden mit dem Internet vernetzt und sind dadurch in der Lage, selbstständig miteinander zu kommunizieren und Aufgaben zu erfüllen. In Abgrenzung zu dieser Definition wird das klassische Internet als Social Internet bezeichnet, weil hier Menschen untereinander bzw. mit Maschinen kommunizieren. Im Internet der Dinge lassen sich Geräte hingegen nicht allein von Benutzern steuern, sondern kommunizieren durch Machine-to-Machine-Communication direkt miteinander und können Aufgaben so auch komplett automatisiert erfüllen.

Die Anwendungsbereiche von IoT sind vielfältig. Sie ermöglichen Innovationen wie Smart City, -Industry, -Health und natürlich Smart Home; alles wird intelligent! Connected Cars, die untereinander kommunizieren und auf Gefahren oder nahende Verkehrsprobleme aufmerksam machen oder Industrieanlagen, die drohende Mängel vorhersagen und selbstständig das passende Ersatzteil bestellen und den Techniker rufen, sind nur zwei Beispiele.

Für private Haushalte bedeutet IoT zum Beispiel, dass ein intelligenter Kühlschrank in Zukunft selbstständig „merkt“, wann sich bestimmte Lebensmittel dem Ende neigen und bestellt diese unter Umständen vollkommen autonom nach. Und das alles ist erst der Anfang; das Internet der Dinge wird unser gesamtes Leben künftig maßgeblich verändern und eine Menge Komfort und automatisierte Prozesse schaffen. Die Einsatzmöglichkeiten sind dabei nahezu unendlich.

Was bedeutet die Industrie 4.0 für Unternehmen?

Auch die Arbeitswelt wird sich durch das Internet der Dinge stark wandeln. In der Industriebranche spricht man abweichend nicht vom IoT, sondern von IIoT, dem Industrial Internet of Things. Im Deutschen hat sich stellvertretend dazu seit längerem der Begriff Industrie 4.0 etabliert. Wie im Privathaushalt sind auch hier die einzelnen Geräte untereinander vernetzt, nur handelt es sich dabei nicht um Toaster oder Staubsauger, sondern oftmals um riesige Produktionsmaschinen und -anlagen. Ziel dieser Vernetzung ist eine Produktion zu garantieren, in der sowohl die Maschinen als auch die Menschen effizient miteinander kommunizieren und kooperieren. Das optimiert die gesamte Wertschöpfungskette und reduziert gleichzeitig Kosten.

Vorteile des IIoT

Besonders in der Produktion erweist sich IIoT als nützlich. Die Maschinen liefern kontinuierlich und meist in Echtzeit eine Vielzahl verschiedener Daten. Diese Datenbasis ermöglicht nicht nur einen genaueren, sondern auch einen aktuelleren Blick auf das eigene Unternehmen und die zugrundeliegenden Prozesse. Durch diese prädiktiven Informationen lassen sich bspw. Wartungskosten und Neuinvestitionen zuverlässig planen.

Die übermittelten Daten werden allgemein als Maschinendaten bezeichnet. Diese lassen sich nach einfachen Datenpunkten und komplexen Datensätzen unterscheiden. Erstere werden kontinuierlich bzw. bei möglichen Veränderungen aufgezeichnet und sind daher Prozessdaten. Sie werden mit dem entsprechenden aktuellen Wert und einem Zeitstempel abgespeichert. Damit lässt sich der Zustand der Maschinen über die historischen Datenreihen hinweg analysieren. Die komplexen Daten werden als zusammenhängende Datensätze aufgezeichnet. Neben dem Zeitstempel enthalten sie zusätzlich genaue Informationen zu den Datenobjekten, welche die Daten geliefert haben (bspw. Produktionsaufträge, Maschinennummern etc.). Die im Datensatz enthaltenen Daten sind daher abhängig vom jeweiligen Anwendungsfall; es handelt sich also zum Beispiel um Prüfergebnisse oder Verbrauchsdaten.

Ein entscheidender Vorteil der Prozessdaten ist ihre Rolle bei der Optimierung der Maschineninstandhaltung. Hier ergeben sich zwei Möglichkeiten:

Herausforderungen

Die Digitalisierung stellt für so manche KMU eine Hürde dar. Auch die Implementierung von IoT-Produkten kann zum Problem werden. So sind beispielsweise in der Produktion nicht alle Maschinen auf dem neusten technischen Stand und die Anschaffungs- bzw. Anpassungskosten sehr hoch. Um jedoch automatisiert Maschinendaten erfassen zu können, ist eine durchgängige Vernetzung Grundvoraussetzung. Maschinen benötigen für die zumeist IP-basierte Vernetzung entsprechende Netzwerkkomponenten. In modernen Maschinen sind diese bereits fertig verbaut und müssen nur noch aktiviert und konfiguriert werden.

Darüber hinaus sind die Technologien für das Internet der Dinge viel fragmentierter als im „Internet der Menschen“, was die Kommunikation der Geräte untereinander angeht. Die dafür notwendigen einheitlichen und unabhängigen Standards und Kommunikationsprotokolle sind bisher noch nicht hinreichend etabliert.

Eine Studie von Kaspersky zeigt, dass mittlerweile auch die Sicherheit von IIoT-Systemen in Gefahr ist. 28% der Befragten gaben an, 2019 bereits Sicherheitsprobleme mit IoT-Plattformen gehabt zu haben. Vor dem Einsatz von IoT sollten Unternehmen diese Sicherheitsfragen also genau evaluieren und präventiv in entsprechende Schutzsysteme investieren. Auf dem Spiel stehen Datenschutz, die Sicherheit der Systeme und Anlagen sowie der allgemeine Arbeitsschutz.

Daneben ändert sich durch die Industrie 4.0 auch die organisatorischen Ebenen vieler Unternehmen. IoT und die Digitalisierung lassen neue Geschäftsmodelle entstehen. Um auf dem Weg ins digitale Zeitalter nicht auf der Strecke zu bleiben, braucht es mutige und kreative Visionäre, die bereit sind, diesen neuen Weg zu beschreiten. Daneben ist auch qualifiziertes Personal mit hoher IT-Affinität und Datenkompetenz notwendig, um diesen Weg zu ebnen.

Weitere Branchen, die das Internet der Dinge verändern wird

Nicht nur die Produktion wird von IoT/IIoT profitieren. In der Logistikbranche ist der Einsatz von IoT-Systemen bereits weit verbreitet. So werden unter anderem die Fahrzeugrouten durch GPS-Tracking erfasst und sowohl Kunden als auch Unternehmen können den aktuellen Ort ihrer Ware gezielt nachverfolgen.

Auch für autonomes Fahren wird das Internet der Dinge essenziell werden, damit die Fahrzeuge untereinander sicher vernetzt sind und kommunizieren können. Für die besonders wichtige Übermittlung von Echtzeitdaten braucht es zudem den 5G Mobilfunkstandard.

Für das Marketing und den Vertrieb werden besonders die neuen verfügbaren Datenmengen von großem Nutzen sein. Detaillierte Informationen zu Produkten, der Produktnutzung und dem Kaufverhalten liefern ganz neue Einblicke in das Tagesgeschäft. Dadurch ist es zukünftig noch besser möglich, auf die individuellen Bedürfnisse der Kunden einzugehen und ihre Customer Journey bestmöglich zu personalisieren.

epicinsights ist Ihr kompetenter Berater für alle Themen rund um Künstliche Intelligenz. Mit einem umfassenden Tech-Stack und unserer eigenen Big Data-Infrastruktur realisieren wir für Sie maßgeschneiderte Data-Lösungen und unterstützen Sie auch beim Aufbau datenzentrierter inhouse Teams und Anwendungen.

Möchten Sie Ihr eigenes KI-Projekt starten?

Wir unterstützen Sie!

Auf die Tastaturen, fertig, los! – Makeathon 2020

Wir freuen uns sehr, ein Partnerunternehmen des diesjährigen Makeathons der Lichtwerkstatt Jena sein zu dürfen. Dieser findet im Rahmen der Photonics Days 2020 am 21. und 22. September statt. Dieses Jahr ist das gesamte vom Fraunhofer IOF und der Max Planck School of Photonics organisierte Netzwerkevent komplett online, bedeutet: Jeder kann von überall aus mitmachen!

Makeathon

Der Makeathon startet am 21. September 10 Uhr und endet 22 Uhr. Die Aufgabe wird darin bestehen, originelle hard- und softwarebasierte Lösungen für eine reale Problemstellung zum Thema Optik und Photonik zu entwickeln.

Klingt interessant? Dann schnell sein: Die Anmeldefrist wurde auf den 18. September bis 12 Uhr verlängert. Hier geht’s zur Registrierung. Wir freuen uns auf euch und eure Ideen!

Photonics Days

Die Photonics Days bieten eine gute Möglichkeit für Studierende und Promovierende sich mit Vertretern innovativer Unternehmen der Optik- und Photonikbranche zu vernetzen. Das Programm hält dabei vielfältige Möglichkeiten für spannenden Input bereit: Neben verschiedenen Keynotes und Pitches können sich Teilnehmende auf der digitalen Karriere-Messe am 22. September von Vertretern renommierter Unternehmen hinsichtlich Beruf und Bewerbung beraten lassen. Um bei all diesen Informationen einen kühlen Kopf zu bewahren und alles zu verarbeiten, sind natürlich auch Mittags- und Kaffeepausen im Programm eingeplant.

Wie überwinden wir den Survivorship Bias bei der Nutzersegmentierung?

Zunächst ein Throwback: Während des 2. Weltkriegs untersuchten die Engländer vom Einsatz zurückkehrende Flugzeuge auf ihre Schäden und Einschüsse. Ziel war es, die Panzerung der Flugzeuge daraufhin an den Stellen zu verstärken, wo besonders viele Einschüsse verzeichnet wurden.

Der Mathematiker Abraham Wald stellte jedoch damals klar, dass dieses Vorgehen einem Trugschluss unterliegt. Es wurden dabei nämlich nur die rückkehrenden Flugzeuge geprüft; also die, die den Einsatz überstanden hatten. Um die Rückkehrquote der Flieger zu verbessern, müssten jedoch die untersucht werden, die nicht zurückkehrten, also die abgestürzten Flugzeuge. Natürlich war das nicht möglich. Daher legte er nahe, vielmehr die Stellen zu verstärken, die nicht getroffen wurden; denn die beschädigten Bereiche der zurückgekehrten Flugzeuge hinderten die Maschinen augenscheinlich nicht am Fliegen.

Was ist der Survivorship Bias?

Es geht also beim Survivorship Bias darum (oder besser bei der Vermeidung dieser kognitiven Verzerrung), nicht dem Trugschluss zu erliegen, dass das vermeintlich naheliegendste zweifelsfrei als das „richtige“ angenommen wird. Es geht darum, nicht direkt sichtbare Ereignisse einzubeziehen und sich darüber bewusst zu werden, dass Erfolge überbetont wahrgenommen werden. In den scheinbaren Niederlagen liegen jedoch möglicherweise viel mehr Informationen, die es zu hinterfragen gilt. Es geht um einen bewussten Perspektivwechsel.

Survivorship Bias und Nutzersegmentierung im E-Commerce
Quelle: t.ly/lDxW / CC BY-SA 4.0

Wie passt das jetzt auf den E-Commerce und das Thema Nutzersegmentierung?

Der Sachverhalt lässt sich tatsächlich sehr gut auf das Analysieren der eigenen Zielgruppe im Online Business, prototypisch im E-Commerce, übertragen. Auch hier ist das Ziel klar: Mehr Kunden gewinnen, mehr Verkäufe generieren, mehr User zur Rückkehr bewegen.

Ich schaue mir im CRM an, wie die Kunden aussehen, die ich schon gewonnen habe. Denn über sie habe ich viele Informationen. Ich kenne ihre Käufe, ihr Geschlecht, ihren Wohnort, ihr Nutzerverhalten und einige Metadaten.  

Darauf aufbauend entwickle ich dann Personas, meine Kundenprofile, die ich wiederum als Basis für das Targeting verwende. Logisch: Ich analysiere, wer meine Kunden sind und suche nach Personen, die als potenzielle Neukunden in Frage kommen. Ich baue mir also über die passenden Eigenschaften entsprechende Schablonen und versuche neue Nutzer zu finden, die in diese Schablone passen. Über Targeting-Möglichkeiten wie Lookalike Audience kann ich diese sogar durch einige ihrer Eigenschaften gezielt „vermehren“ und mit Hilfe anderer Plattformen nach ähnlichen Nutzern Ausschau halten.

Dieses Vorgehen birgt jedoch eine Reihe von Problemen:

Im „klassischen“ Vorgehen ist die Gefahr also sehr hoch, dass ich dem Survivorship Bias unterliege; zumindest, wenn ich nicht konkret auf Bestandskundenentwicklung fokussiert bin, sondern Neukunden gewinnen möchte.

Denn: Nur diejenigen zu betrachten, die kaufen, sagt mir noch lange nicht, wie ich solche konvertiere, die nicht kaufen.

Wie kann ich den Survivorship Bias im Online Business minimieren?

Die (zu) einfache Antwort: Hört auf, Nutzer in Schablonen bzw. Schubladen zu pressen! Dieser antiquierte Ansatz ist weder dynamisch, noch hat er irgendetwas mit der Realität eurer Nutzer zu tun. Schablonen haben nur einen einzigen Sinn: Sie machen die komplexe Welt einfach, verständlich, handhabbar. Andererseits steht diese fälschlicherweise verkleinerte Welt fernab der Realität, die leider sehr komplex und chaotisch ist. Menschen lassen sich in ihrem Verhalten nicht in Schablonen pressen. Ein Kunde, der heute ein bestimmtes Verhaltensprofil hat, kann morgen oder übermorgen ein ganz anderes haben, mit anderen Zielen, Intentionen und Bedürfnissen. Das „klassische“, starre Segmentierungsvorgehen bildet diese Dynamik nicht ab. Kurz gesagt lasse ich als Unternehmer viel Potenzial ungenutzt.

Der Lösungsansatz: dynamischer und kundenorientierter!

Um mir ein umfängliches Bild über meine Nutzer zu verschaffen, darf ich mir nicht ausschließlich die Käufer anschauen, sondern muss ALLE Nutzer mit im Blick haben. Und um besser zu verstehen, wie ich Nutzer konvertiere, muss ich mir die anschauen, die nicht konvertieren. Ich muss vor allem die Dynamik des Nutzerverhaltens in die Analyse mit einbeziehen. Mir muss klar sein, dass sich Kundenbedürfnisse quasi mit jedem Besuch oder sogar während eines Besuches ändern können. Und darauf muss ich in irgendeiner Form reagieren können.

Der Einbezug von Metadaten und damit der zeitlichen Perspektive ist besonders wichtig. Diese geben Aufschlüsse über den aktuellen Nutzungskontext während des Seitenbesuchs und bei der Kaufentscheidung.

Wie überwinden wir den Survivorship Bias?

Als Lösung für die o.g. Probleme haben wir sogenannte Fluide Personas entwickelt. Sie sind unser Weg, mittels Künstlicher Intelligenz objektiv und datengetrieben das Verhalten aller Nutzer zu analysieren und auch die Signale der Nicht-Kunden miteinzubeziehen. Sie zeigen dabei bspw. nicht nur, welche Seiten gern aufgerufen werden, welches technische Setup (bspw. Browser oder Betriebssystem) die User nutzen und welcher Content, wann konsumiert wird. Fluide Personas geben auch einen direkten Überblick, wie diese Eigenschaften miteinander zusammenhängen hinsichtlich der Entscheidung zum Kauf – oder eben zum Nicht-Kauf.

Darüber hinaus berücksichtigen Fluide Personas das dynamische Verhalten der Nutzer, indem Sie wechselnde Verhaltensweisen in die Analyse einbeziehen. Dieses Wissen darum, was den Nutzern objektiv wirklich wichtig ist, nutzen wir dann, um für unsere Kunden eigene prädiktive Algorithmen zu entwickeln, um z.B. Content zu personalisieren oder Strategien für die Content Kreation und dessen Distribution über verschiedene Kanäle abzuleiten.

Datengetriebene Nutzersegmentierung

Die wenigsten Agenturen und Unternehmen besitzen die richtigen Prozesse, Ressourcen und Technologien für explorative, datengetriebene Nutzersegmentierungen.

Wir ändern das.

Data Roles, same same but different?

Eine Google-Suche reicht aus, um auf schier endlose Jobbezeichnungen im Data Science Bereich a.k.a. Data Roles zu stoßen. Bei näherer Betrachtung wird deutlich: Es gibt weder einheitliche Definitionen dieser Tätigkeitsfelder noch lassen sie sich konkret voneinander abgrenzen. Um das zu verdeutlichen, stellen wir im Folgenden einige vor.

Diverse Anforderungsprofile: Data Roles

Für einen Datenmehrwert im Unternehmen braucht es sowohl die entsprechenden Data Skills als auch die jeweiligen Verantwortlichen für verschiedenste datenbezogene Aufgabenstellungen. Das Verknüpfen unterschiedlicher Infrastrukturkomponenten sowie die Bereinigung und Analyse der bestehenden Datenmengen wird erst durch das Zusammenspiel der verschiedenen Data Roles möglich.

Die Dynamik des Arbeitsmarkts, vor allem im Bereich Künstlicher Intelligenz, sorgt jedoch dafür, dass scheinbar täglich neue Jobs und Jobbezeichnungen aus dem Boden sprießen und eine trennscharfe Abgrenzung dieser gar nicht mehr so leichtfällt. Eine Methode, sich in diesem Dschungel zurechtzufinden, ist den Fokus mehr auf die Data Skills der einzelnen Akteure zu legen. Was wir damit meinen, sehen Sie hier:

In dieser Grafik lassen sich alle Data Roles entsprechend ihrer erforderlichen Skill Sets verorten. Um zu zeigen, wie nah einige dieser Data Roles beieinander liegen, folgen nun einige Beispiele:

Data Engineer

Der Dateningenieur oder auch ETL-Ingenieur (Extrahieren, Transformieren, Laden) ist in den Unternehmensdatenbanken und Verarbeitungssystemen zuhause. Hier kümmert er sich um die Dateninfrastruktur, baut Datenpipelines und stellt die komprimierten Daten für die weitere Verwertung zur Verfügung.

Wenn Sie einen tiefergehenden Einblick in die Arbeit des Data Engineers erhalten wollen, dann klicken Sie hier.

Machine Learning Operations

Machine Learning Operations (kurz MLOps) sorgen für reibungslose Abläufe innerhalb des ML-Entwicklungsprozesses. ML-Operator stellen sicher, dass alle benötigten Tools zur Verfügung stehen, die Infrastruktur und Umgebungen zugänglich sind. Damit sorgen sie auch für die reibungslose Zusammenarbeit und Kommunikation zwischen Datenwissenschaftlern und IT-Spezialisten bei der Umsetzung und Automatisierung von ML-Algorithmen.

ML-Operator stellen sicher, dass der ML-Lebenszyklus effizient, gut dokumentiert und mögliche Probleme einfach zu beheben sind. Die Anforderungen, die sie an Machine Learning stellen sind Reproduzierbarkeit, Kollaboration, Skalierbarkeit und Kontinuität. Ihre Arbeit ist dadurch mit Development Operations (DevOps) vergleichbar, jedoch konkret auf die Anforderungen von Machine Learning zugeschnitten.

Data Scientist

Neben Big Data ist Data Science wohl DAS Buzzword der letzten Jahre. Doch viele Unternehmen und Entscheider überschätzen die Kernaufgaben eines Data Scientists wahrscheinlich noch. Natürlich kann diese Stelle mit einem wahren Allrounder besetzt werden, aber das sagenumwobene Data Unicorn gibt es (leider?) trotzdem nicht.

Zum Aufgabenbereich des Data Scientists gehören bspw. die Auswahl der passenden Methoden, die Entwicklung von Vorhersagemodellen oder auch die Optimierung von Neuronalen Netzen. Mit Hilfe dieser lassen sich zukünftige Ereignisse vorhersagen und dementsprechend Entscheidungen treffen. Data Scientists sorgen also dafür, den größtmöglichen Nutzen aus den verfügbaren Unternehmensdaten zu ziehen.

Auf einem umkämpften Bewerbermarkt sind Datenwissenschaftler ein begehrtes Gut. Effektive Data Scientists sind geübt im Zusammenspiel mit Backend- und Frontend-Entwicklern, kennen agile Arbeitsmethoden und aktualisieren stetig ihren Methodenkoffer.

Data Analyst

Der Data Analyst leistet vergleichbare Arbeit wie der Data Scientist. Er behält die Unternehmensdaten stets im Blick, um schnellstmöglich Auffälligkeiten darin zu identifizieren und darauf reagieren zu können. Zudem bereinigt der Data Analyst die Daten, analysiert sie (obviously), führt Testläufe durch und leitet seine Ergebnisse an andere Unternehmensstellen weiter.

Die genaue Unterscheidung von Data Analyst und Data Scientist ist gar nicht so leicht. Ein Unterschied zwischen den beiden Data Jobformen ist aber bspw., dass der Datenanalyst geschäftskritische Fragestellungen von anderen Abteilungen (z.B. Marketing) entgegennimmt und nach einer Lösung dafür sucht. Der Data Scientist hingegen formuliert Fragestellungen an einen Datensatz in der Regel selbst.

Statistician

Der Statistiker sorgt mit Fachwissen aus der Mathematik für eine andere Perspektive auf die Daten. Dadurch kann er bspw. bestimmen, welche Methode der Datenerfassung sich für einen bestimmten Zweck am besten eignet. Mit seiner logischen Denkweise sammelt er die Daten, wandelt sie in Informationen um und liefert daraus nützliche Erkenntnisse. Zudem liegt ihm auch die Entwicklung analytischer Modelle und mathematischer Algorithmen.

Die besondere Datenkompetenz des Statistikers sorgt vor allem dafür, voreilige Schlüsse über die Daten bzw. den Datensatz zu verhindern. Nur weil bspw. eine Machine Learning Methode in einem Data Set funktioniert hat, lässt sich dies nicht automatisch auch auf andere übertragen. Statistiker helfen so Entscheidern, über die analysierten Daten hinaus zu sinnvollen Schlussfolgerungen zu kommen.

Business Analyst

Die Rolle des Business Analysts unterscheidet sich wohl am meisten von den hier bisher aufgeführten. Im Gegensatz zu den anderen Data Roles hat er weniger tiefgreifendes Technikwissen, dafür aber umso mehr Verständnis für die verschiedenen Unternehmensprozesse.

Der Business Analyst verwandelt die gefundenen Data Insights in umsetzbare Business Strategien, um das Unternehmen weiter voranzubringen. Das macht ihn zum Sprachrohr zwischen Data Unit und Entscheidungsträgern. Als Industrie-Insider erkennt er zudem die wichtigsten Trends und hält die kosteneffektivsten Lösungen für das Unternehmen bereit.

Kommen wir also zurück zur vorgestellten Grafik und schauen uns an, wo sich die einzelnen Data Roles dort verorten lassen:

Verortung der einzelnen Data Roles

Hier wird ersichtlich, wie nah die einzelnen Rollen in ihren Skill Sets beieinander liegen. Bereits bei der Beschreibung wurde deutlich, dass sich bspw. die Aufgabenbereiche von Data Scientist und Data Analyst stark ähneln. In der Grafik wird diese Similarität noch einmal mehr als deutlich.

Die Zusammenstellung des Teams

Bei der Zusammensetzung des Data Science Teams spielen vor allem die Unternehmensgröße und die umzusetzenden Ziele eine entscheidende Rolle. Sicher ist es bspw. für ein kleineres Unternehmen mit überschaubaren Ressourcen nicht sinnvoll (und vor allem nicht nötig), eine Vielzahl an Data Roles besetzen zu wollen.

Vielmehr sollte anfangs darauf geachtet werden, eher weniger Personal, dafür aber mit einem breiten Kompetenzspektrum, einzustellen; also mit breiteren Data Skills. Wächst das Unternehmen und damit auch Budget und Anforderungen an das Data Team, kann der Fokus auf einen größeren Ausbau der einzelnen Data Roles gelegt und eine stärkere Spezialisierung der einzelnen Mitglieder angestrebt werden.

Zentraler oder dezentraler Aufbau?

Für viele Unternehmen stellt sich weiterhin die Frage, ob ein zentrales oder dezentrales Data Science Team sinnvoller ist. Die zentrale Lösung steht für die Bündelung der einzelnen Team Mitglieder an einem Ort, ein sogenanntes Data Science Competence Center. Dezentral hingegen sind einzelne Data Scientists o. ä. in den verschiedenen Fachabteilungen eingesetzt. Auch hier müssen vor allem die Unternehmensgröße und die individuelle Data-Strategie des Unternehmens beachtet werden.

Möchten Sie auch ein eigenes Data Science Team aufbauen oder sind vielleicht sogar schon dabei? Egal, was Sie vorhaben:

epicinsights hilft Ihnen mit hochspezialisierten Consultants und vielen Jahren Projekt-Erfahrung. Mit einem umfassenden Tech-Stack und unserer eigenen Big Data-Infrastruktur realisieren wir für Sie maßgeschneiderte Data-Lösung und unterstützen Sie auch beim Aufbau datenzentrierter inhouse Teams und Anwendungen.

Haben wir Ihr Interesse geweckt?

Schreiben Sie uns