Reply ist der ideale Ort, um eine unglaubliche Vielfalt von enthusiastischen, leidenschaftlichen und ideenreichen Menschen zu treffen, die etwas bewegen und verändern wollen.Möchtest du mehr erfahren?
Empfehlungssysteme gibt es überall. Empfehlungssysteme sind Systeme, die den Benutzern von Websites und Apps unter den Tausenden oder Millionen von Angeboten (Items) in einem Katalog personalisierte und relevante Inhalte vorschlagen. Amazon, Netflix und Spotify sind nur einige Beispiele für große, globale Unternehmen, die uns das Erkunden und Durchstöbern des Katalogs durch den Einsatz von Empfehlungsalgorithmen erleichtern möchten. Die Ziele sind extrem einfach und weitreichend: Cross-Selling, Up-Selling Benutzerloyalität fördern, Zugriff auf verschiedene Inhalte anregen, Neugier erwecken. Schätzungen zufolge sind etwa 30 % der Seitenansichten auf Amazon auf den Effekt des Empfehlungssystems zurückzuführen; bei Netflix werden stolze 80 % der Filme aufgrund von Empfehlungen angeschaut. Hinter traditionellen kollaborativen Algorithmen : steckt kein Geheimnis: Sie versuchen schlichtweg ähnliche Inhalte zu den zuvor angeschauten Inhalten vorzuschlagen, oder Inhalte, die andere Benutzer mit ähnlichen Vorlieben wie wir angeschaut haben. Seit Beginn des neuen Jahrtausends haben diese Methoden solide Ergebnisse geliefert. Noch weiter können wir jedoch mit Deep Learning und Knowledge Graphs gehen – diese Methoden nutzen kontextbezogene und unstrukturierte Daten.
WWir leben im Zeitalter der künstlichen Intelligenz. Immer populärer wird das „Deep Learning“, eine Art des Lernens, die das menschliche Denken in algorithmischer Form repliziert und hierbei künstliche und tiefgehende neuronale Netze verwendet. Deep Learning ist nicht die Zukunft, sondern die Gegenwart: Während diese Form des Lernens bis vor wenigen Jahren nur die Welt der Wissenschaft und Forschung zu betreffen schien, erleben wir nun den Wandel des Deep Learning zu einem allgegenwärtigen Konzeptdas eine Spezialisierung von Bibliotheken und Tools, wie z. B. Theano, Caffe, Lasagne und TensorFlowermöglicht hat. Die Revolution, die durch Deep Learning eingeleitet wurde, ist in vielen Bereichen nicht mehr zu übersehen. Im Jahr 2015 gelang es beispielsweise Algorithmen, die tiefgehende neuronale Netze verwenden, die menschliche Kapazität bei Basisaufgaben wie der Bilderkennung und Audiotranskription zu überrunden. Die Vorteile des Deep Learning liegen in seiner Fähigkeit, bessere Ergebnisse zu liefern, indem es die Komplexität des neuronalen Netzes erweitert oder Eingabedaten in das Modell einspeist. Im Hinblick auf die Performance hat die Möglichkeit der GPU-Nutzung für massive Berechnungsvorgänge auch die Einführung von komplexeren Algorithmen in Produktionsumgebungen erlaubt. Auch wenn weder fundiertes IT-Know-how noch die erforderliche Rechenleistung zum Trainieren von neuronalen Netzen mit neuen Datensets vorhanden sind, können bereits vortrainierte Modelle genutzt werden, die in mehreren Bereichen eine sehr hohe Genauigkeit bieten. Aus der Customer-Robotics-Perspektive gestatten Deep-Learning-Algorithmen die Einbindung von unstrukturierten Daten mit einem hohen Informationsinhalt in das Empfehlungsmodell. Dies ist ein deutlicher Unterschied zu den traditionellen Konzepten, die, wie bereits erwähnt, nur Daten aus der Benutzer-Item-Interaktion verwenden. Stellen Sie sich ein Empfehlungssystem vor, das einen neuen Track für eine Playlist vorschlagen soll. Mit RNNs (Recurrent Neural Networks – wiederkehrende neuronale Netze) und CNNs (Convolutional Neural Networks – faltende neuronale Netze) können wir jetzt die Audiodaten von jedem Track als Eingabe in unseren Empfehlungsmodellen erfassen. Bei Filmen oder Büchern werden die Videos und Texte direkt als Algorithmuseingabe verwendet. In vielen Online-Systemen erfolgt die Organisation der Benutzer-System-Interaktion in Sessions, Interaktionssequenzen, die in einem bestimmten Zeitrahmen und einer bestimmten Reihenfolge stattfinden. Traditionelle Empfehlungssysteme generieren ihre Ausgabe, indem sie nur die letzte Benutzerinteraktion berücksichtigen, unabhängig vom Browser-Verlauf oder der Zeit und Reihenfolge, in der die Inhalte verwendet wurden. Aufgrund ihrer Fähigkeit, sich vergangene Zustände zu „merken“, läuten Recurrent Neural Networks (RNN) eine neue Ära im Bereich der Empfehlungssysteme ein. Wir sprechen über die so genannten „session-basierten Empfehlungen“ die auf der Basis der Item-Sequenz, die während einer Session abgerufen wurde, via LSTM (Long Short Term Memory)-Netzen das nächstbeste Item abhängig von den Vorlieben des Benutzers empfehlen (Next Best-Item-Problem).
Aus der Perspektive der Datensteuerung sind die Grundbausteine ganz offensichtlich die Daten – die Quelle, aus der nützliche Informationen extrahiert werden, zur Wertschöpfung für das Unternehmen. Wenn die verfügbaren Daten jedoch keine ausreichenden Informationen enthalten, besteht die einzige Alternative darin, das verfügbare Wissen zu erweitern, indem man an anderer Stelle in der Welt der offenen Daten sucht: Word-Net und DBpedia sind zwei Beispiele der Ontologie (d.h. Formalisierung der Arten, Attribute und Beziehungen zwischen Entitäten, die zum selben Geschäftsbereich gehören), die in der Phase der Datenanreicherung Anwendung findet. Dies ist unverzichtbar, um präzise Empfehlungen durch Vorhersage der Kundenvorlieben zu geben. Im Kontext der Kundenempfehlungen werden Zusatzinformationen daher nach einem Knowledge Graphangeordnet. Knowledge Graphs sind Bündelungen von Entitäten mit einem definierten Typ und festgelegten Merkmalen, die über Beziehungen in einer typischen Graph-Struktur miteinander verbunden sind. Knowledge-Graph-Ansätze sind sinnvoll für die Performance-Verbesserung traditioneller Techniken und die Erschließung von kontextabhängigen Informationen – häufig Katalog-Items (Filme, Bücher, Songs etc.). Außerdem liefern sie einen Einblick in die Korrelation zwischen unterschiedlichen Benutzer-Item-Paaren. Knowledge Graphs werden häufig in Verbindung mit Deep Learning (2vec-Modelle) verwendet, um jede einzelne Beziehung des Graphen in einem zweidimensionalen Raum darzustellen, wo es einfach ist, ein kollaboratives Modell anzuwenden.
Die beschriebenen Innovationen sind das Ergebnis einer zweijährigen Erforschung der Empfehlungssysteme, die erst seit 2017 große Medienaufmerksamkeit finden. Zweifellos steht die Revolution von Deep Learning und Knowledge Graphs erst ganz am Anfang. Angesichts der Kompetenz, die Reply im Zuge der Erzeugung von zahlreichen PoCs mit open-source-basierter Big-Data-Technologie entwickelt hat, kann das Unternehmen als Vorreiter dieser Konzepte betrachtet werden, die – aus der Perspektive der Algorithmen und Architektur betrachtet – zwangsläufig die Zukunft der Empfehlungssysteme gestalten werden. Unter diesem Aspekt hat Reply das Robotics for Customers Framework definiert, das die Konzepte der verschiedenen Unternehmen aus der Reply Gruppe destilliert, und die schnelle und unkomplizierte Integration von Empfehlungslösungen , auf jeder Plattform gestattet. Das Konzept ist vollständig datengesteuert und kundenorientiert und basiert auf einer agilen Methodik: Die Projektphase folgt iterativen Zyklen des Prototyping und der Online-Validierung der Ergebnisse mit A/B-Test und bezieht so die Endanwender direkt in die Validierungsschleife des Algorithmus mit ein. Die kontinuierliche Feinabstimmung gestattet den Test von verschiedenen Modellen und unterstützt die Implementierung von innovativen Techniken wie Deep Learning und Knowledge Graphs während des Projektlebenszyklus mit einem systematischen Ansatz, der die Markteinführungszeit auf ein Minimum reduziert.