Let’s talk about AI

Ruth über künstliche neuronale Netze und andere Anwendungen der KI

Ruth, unsere Head of Data Science Onlineshop, präsentierte auf dem B2X in Hamburg diverse Erkenntnisse zum Thema künstliche Intelligenz (KI). Kern ihres Vortrags war das verbreitete Missverständnis, künstliche neuronale Netze seien ein Allheilmittel. Aber was ist das überhaupt? Im folgenden Interview gewährt euch Ruth Einblicke in das spannende Thema und erzählt, wo sie generell die Chancen und Grenzen von KI verortet. 

Grundlegende Informationen zum Thema Data Science und über die Arbeit von Ruth findest du in diesem Beitrag. Dort erfährst du auch, welche Möglichkeiten der Einsatz künstlicher Intelligenz im E-Commerce bietet.

Hallo Ruth! Schön, dass du ein weiteres Mal dazu bereit bist, mir Rede und Antwort zu stehen. Dein Vortrag über den Sinn und Unsinn künstlicher neuronaler Netze beim B2X richtete sich an ein Fachpublikum. Kannst du für Laien wie mich erklären, was genau man sich unter künstlichen neuronalen Netzen vorzustellen hat?

 

Klar! Viele Menschen denken bei künstlichen neuronalen Netzen an Zauberei, dabei handelt es sich eigentlich nur um eine mathematische Funktion, die andere Funktionen erlernen beziehungsweise simulieren kann.

Die Netze bestehen aus miteinander verbundenen Nervenzellen (Neuronen), die in Schichten (Eingabe-, Zwischen- und Ausgabeschicht) angeordnet sind. Anhand von veränderlichen Gewichtungen wird der Einfluss eines Neurons auf die nächsten Nervenzellen bestimmt und somit am Ende ein bestimmter Output erzielt.

Während der Trainingsphase sind sowohl Input als auch Output bekannt: Indem der KI fertige Lösungen präsentiert werden, kann der Algorithmus die Logik hinter den Zuordnungen erkennen. Um ein immer besseres Matching zwischen Input und Output zu ermöglichen, werden die einzelnen Gewichtungen auf Basis der vorgegebenen Lernregeln von der KI modifiziert.

In der nachfolgenden Testphase unterliegen die Gewichtungen keiner weiteren Veränderung – stattdessen wird geprüft, ob die künstlichen neuronalen Netze gelernt haben, ähnliche Daten auf Basis der erlernten Logik zu klassifizieren. Allerdings bleibt das Ergebnis immer eine Annäherung, die nie zu hundert Prozent korrekt ist. Das sollte man sich immer klarmachen, wenn man diese Methode anwenden möchte.

Bei deinem Vortrag hast du deutlich gemacht, dass künstliche neuronale Netze zu Unrecht als Allheilmittel betrachtet werden. Wann lohnt sich ihr Einsatz?

 

Als Methode des Data Mining können künstliche neuronale Netze sehr komplexe Zusammenhänge in Daten erkennen, die dem Menschen verborgen bleiben, und dabei riesige Datenmengen verarbeiten.

Generell lohnt sich ihr Einsatz aber nur, wenn die Datenbasis quantitativ und qualitativ ausreicht. Benötigt werden zudem gelabelte Daten: So nennen wir markierte Trainingsdaten, deren Zielwerte bekannt sind – ich kenne also Input und Output. Das Training mit solchen Daten bezeichnet man als Supervised Learning oder Überwachtes Lernen.

Sofern entsprechende historische Daten vorhanden sind, eignet sich die Methode zum Beispiel hervorragend zur automatischen Erkennung von Produktattributen. Hierbei werden automatisiert verschiedene Produkteigenschaften in Texten und Bildern identifiziert, etwa die Größe oder Farbe eines Artikels. Auch bei der Produktkategorisierung ist die Verwendung künstlicher neuronaler Netze sinnvoll.

In welchen Fällen würdest du auf eine andere Methode zurückgreifen?

 

Generell sollten künstliche neuronale Netze nicht eingesetzt werden, wenn eine einfachere Methode ebenfalls zielführend ist, denn ihr Training ist zeitintensiv und das jeweilige Ergebnis immer nur eine Annäherung. Darüber hinaus ist vom Einsatz künstlicher neuronaler Netze abzusehen, wenn keine gelabelten Daten verfügbar oder erstellbar sind. In einem solchen Fall bieten sich dagegen Methoden des Unsupervised Learning an, welche zwar historische, jedoch keine gelabelten Daten benötigen.

Als weiteres Ausschlusskriterium für den Einsatz der Methode gilt die Notwendigkeit eines transparenten Entscheidungsprozesses. Künstliche neuronale Netze arbeiten nach einem Blackbox-Prinzip – die Frage, wie sie zu einer Entscheidung gekommen sind, lässt sich vom Menschen kaum nachvollziehen. Anders gesagt: Immer, wenn ich einem Laien erklären will, wie die Maschine zu ihrem Urteil gekommen ist, sollte von der Methode abgesehen werden. In solchen Fällen könnten beispielsweise Entscheidungsbäume die bessere Alternative sein.

Mehr Informationen über die Veranstaltung B2X: Artifical Intelligence und Bilder von dem exklusiven Event findest du hier.

Das Data-Science-Team von real.digital hat sich in letzter Zeit stark vergrößert – was hat sich für euch beziehungsweise für dich als „Head of“ dadurch verändert?

 

Das stimmt – wir haben die Abteilung zu dritt aufgebaut und sind mittlerweile auf neun Data Scientists angewachsen. Die umfassendste Veränderung kam allerdings durch eine interne Umstrukturierung: Seit kurzem arbeiten wir in interdisziplinären Teams, wodurch sich kleine Gruppen von Data Scientists jeweils einem Projekt für eine bestimmte Fachabteilung widmen und dieses mit den Kollegen aus der entsprechenden Fachabteilung umsetzen.

Das hat viele Vorteile, bringt aber auch neue Herausforderungen mit sich, vor allem im Bereich Wissenstransfer. Damit dieser erhalten bleibt, habe ich mir ein Konzept überlegt: Künftig treffen wir Data Scientists uns zu Workshops, die jeweils zu einem bestimmten Thema stattfinden. Sämtliche Inhalte und Methoden, die wir uns dabei erarbeiten, verschriftlichen wir im Anschluss daran, um eine maßgeschneiderte Toolbox zu erhalten. So steht uns für alle weiteren Tätigkeiten ein immer größerer Baukasten zur Verfügung, aus dem wir die jeweils richtigen Werkzeuge für ein Problem wählen können. Als erstes befassen wir uns mit Methoden zur Data Exploration.

Anfangs war ich etwas skeptisch, ob wir bei unserer Arbeit wirklich von den interdisziplinären Teams profitieren würden, wurde jedoch äußerst positiv überrascht. Bei der Veranstaltung B2Xperience konnte ich mich mit den anderen Speakern austauschen und stellte fest, dass eine derartige Verfahrensweise nicht nur bei uns sehr gut funktioniert. Außerdem habe ich im direkten Vergleich mit den oftmals deutlich größeren Data-Science-Teams gemerkt, wie viel wir in dem relativ kurzen Bestehen unserer Abteilung schon geschafft haben, was natürlich besonders motiviert.

Hast du Lust darauf, spannende Herausforderungen bei real.digital zu meistern? Dann sieh dir unsere aktuellen Stellenausschreibungen  an!

https://www.real-digital.de/karriere/unsere-stellenangebote/

Je fortschrittlicher KI wird, desto häufiger werden Fragen nach möglichen Gefahren und der moralischen Vertretbarkeit ihres Einsatzes laut, zum Beispiel bei autonom fahrenden Autos. Siehst du solche Probleme auch bei Anwendungen, die für den Online-Handel relevant sind?

 

Ich würde hier nicht von Gefahren sprechen – dagegen finde ich es sehr wichtig, ein Bewusstsein für die Grenzen von künstlicher Intelligenz zu entwickeln. Ihr Einsatz ist nicht überall sinnvoll und kann zum Teil mit Nachteilen behaftet sein. So ist KI immer nur eine Annäherung und niemals zu 100 Prozent korrekt, was ihre Verwendung auf jeden Fall einschränkt. Und egal, wie fortschrittlich eine Anwendung ist – die KI ist immer noch auf das angewiesen, was ihr einprogrammiert wird. Aus diesem Grund finde ich die Ängste ungerechtfertigt, die viele Menschen damit verbinden.

 

Ich bin ein großer Freund von KI, aber ich weiß auch um ihre Nachteile und Grenzen.  

Ein recht bekanntes Beispiel für besagte Grenzen ist der Chatbot Tay von Microsoft, der über Twitter öffentlich kommunizierte. Nach weniger als 24 Stunden wurde er infolge zahlreicher beleidigender und rassistischer Äußerungen abgeschaltet. Was ist da schiefgelaufen?

 

Das Problem bei Microsofts Tay war nicht der Bot an sich, sondern wie beziehungsweise womit er trainiert wurde. Die negative Entwicklung ist im Endeffekt auf den Menschen zurückzuführen: Das Lernumfeld hatte sich auf ähnlich irritierende Weise geäußert, worauf man bei der Programmierung von Tay wohl nicht vorbereitet war. Mit einer regelmäßigen qualitativen Überprüfung und – sofern nötig – der entsprechenden Intervention hätte man so eine Eskalation eventuell verhindern können.

Ein Algorithmus kann nur aus den Daten lernen, die ihm zur Verfügung gestellt werden – somit spiegelt er sämtliche Tendenzen wider, die in seiner Lernumgebung vorherrschen, sei es Rassismus oder Sexismus. Ohne eine entsprechende Kontrolle und gegebenenfalls die Intervention durch den Menschen sind derartige negative Konsequenzen wie im Fall von Tay leider vorprogrammiert.

Das Thema künstliche Intelligenz findet gerade wieder eine sehr starke mediale Beachtung – kommen dabei deiner Meinung nach bestimmte Aspekte zu kurz?

 

Als Hauptproblem betrachte ich die Unausgewogenheit der Berichterstattung, die sich auch in vielen Diskussionen über das Thema niederschlägt. In der öffentlichen Wahrnehmung zeigt sich eine starke Polarisierung – die größtenteils auf Unwissen zurückgeht. Auf der einen Seite sind mit KI viele Ängste verbunden, auf der anderen Seite gibt es eine übertriebene Euphorie. Beide Gruppen übersehen, dass die künstliche Intelligenz immer noch Grenzen kennt, von denen nicht klar ist, wie schnell sie überwunden werden können – und ob das überhaupt jemals möglich sein wird.

 

Computer sind immer limitiert. Eine KI besitzt keinen eigenen Willen –  auch ihr selbstständiges Lernen basiert auf der Programmierung durch einen Menschen und könnte ohne diesen nicht stattfinden.

Schreiben Sie einen Kommentar

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.