Das Black Box-Problem der Künstlichen Intelligenz

preview_player
Показать описание
Was ist eigentlich eine Black Box, wieso ist das ein Problem und wie geht es bitte auch transparenter?

Themen im Video:
0:12 Einführung
3:11 Beispiel Neuronales Netz "Husky oder Wolf?"
5:21 Beispiel Einkommensprognose
7:20 Machine Learning: One Rule (OneR)
10:10 Machine Learning: Decision Trees (Entscheidungsbäume)
14:04 Machine Learning: Random Forest
17:44 Accuracy-Interpretability Trade-Off

Link zum besprochenen Blogpost:

Playlist zu Neuronalen Netzen (Deep Learning):

#künstlicheintelligenz #machinelearning #blackbox
Рекомендации по теме
Комментарии
Автор

Es hat sich ein klitzekleiner Fehler ins Video eingeschlichen... wer findet ihn?

vonjd
Автор

Wie immer sehr spannend und anschaulich, vielen Dank! Ich denke, dass es zunehmend relevant sein wird die Entscheidungsschritte transparent zu machen, alleine schon um die Akzeptanz und Massentauglichkeit von der wachsenden Anzahl an KI-Anwendungen zu gewährleisten.

_nikolas
Автор

Sie sind der beste YouTuber zum Thema AI. Immer interessante Themen! Kommt bald was mit Prof. Rieck gemeinsam? Fände ein Gespräch zwischen Ihnen beiden extrem spannend!

martinfiedler
Автор

Hallo! Zu allererst, Herzlichen Dank für dieses tolle und inormative Video welches mir anschaulich die Problematik erklärt hat. Nebenbei auch Decision Trees besser verstanden. Um die am Ende gestellte Frage zu kommentieren, nehme ich Bezug auf die Beispiel Daten zur Accuracy. Von 29% auf 34 % ist keine relevante Verbesserung um dafür fehlende Interpretierbarkeit in Kauf zu nehmen meiner Meinung nach. Ganz allgemein sollte eigentlich jedes System nachvollziehbar und für Programmierer zu debuggen sein um Entscheidungen nachvollziehen zu können. Zumindest ist das meine, wahrscheinlich naive, Sicht der Dinge als "Hobby-Programmierer". Anhand des Beispiels Wolf vs Husky kann man sehen wie Menschen eine Vorstellung von der Arbeitsweise eines Systems haben können ohne dabei die zu erahnen nach welchen Kriterien das System ein Ergebnis erzielt hat. Vor allem wenn es um Systeme geht die Entscheidungen treffen von denen Menschen direkt abhängen könnten (wie zum Beispiel Kreditanträge) sollte ein Systemdesign besser etwas weniger Accuracy in Kauf nehmen wenn es im Gegenzug Transparenz liefert. P.S. Ich bin kein Student sondern schaue nur gerne die Videos aus Interesse.

holger
Автор

3:15 - 5:00 Ähem "husky classified as wolf" heißt "Husky als Wolf klassifiziert", also wurden die Aufnahmen der "Hundeartigen" im Schnee als Wölfe katalogisiert und nicht umgekehrt und das trotz Kette in diesem Bild. Schnee = Wolf

horsthartmut
Автор

Ich denke, es hängt vom Einzelfall ab, ob die Interpretierbarkeit oder die Genauigkeit eine höhere Wichtung bekommt. Bei sehr komplexen Datenstrukturen denke ich, muss man - um eben präzisere Ergebnisse zu bekommen - Abstriche bei der Transparenz machen und auch hinnehmen. Das Problem liegt m. E. immer bei der Qualität der Rohdaten. Das kann man schön am Husky-Wolf-Beispiel sehen: wenn eben die Husky-Bilder zum größten Teil Schnee als Hintergrund haben, muss man damit rechnen, dass "Schnee ja/nein" als Kriterium herangezogen wird. Wenn ich beim Thema Einkaufsverhalten beispielsweise auch Tageszeit und Wochentag des Einkaufs erfasse, kann das einerseits die Genauigkeit erhöhen (z. B. Berufstätige werden eher nicht vormittags einkaufen), andererseits aber auch Fehlerquellen enthalten (z. B. in einem Jahr fallen zufällig besonders viele Feiertage auf einen Freitag, was dann die Genauigkeit für das Einkaufsverhalten an Freitagen durchaus erheblich beeinflussen kann). Zusammenfassung: hohe Qualität der Rohdaten = höhere Wahrscheinlichkeit auf Präzision. Und: kein Vorteil ohne Nachteil. Liege ich in etwa richtig?

stefan
Автор

- Zu Ihrem heutigen Video: Kann man zumindest Sprach-KI nicht ein wenig ausfragen und so etwas Licht in solche Black-Boxes bringen? Mich stört dieses Black Box-Problem sehr.
- Erweiterung zu Ihrem heutigen Video: Mein Wunsch ist, dass KI einmal so weit ist, dass sie in großen Datenmengen Muster erkennt, auf Nachfrage ausgewählte Muster erklärt, beschreibt, wie und wo sie es gefunden hat (also Black-Box erhellen) und auf weitere Nachfrage daraus sogar einen mathematischen Zusammenhang formelmäßig formuliert und dann alles zusammen (Daten, Muster, Ergebnis der mathematischen Formulierung) bildlich darstellt.
- weiterführende Frage: Sie haben hier angekündigt, mal ein Video zu analytischer KI zu machen. Ich habe aber diesbezüglich nichts von Ihnen gefunden. Hab ich da irgendwas übersehen? Oder haben Sie das geplant?

Olaf_Schwandt
Автор

Kann man die Entscheidungen der KI nicht reverse engineeren und damit transparent machen? Zum Beispiel könnte man man die ihr vorgelegten Variablen varieren und anhand der Resultate ein vereinfachtes Modell ableiten.

gadgetvideos
Автор

Mal ganz einfach gefragt:
Könnte man diese Blackbox nicht einfach (zusätzlich) anweisen ihr Vorgehen genau zu protokollieren?
;p

garkeiner
Автор

Würde mich freuen, wenn sie eine Diskussion auf ihrem Kanal mit Franz Hörmann über Geld und die Banken hätten. Sie meinten ja mal, sie kommen aus diesem Bereich.

maxalbert
Автор

Die Blackbox Problematik ist für Entscheidungen mit schwerwiegenden Folgen (z.B. Medizin) extrem wichtig. Könnte man nicht mit den transparenten System einen Trend bestimmen, der als Vergleichsgröße bei intransparenten Systemen zur Prüfung der Plausibilität angewendet wird?

burkhardschwalm
Автор

5:00 die Wahrscheinlichkeit einen Wolf neben einer Kette zu "identifizieren" ist neben dem Schnee mit Sicherheit auch nicht unerheblich. ; )

horsthartmut
Автор

Danke für das Video. Ich verstehe nicht, warum man die Entstehung der Ergebnisse wichtig sein sollte. Das zeigt, dass Menschen die Sinnhaftigkeit immer validieren müssen. Das ist bei allen Themen so: wenn man einen Apparat mit FEM berechnet, versteht man auch nicht warum die Ergebnisse an jedem Knoten usw. Deshalb muss es ein Mensch interpretieren und überlegen, ob das Ergebnis sinnvoll ist. Da gibt es sehr viele Beispiele. Bei AI wird immer so gemacht, als sei das schlimm. Ich sehe diesen Punkt nicht.
Funktion>>> Nachvollziehbarkeit

cequeuevaleria
Автор

Ich liebe diese Videos und hasse sie. Sie sind ein Baustein von vielen die das Bild der Umgebung deutlich schärfer zeichnen und somit leider auch zu einer gewissen Resignation beitragen denn was kann man eigentlich noch glauben ?

holger
Автор

Mmm, ich bleibe dabei, das System der "Maschine Learning" ist ein statistischer Wahrscheinlichkeitsrechner, der uns als Künstliche Intelligenz verkauft wird.

peterrosenbach