Keiner weiß, wie AI die Entscheidungen trifft

„No one really knows how the most advanced algorithms do what they do. That could be a problem.“ Will Knight beleuchtet in seinem Artikel in MIT Technology Review das Problem im Detail.

Es ist heute schwierig bis unmöglich herauszufinden, warum ein AI System eine Entscheidung getroffen hat. Insbesondere Deep Learning ist quasi eine Black Box. Das ist zwar auch bei den Menschen so, dass sie nicht immer wirklich ihre Gedanken und Entscheidungen vollständig begründen können, aber wir haben Wege gefunden intuitiv Menschen zu vertrauen und abzuwägen.

Wir haben aber noch nie Maschinen gebaut, die auf eine Weise funktionieren die wir nicht verstehen. Das ist letztendlich ziemlich irritierend!

DeepDream.pngDer Künstler Adam Ferriss hat dieses Bild mit Googles Deep Dream erzeugt.

Es gibt in der EU Überlegungen, ob das die Befragung eines AI Systems, wie es seine Entscheidung getroffen hat, nicht ein fundamentales Recht sei.

Die Frage ist, ob das überhaupt möglich ist:
Just as many aspects of human behavior are impossible to explain in detail, perhaps it won’t be possible for AI to explain everything it does. “Even if somebody can give you a reasonable-sounding explanation [for his or her actions], it probably is incomplete, and the same could very well be true for AI,” says Clune, of the University of Wyoming. “It might just be part of the nature of intelligence that only part of it is exposed to rational explanation. Some of it is just instinctual, or subconscious, or inscrutable.”

Artikel: The Dark Secret at the Heart of AI

Advertisements

Kommentar verfassen

Trage deine Daten unten ein oder klicke ein Icon um dich einzuloggen:

WordPress.com-Logo

Du kommentierst mit Deinem WordPress.com-Konto. Abmelden / Ändern )

Twitter-Bild

Du kommentierst mit Deinem Twitter-Konto. Abmelden / Ändern )

Facebook-Foto

Du kommentierst mit Deinem Facebook-Konto. Abmelden / Ändern )

Google+ Foto

Du kommentierst mit Deinem Google+-Konto. Abmelden / Ändern )

Verbinde mit %s