Macht KI Fehler?
Ein altes Sprichwort besagt: Fehler zu machen ist menschlich.
Nun, wenn es menschlich ist, Fehler zu machen, und wir „Gehirne“ herstellen, die das menschliche Gehirn imitieren, gibt es nichts Natürlicheres, als dass diese „Gehirne“ auch Fehler machen, oder?
Tatsächlich müssen wir das Sprichwort in „Fehler sind menschlich und KI“ aktualisieren.
Aber im Ernst, was passiert, ist Folgendes:
Eine Automatisierung macht keine Fehler.
Wenn eine Automatisierung Fehler macht, liegt das daran, dass sie ihren Zweck tatsächlich verfehlt hat.
Es ist ein Fehler aufgetreten, etwas sehr Falsches ist passiert.
Es ist, als würde ein Taschenrechner einen Fehler machen.
Dass die Automatisierung ein Konto übersieht, sollte nicht passieren, und wenn es passiert, liegt das daran, dass ein sehr schwerwiegender Fehler vorliegt.
Eine KI macht Fehler, und zwar auf viel häufigere Weise.
In gewisser Weise können wir sogar hoffen, dass es irgendwann passiert.
Denn bei der Denkübung geht es darum, über Dinge nachzudenken, die man nicht kennt.
Es ist eine Übung in Ungenauigkeit.
Erinnern Sie sich an das Beispiel, das ich über Schach erwähnt habe?
Wenn nur noch wenige Spielsteine auf dem Spielbrett übrig sind, verfügen wir bereits über Automatisierungen, die alle möglichen Bewegungen abbilden können und niemals besiegt werden können.
Bereits in der Anfangsphase des Spiels sind die Möglichkeiten so vielfältig, dass wir nicht in der Lage sind, Automatisierungen abzubilden und zu erstellen, die niemals Fehler machen.
Auf diese Weise müssen wir das menschliche Gehirn nutzen oder KIs bauen, die wie Menschen denken und nicht alle Möglichkeiten scannen, die irgendwann einen Fehler machen, aber dennoch kreativ spielen.
Und das reicht aus, um ein gutes Ergebnis zu erzielen.
Bei Tic-Tac-Toe ist die Geschichte anders.
Tic-Tac-Toe ist ein einfacheres Spiel.
Darin ist es uns gelungen, eine Automatisierung zu schaffen, die niemals besiegt werden kann, da sie alle möglichen Möglichkeiten durchdringt.
Das sind traditionelle Computer, sie sind exakt.
Komplexe Probleme, wie etwa das Schachspielen oder das Zeichnen eines Hundes, können mit dieser Genauigkeit nicht gelöst werden, da die Möglichkeiten riesig und nicht abzubilden sind.
Aber wenn man künstliche Intelligenz baut, also eine Maschine baut, die menschliches Denken nachbildet, passiert etwas Interessantes.
Es kann diese Probleme lösen, die herkömmliche Maschinen nicht lösen würden, weil es auf eine Weise denkt, wie Menschen denken.
Aber genau wie das menschliche Gehirn verfügen Sie über Taktiken, um Fehler in der KI zu korrigieren und zu vermeiden.
Wenn wir beispielsweise einen Piloten einer Fluggesellschaft bitten, vor dem Abheben eine Prozesscheckliste auf einem Klemmbrett zu überprüfen, erkennen wir, dass Menschen Fehler machen können.
Die Zwischenablage fungiert in diesem Fall als analoger Automatisierungsmechanismus, der dem Piloten hilft, alle notwendigen Schritte zu befolgen und so das Risiko von Fehlern aufgrund von Vergesslichkeit oder Ablenkung zu verringern.
Anstatt einfach zu hoffen, dass der Pilot keinen Fehler macht, haben wir ein System geschaffen, das die Grenzen der menschlichen Wahrnehmung umgeht.
Das Gleiche muss mit der KI geschehen.
Man kann nicht erwarten, dass KI keine Fehler macht.
Was Sie tun müssen, ist, Wege zu finden, um KI-Fehler einzudämmen, und Taktiken zu entwickeln, um sie zu umgehen, und dabei zu antizipieren, dass sie passieren werden.
Ob Redundanz, Peer-Review, Automatisierungsmechanismen, Schulungen, besser organisierte Systeme, weniger fehleranfällige Umgebungen, korrekte KI-Entscheidungen oder mehrere andere Techniken und Taktiken, über die wir in Kapitel 3 ausführlich sprechen werden.