Fehler und Irrtümer
Es gibt ein berühmtes Sprichwort: Fehler sind menschlich.
Nachdem wir nun damit begonnen haben, Teile des menschlichen Denkens in elektronischen Bauteilen nachzubilden, ist es vielleicht an der Zeit, dieses Sprichwort zu aktualisieren.
Irren ist menschlich. Und es ist auch KI.
Künstliche Intelligenz macht Fehler. Und Sie werden weiterhin Fehler machen.
So wie Menschen Fehler machen, machen auch KI-Agenten Fehler. Dies ist kein Detail. Dies liegt in der Natur des Systems.
Der wichtige Punkt hierbei ist, dass der reife Manager nicht auf der Grundlage der Fantasie arbeitet, dass er jemanden findet, der niemals Fehler macht.
Kein erfahrener Manager stellt ein Team zusammen, das von jedem Mitarbeiter absolute Perfektion erwartet. Dies war nie die Aufgabe des Managements.
Die Aufgabe des Managements besteht darin, mit dem Unvollkommenen umzugehen. Es geht darum, Ergebnisse aus unvollständigen Systemen zu extrahieren. Es geht darum, die Fehlerwahrscheinlichkeit zu verringern, die Auswirkungen des Fehlers zu verringern und Mechanismen zu schaffen, damit bestimmte Fehler nicht passieren.
Bei Menschen machen wir das ständig.
Wir schaffen Prozesse. Wir erstellen Bewertungen. Wir erstellen Checklisten. Wir schaffen Redundanzen. Wir erstellen Doppelgenehmigungen. Wir erstellen Validierungen für kritischere Aufgaben.
Bei risikoarmen Aktivitäten akzeptieren wir eine größere Fehlerquote. Bei risikoreichen Aktivitäten erhöhen wir die Kontrolle, Aufsicht und Konferenz.
So gehen wir mit Praktikanten, Analysten, Koordinatoren, Managern und Direktoren um. Nicht weil sie unfähig sind, sondern weil jede menschliche Arbeit potenzielles Scheitern mit sich bringt.
Bei KI ist die Logik dieselbe.
Sie brauchen keine KI, die niemals Fehler macht. Sie müssen verstehen, wie sie Fehler macht, wo sie Fehler macht, wie oft sie Fehler macht und wie hoch die Kosten dieses Fehlers sind.
Von dort aus bauen Sie das System darum herum auf.
In manchen Fällen bedeutet das, die KI allein arbeiten zu lassen. In anderen Fällen bedeutet es, nach der Antwort eine automatische Validierung zu platzieren. In anderen Fällen bedeutet es, dass eine Person die Bewertung abgibt. In anderen Fällen bedeutet es einfach, zu diesem Zeitpunkt keine KI zu verwenden.
Das ist der zentrale Punkt.
Das Problem ist nicht, dass die KI Fehler macht. Das Problem besteht darin, dass Sie ein System einrichten, das nicht weiß, wie es mit KI-Fehlern umgehen soll.
So wie ein Manager die Arbeit eines Praktikanten bei sensibleren Aufgaben überprüft, können Sie auch Überprüfungsebenen für Agenten erstellen.
Diese Rezension könnte sein:
- Eine Automatisierung
- Anderer Agent
- Eine Systemregel**
- Oder ein Mensch
Es hängt alles vom Risiko ab.
Je kritischer der Fehler ist, desto weniger vertrauen Sie einer einzelnen Ebene. Je billiger und umkehrbar der Fehler ist, desto mehr Autonomie können Sie gewähren.
Menschen zu managen bedeutet, das Unvollkommene zu managen. Verwalten Sie auch KI.
Die Logik ändert sich nicht. Was sich ändert, ist die Natur der Unvollkommenheit.
Beim Menschen kann der Fehler auf Ablenkung, Müdigkeit, Egoismus, Eile, Angst, Desorganisation oder mangelndes Wissen zurückzuführen sein. Bei der KI kann der Fehler auf fehlenden Kontext, voreingenommene Muster, schlechte Interpretation, Modelleinschränkungen oder einfach eine falsche Generierung zurückzuführen sein.
Aber in beiden Fällen ist die Reaktion des Managements ähnlich.
Man bekämpft Fehler nicht mit Hoffnung. Sie bekämpfen den Fehler mit Prozess.