Vorurteile und Vorurteile
Der Mensch sieht die Welt nicht neutral.
In verschiedenen Kulturen wurden unterschiedliche körperliche Merkmale als Zeichen von Schönheit, Status oder Wert angesehen.
Beim Bodi-Stamm in Äthiopien gibt es ein Ritual namens Ka’el. Darin wetteifern Männer darum, das größtmögliche Körpervolumen zu erreichen.
Monatelang befolgen sie eine spezielle Diät, um zuzunehmen. Je größer der Bauch, desto größer das Prestige.
Dort wird das, was in vielen Kulturen als Übermaß angesehen würde, als Schönheit und Status angesehen.
Beim Volk der Kayan Lahwi in Südostasien gibt es ein anderes Muster.
Schon in jungen Jahren tragen Frauen Metallringe um den Hals. Mit der Zeit erzeugen diese Ringe den Eindruck eines längeren Halses.
Diese Dehnung wird mit Schönheit und kultureller Identität assoziiert.
Ein weiteres historisches Beispiel stammt aus China mit der Praxis des Fußbindens.
Mädchen wurden ihre Füße schon in jungen Jahren bandagiert, um das natürliche Wachstum zu verhindern. Das Ziel bestand darin, kleine Füße zu erhalten, die als feinere und attraktivere gelten.
Dies führte zu dauerhaften Verformungen. Aber in diesem Kontext wurde es als Schönheit angesehen.
Der Punkt hier ist einfach.
Diese Muster tauchen nicht aus dem Nichts auf. Sie werden im Laufe der Zeit gelehrt, wiederholt und verstärkt.
Ein Kind, das in solchen Kontexten aufwächst, lernt, dies als natürlich anzusehen.
So entstehen Voreingenommenheiten.
Bei KI-Agenten ist die Logik ähnlich.
KI-Agenten lernen aus von Menschen erstellten Daten. Mit anderen Worten: Sie lernen die Welt anhand von Inhalten kennen, die bereits menschliche Interpretationen, Verzerrungen und Standards enthalten.
Daher sind KI-Agenten auch mit Vorurteilen behaftet.
Diese Vorurteile entstehen nicht aus Gefühlen. KI-Agenten fühlen nicht, bevorzugen nicht und wählen nicht.
Aber sie reproduzieren erlernte Muster.
Und diese Standards können voreingenommen sein.
Die Lektion hier besteht nicht darin, zu versuchen, Voreingenommenheit vollständig zu beseitigen.
Das passiert nicht einmal beim Menschen.
Wenn Sie einen Mitarbeiter einstellen, können Sie nicht garantieren, dass dieser keine Vorurteile hegt. Was Sie tun, ist, ein System zu schaffen, in dem sich diese Vorurteile nicht manifestieren können.
Sie definieren Kultur. Definiert Regeln. Setzt klare Grenzen für das Verhalten.
Sie können beispielsweise nicht vollständig kontrollieren, was eine Person denkt. Aber es kann deutlich machen, dass bestimmte Verhaltensweisen, wie zum Beispiel Rassismus, innerhalb der Organisation nicht akzeptabel sind.
Mit anderen Worten: Sie vertrauen nicht auf die Voreingenommenheit des Einzelnen. Sie vertrauen dem System, das verhindert, dass diese Voreingenommenheit Auswirkungen hat.
Bei KI-Agenten ist die Logik dieselbe.
Sie müssen nicht garantieren, dass der Agent frei von Vorurteilen ist. Sie müssen ein System aufbauen, das immun gegen Voreingenommenheit ist.