Deine KI-Anwendung ist nicht voreingenommen

Als Mensch mit technischem Hintergrund ärgern mich Behauptungen wie eine KI sei rassistisch, eine KI sei frauenfeindlich, eine KI bevorzuge alte weiße Männer etc. weil diese Zuschreibungen von den eigentlichen Verursachern, den Menschen, ablenken.

Meistens geht es darum, dass jemand eine generative KI eingesetzt hat und das Ergebnis einfach nicht taugt. Ein schönes Beispiel fand ich das Experiment einer HR Kollegin, die eine generative KI genutzt hat um eine Stellenanzeige zu generieren. Herausgekommen ist eine Stellenbeschreibung für einen 50-jährigen Mann mit viel Industrieerfahrung. Ich fand das Ergebnis durchaus plausibel, denn schließlich scheint diese Beschreibung in etwa der Durchschnitt dessen zu sein, wie diese Stellen derzeit besetzt werden. Es war also die falsche Frage oder auch die falsche KI, die dort zum Einsatz kam.

KI-Anwendungen sind Werkzeuge, hochkomplexe Werkzeuge, deren Entscheidungsgrundlagen in den seltensten Fällen nachvollziehbar sind. Werkzeuge haben keine Vorurteile, Menschen schon. Das wäre so, als würde ich sagen, ich glaube, mein Hammer mag meine Schrauben nicht. Wenn ich Nägel nehme, ist alles in Ordnung, aber wenn ich Schrauben in die Wand hämmere, gibt es immer so hässliche Ausbruchskanten.

Übrigens haben wir die Stellenausschreibung ohne künstliche Intelligenz komplett neu erstellt. Wir haben die derzeitigen Stelleninhaber:innen mitarbeiten lassen und sie gefragt, von was sie sich angesprochen fühlen. Was ihren Job und ihren Arbeitgeber ausmacht, was echte Benefits sind, die Mitbewerber so nicht bieten. Der Rücklauf auf diese Stellenanzeige war um ein Vielfaches höher als zuvor. Und die Stelle konnte schnell besetzt werden.

Glas