Redactor certificado, blogger calificado
tiempo estimado de lectura : 4
30 Oct
30Oct

Ein Unternehmer las, was ChatGPT ihm geliefert hatte: eine Produktbeschreibung. Glänzend formuliert, sachlich, rund. Keine übertriebenen Versprechen. Und doch – irgendetwas störte ihn. 

Wie ein zu sauber gewischter Raum, der mehr inszeniert als bewohnt wirkt. Er las den Text ein zweites Mal. Dann ein drittes. Und mit jeder Zeile wuchs sein Unbehagen. War das wirklich neutral? Oder nur gut kaschiert?

Denn Worte können täuschen. Vor allem, wenn sie perfekt wirken.

Nicht weil sie lügen. Sondern weil sie das ausblenden, was stört – was zu scharf klingt, zu kantig, zu riskant. Perfekte Texte können so glatt werden, dass sie anfangen, Wirklichkeit zu verschieben. Subtil. Aber wirksam.

Das nennt man dann Bias. 


Was sind Bias?

Bias sind Verzerrungen. Sie stammen nicht aus der KI allein. Sondern kommt von Menschen. Es sind Menschen, die die Daten auswählen, auf denen ein Modell trainiert wird.

Menschen, die entscheiden, welche Beispiele sie als „neutral“ empfinden.

Und oft sind es gerade diese vermeintlich neutralen Entscheidungen, die bestehende Schieflagen zementieren.

Eine KI hat keine Vorurteile. Sie lernt, was wir ihr vorlegen. Und wenn das Bild, das wir ihr geben, unausgewogen ist – spiegelt sie genau das zurück.

Bias sind keine Softwarefehler. Sie sind ein Echo unserer Welt.

Umso wichtiger ist es, dass wir diese Verantwortung nicht abgeben. Sondern annehmen. Und mitdenken. In jedem Prompt, in jedem Beispiel, in jeder Entscheidung.


Die gefährlichsten Verzerrungen sind die, die wir nicht bemerken.

Grosse Sprachmodelle wie ChatGPT arbeiten statistisch. Sie suchen nach dem wahrscheinlichsten nächsten Wort. Doch Wahrscheinlichkeit bedeutet nicht Wahrheit – und auch nicht Gerechtigkeit.

Die Trainingsdaten sind ein Spiegel der Welt, in der wir leben: voller Muster, Schieflagen, blinder Flecken. Diese Muster prägen das Sprachverhalten der KI. Sie lernt mit, was wir nie laut ausgesprochen haben – aber oft genug wiederholt.

So kann ein scheinbar neutraler Text in Wahrheit eine Richtung haben. Eine Zielgruppe bevorzugen. Eine andere übersehen. Oder subtil verstärken, was wir längst überwinden wollten: Rollenklischees, kulturelle Engführungen, Altersbilder, Machtverhältnisse.


Gibt es einen Weg, das zu verhindern?

Ja – und er beginnt nicht beim fertigen Text, sondern viel früher: beim sogenannten Prompt. Der Eingabe, mit der wir die KI trainieren.

Fairness-Guided Few-Shot Prompting heisst der Ansatz, der helfen soll, Verzerrungen gar nicht erst entstehen zu lassen. Das klingt sperrig, ist aber einfach: Statt die KI frei drauflos schreiben zu lassen, geben wir ihr ein paar Beispieltexte mit – sogenannte „Prompts“. Mini-Vorlagen, an denen sie sich orientieren kann. Doch genau hier liegt der Schlüssel:

Welche Beispiele wir auswählen, entscheidet darüber, wie fair der Output ist.

Stellen Sie sich vor, Sie zeigen einer KI fünf Werbetexte, die alle nur junge, männliche Kunden ansprechen. Es ist sehr wahrscheinlich, dass der daraus generierte Text dieselbe Sprache, dieselben Bilder übernimmt – und andere Zielgruppen schlicht ignoriert.

Deshalb müssen die Beispiele selbst fair sein.


Aber was heisst das – „fair“?

Ein kleiner Ausflug in die Sprache der Technik – ganz ohne Techniksprache.

Die Forschenden, die sich mit diesem Thema beschäftigen, sprechen gern von „Top k Beispielen“. Klingt nach Mathe – ist aber in Wahrheit ein ganz alltägliches Prinzip.

k“ steht einfach für eine Zahl. Eine beliebige.
Und „Top k“ bedeutet: Wir nehmen die besten k Beispiele – nach einem bestimmten Kriterium.

Zum Beispiel: Von 50 möglichen Textbeispielen suchen wir die 5, die am wenigsten Verzerrung enthalten. Dann ist k = 5. Und „Top k“ meint: die fairsten fünf Beispiele.

Der Fachbegriff dafür ist T-fair-PromptingT wie Top. Man sucht sich die fairsten Einzelbeispiele aus, misst ihre Wirkung auf die KI, und wählt diejenigen, die am wenigsten Schieflage verursachen. Schnell, effizient – aber mit einem Haken. Denn diese Methode prüft jedes Beispiel für sich

Doch was passiert, wenn ausgerechnet die fairsten Einzelbeispiele zusammen eine neue Verzerrung ergeben?

Dann kommt die zweite Methode ins Spiel: G-fair.

„G“ steht für greedy, also gierig – aber hier meint es eher: schrittweise vorgehend. Die Methode schaut nicht nur, wie fair ein Beispiel allein ist – sondern wie es sich im Zusammenspiel mit anderen verhält.

Stellen Sie sich vor, Sie bauen eine Redaktionsrunde auf. Sie holen nicht einfach die fünf nettesten Stimmen ins Team – sondern setzen die Runde Stück für Stück zusammen, prüfen nach jedem Neuzugang: Bleibt das Gleichgewicht? Entsteht ein sinnvoller Austausch?

G-fair funktioniert genauso. Es beginnt mit einem guten ersten Beispiel – und fügt dann jeweils das hinzu, das die Fairness insgesamt verbessert. Bis der Prompt ein ausgewogener Mikrokosmos ist, der der KI zeigt: So klingt ein fairer, balancierter Text.

Ja, das ist aufwendiger. Aber es lohnt sich. Studien zeigen, dass G-fair-Prompting deutlich weniger Verzerrung erzeugt – und gleichzeitig bessere, präzisere Texte liefert.


Ein Beispiel aus dem Alltag: Sprache, die niemanden vergisst

Nehmen wir Mara, eine Unternehmerin, die ein ergonomisches Sitzkissen entwickelt hat. Sie will es online bewerben – für Gamer, fürs Büro, für ältere Menschen mit Rückenschmerzen. Unterschiedlichste Zielgruppen also.

Die KI soll den Werbetext schreiben. Mara füttert sie mit zwei Beispielen:

  1. Ein junger Freelancer beschreibt, wie das Kissen ihn bei langen Work-Sessions unterstützt.
  2. Eine 68-jährige Rentnerin erzählt, dass sie dank des Kissens länger mit den Enkeln am Esstisch sitzen kann.

Diese beiden Beispiele zeigen der KI: Hier gibt es nicht die eine Zielgruppe. Kein Alter, kein Geschlecht, kein Typ Mensch wird bevorzugt.

Der resultierende Text? Schlicht, einladend, offen. Kein Technikjargon. Kein Gesundheits-Marketing. Sondern ein Ton, der allen Raum gibt.

Es ist entscheidend, welche Stimmen man wählt. Welches Bild man der KI von der Welt zeigt. Fairness beginnt vor dem ersten Satz.


Gegenüberstellung der Methoden T-fair-Prompting und G-fair-Prompting


Aber Fairness ist kein Etikett

Viele Unternehmen schmücken sich mit „KI-Ethik“. Doch Fairness lässt sich nicht behaupten. Sie muss erarbeitet werden. Sonst bleibt sie Fassade. Ein Prompt mit „diversen Beispielen“ nützt wenig, wenn die KI trotzdem immer wieder dieselben Stereotype reproduziert. 

Fairness verlangt mehr als Technik. Sie verlangt Haltung. Sie beginnt mit der Frage: Wen will ich erreichen? Und geht weiter mit: Wen könnte ich versehentlich ausschliessen? Sie endet nie.


Fazit: Ein fairer Text ist kein Kompromiss 

Er ist ein Versprechen. 

Wenn Sie mit KI schreiben, denken Sie nicht nur an Stil und Grammatik. Denken Sie an Menschen. An Perspektiven. An das, was nicht gesagt wird – und doch fehlt.

Fairness-Guided Prompting ist ein Werkzeug. Ein gutes. Aber es bleibt Werkzeug. Die Verantwortung liegt bei uns. Denn Worte können tragen. Oder ausgrenzen. Wählen wir sie so, dass sie einladen. Nicht überreden. Nicht beeindrucken. Sondern begegnen.



Comentarios
* No se publicará la dirección de correo electrónico en el sitio web.