Manuela Frenzel - Geschäftsinhaberin
Akkreditierte unabhängige Online-Journalistin
17 Minuten Lesezeit
29 May
29May

KI und Ethik, artificial intelligence ethics


Und dann erinnert sie sich an eine Doku auf Netflix über Algorithmen und fängt an zu recherchieren… Die 22-Jährige Laura ist süchtig nach sozialen Netzwerken und postet jeden Tag ihr Leben online. Dann aber eines Tages bemerkt sie, dass ihr Feed nur noch diese Inhalte zeigt und andere Stimmen verschwinden.

Doch bald merkt sie: Sie ist in einer digitalen Blase gefangen. Sie selbst ist von diesem begrenzten Blick auf die Welt überrascht. Sie fragt sich, wie viele andere Menschen in ihrer eigenen Filterblase gefangen sind und es nicht bemerken.

Algorithmen bestimmen, was wir sehen, wie wir uns informieren und wie wir oft auch denken. Und dieses Beispiel zeigt, wie wichtig es ist, das Thema Ethik und KI zusammen zu denken. Von der Kreditvergabe über medizinische Diagnosen bis hin zum Jobangebot beeinflussen sie Entscheidungen in allen Lebensbereichen.

Aber wer entwickelt diese Algorithmen? Und was sind die Werte, nach denen sie trainiert werden?


Was sind Algorithmen?

Das klingt alles mathematisch und neutral – dennoch sind es oft Vorurteile und Fehleinschätzungen ihrer Schöpfer, die in solche Prozesse Einzug halten. An sich besteht ein Algorithmus aus einer Abfolge von Schritten, die ein Computer ausführt, um eine Aufgabe zu erledigen.

Algorithmen werden von Menschen programmiert, Menschen bestimmen, welche Daten sie bekommen und welche Muster sie erkennen sollen.

Diese Verzerrungen in den Daten führen häufig zu schädlicheren Resultaten. Bei der Gesichtserkennung gibt es Probleme, Menschen mit dunklerer Hautfarbe richtig zu erkennen. Und auch bei der medizinischen Diagnose gibt es Probleme; Ärzte können KI zufolge Frauen mit Herzproblemen häufig falsch behandeln.

Algorithmen sind auch nicht fehlerfrei – und können echten Schaden anrichten, so spannend sie auch sein mögen.


Die Kontroverse um Algorithmen: Fairness oder Verzerrung?

Algorithmen – da entscheidet eine kleine Gruppe von Experten, und diese hat Macht. Sie entscheiden, wie die digitalen Mechanismen funktionieren, und für Menschen, die nicht Teil dieser Kreise sind, bleibt oft unklar, was da wirklich passiert.

Was dabei herauskommt, ist oft undurchsichtig und wir wissen nicht, welche Werte und Interessen da mitspielen.


Das Problem?


Vorurteile können von Algorithmen reproduziert werden – bewusst und unbewusst. Das passiert manchmal subtil, manchmal offensichtlich. Sie spiegeln die Vorstellungen der Menschen wider, die sie erstellt haben.


Das Ergebnis?


Und wenn sie falsch konzipiert werden, verstärken sie soziale Ungerechtigkeit – manchmal mit dramatischen Folgen. Algorithmen steuern vieles in unserem Leben – und nur wenige wissen, wie sie funktionieren. Sie können Entscheidungen treffen, die Menschen auf verzerrter Datengrundlage unfair und unwissentlich diskriminieren, gegen die sie sich nicht wehren können.


Und wessen Interessen vertreten die wirklich? 


Wer aber bestimmt, wie diese Mechanismen funktionieren, ist es allerhöchste Zeit, dass wir uns fragen. Die Algorithmen müssen transparent sein, damit sie fair und verantwortungsvoll arbeiten können. Eine breite, offene Debatte ist wichtig, damit die Bedürfnisse der Gesellschaft und der Menschen gehört werden.

Es geht schliesslich nicht nur um Technik – es geht um Menschenleben.


ADM-Prozesse: Wenn Algorithmen entscheiden

Selbst ein Mensch am Ende des Prozesses schaut noch drüber. Aber was ist mit den Menschen, die vorher durch die automatisierte Auswahl gefallen sind? 

Immer häufiger kommen Algorithmen für automatisierte Entscheidungen zum Einsatz, wie etwa für die Vergabe von Krediten oder Jobs. Diese Algorithmen helfen, Zahlen und Wahrscheinlichkeiten in Informationen zu verwandeln.

Die Konsequenzen sind verheerend, und Diskriminierung und Verzerrungen sind vermutlich geradezu eingebaut. Viele Gruppen sind ohne Vielfalt in den Trainingsdaten unsichtbar oder werden unfair behandelt.

Es gibt zahlreiche Bereiche, in denen ADM-Prozesse zum Einsatz kommen, zum Beispiel:

  • In der Finanzindustrie für die Kreditvergabe
  • Im Personalwesen für die Bewerbervorauswahl
  • Im Gesundheitswesen für die Diagnoseunterstützung
  • Auf Social Media für personalisierte Empfehlungen
  • In der Bild- und Spracherkennung oder um Objekte oder Personen zu analysieren.
  • Im Versicherungswesen, um eine Risikobewertung vorzunehmen
  • Im Bereich des Marketings für die Zielgruppenanalyse

Diese Liste lässt sich fortführen.


Wie ADM-Prozesse unser Leben beeinflussen können - Chancen und Risiken im Überblick

Hier sind einige wichtige Punkte:

  • Normative Setzungen (schon vor ADM-Prozessen): Ethische Entscheidungen sind vor ADM-Prozessen zu treffen. Wir müssen darüber reden und diskutieren, und unsere Werte und Normen müssen da ihren Platz haben.
  • Datenbasis: Wir müssen uns wieder der ADM-Prozesse und Verzerrungen in der Datenbasis bewusst sein. Man muss sich eben Daten und Korrelationen auf ihre Ursachen ansehen. So vermindert man die Gefahr der systematischen Diskriminierung.
  • ADM-Prozesse sind konsistent angewendet. Sie bieten aber nicht immer die nötige Flexibilität, wenn es mal etwas Ungewöhnlicheres oder Komplizierteres wird. Und wir sollten uns klarmachen, dass Maschinen auch nie alle wichtigen und unerwarteten Details berücksichtigen können. Das kann Scherereien geben.
  • Aber wir müssen darauf achten, die ADM-Prozesse vielfältig zu halten. Es gibt zudem Bereiche, in denen menschliche Bewertungen noch gewünscht sind und auch sein sollten.
  • Deswegen müssen Entscheidungen nachvollziehbar sein und es muss eine unabhängige Bewertung möglich sein. Auch datengestützte und digitale Systeme müssen klar und verständlich sein. Lasst sie uns so transparent und überprüfbar wie möglich machen.
  • ADM-Prozesse sind anpassungsfähig. Wir sollten dafür sorgen, dass die Prozesse fair und ausgewogen sind, damit wir einseitige Entscheidungen vermeiden können.
  • Einmal auf der Sonnenseite – sie können den Zugang zu personalisierten Angeboten und Dienstleistungen demokratisieren. Auswirkungen auf uns als Individuen: ADM-Prozesse haben Vorteile und Nachteile für uns. Menschliche Entscheidungen geraten dann stärker in den Hintergrund, besonders wenn die Situation ungewöhnlich oder kompliziert ist.

Maschinen entscheiden nicht immer objektiv oder fehlerfrei, das sollten wir uns auch immer wieder bewusst machen. Man muss die jeweiligen Abläufe genau anschauen und verstehen, wie sich das auswirkt. Sie müssen ausserdem mit unseren ethischen Werten und gesellschaftlichen Zielen übereinstimmen.



Beispiele für geschädigte Personas durch den Einsatz von künstlicher Intelligenz

Dafür habe ich mir auch fiktive Personen ausgedacht, damit die ganze Sache anschaulich und verständlich ist. Danach kommen fiktive Beispiele, wie Menschen zu Schaden kommen können, weil die Trainingsdaten nicht divers genug sind.


Beispiel für KI und Ethik: Face-Recognition-Bias (Gesichtserkennungs-Technologie)

Beschreibung der algorithmischen Verzerrung: KI-Algorithmen für die Gesichtserkennungs-Technologie, um Personen zu identifizieren. Diese Algorithmen sind aktuell noch gegenüber Menschen mit dunklerer Hautfarbe voreingenommen: Sie haben Schwierigkeiten, sie korrekt zu erkennen, was zu falschen Identifizierungen und Verhaftungen führen kann. 

Schädliche Anwendung: Polizeibehörden und Sicherheitsfirmen, die diese Technologie einsetzen, könnten unberechtigt Personen aufgrund ihrer dunklen Hautfarbe verhaften oder verurteilen, ohne dass sie tatsächlich eine Straftat begangen haben.

Es folgt eine fiktive Persona und Geschichte


Bild Fiktive Persönlichkeit Face Recognition Bias

Name: Malik Jones 

Herkunft: Mali 

Alter: 27 Beruf: IT-Techniker 

Geschichte: Malik Jones war auf dem Weg zur Arbeit, als er plötzlich von der Polizei festgenommen wurde. Der Grund dafür war ein bewaffneter Überfall, der in der Gegend stattfand. Die Polizei hatte eine Aufnahme einer Überwachungskamera, die den mutmasslichen Täter zeigte. Aufgrund des Face-Recognition-Bias des KI-Algorithmus wurde Jones fälschlicherweise als der Täter identifiziert und verhaftet, obwohl er zur Tatzeit in seinem Büro arbeitete. 

Algorithmisch angerichteter Schaden: Der KI-Algorithmus hatte aufgrund von Jones dunkler Hautfarbe Schwierigkeiten, sein Gesicht korrekt zu erkennen. Dies führte zu einer falschen Identifizierung und Verhaftung. Jones verbrachte mehrere Tage im Gefängnis, bevor der Fehler erkannt wurde und er freigelassen wurde. 


Nach meiner Recherche habe ich für dich zum Thema einen informativen Blogbeitrag in deutscher Sprache gefunden. Von der Hochschule ZHAW: "Ungleichbehandlung durch Gesichtserkennungsverfahren", vom Donnerstag 20. Januar 2022, gelesen am 29.05.2023.


Beispiel für KI und Ethik: AI in HealthCare (Gesundheitswesen)

Beschreibung der algorithmischen Verzerrung: Es gibt KI-Algorithmen, die verwendet werden, um medizinische Entscheidungen zu treffen. Diese Algorithmen können gegenüber bestimmten Gruppen von Patienten voreingenommen sein, zum Beispiel aufgrund von Rasse, Geschlecht oder sozioökonomischem Status. Diese Verzerrungen können zu Fehldiagnosen, falschen Behandlungen oder unzureichender medizinischer Versorgung führen. 

Schädliche Anwendung: Gesundheitseinrichtungen, die diese Algorithmen einsetzen, könnten ungleiche medizinische Ergebnisse für bestimmte Patientengruppen hervorrufen und dadurch ihre Gesundheitsversorgung beeinträchtigen. 

Es folgt eine fiktive Persona und Geschichte


Foto fiktive Persönlichkeit AI in Health Care

Name: Juanita Rodriguez 

Herkunft: Spanien 

Alter: 45 

Beruf: Facility Mitarbeiterin 

Geschichte: Juanita Rodriguez bemerkte Schmerzen im im Oberbauch und übergab sich öfter, aber sie konnte es sich nicht leisten, einen Arzt aufzusuchen. Die Symptome wurden unerträglich. Schliesslich ging sie in die Notaufnahme. Dort wurde sie untersucht und ein KI-Algorithmus lieferte einen falschen Befund, weil Frauen in den Trainingsdaten unterrepräsentiert sind, was zu Verzerrungen führt. 

Algorithmische angerichteter Schaden: Der Algorithmus erkannte den Herzinfarkt nicht. Dies führte zu einer unzureichenden medizinischen Versorgung und einer verzögerten Diagnose, was zu schwerwiegenden gesundheitlichen Problemen bei Frau Rodriguez führte. 


Folgendes Beispiel habe ich online im aerzteblatt.de gefunden: "E-Health: Den Gender-Bias vermeiden", Dtsch Arztebl 2020; 117(10): A-478 / B-416, Krüger-Brand, Heike E., gelesen am 29.05.2023


Beispiel für KI und Ethik: Gender bias in AI algorithms and social media (Soziale Medien)

Beschreibung der algorithmischen Verzerrung: KI-Algorithmen, die in sozialen Medien eingesetzt werden, um Inhalte zu empfehlen oder zu filtern. Diese Algorithmen können gegenüber bestimmten Geschlechtern voreingenommen sein, indem sie bestimmte Inhalte bevorzugen oder unterdrücken. Dies kann dazu führen, dass Frauen oder Personen mit nicht-binären Geschlechtsidentitäten in den sozialen Medien unsichtbar gemacht werden oder weniger Chancen haben, ihre Inhalte zu teilen und sich zu engagieren. 

Schädliche Anwendung: Social-Media-Plattformen, die diese Algorithmen einsetzen, können ungleiche Sichtbarkeit und Teilhabe für bestimmte Geschlechter verursachen und dadurch ihre Online-Präsenz beeinträchtigen. 

Es folgt eine fiktive Persona und Geschichte


Foto fiktive Persönlichkeit Gender bias in AI algorithms and social media

Name: Susanna Bianchi 

Herkunft: Italien 

Alter: 49 

Beruf: Bloggerin 

Geschichte: Susanna Bianchi ist eine erfolgreiche Bloggerin, die über Marketingthemen schreibt. Sie hat viele Follower und teilt regelmässig ihre Artikel auf Social-Media-Plattformen, um ihre Reichweite zu erhöhen. Aber sie bemerkt, dass ihre Artikel weniger Reichweite erhalten als die eines italienischen männlichen Bloggers, der dasselbe Thema behandelt. 

Algorithmisch angerichteter Schaden: Die Geschlechterverzerrungen in den Algorithmen führen dazu, dass Susannas Artikel weniger Sichtbarkeit und Teilhabe in den sozialen Medien haben. Dies beeinträchtigt ihre Fähigkeit, ihre Karriere voranzutreiben und sich als Expertin in ihrem Bereich zu etablieren, da sie nicht die gleiche Reichweite und Sichtbarkeit wie ihr männlicher Kollege hat. 


Auch zu diesem Beispiel habe ich recherchiert und folgenden Beitrag in englischer Sprache gefunden: "Shadowbanning ist real: So werden Sie von den sozialen Medien stummgeschaltet", The Washington Post, Kolumnist Geoffrey A. Fowler, aktualisiert am 27. Dezember 2022 um 12:54 Uhr EST, von mir gelesen am 28.05.2023. Neues zum Thema, gelesen am 01.07.2023: Wie Firmen auf die Sorgen der Menschen reagieren:


Beispiel für KI und Ethik: AI in hiring (KI-Rekrutierung)

Beschreibung der algorithmischen Verzerrung: KI-Algorithmen, die zur Vorselektion von Bewerbern in Unternehmen eingesetzt werden, können aufgrund von Vorurteilen in den eingegebenen Daten bestimmte Gruppen von Bewerbern aufgrund ihres Geschlechts, ihrer Herkunft oder ihres Aussehens diskriminieren. Dies kann dazu führen, dass qualifizierte Bewerber nicht eingestellt werden, während weniger qualifizierte Bewerber bevorzugt werden. 

Schädliche Anwendung: Unternehmen, die diese Algorithmen einsetzen, können dadurch ungleiche Chancen und Diskriminierung bei der Einstellung verursachen und dadurch ihre Arbeitsplatzkultur und die Vielfalt ihrer Mitarbeiter beeinträchtigen. 

Es folgt eine fiktive Persona und Geschichte


Foto fiktive Persönlichkeit AI in hiring

Name: Bettina Hansen 

Herkunft: Norwegen 

Alter: 27 

Beruf: GL-Assistentin 

Geschichte: Bettina Hansen hat sich als GL-Assistentin im Ausland beworben, da sie gerne in einem international tätigen Unternehmen arbeiten möchte. Obwohl sie die erforderlichen Qualifikationen und Erfahrungen hatte, wurde sie aufgrund von algorithmischen Verzerrungen diskriminiert. Sie erfuhr aus Zufall, dass das Unternehmen keine Mitarbeiter aus dem Ausland einstellt. 

Algorithmisch angerichteter Schaden: Die algorithmischen Verzerrungen führten dazu, dass Bettina Hansen nicht für die Stelle ausgewählt wurde, für die sie qualifiziert war. Dies beeinträchtigten ihre Karriereentwicklung und ihre Fähigkeit, in der Arbeitswelt erfolgreich zu sein, da sie aufgrund ihres Aussehens diskriminiert wurde. 


Bei meiner Recherche fand ich den sehr verständlich und umfassenden geschriebenen Bericht "Der Einsatz von Künstlicher Intelligenz in der Rekrutierung", Wirtschaftswissenschaftliche Fakultät, Universität Basel, Lena Adelmanna, Jennifer Wiedmer, gelesen am 28.05.2023.


Beispiel für KI und Ethik: Wenn die Daten gehackt wurden

Beschreibung der algorithmischen Verzerrung: Es gibt KI-Algorithmen, die auf Daten von Benutzern oder Verbrauchern angewiesen sind, um zu lernen und bessere Vorhersagen zu treffen. Diese Daten können jedoch gehackt oder ohne Zustimmung des Eigentümers verwendet werden, was zu Verzerrungen in den Algorithmen führt. Es gibt verschiedene Anwendungen, die Daten für die Entwicklung von KI-Systemen stehlen können. 

Zum Beispiel können Hacker in Netzwerke von Unternehmen oder Regierungsbehörden eindringen und sensible Daten wie personenbezogene Informationen, Finanzdaten oder medizinische Aufzeichnungen stehlen. Auch Apps und Plattformen, die von Nutzern verwendet werden, könnten Daten ohne ihre Zustimmung oder Kenntnis sammeln und weitergeben. 

Schädliche Anwendung: Unternehmen, die gehackte Daten verwenden, um KI-Modelle zu trainieren, können die Privatsphäre von Menschen verletzen und ihre Rechte missachten. Diese Modelle können auch Verzerrungen in Entscheidungen enthalten, die auf diesen gehackten Daten basieren. 

Es folgt eine fiktive Persona und Geschichte


Foto fiktive Persönlichkeit Wenn die Daten gehackt wurden

Name: Markus Huber 

Herkunft: Österreich 

Alter: 45 

Beruf: CFO 

Geschichte: Markus Huber wollte ein Haus für seine Familie bauen und beantragte dafür einen Kredit bei einer Bank. Trotz seiner hohen Position und guter Kreditwürdigkeit wurde sein Antrag abgelehnt. Als er nachfragte, erfuhr er, dass seine medizinischen Daten aus seiner elektronischen Krankenakte bei seinem Hausarzt gestohlen und zur Erstellung eines Algorithmus verwendet wurden, um das Kreditrisiko von potenziellen Kunden zu bewerten. 

Dieser Algorithmus hat ihn aufgrund einer Vorerkrankung als höheres Kreditrisiko eingestuft, obwohl seine Krankheit unter Kontrolle war und keine Auswirkungen auf seine Fähigkeit hatte, den Kredit zurückzuzahlen. 

Algorithmisch angerichteter Schaden: Markus Huber wurde fälschlicherweise als höheres Kreditrisiko eingestuft und sein Kreditantrag wurde abgelehnt, obwohl er finanziell stabil ist und in der Lage gewesen wäre, den Kredit zurückzuzahlen. Seine medizinischen Daten wurden ohne seine Zustimmung gestohlen und unrechtmässig verwendet, was seine Privatsphäre und seine Rechte verletzt hat.


Es macht doch nachdenklich, welche Schäden durch nicht diverse Trainingsdaten angerichtet werden können. Und auch hier möchte ich anstupsen, dass die Transparenz der Daten wichtig ist, auch wenn es illusorisch klingt. Die Trainingsdaten entscheiden in Zukunft für jeden Einzelnen von uns. Wer kommt denn für die Schäden auf? Siehe auch: "Sensible Patiendendaten in Gefahr", tagesschau.de, Stand Stand: 15.06.2022 19:30 Uhr, Von Jasmin Klofta, Katrin Kampling, Anne Ruprecht, NDR, gelesen am 28.05.2023.


Beispiel einer geschädigten Persona: Deepfakes Videos

Beschreibung der algorithmischen Verzerrung: Durch algorithmische Verzerrungen wurden Leon Beckers Gesichts- und Stimmdaten analysiert und verwendet, um täuschend echte Deepfakes zu erstellen. Diese Deepfakes wurden dann in gefälschten Videos und Bildern verwendet, um den Kommandanten in Situationen zu zeigen, an denen er nicht beteiligt war. Die algorithmische Verzerrung zielt darauf ab, den Kommandanten in ein negatives Licht zu rücken und seine Glaubwürdigkeit und Integrität als Kommandant in der Friedensförderung zu untergraben. 

Die schädliche Anwendung ist hier ein Schaden, der durch Personen oder Gruppen verursacht wird, die böswillig handeln und die generative KI-Technologie nutzen, um Deepfake-Videos zu erstellen. Diese Personen können verschiedene Motive haben, wie zum Beispiel Rufschädigung, Diffamierung, Verbreitung von gefälschten Informationen oder Erpressung. Die Erstellung von Deepfake-Videos basiert auf dem Einsatz von generativer KI, einer fortschrittlichen Technologie des maschinellen Lernens. 

Die generative KI analysiert und verarbeitet grosse Mengen an Daten, darunter Bilder und Videos der Zielperson, um ein neuronales Netzwerk zu trainieren. Anschliessend kann das trainierte Netzwerk verwendet werden, um realistisch aussehende Videos zu generieren, in denen Personen in gefälschten Situationen zu sehen sind. 

Es folgt eine fiktive Persona und Geschichte


Foto fiktive Persönlichkeit Deepfakes Videos

Name: Kommandant Leon Becker 

Herkunft: Schweiz 

Alter: 46 Jahre 

Beruf: Kommandant in der Friedensförderung 

Geschichte: Leon Becker ist ein hoch angesehener Kommandant in der Friedensförderung und hat eine beeindruckende Karriere in verschiedenen Konfliktregionen hinter sich. Er ist bekannt für seine aussergewöhnlichen Führungsqualitäten und seinen Einsatz für das Land. Kommandant Leon Becker hat viele Herausforderungen bewältigt und ist eine inspirierende Figur für sein Team, weil er ein Karriere-Förderer ist. 

Algorithmisch angerichteter Schaden: Durch die algorithmische Verzerrung wurden gefälschte Videos und Bilder erstellt, in denen Kommandant Leon Becker in fragwürdigen oder unprofessionellen Situationen zu sehen ist, an denen er nicht beteiligt war. Diese Deepfakes wurden verbreitet, um seinen Ruf zu schädigen und den Eindruck zu erwecken, dass er unzuverlässig oder unethisch handelt.

 Der algorithmische Schaden hat zu Zweifeln an seiner Führungsfähigkeit und seiner Eignung als Kommandant geführt. Der algorithmische Schaden hat schwerwiegende Auswirkungen auf seine berufliche Karriere und seinen Ruf als Kommandant in der Friedensförderung. 

Seine Glaubwürdigkeit und Integrität wurden angegriffen, was sein Ansehen beeinträchtigt und seine Möglichkeiten zur Weiterentwicklung einschränkt. Kommandant Leon Becker wird mit Diffamierung, Verleumdungen und persönlichen Angriffen konfrontiert, die ihm persönlich und beruflich schaden. Es ist wichtig zu betonen, dass Kommandant Leon Becker selbst Opfer von algorithmischer Verzerrung ist und nicht für die Inhalte in den gefälschten Deepfakes verantwortlich ist. 

Er setzt sich weiterhin leidenschaftlich für den Frieden ein und arbeitet daran, die negativen Auswirkungen dieser algorithmischen Verzerrungen zu überwinden und die Wahrheit ans Licht zu bringen. 


In meiner Recherche habe ich folgenden anschaulichen Beitrag gefunden, der nicht dem Beispiel entspricht, aber aufzeigt wie gefährlich diese Technologie im Bereich Militär sein kann oder bereits ist: «US-Spezialeinheiten wollen Deep Fakes für Psy-Ops nutzen», theintercept.com, Autor Sam Biddle, vom 06.03.2023.


Beispiel einer geschädigten Persona: Deepfakes Audio

Beschreibung der algorithmischen Verzerrung: Durch den Einsatz von Deepfake-Audio-Technologie wurden Elena Müllers Stimmaufnahmen analysiert und manipuliert. Die algorithmische Verzerrung zielt darauf ab, Elenas Stimme in gefälschten Audiodateien zu verwenden, um sie in Aussagen zu bringen, die sie nie gemacht hat. Dadurch wird ihr Ruf als Pressesprecherin und ihre Glaubwürdigkeit in Frage gestellt. 

Schädliche Anwendung: Für die schädliche Anwendung von Deepfake-Audio-Technologie und die Manipulation von Elena Müllers Stimmaufnahmen sind individuelle Akteure oder Gruppen verantwortlich, die böswillig handeln. Es kann sich um Personen oder Organisationen handeln, die ein Interesse daran haben, Elena zu schaden, ihre Reputation zu beeinträchtigen oder ihre Glaubwürdigkeit als Pressesprecherin zu untergraben. Die genaue Identität der Täter kann unterschiedlich sein und hängt von den spezifischen Umständen des Einzelfalls ab. Es könnten rivalisierende Unternehmen, politische Gegner, Cyberkriminelle oder andere Gruppen sein, die ein Motiv haben, Elena gezielt zu diffamieren oder ihre Arbeit zu beeinträchtigen. 

Es folgt eine fiktive Persona und Geschichte


Foto fiktive Persönlichkeit Deepfakes Audio

Name: Elena Müller 

Herkunft: Schweiz 

Beruf: Pressesprecherin 

Alter: 32 Jahre 

Geschichte: Elena Müller arbeitet als engagierte Pressesprecherin und ist für die Kommunikation zwischen ihrem Unternehmen und der Öffentlichkeit verantwortlich. Sie hat eine ausgezeichnete Kommunikationsfähigkeit und arbeitet hart daran, transparente und vertrauenswürdige Informationen zu liefern. Elena ist bekannt für ihre Professionalität und ihr Engagement, die Botschaften ihres Unternehmens klar und authentisch zu vermitteln. 

Algorithmisch angerichteter Schaden: Durch die algorithmische Verzerrung wurden gefälschte Audiodateien erstellt, in denen Elena in Aussagen zu hören ist, die sie nie gemacht hat. Die gefälschten Audiodateien werden gezielt verbreitet, um Elenas Ruf zu schädigen und ihre Glaubwürdigkeit als Pressesprecherin zu untergraben. 

Der algorithmische Schaden hat zu einem erheblichen Verlust an Vertrauen und Ansehen geführt, sowohl innerhalb des Unternehmens als auch in der Öffentlichkeit. Der algorithmische Schaden hat persönliche und berufliche Auswirkungen auf Elena Müller. Sie sieht sich mit Anfeindungen, Angriffen auf ihre Person und einer Einschränkung ihrer beruflichen Möglichkeiten konfrontiert. Die gefälschten Aussagen können ihre Reputation als Pressesprecherin und ihre Fähigkeit, effektiv mit der Öffentlichkeit zu kommunizieren, ernsthaft beeinträchtigen. 

Es ist wichtig zu betonen, dass Elena Müller selbst Opfer von algorithmischer Verzerrung ist und nicht für die Inhalte in den gefälschten Audiodateien verantwortlich gemacht werden kann. Sie setzt sich weiterhin leidenschaftlich für ihre Aufgabe als Pressesprecherin ein. Zusätzlich setzt sie sich im Branchenverband für die Sensibilisierung von Deepfake-Audio-Manipulation ein und wie mit ihnen umgegangen werden muss. 


Siehe auch Quelle: Wie der Enkeltrick, nur mit KI: Deepfake-Betrüger erpressen Firmen mit falscher Chef-Stimme, gefunden auf handelsblatt.com, Cyberkriminalität, Autorin Melanie Raidl, vom 30.01.2022, gelesen am 30.05.2023.


Beispiel einer geschädigten Persona: generativer Künstlicher Intelligenz Chat GPT

Beschreibung der algorithmischen Verzerrung: Die algorithmische Verzerrung bezieht sich auf die Verzerrung oder Veränderung von Informationen, Daten oder Inhalten durch den Einsatz von algorithmischen Prozessen oder Technologien wie Künstlicher Intelligenz (KI) oder maschinellem Lernen, in Form von Chat GPT. Bei der algorithmischen Verzerrung kann es zu einer Veränderung, Veröffentlichung, Modifikation oder Manipulation von Daten kommen, die möglicherweise nicht den ursprünglichen Absichten entsprechen. 

Schädliche Anwendung: Die schädliche Anwendung besteht darin, dass Herr Posch die generative KI-Technologie Chat GPT ohne ausreichende Kommunikation und Zustimmung von der Kundin einsetzt. Dadurch werden ihre Daten und Angaben algorithmisch verarbeitet, um automatisiert Textinhalte zu erstellen. 

Es folgt eine fiktive Persona und Geschichte


Foto fiktive Persönlichkeit generativer Künstlicher Intelligenz Chat GPT

Name: Anna Thijse 

Herkunft: Holland 

Beruf: Unternehmerin 

Alter: 42 Jahre 

Geschichte: Anna Thijse ist eine erfolgreiche Unternehmerin, die die Dienste von Thomas Posch in Anspruch genommen hat, um qualitativ hochwertige Texte für ihr Unternehmen zu erhalten. Sie verlässt sich auf die professionelle Unterstützung von Herrn Posch, um ihre Marketing- und Kommunikationsziele zu erreichen. 

Algorithmisch angerichteter Schaden: Der algorithmische Schaden besteht darin, dass Herr Posch eventuell firmeninterne Daten mit Chat GPT verarbeitet hat, um Textinhalte für seine Kundin zu generieren. Die Kundin hatte aber so keine Kontrolle darüber, wie ihre Informationen genutzt werden, und konnte somit keine bewussten Entscheidungen über die Verarbeitung ihrer Daten treffen. Der Verlust der Transparenz und Kontrolle hat ihr Vertrauen in Herrn Posch und seine Dienstleistungen erschüttert. 

Der algorithmisch angerichtete Schaden hat persönliche und geschäftliche Auswirkungen. Die Kundin fühlt sich hintergangen. Darüber hinaus kann der algorithmische Schaden negative Auswirkungen auf ihre geschäftliche Reputation haben, da sie möglicherweise mit Textinhalten in Verbindung gebracht wird, die sie nicht autorisiert oder beeinflusst hat. 

Frau Thijse hat sich einen neuen Textdienstleister gesucht. Sie hat von Beginn an über das Thema Chat GPT und Datenschutzverordnung gesprochen. Eine klare Kommunikation und Einwilligung sind für sie von grosser Bedeutung, um eine vertrauensvolle Zusammenarbeit mit dem neuen Dienstleister eingehen zu können.


Beispiel einer geschädigten Firma: Generativer Künstlicher Intelligenz Chatbot

Beschreibung der algorithmischen Verzerrung: Durch den Einsatz von generativer KI im Kundenprozess wurde das Unternehmen TechSolution GmbH mit algorithmischen Verzerrungen konfrontiert. Das KI-System weist algorithmische Voreingenommenheit auf, die zu fehlerhaften und verzerrten Antworten führt. Dies hat negative Auswirkungen auf die Kundenerfahrung und den Ruf des Unternehmens. 

Schädliche Anwendung: TechSolution verwendet die generative KI-Technologie Chatbot, um Kundendaten und Informationen zu analysieren und automatisiert generierte Textinhalte zu erstellen. Die schädliche Anwendung liegt darin, dass das Unternehmen seine Kunden nicht darüber informiert, wie ihre Daten verwendet werden und dass generierte Inhalte in ihrem Namen erstellt werden. 

Es folgt eine fiktive Persona (Firma) und Geschichte


Logo eines fiktiven Unternehmens zur Generativer Künstlicher Intelligenz Chatbot

Name des Unternehmens: TechSolution GmbH 

Branche: Technologie und Kundenservice 

Gründungsjahr: 2010 

Beschreibung der algorithmischen Verzerrung: Durch den Einsatz von generativer KI im Kundenprozess wurde das Unternehmen TechSolution GmbH mit algorithmischen Verzerrungen konfrontiert. Das KI-System weist algorithmische Voreingenommenheit auf, die zu fehlerhaften und verzerrten Antworten führt. Dies hat negative Auswirkungen auf die Kundenerfahrung und den Ruf des Unternehmens. 

Geschichte: TechSolution GmbH ist ein renommiertes Technologieunternehmen, das sich auf innovative Lösungen im Kundenservice spezialisiert hat. Durch den Einsatz eines Chatbots wollte das Unternehmen die Effizienz steigern und den Kunden eine schnellere und personalisierte Unterstützung 24 Stunden 7 Tage bieten. Das Unternehmen hatte einen ausgezeichneten Ruf für seinen erstklassigen Kundenservice und die Einführung des Chatbots sollte die Kundenerfahrung weiter verbessern. 

Algorithmisch angerichteter Schaden: Durch die algorithmische Verzerrung haben Kunden des Unternehmens ungenaue oder fehlerhafte Antworten erhalten. Die generative KI hat die Kundenanfragen nicht richtig verstanden oder falsch interpretiert, was zu missverständlichen und frustrierenden Antworten geführt hat. 

Dadurch entstand der Eindruck, dass TechSolution GmbH unzuverlässig oder unprofessionell sei, was zu einer Beeinträchtigung des Kundenerlebnisses und einer Rufschädigung für das Unternehmen führte. 

Der algorithmische Schaden hat erhebliche Auswirkungen auf das Unternehmen TechSolution GmbH. Kunden könnten das Vertrauen in die Zuverlässigkeit verlieren und sich von den angebotenen Lösungen abwenden. 

Dies könnte zu einem Verlust von Kunden, negativen Bewertungen und einem Rückgang des Unternehmenserfolgs führen. Das Unternehmen muss nun Schritte unternehmen, um die algorithmische Verzerrung zu beheben und das Vertrauen der Kunden zurückzugewinnen. 


Siehe auch Datenschutz «Künstliche Intelligenz im Kundenservice: Rechtliche Rahmenbedingungen von Chatbots beim Online-Shoppen, Quelle: oppenhoff.eu, Rechtsanwälte Dr. Hanna Schmidt und Marco Degginger, Handel und Konsumgüter, 03.02.2021, Köln, gelesen am 30.05.2023


Chancen und Risiken der KI: Die Zukunft in unseren Händen

Künstliche Intelligenz – ein Werkzeug, das uns neue Horizonte eröffnet. Sie verspricht nicht nur Effizienz, sondern auch eine Art von Unterstützung, die wir uns vor wenigen Jahren kaum hätten vorstellen können. Doch wie bei jeder grossen Entdeckung gibt es Chancen und Herausforderungen. 

Es ist an uns, wie wir diese Technologie nutzen.

Nehmen wir die automatische Gesichtserkennung. Sie könnte eines Tages dazu beitragen, Verbrechen zu verhindern und uns in öffentlichen Räumen sicherer fühlen zu lassen. Doch gleichzeitig müssen wir sicherstellen, dass die Technologie so entwickelt wird, dass sie alle Menschen gleich behandelt – unabhängig von Hautfarbe oder Herkunft. 

Die gute Nachricht? Mit jedem Schritt vorwärts lernen wir, diese Systeme besser und fairer zu gestalten.

Auch in der Kreditwürdigkeit eröffnet KI neue Möglichkeiten. Sie könnte dazu beitragen, dass mehr Menschen Zugang zu finanziellen Mitteln bekommen, indem sie alternative Datenquellen wie das Konsumverhalten nutzt. Menschen, die zuvor aufgrund fehlender Kreditgeschichte ausgeschlossen wurden, haben jetzt eine echte Chance. 

Und ja, es liegt an uns, sicherzustellen, dass die Algorithmen gerecht und transparent arbeiten.

In den Sozialen Medien kann KI dafür sorgen, dass wir genau die Inhalte sehen, die uns wirklich interessieren. Sie kann unser Online-Erlebnis optimieren, uns helfen, neue Interessen zu entdecken, und uns Verbindungen zu Menschen ermöglichen, die wir sonst nie getroffen hätten.

 Natürlich müssen wir wachsam sein, damit die Vielfalt der Meinungen erhalten bleibt – aber auch hier liegt es in unseren Händen. Die Zukunft der KI sieht vielversprechend aus. Sie bietet uns unzählige Chancen, unser Leben zu verbessern. Aber wie bei jeder neuesten Technologie ist es unser Job, die Risiken zu minimieren und das Beste daraus zu machen. 

Mit klugen Entscheidungen und ethischem Handeln können wir die Zukunft aktiv gestalten – und das auf eine Art und Weise, die für alle von Vorteil ist.


Chancen und Risiken von Algorithmen auf Social Media: Nutzen Sie sie zu Ihrem Vorteil

Algorithmen arbeiten im Hintergrund, um Ihnen genau die Inhalte zu zeigen, die für Sie von Interesse sind. Sie helfen Ihnen dabei, schneller auf das zuzugreifen, was Sie lieben – sei es interessante Artikel, inspirierende Bilder oder Videos, die Sie zum Lachen bringen. Wenn Sie bestimmte Themen öfter ansehen, werden Ihnen mehr dieser Inhalte angeboten. Ziemlich praktisch, oder?

Diese Algorithmen machen Ihr Social-Media-Erlebnis nicht nur personalisierter, sondern auch einfacher. Automatische Übersetzungen, Vorschläge für ähnliche Inhalte oder personalisierte Suchergebnisse sorgen dafür, dass Sie mühelos finden, was Sie brauchen. Und als Bonus helfen Algorithmen dabei, unerwünschte Inhalte wie Spam oder Hassrede zu filtern und Sie zu schützen.

Doch wie bei jedem Werkzeug gibt es auch hier Aspekte, auf die Sie achten sollten. Algorithmen können dazu führen, dass Sie in einer sogenannten „Filterblase“ landen, in der Ihnen vor allem Inhalte gezeigt werden, die Ihre bisherigen Interessen bestätigen. Dadurch könnte es passieren, dass Sie weniger neue Perspektiven entdecken. 

Aber das können Sie leicht selbst steuern! Sie haben die Möglichkeit, bewusst nach neuen Themen zu suchen oder anderen Personen zu folgen, um Ihren Horizont zu erweitern.

Datenschutz ist ebenfalls ein wichtiges Thema. Algorithmen funktionieren, weil sie Informationen über Ihr Verhalten sammeln, wie zum Beispiel Ihre Likes, Suchanfragen oder die Inhalte, die Sie anschauen. Es ist daher hilfreich, sich bewusst zu machen, welche Daten gesammelt werden und wie diese genutzt werden. Die gute Nachricht ist: Sie haben die Kontrolle! Sie können Ihre Datenschutzeinstellungen jederzeit anpassen.

Manchmal können Algorithmen auch unbeabsichtigt voreingenommen sein, wenn die Daten, auf denen sie basieren, nicht vielfältig genug sind. Das könnte bedeuten, dass bestimmte Gruppen benachteiligt werden. Sie können dazu beitragen, indem Sie genau hinsehen und nach vielfältigen Inhalten suchen.


Zusammenfassung: KI und Ethik – Verantwortung und Chancen

Es lässt sich nicht ignorieren, dass fehlende Vielfalt in den Trainingsdaten von KI-Systemen systematische Ungleichheiten und Diskriminierung verstärken kann. Schon bei der Datenauswahl und der Festlegung von Kriterien werden Entscheidungen getroffen, die tiefe gesellschaftliche Auswirkungen haben können.

Entwickler tragen hier eine grosse Verantwortung. Ihre Kreationen müssen gerecht und transparent sein. Es sollte transparent sein, wie Algorithmen funktionieren und welche Kriterien die Entscheidungen beeinflussen. Diese Offenheit gibt uns die Möglichkeit, Entscheidungen besser zu verstehen und zu hinterfragen.

Das erfordert nicht nur technisches Wissen, sondern auch eine tiefgehende Auseinandersetzung mit ethischen und gesellschaftlichen Fragen. Alle Beteiligten müssen zusammenarbeiten, damit Ethik in der Praxis ankommt und nicht nur ein Ideal bleibt.

KI-Systeme haben das Potenzial, unser Leben in vielen Bereichen zu verbessern. Aber sie können auch Ungleichheiten verstärken, wenn wir nicht kritisch bleiben. Es ist wichtig, die Vorhersagen und Entscheidungen von Algorithmen immer zu hinterfragen und sicherzustellen, dass sie keine systematischen Benachteiligungen schaffen. 

Hier können unabhängige Instanzen wertvolle Hilfe leisten, um Fehler oder Ungerechtigkeiten aufzudecken.

Die Frage bleibt jedoch: Können wir sicherstellen, dass diese Lösungen ethisch vertretbar eingesetzt werden, wenn wirtschaftliche Interessen oft Vorrang haben?

Einige Entwicklungen wecken Zweifel, wie die Entscheidung, Ethik-Teams in Tech-Unternehmen abzubauen. Die Tatsache, dass Forscher warnen, nachdem sie die KI entwickelt haben, lässt ebenfalls Fragen offen.

Es ist wie immer der Mensch, der diese Technik einsetzt. Sofern sie auf verantwortungsvolle Weise entwickelt wird, kann diese Technologie nur etwas Gutes für unsere Zukunft sein. Dabei sind die Grundrechte und der Schutz der Privatsphäre zu achten.

Denn nicht die KI selbst gibt Anlass zur Sorge, sondern die Art und Weise, wie sie von manchen missbraucht wird, um ethische Grundsätze zu untergraben.

Die Frage, warum Ethik-Teams aufgelöst werden, bleibt nach wie vor unbeantwortet – aber sie sollte nicht unbeachtet bleiben.


Bild-Quellen der fiktiven Personas: Kreiert mit Analog Diffusion (Künstlicher Intelligenz). 

Blogartikel aktualisiert am 13.06.2023: Ergänzung Deepfake Video und Audio, Chatbot, ChatGPT. 



Weitere Informationen als Links:


Kommentare
* Die E-Mail-Adresse wird nicht auf der Website veröffentlicht.