22 Minuten Lesezeit
29 May
29May

KI und Ethik, artificial intelligence ethics


Diesen Blogbeitrag beginne ich mit einer Geschichte ...


Laura, 22 Jahre jung, ist eine begeisterte Nutzerin von sozialen Netzwerken und verbringt viel Zeit damit, ihr Leben online zu teilen. 

Aber eines Tages bemerkte sie, dass die Inhalte, die ihr angezeigt wurden, sich auf bestimmte Themen und Gruppen zu konzentrieren schienen, während andere Perspektiven und Stimmen ausgeblendet werden. 

Sie fragte sich, ob das an dem Algorithmen lag – wie sie es in einer Netflix-Dokumentation gesehen hatte - die den Newsfeed der Nutzerinnen und Nutzer personalisiert. 

Da es Laura nicht mehr aus dem Kopf ging, begann sie zu recherchieren. Laura erkannte, dass sie in einer Online-Blase gefangen war und dass ihre Erfahrung nicht die vollständige Realität widerspiegelte. Sie fand es beunruhigend, dass viele andere Nutzerinnen und Nutzer möglicherweise ähnlich eingeschränkt werden und nur einen begrenzten Blickwinkel erhalten. 

Laura begann ihre Nutzung der sozialen Netzwerke zu überdenken und ihre eigene Filterblase zu durchbrechen. Sie suchte aktiv nach neuen Perspektiven und Stimmen.

 

Das ist nur ein Beispiel, welches zeigt, wie wichtig es ist KI und Ethik im Zusammenhang zu sehen.


Einleitung Artificial intelligence ethics

In diesem Blogbeitrag erfahren Sie spannende und aktuelle Details, wie sie auch Ihr Leben betreffen und welche Schwierigkeiten sich ergeben können, wenn Trainingsdatensätze der Algorithmen nicht ausreichend vielfältig trainiert sind. 

KI-Systeme haben das Potenzial, unser Leben in vielerlei Hinsicht zu verbessern, aber es ist wichtig zu beachten, dass sie auch Verzerrungen und Ungleichheiten in der Gesellschaft verstärken können. 

Die Bewältigung dieser Herausforderung erfordert nicht nur technische Kenntnisse, sondern auch ein Bewusstsein für ethische und gesellschaftliche Fragen. Alle Beteiligten müssen zusammenarbeiten, um sicherzustellen, dass KI und Ethik kein Ideal bleiben, sondern in die Praxis umgesetzt werden. 

Deshalb habe ich Beispiele – fiktive Personen und ihre Erlebnisse - erarbeitet, welchen Schaden aufgrund mangelnder Diversität an Trainingsdaten zugefügt wurde, um die Situationen anschaulich und verständlich zu präsentieren. Fachtechnische Begriffe erläutere ich gleich zu Beginn des Blogbeitrages.


Was sind Algorithmen?

Ein Algorithmus ist im Grunde genommen eine Abfolge von Schritten, die ein Computer befolgt, um eine bestimmte Aufgabe zu erledigen.


Ein Beispiel: Stellen Sie sich vor, sie möchten einen Algorithmus erstellen, der all Ihre Bücher als eine Liste ausgibt. Sie möchten  die Titel, die Autoren und die Kategorien sprachlich erfassen und automatisch eine Liste generieren lassen. Eine Liste, die Sie ausdrucken oder abspeichern können.

Hier ist eine mögliche Umsetzung, basierend auf die Spracheingabe: Starte die Anwendung und aktiviere die Spracheingabe.

  • Erstelle eine leere Liste für die Bücher.
  • Wiederhole die folgenden Schritte, bis du alle Bücher erfasst hast:
    • Fordere den Benutzer auf, den Titel des Buches anzugeben.
    • Nimm die Spracheingabe entgegen und speichere den eingegebenen Titel.
    • Fordere den Benutzer auf, den Autor des Buches anzugeben.
    • Nimm die Spracheingabe entgegen und speichere den eingegebenen Autor.
    • Fordere den Benutzer auf, die Kategorie des Buches anzugeben.
    • Nimm die Spracheingabe entgegen und speichere die eingegebene Kategorie.
    • Erstelle ein Buchobjekt mit den erfassten Informationen (Titel, Autor, Kategorie).
    • Füge das Buchobjekt zur Liste der Bücher hinzu.
  • Generiere automatisch eine Übersichtsliste basierend auf den erfassten Büchern.
  • Gib die Übersichtsliste aus.
  • Biete dem Benutzer die Möglichkeit, die Liste auszudrucken oder als Datei abzuspeichern.


Dieser Algorithmus ermöglicht es dem Benutzer, die Bücher durch Spracheingabe zu erfassen, speichert die Informationen in einer Liste und generiert anschliessend eine Übersichtsliste. Es wird angenommen, dass die Spracheingabe-Funktion verfügbar ist und korrekt funktioniert. 

Bei der Implementierung des Algorithmus in einer Programmiersprache müssten die entsprechenden Spracheingabe-Funktionen und die Datenstrukturen für die Liste und die Buchobjekte berücksichtigt werden. Zudem sollte auf eine korrekte Verarbeitung der Eingaben geachtet werden, um die Genauigkeit und Vollständigkeit der Informationen sicherzustellen.

Allerdings ist es wichtig zu verstehen, dass Algorithmen von Menschen erstellt werden. Das bedeutet, dass die Menschen entscheiden, welche Schritte der Algorithmus ausführt und wie er auf bestimmte Situationen reagiert. 

Dabei können Vorurteile, Fehlinterpretationen oder mangelnde Transparenz in die Entwicklung von Algorithmen einfliessen. 

Es gibt auch die Herausforderung, dass Algorithmen grosse Datenmengen verarbeiten und Muster oder Zusammenhänge erkennen sollen. Hier kann es vorkommen, dass Algorithmen aufgrund von unvollständigen oder verzerrten Daten falsche Entscheidungen treffen.


Kontroverse um Algorithmen-Definition: Auf der Suche nach Fairness und Gerechtigkeit

Die Definition von Algorithmen liegt in der Verantwortung von ausgewählten Experten und Organisationen, die oft über beträchtliche Macht und Einfluss verfügen. Diese Fachleute aus dem Bereich der Informatik und verwandten Disziplinen haben die Aufgabe, Algorithmen zu entwerfen, zu implementieren und zu optimieren. 

Bei der Definition von Algorithmen ist es entscheidend, dass die Fachleute über ein tiefes Verständnis der zugrunde liegenden Problemstellung und der verwendeten Technologien verfügen. Leider besteht hier jedoch oft eine Beschränkung auf bestimmte Meinungen, Interessen oder Perspektiven, die in die Gestaltung der Algorithmen einfliessen. Dies kann zu Verzerrungen, Vorurteilen oder unfairen Entscheidungen führen. 

Zudem sind Algorithmen nicht immer transparent oder nachvollziehbar. Die Entscheidungslogik und die Kriterien, die in den Algorithmen verwendet werden, sind oft für die Betroffenen und die breite Öffentlichkeit nicht verständlich. Dadurch entsteht eine Intransparenz, die es schwierig macht, mögliche Vorurteile oder Diskriminierungen aufzudecken und zu korrigieren. 

Des Weiteren besteht die Gefahr, dass Algorithmen in ihren Auswirkungen und Risiken nicht angemessen berücksichtigt werden. Die schnelle Entwicklung und Implementierung von Algorithmen in verschiedenen Bereichen führt dazu, dass mögliche negative Konsequenzen nicht ausreichend untersucht oder abgewogen werden. 

Dies kann zu weitreichenden sozialen, ethischen und rechtlichen Problemen führen. 

Es ist von grosser Bedeutung, dass bei der Definition von Algorithmen nicht nur technische Aspekte berücksichtigt werden, sondern auch gesellschaftliche und ethische Dimensionen. Die Entwicklung von Algorithmen sollte von einer breiten Vielfalt von Perspektiven und Expertisen begleitet werden, um sicherzustellen, dass sie fair, transparent und demokratisch sind. 

Es ist an der Zeit, dass wir als Gesellschaft kritisch hinterfragen, wer die Macht hat, Algorithmen zu definieren und welche Interessen dabei eine Rolle spielen. Eine umfassende und offene Diskussion darüber, wie Algorithmen gestaltet werden sollen, ist von entscheidender Bedeutung, um eine verantwortungsvolle und demokratische Nutzung dieser Technologien sicherzustellen.


ADM-Prozesse (Automated Decision Making-Prozesse): Die Rolle automatisierter Entscheidungen in verschiedenen Bereichen

Sie beziehen sich auf Entscheidungsprozesse, bei denen automatisierte Algorithmen und Software eingesetzt werden, um Entscheidungen zu treffen oder Vorhersagen zu treffen

Diese Prozesse basieren auf der Verarbeitung grosser Datenmengen und verwenden mathematische Modelle, um Muster, Korrelationen oder Zusammenhänge in den Daten zu identifizieren und darauf basierend Entscheidungen zu treffen. 

ADM-Prozesse können in verschiedenen Bereichen eingesetzt werden, wie zum Beispiel:

  • In der Finanzindustrie für die Kreditvergabe
  • Im Personalwesen für die Bewerbervorauswahl
  • Im Gesundheitswesen für die Diagnoseunterstützung
  • Auf Social Media für personalisierte Empfehlungen
  • In der Bild- und Spracherkennung, um Objekte oder Personen zu analysieren
  • Im Versicherungswesen, um eine Risikobewertung vorzunehmen
  • Im Bereich des Marketings für die Zielgruppenanalyse

Diese Liste lässt sich fortführen. 

Die Algorithmen und Software, die in diesen Prozessen verwendet werden, sollen objektive und effiziente Entscheidungen ermöglichen, indem sie menschliche Urteile und menschliche Fehler minimieren oder bestenfalls ausschliessen. 


ADM-Prozesse basieren auf statistischen Analysen und maschinellem Lernen. Die Algorithmen lernen aus historischen Daten, um Muster zu erkennen und Vorhersagen zu treffen. Je mehr Daten  in Diversität verfügbar sind, desto besser können die Algorithmen trainiert werden und desto genauer können die Ergebnisse sein. 


Es ist wichtig zu beachten, dass ADM-Prozesse auch Herausforderungen mit sich bringen können. Die Daten, auf denen sie basieren, können Verzerrungen oder Vorurteile enthalten, die zu systematischen Diskriminierungen führen können. 

Zudem können die Entscheidungslogik und die Kriterien, die in den Algorithmen verwendet werden, nicht immer transparent oder nachvollziehbar sein. Daher ist eine kritische Betrachtung und Überprüfung von ADM-Prozessen von grosser Bedeutung, um sicherzustellen, dass sie fair, ethisch und im Einklang mit den gesellschaftlichen Werten und Zielen eingesetzt werden.


Wie ADM-Prozesse unser Leben beeinflussen können - Chancen und Risiken im Überblick

Hier sind einige wichtige Punkte:

  • Normative Setzungen: Wir sollten uns bewusst sein, dass ethische Entscheidungen bereits vor dem Einsatz von ADM-Prozessen getroffen werden müssen. Es ist wichtig, öffentliche Diskussionen darüber zu führen und sicherzustellen, dass unsere Werte und Normen angemessen berücksichtigt werden.
  • Datenbasis: Wir müssen uns der Möglichkeit bewusst sein, dass ADM-Prozesse auf Verzerrungen in den Datenbasis beruhen können. Es ist wichtig sicherzustellen, dass die Kausalitäten hinter den Daten und Korrelationen überprüft werden, um die Gefahr der systematischen Diskriminierung zu verringern.
  • Konsistenz der Anwendung: ADM-Prozesse sind zuverlässig in der Anwendung. Allerdings können sie in ungewöhnlichen oder komplexen Fällen möglicherweise nicht die erforderliche Flexibilität bieten. Wir sollten uns bewusst sein, dass maschinelle Systeme möglicherweise nicht in der Lage sind, relevante unerwartete Aspekte angemessen zu berücksichtigen.
  • Skalierbarkeit: ADM-Prozesse können in grossem Umfang eingesetzt werden, was dazu führen kann, dass maschinelle Bewertungen häufiger und bei mehr Gelegenheiten vorgenommen werden. Wir sollten sicherstellen, dass die Vielfalt der ADM-Prozesse erhalten bleibt und dass menschliche Bewertungen in bestimmten Fällen weiterhin gewünscht und angemessen sind.
  • Überprüfbarkeit: Wir sollten darauf achten, dass Datenbasierte und digitale Systeme so gestaltet werden, dass sie transparent, nachvollziehbar und überprüfbar sind. Es ist wichtig sicherzustellen, dass Entscheidungen begründet werden können und unabhängige Bewertungen möglich sind.
  • Anpassungsfähigkeit: ADM-Prozesse können sich an neue Umstände anpassen. Wir sollten jedoch sicherstellen, dass die Gestaltung der Prozesse eine faire und ausgewogene Anpassung ermöglicht, um einseitige Entscheidungen zu vermeiden.
  • Auswirkungen auf uns als Individuen: ADM-Prozesse können sowohl Vorteile als auch Nachteile für uns haben. Auf der positiven Seite können sie den Zugang zu personalisierten Angeboten und Dienstleistungen demokratisieren. Auf der anderen Seite besteht die Gefahr, dass menschliche Entscheidungen und Bewertungen reduziert werden, insbesondere in ungewöhnlichen oder komplexen Situationen.


Wir sollten uns bewusst sein, dass maschinelle Entscheidungen nicht immer objektiv oder fehlerfrei sind. Es ist wichtig, diese Prozesse kritisch zu hinterfragen, ihre Auswirkungen zu verstehen und sicherzustellen, dass sie im Einklang mit unseren ethischen Werten und gesellschaftlichen Zielen stehen.


Beispiele für geschädigte Personas durch den Einsatz von künstlicher Intelligenz

Es folgen fiktive Beispiele, wie Menschen Schaden erleiden können, aufgrund mangelnder Diversität an Trainingsdaten. Ich habe dafür auch fiktive Personen gewählt, um die Situationen anschaulich und verständlich zu präsentieren.

Beispiel für KI und Ethik: Face-Recognition-Bias (Gesichtserkennungs-Technologie)

Beschreibung der algorithmischen Verzerrung: KI-Algorithmen für die Gesichtserkennungs-Technologie, um Personen zu identifizieren. Diese Algorithmen sind aktuell noch gegenüber Menschen mit dunklerer Hautfarbe voreingenommen: Sie haben Schwierigkeiten, sie korrekt zu erkennen, was zu falschen Identifizierungen und Verhaftungen führen kann. 

Schädliche Anwendung: Polizeibehörden und Sicherheitsfirmen, die diese Technologie einsetzen, könnten unberechtigt Personen aufgrund ihrer dunklen Hautfarbe verhaften oder verurteilen, ohne dass sie tatsächlich eine Straftat begangen haben.

Es folgt eine fiktive Persona und Geschichte


Bild Fiktive Persönlichkeit Face Recognition Bias

Name: Malik Jones 

Herkunft: Mali 

Alter: 27 Beruf: IT-Techniker 

Geschichte: Malik Jones war auf dem Weg zur Arbeit, als er plötzlich von der Polizei festgenommen wurde. Der Grund dafür war ein bewaffneter Überfall, der in der Gegend stattfand. Die Polizei hatte eine Aufnahme einer Überwachungskamera, die den mutmasslichen Täter zeigte. Aufgrund des Face-Recognition-Bias des KI-Algorithmus wurde Jones fälschlicherweise als der Täter identifiziert und verhaftet, obwohl er zur Tatzeit in seinem Büro arbeitete. 

Algorithmisch angerichteter Schaden: Der KI-Algorithmus hatte aufgrund von Jones dunkler Hautfarbe Schwierigkeiten, sein Gesicht korrekt zu erkennen. Dies führte zu einer falschen Identifizierung und Verhaftung. Jones verbrachte mehrere Tage im Gefängnis, bevor der Fehler erkannt wurde und er freigelassen wurde. 


Nach meiner Recherche habe ich für dich zum Thema einen informativen Blogbeitrag in deutscher Sprache gefunden. Von der Hochschule ZHAW: "Ungleichbehandlung durch Gesichtserkennungsverfahren", vom Donnerstag 20. Januar 2022, gelesen am 29.05.2023.


Beispiel für KI und Ethik: AI in HealthCare (Gesundheitswesen)

Beschreibung der algorithmischen Verzerrung: Es gibt KI-Algorithmen, die verwendet werden, um medizinische Entscheidungen zu treffen. Diese Algorithmen können gegenüber bestimmten Gruppen von Patienten voreingenommen sein, zum Beispiel aufgrund von Rasse, Geschlecht oder sozioökonomischem Status. Diese Verzerrungen können zu Fehldiagnosen, falschen Behandlungen oder unzureichender medizinischer Versorgung führen. 

Schädliche Anwendung: Gesundheitseinrichtungen, die diese Algorithmen einsetzen, könnten ungleiche medizinische Ergebnisse für bestimmte Patientengruppen hervorrufen und dadurch ihre Gesundheitsversorgung beeinträchtigen. 

Es folgt eine fiktive Persona und Geschichte


Foto fiktive Persönlichkeit AI in Health Care

Name: Juanita Rodriguez 

Herkunft: Spanien 

Alter: 45 

Beruf: Facility Mitarbeiterin 

Geschichte: Juanita Rodriguez bemerkte Schmerzen im im Oberbauch und übergab sich öfter, aber sie konnte es sich nicht leisten, einen Arzt aufzusuchen. Die Symptome wurden unerträglich. Schliesslich ging sie in die Notaufnahme. Dort wurde sie untersucht und ein KI-Algorithmus lieferte einen falschen Befund, weil Frauen in den Trainingsdaten unterrepräsentiert sind, was zu Verzerrungen führt. 

Algorithmische angerichteter Schaden: Der Algorithmus erkannte den Herzinfarkt nicht. Dies führte zu einer unzureichenden medizinischen Versorgung und einer verzögerten Diagnose, was zu schwerwiegenden gesundheitlichen Problemen bei Frau Rodriguez führte. 


Folgendes Beispiel habe ich online im aerzteblatt.de gefunden: "E-Health: Den Gender-Bias vermeiden", Dtsch Arztebl 2020; 117(10): A-478 / B-416, Krüger-Brand, Heike E., gelesen am 29.05.2023


Beispiel für KI und Ethik: Gender bias in AI algorithms and social media (Soziale Medien)

Beschreibung der algorithmischen Verzerrung: KI-Algorithmen, die in sozialen Medien eingesetzt werden, um Inhalte zu empfehlen oder zu filtern. Diese Algorithmen können gegenüber bestimmten Geschlechtern voreingenommen sein, indem sie bestimmte Inhalte bevorzugen oder unterdrücken. Dies kann dazu führen, dass Frauen oder Personen mit nicht-binären Geschlechtsidentitäten in den sozialen Medien unsichtbar gemacht werden oder weniger Chancen haben, ihre Inhalte zu teilen und sich zu engagieren. 

Schädliche Anwendung: Social-Media-Plattformen, die diese Algorithmen einsetzen, können ungleiche Sichtbarkeit und Teilhabe für bestimmte Geschlechter verursachen und dadurch ihre Online-Präsenz beeinträchtigen. 

Es folgt eine fiktive Persona und Geschichte


Foto fiktive Persönlichkeit Gender bias in AI algorithms and social media

Name: Susanna Bianchi 

Herkunft: Italien 

Alter: 49 

Beruf: Bloggerin 

Geschichte: Susanna Bianchi ist eine erfolgreiche Bloggerin, die über Marketingthemen schreibt. Sie hat viele Follower und teilt regelmässig ihre Artikel auf Social-Media-Plattformen, um ihre Reichweite zu erhöhen. Aber sie bemerkt, dass ihre Artikel weniger Reichweite erhalten als die eines italienischen männlichen Bloggers, der dasselbe Thema behandelt. 

Algorithmisch angerichteter Schaden: Die Geschlechterverzerrungen in den Algorithmen führen dazu, dass Susannas Artikel weniger Sichtbarkeit und Teilhabe in den sozialen Medien haben. Dies beeinträchtigt ihre Fähigkeit, ihre Karriere voranzutreiben und sich als Expertin in ihrem Bereich zu etablieren, da sie nicht die gleiche Reichweite und Sichtbarkeit wie ihr männlicher Kollege hat. 


Auch zu diesem Beispiel habe ich recherchiert und folgenden Beitrag in englischer Sprache gefunden: "Shadowbanning ist real: So werden Sie von den sozialen Medien stummgeschaltet", The Washington Post, Kolumnist Geoffrey A. Fowler, aktualisiert am 27. Dezember 2022 um 12:54 Uhr EST, von mir gelesen am 28.05.2023. Neues zum Thema, gelesen am 01.07.2023: Wie Firmen auf die Sorgen der Menschen reagieren:


Beispiel für KI und Ethik: AI in hiring (KI-Rekrutierung)

Beschreibung der algorithmischen Verzerrung: KI-Algorithmen, die zur Vorselektion von Bewerbern in Unternehmen eingesetzt werden, können aufgrund von Vorurteilen in den eingegebenen Daten bestimmte Gruppen von Bewerbern aufgrund ihres Geschlechts, ihrer Herkunft oder ihres Aussehens diskriminieren. Dies kann dazu führen, dass qualifizierte Bewerber nicht eingestellt werden, während weniger qualifizierte Bewerber bevorzugt werden. 

Schädliche Anwendung: Unternehmen, die diese Algorithmen einsetzen, können dadurch ungleiche Chancen und Diskriminierung bei der Einstellung verursachen und dadurch ihre Arbeitsplatzkultur und die Vielfalt ihrer Mitarbeiter beeinträchtigen. 

Es folgt eine fiktive Persona und Geschichte


Foto fiktive Persönlichkeit AI in hiring

Name: Bettina Hansen 

Herkunft: Norwegen 

Alter: 27 

Beruf: GL-Assistentin 

Geschichte: Bettina Hansen hat sich als GL-Assistentin im Ausland beworben, da sie gerne in einem international tätigen Unternehmen arbeiten möchte. Obwohl sie die erforderlichen Qualifikationen und Erfahrungen hatte, wurde sie aufgrund von algorithmischen Verzerrungen diskriminiert. Sie erfuhr aus Zufall, dass das Unternehmen keine Mitarbeiter aus dem Ausland einstellt. 

Algorithmisch angerichteter Schaden: Die algorithmischen Verzerrungen führten dazu, dass Bettina Hansen nicht für die Stelle ausgewählt wurde, für die sie qualifiziert war. Dies beeinträchtigten ihre Karriereentwicklung und ihre Fähigkeit, in der Arbeitswelt erfolgreich zu sein, da sie aufgrund ihres Aussehens diskriminiert wurde. 


Bei meiner Recherche fand ich den sehr verständlich und umfassenden geschriebenen Bericht "Der Einsatz von Künstlicher Intelligenz in der Rekrutierung", Wirtschaftswissenschaftliche Fakultät, Universität Basel, Lena Adelmanna, Jennifer Wiedmer, gelesen am 28.05.2023.


Beispiel für KI und Ethik: Wenn die Daten gehackt wurden

Beschreibung der algorithmischen Verzerrung: Es gibt KI-Algorithmen, die auf Daten von Benutzern oder Verbrauchern angewiesen sind, um zu lernen und bessere Vorhersagen zu treffen. Diese Daten können jedoch gehackt oder ohne Zustimmung des Eigentümers verwendet werden, was zu Verzerrungen in den Algorithmen führt. Es gibt verschiedene Anwendungen, die Daten für die Entwicklung von KI-Systemen stehlen können. 

Zum Beispiel können Hacker in Netzwerke von Unternehmen oder Regierungsbehörden eindringen und sensible Daten wie personenbezogene Informationen, Finanzdaten oder medizinische Aufzeichnungen stehlen. Auch Apps und Plattformen, die von Nutzern verwendet werden, könnten Daten ohne ihre Zustimmung oder Kenntnis sammeln und weitergeben. 

Schädliche Anwendung: Unternehmen, die gehackte Daten verwenden, um KI-Modelle zu trainieren, können die Privatsphäre von Menschen verletzen und ihre Rechte missachten. Diese Modelle können auch Verzerrungen in Entscheidungen enthalten, die auf diesen gehackten Daten basieren. 

Es folgt eine fiktive Persona und Geschichte


Foto fiktive Persönlichkeit Wenn die Daten gehackt wurden

Name: Markus Huber 

Herkunft: Österreich 

Alter: 45 

Beruf: CFO 

Geschichte: Markus Huber wollte ein Haus für seine Familie bauen und beantragte dafür einen Kredit bei einer Bank. Trotz seiner hohen Position und guter Kreditwürdigkeit wurde sein Antrag abgelehnt. Als er nachfragte, erfuhr er, dass seine medizinischen Daten aus seiner elektronischen Krankenakte bei seinem Hausarzt gestohlen und zur Erstellung eines Algorithmus verwendet wurden, um das Kreditrisiko von potenziellen Kunden zu bewerten. 

Dieser Algorithmus hat ihn aufgrund einer Vorerkrankung als höheres Kreditrisiko eingestuft, obwohl seine Krankheit unter Kontrolle war und keine Auswirkungen auf seine Fähigkeit hatte, den Kredit zurückzuzahlen. 

Algorithmisch angerichteter Schaden: Markus Huber wurde fälschlicherweise als höheres Kreditrisiko eingestuft und sein Kreditantrag wurde abgelehnt, obwohl er finanziell stabil ist und in der Lage gewesen wäre, den Kredit zurückzuzahlen. Seine medizinischen Daten wurden ohne seine Zustimmung gestohlen und unrechtmässig verwendet, was seine Privatsphäre und seine Rechte verletzt hat.


Es macht doch nachdenklich, welche Schäden durch nicht diverse Trainingsdaten angerichtet werden können. Und auch hier möchte ich anstupsen, dass die Transparenz der Daten wichtig ist, auch wenn es illusorisch klingt. Die Trainingsdaten entscheiden in Zukunft für jeden Einzelnen von uns. Wer kommt denn für die Schäden auf? Siehe auch: "Sensible Patiendendaten in Gefahr", tagesschau.de, Stand Stand: 15.06.2022 19:30 Uhr, Von Jasmin Klofta, Katrin Kampling, Anne Ruprecht, NDR, gelesen am 28.05.2023.


Beispiel einer geschädigten Persona: Deepfakes Videos

Beschreibung der algorithmischen Verzerrung: Durch algorithmische Verzerrungen wurden Leon Beckers Gesichts- und Stimmdaten analysiert und verwendet, um täuschend echte Deepfakes zu erstellen. Diese Deepfakes wurden dann in gefälschten Videos und Bildern verwendet, um den Kommandanten in Situationen zu zeigen, an denen er nicht beteiligt war. Die algorithmische Verzerrung zielt darauf ab, den Kommandanten in ein negatives Licht zu rücken und seine Glaubwürdigkeit und Integrität als Kommandant in der Friedensförderung zu untergraben. 

Die schädliche Anwendung ist hier ein Schaden, der durch Personen oder Gruppen verursacht wird, die böswillig handeln und die generative KI-Technologie nutzen, um Deepfake-Videos zu erstellen. Diese Personen können verschiedene Motive haben, wie zum Beispiel Rufschädigung, Diffamierung, Verbreitung von gefälschten Informationen oder Erpressung. Die Erstellung von Deepfake-Videos basiert auf dem Einsatz von generativer KI, einer fortschrittlichen Technologie des maschinellen Lernens. 

Die generative KI analysiert und verarbeitet grosse Mengen an Daten, darunter Bilder und Videos der Zielperson, um ein neuronales Netzwerk zu trainieren. Anschliessend kann das trainierte Netzwerk verwendet werden, um realistisch aussehende Videos zu generieren, in denen Personen in gefälschten Situationen zu sehen sind. 

Es folgt eine fiktive Persona und Geschichte


Foto fiktive Persönlichkeit Deepfakes Videos

Name: Kommandant Leon Becker 

Herkunft: Schweiz 

Alter: 46 Jahre 

Beruf: Kommandant in der Friedensförderung 

Geschichte: Leon Becker ist ein hoch angesehener Kommandant in der Friedensförderung und hat eine beeindruckende Karriere in verschiedenen Konfliktregionen hinter sich. Er ist bekannt für seine aussergewöhnlichen Führungsqualitäten und seinen Einsatz für das Land. Kommandant Leon Becker hat viele Herausforderungen bewältigt und ist eine inspirierende Figur für sein Team, weil er ein Karriere-Förderer ist. 

Algorithmisch angerichteter Schaden: Durch die algorithmische Verzerrung wurden gefälschte Videos und Bilder erstellt, in denen Kommandant Leon Becker in fragwürdigen oder unprofessionellen Situationen zu sehen ist, an denen er nicht beteiligt war. Diese Deepfakes wurden verbreitet, um seinen Ruf zu schädigen und den Eindruck zu erwecken, dass er unzuverlässig oder unethisch handelt.

 Der algorithmische Schaden hat zu Zweifeln an seiner Führungsfähigkeit und seiner Eignung als Kommandant geführt. Der algorithmische Schaden hat schwerwiegende Auswirkungen auf seine berufliche Karriere und seinen Ruf als Kommandant in der Friedensförderung. 

Seine Glaubwürdigkeit und Integrität wurden angegriffen, was sein Ansehen beeinträchtigt und seine Möglichkeiten zur Weiterentwicklung einschränkt. Kommandant Leon Becker wird mit Diffamierung, Verleumdungen und persönlichen Angriffen konfrontiert, die ihm persönlich und beruflich schaden. Es ist wichtig zu betonen, dass Kommandant Leon Becker selbst Opfer von algorithmischer Verzerrung ist und nicht für die Inhalte in den gefälschten Deepfakes verantwortlich ist. 

Er setzt sich weiterhin leidenschaftlich für den Frieden ein und arbeitet daran, die negativen Auswirkungen dieser algorithmischen Verzerrungen zu überwinden und die Wahrheit ans Licht zu bringen. 


In meiner Recherche habe ich folgenden anschaulichen Beitrag gefunden, der nicht dem Beispiel entspricht, aber aufzeigt wie gefährlich diese Technologie im Bereich Militär sein kann oder bereits ist: «US-Spezialeinheiten wollen Deep Fakes für Psy-Ops nutzen», theintercept.com, Autor Sam Biddle, vom 06.03.2023.


Beispiel einer geschädigten Persona: Deepfakes Audio

Beschreibung der algorithmischen Verzerrung: Durch den Einsatz von Deepfake-Audio-Technologie wurden Elena Müllers Stimmaufnahmen analysiert und manipuliert. Die algorithmische Verzerrung zielt darauf ab, Elenas Stimme in gefälschten Audiodateien zu verwenden, um sie in Aussagen zu bringen, die sie nie gemacht hat. Dadurch wird ihr Ruf als Pressesprecherin und ihre Glaubwürdigkeit in Frage gestellt. 

Schädliche Anwendung: Für die schädliche Anwendung von Deepfake-Audio-Technologie und die Manipulation von Elena Müllers Stimmaufnahmen sind individuelle Akteure oder Gruppen verantwortlich, die böswillig handeln. Es kann sich um Personen oder Organisationen handeln, die ein Interesse daran haben, Elena zu schaden, ihre Reputation zu beeinträchtigen oder ihre Glaubwürdigkeit als Pressesprecherin zu untergraben. Die genaue Identität der Täter kann unterschiedlich sein und hängt von den spezifischen Umständen des Einzelfalls ab. Es könnten rivalisierende Unternehmen, politische Gegner, Cyberkriminelle oder andere Gruppen sein, die ein Motiv haben, Elena gezielt zu diffamieren oder ihre Arbeit zu beeinträchtigen. 

Es folgt eine fiktive Persona und Geschichte


Foto fiktive Persönlichkeit Deepfakes Audio

Name: Elena Müller 

Herkunft: Schweiz 

Beruf: Pressesprecherin 

Alter: 32 Jahre 

Geschichte: Elena Müller arbeitet als engagierte Pressesprecherin und ist für die Kommunikation zwischen ihrem Unternehmen und der Öffentlichkeit verantwortlich. Sie hat eine ausgezeichnete Kommunikationsfähigkeit und arbeitet hart daran, transparente und vertrauenswürdige Informationen zu liefern. Elena ist bekannt für ihre Professionalität und ihr Engagement, die Botschaften ihres Unternehmens klar und authentisch zu vermitteln. 

Algorithmisch angerichteter Schaden: Durch die algorithmische Verzerrung wurden gefälschte Audiodateien erstellt, in denen Elena in Aussagen zu hören ist, die sie nie gemacht hat. Die gefälschten Audiodateien werden gezielt verbreitet, um Elenas Ruf zu schädigen und ihre Glaubwürdigkeit als Pressesprecherin zu untergraben. 

Der algorithmische Schaden hat zu einem erheblichen Verlust an Vertrauen und Ansehen geführt, sowohl innerhalb des Unternehmens als auch in der Öffentlichkeit. Der algorithmische Schaden hat persönliche und berufliche Auswirkungen auf Elena Müller. Sie sieht sich mit Anfeindungen, Angriffen auf ihre Person und einer Einschränkung ihrer beruflichen Möglichkeiten konfrontiert. Die gefälschten Aussagen können ihre Reputation als Pressesprecherin und ihre Fähigkeit, effektiv mit der Öffentlichkeit zu kommunizieren, ernsthaft beeinträchtigen. 

Es ist wichtig zu betonen, dass Elena Müller selbst Opfer von algorithmischer Verzerrung ist und nicht für die Inhalte in den gefälschten Audiodateien verantwortlich gemacht werden kann. Sie setzt sich weiterhin leidenschaftlich für ihre Aufgabe als Pressesprecherin ein. Zusätzlich setzt sie sich im Branchenverband für die Sensibilisierung von Deepfake-Audio-Manipulation ein und wie mit ihnen umgegangen werden muss. 


Siehe auch Quelle: Wie der Enkeltrick, nur mit KI: Deepfake-Betrüger erpressen Firmen mit falscher Chef-Stimme, gefunden auf handelsblatt.com, Cyberkriminalität, Autorin Melanie Raidl, vom 30.01.2022, gelesen am 30.05.2023.


Beispiel einer geschädigten Persona: generativer Künstlicher Intelligenz Chat GPT

Beschreibung der algorithmischen Verzerrung: Die algorithmische Verzerrung bezieht sich auf die Verzerrung oder Veränderung von Informationen, Daten oder Inhalten durch den Einsatz von algorithmischen Prozessen oder Technologien wie Künstlicher Intelligenz (KI) oder maschinellem Lernen, in Form von Chat GPT. Bei der algorithmischen Verzerrung kann es zu einer Veränderung, Veröffentlichung, Modifikation oder Manipulation von Daten kommen, die möglicherweise nicht den ursprünglichen Absichten entsprechen. 

Schädliche Anwendung: Die schädliche Anwendung besteht darin, dass Herr Posch die generative KI-Technologie Chat GPT ohne ausreichende Kommunikation und Zustimmung von der Kundin einsetzt. Dadurch werden ihre Daten und Angaben algorithmisch verarbeitet, um automatisiert Textinhalte zu erstellen. 

Es folgt eine fiktive Persona und Geschichte


Foto fiktive Persönlichkeit generativer Künstlicher Intelligenz Chat GPT

Name: Anna Thijse 

Herkunft: Holland 

Beruf: Unternehmerin 

Alter: 42 Jahre 

Geschichte: Anna Thijse ist eine erfolgreiche Unternehmerin, die die Dienste von Thomas Posch in Anspruch genommen hat, um qualitativ hochwertige Texte für ihr Unternehmen zu erhalten. Sie verlässt sich auf die professionelle Unterstützung von Herrn Posch, um ihre Marketing- und Kommunikationsziele zu erreichen. 

Algorithmisch angerichteter Schaden: Der algorithmische Schaden besteht darin, dass Herr Posch eventuell firmeninterne Daten mit Chat GPT verarbeitet hat, um Textinhalte für seine Kundin zu generieren. Die Kundin hatte aber so keine Kontrolle darüber, wie ihre Informationen genutzt werden, und konnte somit keine bewussten Entscheidungen über die Verarbeitung ihrer Daten treffen. Der Verlust der Transparenz und Kontrolle hat ihr Vertrauen in Herrn Posch und seine Dienstleistungen erschüttert. 

Der algorithmisch angerichtete Schaden hat persönliche und geschäftliche Auswirkungen. Die Kundin fühlt sich hintergangen. Darüber hinaus kann der algorithmische Schaden negative Auswirkungen auf ihre geschäftliche Reputation haben, da sie möglicherweise mit Textinhalten in Verbindung gebracht wird, die sie nicht autorisiert oder beeinflusst hat. 

Frau Thijse hat sich einen neuen Textdienstleister gesucht. Sie hat von Beginn an über das Thema Chat GPT und Datenschutzverordnung gesprochen. Eine klare Kommunikation und Einwilligung sind für sie von grosser Bedeutung, um eine vertrauensvolle Zusammenarbeit mit dem neuen Dienstleister eingehen zu können.


Beispiel einer geschädigten Firma: Generativer Künstlicher Intelligenz Chatbot

Beschreibung der algorithmischen Verzerrung: Durch den Einsatz von generativer KI im Kundenprozess wurde das Unternehmen TechSolution GmbH mit algorithmischen Verzerrungen konfrontiert. Das KI-System weist algorithmische Voreingenommenheit auf, die zu fehlerhaften und verzerrten Antworten führt. Dies hat negative Auswirkungen auf die Kundenerfahrung und den Ruf des Unternehmens. 

Schädliche Anwendung: TechSolution verwendet die generative KI-Technologie Chatbot, um Kundendaten und Informationen zu analysieren und automatisiert generierte Textinhalte zu erstellen. Die schädliche Anwendung liegt darin, dass das Unternehmen seine Kunden nicht darüber informiert, wie ihre Daten verwendet werden und dass generierte Inhalte in ihrem Namen erstellt werden. 

Es folgt eine fiktive Persona (Firma) und Geschichte


Logo eines fiktiven Unternehmens zur Generativer Künstlicher Intelligenz Chatbot

Name des Unternehmens: TechSolution GmbH 

Branche: Technologie und Kundenservice 

Gründungsjahr: 2010 

Beschreibung der algorithmischen Verzerrung: Durch den Einsatz von generativer KI im Kundenprozess wurde das Unternehmen TechSolution GmbH mit algorithmischen Verzerrungen konfrontiert. Das KI-System weist algorithmische Voreingenommenheit auf, die zu fehlerhaften und verzerrten Antworten führt. Dies hat negative Auswirkungen auf die Kundenerfahrung und den Ruf des Unternehmens. 

Geschichte: TechSolution GmbH ist ein renommiertes Technologieunternehmen, das sich auf innovative Lösungen im Kundenservice spezialisiert hat. Durch den Einsatz eines Chatbots wollte das Unternehmen die Effizienz steigern und den Kunden eine schnellere und personalisierte Unterstützung 24 Stunden 7 Tage bieten. Das Unternehmen hatte einen ausgezeichneten Ruf für seinen erstklassigen Kundenservice und die Einführung des Chatbots sollte die Kundenerfahrung weiter verbessern. 

Algorithmisch angerichteter Schaden: Durch die algorithmische Verzerrung haben Kunden des Unternehmens ungenaue oder fehlerhafte Antworten erhalten. Die generative KI hat die Kundenanfragen nicht richtig verstanden oder falsch interpretiert, was zu missverständlichen und frustrierenden Antworten geführt hat. 

Dadurch entstand der Eindruck, dass TechSolution GmbH unzuverlässig oder unprofessionell sei, was zu einer Beeinträchtigung des Kundenerlebnisses und einer Rufschädigung für das Unternehmen führte. 

Der algorithmische Schaden hat erhebliche Auswirkungen auf das Unternehmen TechSolution GmbH. Kunden könnten das Vertrauen in die Zuverlässigkeit verlieren und sich von den angebotenen Lösungen abwenden. 

Dies könnte zu einem Verlust von Kunden, negativen Bewertungen und einem Rückgang des Unternehmenserfolgs führen. Das Unternehmen muss nun Schritte unternehmen, um die algorithmische Verzerrung zu beheben und das Vertrauen der Kunden zurückzugewinnen. 


Siehe auch Datenschutz «Künstliche Intelligenz im Kundenservice: Rechtliche Rahmenbedingungen von Chatbots beim Online-Shoppen, Quelle: oppenhoff.eu, Rechtsanwälte Dr. Hanna Schmidt und Marco Degginger, Handel und Konsumgüter, 03.02.2021, Köln, gelesen am 30.05.2023


Chancen und Risiken in verschiedenen Bereichen der KI

Automatische Gesichtserkennung: Risiken und Chancen im Überblick

Die automatische Gesichtserkennungstechnologie bietet sowohl Vor- als auch Nachteile, die es zu beachten gilt. Einerseits kann sie dazu beitragen, Straftäter schneller zu identifizieren und die Effizienz von Ermittlungen zu verbessern. 

Es gibt bereits Erfolgsgeschichten, bei denen dank dieser Technologie Kriminelle erkannt wurden, die jahrelang unentdeckt geblieben waren. 

Andererseits birgt die automatische Gesichtserkennung auch Risiken und Herausforderungen.


Fehlidentifikationen können dazu führen, dass Menschen zu Unrecht verdächtigt und möglicherweise verhaftet werden.


Die Anzahl von Fehlern und Fehlidentifikationen kann insbesondere dann steigen, wenn systematische Verzerrungen in den Datenbanken vorhanden sind. Zum Beispiel könnten Menschen in sozial benachteiligten Vierteln häufiger von der Polizei kontrolliert und fotografiert werden, was zu einer höheren Wahrscheinlichkeit von Fehlidentifikationen führt. 

Ein weiterer Aspekt, der diskutiert werden muss, ist die Einschränkung der Unschuldsvermutung.  Zudem hängt die Effektivität dieser Technologie von verschiedenen Faktoren ab, wie den Lichtverhältnissen oder der Qualität der Bilder. 

In Deutschland werden bereits Anwendungen der automatisierten Gesichtserkennung an Flughäfen und Bahnhöfen eingesetzt. Dennoch ist es von grosser Bedeutung, weitere Diskussionen und Bewertungen durchzuführen, um sicherzustellen, dass der Einsatz dieser Technologie im Einklang mit den Grundrechten und den Bedürfnissen der Gesellschaft steht. 

Der Schutz der Privatsphäre und der individuellen Freiheitsrechte sollte bei der Verwendung automatischer Gesichtserkennungstechnologie stets im Vordergrund stehen. 

Es bedarf klarer gesetzlicher Rahmenbedingungen und angemessener Kontrollmechanismen, um Missbrauch zu verhindern und die Rechte der Bürger zu schützen.


Es ist von entscheidender Bedeutung, dass wir als Gesellschaft die Vor- und Nachteile der automatischen Gesichtserkennungstechnologie sorgfältig abwägen. Dies erfordert eine umfassende Evaluierung der Wirksamkeit und Auswirkungen dieser Technologie, die nicht nur technische Aspekte berücksichtigt, sondern auch rechtliche, ethische und soziale Fragen.


Die möglichen Risiken und negativen Folgen der automatischen Gesichtserkennung, wie Fehlidentifikationen und eine mögliche Verletzung der individuellen Freiheitsrechte, sollten dabei genau betrachtet werden. 

Auch sollten wir uns mit den ethischen Aspekten befassen, wie der Einschränkung der Unschuldsvermutung und der potenziellen Diskriminierung bestimmter Bevölkerungsgruppen aufgrund von Verzerrungen in den Datenbanken. 

Eine fundierte und umfassende Debatte über den Einsatz automatischer Gesichtserkennungstechnologie ist unerlässlich, um die richtigen Massnahmen zu ergreifen und sicherzustellen, dass diese Technologie verantwortungsvoll und im Einklang mit den Grundrechten und den Bedürfnissen der Gesellschaft eingesetzt wird.

Zwischen Hoffen und Bangen: Die Tücken der Kreditwürdigkeitsprognose

In Bezug auf die Prognosemodelle zur Kreditwürdigkeit gibt es ebenfalls Chancen als auch Risiken. Schauen wir uns zunächst die Chancen an:

  • Eine Chance besteht darin, dass diese Modelle eine schnellere und effizientere Entscheidungsfindung ermöglichen. Indem sie eine Vielzahl von Daten analysieren, können sie potenzielle Kreditnehmer schneller bewerten und Kreditentscheidungen automatisiert treffen.
  • Dies kann den Kreditprozess beschleunigen und den Zugang zu Krediten erleichtern, insbesondere für Menschen, die möglicherweise keine ausreichende Kreditgeschichte haben.
  • Ein weiterer Vorteil ist die Möglichkeit, Menschen einzubeziehen, die bisher nicht in das traditionelle Kreditbewertungssystem einbezogen wurden. Indem alternative Datenquellen wie soziale Netzwerke oder Konsumprofile genutzt werden, können auch Personen ohne ausreichende Kreditgeschichte bewertet werden.
  • Dies eröffnet neue Möglichkeiten für Menschen, die bisher Schwierigkeiten hatten, Kredite zu erhalten, und kann zu einer breiteren finanziellen Integration führen.

Allerdings gibt es auch Risiken, die berücksichtigt werden sollten:

  • Ein Risiko besteht darin, dass die Entscheidungslogik und Berechnungsmethoden dieser Modelle undurchsichtig sind. Dies kann dazu führen, dass Menschen nicht verstehen, wie ihre Kreditwürdigkeit bewertet wird und welche Faktoren dazu beitragen. Dies kann zu Frustration und Unsicherheit führen und den Verbrauchern die Möglichkeit nehmen, ihre Kreditwürdigkeit aktiv zu verbessern.
  • Ein weiteres Risiko ist die Möglichkeit von Fehlentscheidungen oder Diskriminierung. Wenn alternative Datenquellen genutzt werden, besteht die Gefahr, dass persönliche Informationen verwendet werden, die eigentlich nicht relevant sein sollten, wie beispielsweise Rasse, Geschlecht oder soziale Hintergründe. Dies kann zu ungerechten oder diskriminierenden Kreditentscheidungen führen, die Menschen benachteiligen und bestehende Ungleichheiten verstärken.
  • Der Schutz der persönlichen Daten ist ebenfalls ein Risiko. Bei der Nutzung von sozialen Netzwerken oder anderen Datenquellen besteht die Gefahr eines Missbrauchs oder einer Verletzung der Privatsphäre. Es ist wichtig sicherzustellen, dass angemessene Datenschutzmassnahmen vorhanden sind und die Verbraucher die Kontrolle über ihre eigenen Daten behalten.

Eine klare Transparenz der Entscheidungslogik und eine angemessene Regulierung können dabei helfen, die positiven Aspekte zu nutzen und die Risiken zu minimieren.

Chancen und Risiken von Algorithmen für Social-Media-Nutzer

Algorithmen spielen eine wichtige Rolle auf Social-Media-Plattformen und können sowohl Chancen als auch Risiken für die Nutzer mit sich bringen. Im Folgenden werden die wichtigsten Aspekte näher beleuchtet: Widmen wir uns den Chancen:

  • Personalisierte Inhalte: Algorithmen ermöglichen es den Plattformen, den Nutzern personalisierte Inhalte basierend auf ihren Interessen und Vorlieben anzubieten. Durch die gezielte Anzeige relevanter Beiträge und Empfehlungen können Nutzer eine verbesserte und individuell zugeschnittene Erfahrung machen.
  • Benutzerfreundlichkeit: Algorithmen tragen zur Verbesserung der Benutzererfahrung bei, indem sie Funktionen wie automatische Übersetzungen, Vorschläge für ähnliche Inhalte oder personalisierte Suchergebnisse bereitstellen. Dadurch wird die Nutzung der Plattformen einfacher und effizienter.
  • Missbrauchserkennung und Sicherheit: Algorithmen helfen dabei, unerwünschte Inhalte wie Spam, Hassrede oder betrügerische Aktivitäten zu erkennen und zu bekämpfen. Durch den Einsatz von Algorithmen können verdächtige Aktivitäten identifiziert und entsprechende Massnahmen ergriffen werden, um die Sicherheit und Integrität der Plattformen zu gewährleisten.

Kommen wir zu den Risiken:

  • Filterblasen und Echokammern: Algorithmen, die auf personalisierten Empfehlungen basieren, können dazu führen, dass Nutzer in einer "Filterblase" gefangen werden, in der sie nur noch Inhalte sehen, die ihre vorhandenen Ansichten und Vorlieben bestätigen. Dies kann zu einer Verengung des Informationsflusses führen und die Vielfalt der Meinungen und Perspektiven einschränken.
  • Datenschutz und Privatsphäre: Die Nutzung von Algorithmen erfordert den Zugriff auf umfangreiche Nutzerdaten, um personalisierte Inhalte anzubieten. Dies wirft Fragen hinsichtlich des Schutzes der Privatsphäre und des potenziellen Missbrauchs von sensiblen Informationen auf. Nutzer sollten sich bewusst sein, welche Daten gesammelt werden, wie sie verwendet werden und welche Kontrollmöglichkeiten sie haben.

Vorurteile und Diskriminierung:

  • Algorithmen können unbeabsichtigt Vorurteile und Diskriminierung verstärken, wenn sie auf unzureichenden oder verzerrten Daten basieren. Dies kann zu diskriminierenden Entscheidungen führen, die bestimmte Gruppen oder Individuen benachteiligen. Es ist wichtig, diese Risiken zu erkennen und Massnahmen zu ergreifen, um sicherzustellen, dass die Algorithmen fair und gerecht sind.
  • Es ist von grosser Bedeutung, dass Social-Media-Nutzer sich der Chancen und Risiken von Algorithmen bewusst sind und ihre eigenen Präferenzen, Datenschutzeinstellungen und die Qualität der bereitgestellten Inhalte kritisch betrachten.
  • Plattformbetreiber sollten transparente Richtlinien und Mechanismen zur Verfügung stellen (das passiert jedoch nicht), um die Transparenz, Kontrolle und den Schutz der Privatsphäre der Nutzer zu gewährleisten. Eine fortlaufende Überprüfung und Evaluierung der Algorithmen sowie ein offener Dialog zwischen Plattformbetreibern, Nutzern und Experten sind erforderlich, um potenzielle Probleme anzugehen und die Nutzung von Algorithmen auf Social-Media-Plattformen zu verbessern.
  • Es ist auch wichtig, dass Nutzer sich bewusst sind, dass Algorithmen nicht immer fehlerfrei sind. Es kann zu Fehlentscheidungen, Ungenauigkeiten oder unerwünschten Nebenwirkungen kommen. Daher sollten Nutzer kritisch bleiben und die Informationen, die ihnen präsentiert werden, hinterfragen.
  • Nutzer können auch aktiv ihre eigenen Einstellungen und Präferenzen auf den Plattformen anpassen, um ihre Erfahrung zu steuern. Dies umfasst beispielsweise das Anpassen der Privatsphäre-Einstellungen, das Abonnieren oder Blockieren bestimmter Inhalte oder das Überprüfen der Empfehlungen und Anzeigen, die sie erhalten.
  • Es ist auch wichtig, dass Plattformbetreiber ihre Verantwortung wahrnehmen und transparente Richtlinien und Mechanismen bereitstellen, um die Nutzung von Algorithmen zu regulieren. Dies beinhaltet den Schutz der Privatsphäre, die Vermeidung von Diskriminierung und die Gewährleistung eines fairen und vielfältigen Informationsflusses.

Insgesamt bieten Algorithmen auf Social-Media-Plattformen sowohl Chancen als auch Risiken für die Nutzer. Es ist wichtig, dass wir uns bewusst sind, wie sie funktionieren und welche Auswirkungen sie haben können. 

Indem wir kritisch bleiben, unsere eigenen Einstellungen steuern und den Dialog mit Plattformbetreibern fördern, können wir dazu beitragen, die Nutzung von Algorithmen in sozialen Medien verantwortungsbewusst und zum Vorteil aller zu gestalten.

Zusammenfassung: KI und Ethik

Es ist unumgänglich anzuerkennen, dass unzureichend diverse Trainingsdaten systematische Ungleichheiten und Diskriminierung verstärken können. 

Bereits zu Beginn des Entwicklungsprozesses können die Auswahl von Daten und die Festlegung von Kriterien normative Entscheidungen*1 beinhalten, die in einigen Fällen grundlegende gesellschaftliche Fragen berühren. 

*1Erläuterung: Die normative Entscheidungstheorie beschreibt nicht die Realität, sondern gibt Verhaltensempfehlungen für alternative Entscheidungssituationen in der Realität, indem sie aufzeigt, wie Entscheidungen getroffen werden sollten. 


Es ist eine grosse Verantwortung für die Entwickler von Algorithmen, sicherzustellen, dass ihre Kreationen gerecht und transparent sind. Das bedeutet, dass sie offenlegen sollten, wie die Algorithmen funktionieren und nach welchen Kriterien sie Entscheidungen treffen. Dadurch können wir verstehen, wie sie zu ihren Vorhersagen kommen.


Die Bewältigung dieser Herausforderung erfordert nicht nur technische Kenntnisse, sondern auch ein Bewusstsein für ethische und gesellschaftliche Fragen. Alle Beteiligten müssen zusammenarbeiten, um sicherzustellen, dass KI und Ethik kein Ideal bleiben, sondern in die Praxis umgesetzt werden. Zitat: Manuela Frenzel - Geschäftsinhaberin


KI-Systeme haben das Potenzial, unser Leben in vielerlei Hinsicht zu verbessern, aber es ist wichtig zu beachten, dass sie auch Verzerrungen und Ungleichheiten in der Gesellschaft verstärken können. 


Wir sollten nicht einfach alles glauben, was Algorithmen entscheiden. Deshalb sollten wir kritisch bleiben und uns fragen, ob wir mit den Vorhersagen einverstanden sind oder ob sie uns benachteiligen. 

Unabhängige Instanzen können helfen, mögliche Fehler oder Ungerechtigkeiten aufzudecken. 


Noch stelle ich mir selbst die Frage, ob wir diese Lösungen ethisch vertretbar einsetzen können, wenn wirtschaftliche Interessen doch oft höher gewichtet werden. 


Meine Befürchtungen kommen nicht von ungefähr, wie folgender Online-Beitrag zeigt: 


Siehe Beitrag "Microsoft feuert Ethik-Team, das künstliche Intelligenz überwacht". Quelle: bluewin.ch, Autor Dirk Jacquemien, vom 14.03.23, gelesen am 01.06.2023. 


Es ist wichtig, dass wir diese neue Technologie in einer Weise entwickeln, die ethisch einwandfrei ist und die Grundrechte und den Schutz der Privatsphäre der Menschen achtet. 


Siehe Beitrag "KI-Führer warnen vor Gefahr durch KI, Zwischenüberschriften: "Branche lehnt Regulierung ab". "Echte Risiken werden ignoriert". Quelle: bluewin.ch, Autor Dirk Jacquemien, vom 31.05.23, gelesen am 01.06.2023. 


Indem wir auf diese ethischen Herausforderungen aufmerksam gemacht werden, können wir sicherstellen, dass KI eine positive Rolle in unserer Zukunft spielt und uns unterstützt, anstatt uns zu schaden. 

Ich bin für Innovationen und neue Technik, auch für die erweiterte Intelligenz. Die erweiterte Intelligenz ist eine Entdeckung, die wahrlich unser Leben verändert. Es ist nicht die erweiterte Intelligenz, die mir zu denken gibt, sondern der Mensch, der diese unethisch einsetzt oder missbraucht (Zum Beispiel Daten nicht pflegt, Stereotypen verwendet, Vorurteile und andere negativen Dinge in den Algorithmus einbaut. Gewinne über Ethik stellt.). 


Die Frage, warum Forscher die KI entwickeln, sie freigeben, dann warnen und doch Ethik-Teams auflösen, bleibt weiterhin offen. 


Bild-Quellen der fiktiven Personas: Kreiert mit Analog Diffusion (Künstlicher Intelligenz). 

Blogartikel aktualisiert am 13.06.2023: Ergänzung Deepfake Video und Audio, Chatbot, Chat GPT. 

Haben Sie Bemerkungen, kontaktieren Sie  bitte Manuela.Frenzel(ät)texteundberatung.ch. Danke.


Weitere Informationen als Links: