Timo Speith

Fairness ist relativ

Freund oder Feind, guter Kunde, schlechter Kunde? Algorithmen errechnen aus physiologischen und Verhaltensdaten Profile. Und je nachdem, wie die Algorithmen programmiert und trainiert sind, können diese Profile uns das Leben einfacher machen – aber auch zu unfairen und gar diskriminierenden Ergebnissen kommen.
Freund oder Feind, guter Kunde, schlechter Kunde? Algorithmen errechnen aus physiologischen und Verhaltensdaten Profile. Und je nachdem, wie die Algorithmen programmiert und trainiert sind, können diese Profile uns das Leben einfacher machen – aber auch zu unfairen und gar diskriminierenden Ergebnissen kommen. , © Design Cells – stock.adobe.com

Timo Speith

Wie Algorithmen arbeiten und unser Leben beeinflussen

Algorithmen sind Mustererkenner. Ihre Profile über uns gewinnen sie aus Unmengen von Nutzerdaten bei allen möglichen digitalen Aktivitäten. Ob das gut ist oder schlecht, kommt darauf an, wie die Algorithmen Daten interpretieren. Doch sie werden ja von fehlbaren Menschen programmiert und bergen somit auch hohe Risiken.

Vor zwei Jahren passierte es zum ersten Mal: In den USA erfasste ein selbstfahrendes Auto eine Fußgängerin und verletzte sie tödlich. Wer trägt die Schuld an einem solchen Unfall? Ist es die Herstellerfirma? Sind es die Wageninsassen? Die Frage nach der Schuld ist nicht nur eine rechtliche, sondern insbesondere auch eine ethische, und das auf mehreren Ebenen: Wie sollen die Fahrzeuge programmiert werden? Sollten sie in einer Dilemmasituation eher eine ältere Person überfahren oder eine jüngere? Dürfen sie überhaupt solche Vergleiche anstellen? Wenn nein, was heißt das in der Praxis?
Dass autonome Fahrzeuge kurz vor der Marktreife stehen, hat unter anderem mit Fortschritten im Bereich der künstlichen Intelligenz (KI) zu tun. (Ausführlich wird sich ON dem Thema KI in Heft 5/2021 widmen; Red.) Viele moderne KIs basieren auf maschinellem Lernen und sind im Grunde nichts anderes als Mustererkenner. Solche KIs basieren darauf, anhand von vielen Daten Merkmale zu extrahieren, die zu einer bestimmten Entscheidung oder Kategorisierung passen. Da die zur Mustererkennung herangezogenen Daten aber Resultat der bisherigen Praxis sind, kann es passieren, dass KIs soziale Ungerechtigkeiten abbilden. Wenn beispielsweise Frauen bei bestimmten Berufen trotz gleicher oder besserer Eignung öfter abgelehnt wurden als Männer, so ist dies ein Muster, dass die KI erkennt. Selbst wenn wir der KI gar nicht sagen, welches Geschlecht die Bewerber haben, kann dies anhand von anderen Daten Eingang in die Bewertung finden. Das System, das von dieser KI Gebrauch macht, wird Frauen sehr wahrscheinlich auch öfter ablehnen. Eine vorherrschende soziale Ungerechtigkeit findet auf diese Weise Eingang in ein technisches Artefakt. Unter dem Anschein der Objektivität, den technische Systeme vermitteln, werden die getroffenen Entscheidungen des Systems schließlich auch oft ohne Nachfrage akzeptiert, wodurch die Lage mitunter schlimmer wird als zuvor.
Diese Beispiele verdeutlichen, dass Informatik und Ethik heute enger denn je zusammengedacht werden müssen. Vielen Menschen ist dieser Zusammenhang jedoch nicht bewusst informatische Errungenschaften werden oft als unfehlbar angesehen. Eine Sensibilisierung für ethische Fragen ist daher bereits in der Schule nötig, damit Heranwachsende digital mündige Bürger*innen werden können. Dies umfasst auch und vor allem die Fähigkeit der kritischen ethisch-moralischen Reflexion der Informatik. In diesem Artikel möchten wir anhand von zwei Beispielen kurz erläutern, wie diese aussehen könnte.
Fitnesstracker und Nudging
Apple Watch und Co. sind beliebte Gadgets, um sich dazu zu motivieren, öfter Sport zu treiben. Obwohl die Grundidee hinter Fitnesstrackern eher lobenswert scheint, können viele ethische Fragen über sie gestellt werden. Beginnen wir mit dem sogenannten „Nudging (dt.: anstupsen). Nudging besteht grob darin, eine Person auf subtile Art und Weise dazu zu bringen, eine bestimmte Handlung auszuführen. Fitnesstracker machen mitunter starken Gebrauch von Nudging. Häufig sind sie mit Handyapps gekoppelt. Die Apps erinnern uns dann regelmäßig, dass wir noch laufen gehen sollten, unser tägliches Sportpensum nicht erfüllt haben oder Ähnliches. Solche Erinnerungen und Anreize bewegen uns oft dazu, auch tatsächlich zu trainieren.
Was hier eigentlich harmlos klingt, kann bereits einer kritischen Auseinandersetzung mit Fitnesstrackern dienen: Ständige Erinnerungen, Belohnungen bei Erfüllung und „Bestrafung bei Nichterfüllung nehmen uns womöglich unsere Autonomie. Es kann ja passieren, dass wir nur noch...
On lernen digital
Sie sind bereits Abonnent?

Jetzt anmelden und sofort lesen

Weiterlesen im Heft

Ausgabe kaufen

On lernen digital abonnieren und digital lesen!
  • Exklusiver Online-Zugriff auf Ihre digitalen Ausgaben
  • Print-Ausgabe der abonnierten Zeitschrift bequem nach Hause
  • Zusatzvorteile für Abonnenten im Online-Shop genießen

Zeitschrift abonnieren

Fakten zum Artikel
aus: On lernen digital Nr. 3 / 2020

Informatische Bildung

Kennzeichnung Premium-Beitrag aus der Zeitschrift "on. Lernen in der digitalen Welt" Hintergrund Schuljahr 5-13