Unerwartete Nebenwirkungen

Im Deutschlandfunk Podcast Die Maschine: Kontrolle ist gut, KI ist besser wird ab der 21. Minute eine schaurige fiktive Geschichte erzählt:

Es wurde eine künstliche Intelligenz entwickelt, die weltweit alle Medikamentenlieferungen kontrolliert und ausführt. Weil das so kritisch war, wurde ganz besonders viel wert auf einen speziellen Algorithmus gewählt, der Benachteiligung einzelner Bevölkerungsgruppen unter Garantie ausschließt, der immer 100% politisch korrekt ist.

Als nun die künstliche Intelligenz aktiviert wurde lief es zunächst gut, doch dann häuften sich in den reichen Ländern die Todesfälle von Diabetikern. Überall in den Krankenhäusern der Industriestaaten fehlt es an Insulin. Wie konnte das passieren?

Naja, das System funktionierte genau so, wie es entworfen wurde. Allerdings berücksichtigte die künstliche Intelligenz den Bedarf an Medikamenten weltweit. Für alle Menschen auf der Erde gab es aber nicht genug Medikamente wie Insulin. Unterversorgte Gebiete vor allem in Asien und Afrika bekamen von der künstlichen Intelligenz mehr Medikamente zugeteilt, die reichen Länder weniger. So wurde der Mangel global gleich verteilt.

Es ist ein ähnliches Dilemma wie zwei brennende Häuser, in denen Menschen eingeschlossen sind, du hast aber nur genug Helfer, um einen Brand zu bekämpfen und die Menschen zu retten, nicht beide Brände. Was machst du?

Das sind ethische Fragen, die eine künstliche Intelligenz nicht automatisch beantworten kann. Wenn also künstliche Intelligenz eingesetzt wird, um Leben zu erhalten, dann sollten wir ganz genau hinsehen. Und gut gemeint ist sicher nicht immer gut gemacht, wie die Geschichte von den Medikamenten zeigt.

2 Gedanken zu „Unerwartete Nebenwirkungen“

  1. Künstliche „Intelligenz“ ist eine irreführende Bezeichnung.
    Im geschilderten Fall klingt es nicht einmal der oft gemeinte „Korrelationsleenalgorithmus“, sondern schlicht nach einem in Software codierten Regelwerk (ähnlich dem in Österreich berüchtigten AMS-Algorithmus. Woher (außer aus unreflektiertem Hype-Sprech) wohl die Idee kommt, dass das System „intelligenter“ sei oder würde als das zugrunde liegende Regelset ?

    1. Damit öffnest Du ein weites Feld. Ich habe noch keine gute offizielle Definition von „künstlicher Intelligenz“ gefunden. „Künstliche Intelligenz“ ist wird oft als Buzzword genutzt, wie „Cloud“, „Software-Defined“ oder ähnliche Begriffe, die Hersteller auf dieselben Produkte anwenden, die sie schon seit Jahren verkaufen, um sie neu wirken zu lassen.

      Aber du hast einen guten Punkt gefunden. Was hältst du von dieser Definition? -> Wenn ein Algorithmus statisch ist, d.h. er sich nicht verändert, dann ist er nicht intelligent im Sinne von „künstlicher Intelligenz“. Künstliche Intelligenz verändert (verbessert) ihr Verhalten je nachdem, welches Feedback aus der Umgebung wahrgenommen wird.

      Auf die Geschichte mit den Medikamenten übertragen bedeutet das: Wenn der Algorithmus zur Verteilung der Medikamente statisch ist, dann wäre es keine KI. Was aber, wenn die Verteilung der Medikamente vom Algorithmus so reguliert wird, dass die Todesopfer im Laufe der Zeit minimiert werden. Ein KI Algorithmus würde lernen und sich anpassen. Naja, die ethischen Fragen bleiben: Zählt jeder Mensch gleich viel? Und wieviel Versuch und Irrtum ist erlaubt, wenn es um Menschenleben geht?

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.