: Katharina Zweig
: Die KI war’s! Von absurd bis tödlich: Die Tücken der künstlichen Intelligenz
: Heyne Verlag
: 9783641307899
: 1
: CHF 11.70
:
: Gesellschaft
: German
: 320
: Wasserzeichen
: PC/MAC/eReader/Tablet
: ePUB
Dass Algorithmen über Menschen und deren Zukunft entscheiden, scheint unausweichlich zu sein – wir alle sind längst den Urteilen von Künstlicher Intelligenz ausgesetzt: Immer mehr Firmen lassen Bewerbungen automatisiert bewerten, und immer mehr Menschen bekommen Bescheide oder Auskünfte, die durch Maschinen vorbereitet wurden. Doch nicht alle diese algorithmisch getroffenen Entscheidungen sind korrekt, es gibt immer wieder Fälle, in denen KI diskriminiert, Unschuldige eines Verbrechens beschuldigt oder gar Leben gefährdet. Katharina Zweig, vielfach ausgezeichnete Informatikprofessorin, erklärt unterhaltsam und anhand spannender aktueller Fälle, wie wir falsche Entscheidungen erkennen und uns dagegen wehren können. Denn wir sollten wissen, worauf wir achten müssen, damit Algorithmen nach unseren Regeln spielen und nicht nach ihren eigenen.

  • Wo künstliche Intelligenz sich irrt und warum uns das alle betrifft
  • Deutschlands führende Sozioinformatikerin erklärt anhand von vielen Beispielen aus unserem Alltag, wie wir falsche Software-Entscheidungen erkennen – und uns dagegen wehren können
  • 2023 wird die Verabschiedung des Artificial Intelligence Acts auf EU-Ebene beschlossen – die nationale Umsetzung soll bis 2025 erfolgen: das erste Gesetz weltweit, mit dem KI in allen Lebensbereichen reguliert werden soll
  • »Katharina Zweig [ist eine] digitale Vordenkerin [und] engagiert sich dafür, dass Algorithmen zur Chance für die Welt von morgen werden und nicht zur Gefahr.« (BamS)


Prof. Dr. Katharina Zweig studierte Biochemie und Bioinformatik in Tübingen. Sie ist heute Informatikprofessorin an der RPTU Kaiserslautern-Landau, wo sie den deutschlandweit einmaligen Studiengang »Sozioinformatik« ins Leben gerufen hat. Sie wurde unter anderem mit dem DFG-Communicator-Preis für Wissenschaftskommunikation und dem GDD-Datenschutz-Preis ausgezeichnet, ist KI-Botschafterin des Landes Rheinland-Pfalz und Gründerin eines KI-Beratungs-Start-ups. Sie ist als Expertin für verschiedene Bundesministerien tätig, war 2018 bis 2020 Mitglied der Enquete-Kommission des Bundestages zum Thema »Künstliche Intelligenz« und ist gefragte öffentliche Rednerin mit großer Medienpräsenz. 2019 erschien bei Heyne ihr Spiegel-Bestseller"Ein Algorithmus hat kein Taktgefühl", 2023 legte sie mit dem zweiten Bestseller"Die KI war's" nach. Zweig ist verheiratet und hat zwei Kinder.

KAPITEL 2


Apples Pay Card: Sexismus pur?

Im November 2019 beantragten David Heinemeier Hansson und seine Frau Jamie jeweils eine Apple Card. Und weil Apple die Firma ist, die sie ist, ist die Beantragung der Kreditkarte sehr einfach und komplett digital: Man kann sie direkt über ein Apple-Gerät beantragen, und sobald dieAGB anerkannt wurden, bekommt der Nutzer eine Entscheidung, ob er eine Karte bekommt und wo die Kreditlinie liegt. Das geht so blitzschnell, dass dahinter natürlich eine Software-Entscheidung steht. Und siehe da: Seine Frau Jamie Heinemeier Hansson bekam einen Kreditrahmen von um die 50US-Dollar und ihr Ehemann David einen um die 1 000US-Dollar. Und damit begann der Ärger von David Heinemeier Hansson. Aber das kann er selbst Ihnen besser erzählen als ich:[1]

Ich konnte nach diesen starken Worten einfach nicht anders, als mir Heinemeier Hansson als Ritter vorzustellen, der seiner Ehefrau und allen anderen Frauen beispringt:

Wir sehen ihn also jetzt in seiner polierten Rüstung, das Schwert zur Verteidigung gezogen – und plötzlich geht sein Tweet viral. Denn David Heinemeier Hansson ist ein interessanter Typ – Rennfahrer, Softwareentwickler, Autonarr, dem auf Twitter viele Personen folgen: Über 11 000 Mal wird der Tweet am Ende weiterverbreitet, über 25 000 Mal klicken die Leser und Leserinnen auf »like«. Die Autorin Safiya Noble, die das Buch »Algorithms of Oppression« schrieb, twitterte beispielsweise: »This is an algorithm of oppression if I’ve ever seen one.« Völlig überraschend mischte sich dann auch Steve Wozniak in die Unterhaltung ein, der sich demütig wie folgt vorstellte: »Ich bin momentan Apple-Mitarbeiter und Gründer der Firma.« Er bestätigte, dass auch seine Ehefrau einen zehnfach geringeren Kreditrahmen erhalten hatte, obwohl sie all ihr Vermögen teilen würden, und ermahnte Apple, hier Verantwortung zu zeigen. Dieser Kommentar war eine gewichtige Unterstützung von Heinemeier Hanssons Anliegen.

Andere Kommentare dagegen erzürnten Heinemeier Hansson dagegen fast so sehr wie die Entscheidung des Algorithmus. Dazu gehören insbesondere die drei folgenden Argumentationslinien:

  1. »Aber das ist ja gar nicht Apple selbst, sondern Goldman Sachs, also die Bank, die die Apple Pay Card in Zusammenarbeit ausstellt. Warum Apple an den Pranger stellen?«
  2. »Hat deine Frau nicht vielleicht einfach eine schlechtere Kreditwürdigkeit als du?«
  3. »Wieso denkst du, dass das sexistisch ist, könnte doch auch andere Gründe geben?«

Nun, all das lässt Heinemeier Hansson natürlich nicht auf sich sitzen. Das erste Argument ist tatsächlich keines: Denn wer nun genau den Algorithmus verantwortet, ist unerheblich für die Frage, ob er funktioniert, wie er soll. Das Beispiel ist damit auch eine Warnung für Unternehmen, die Software nutzen, um Entscheidungen automatisch zu berechnen: Für die Kunden und Kundinnen ist am Ende immer in erster Linie die Person verantwortlich, die den Algorithmus nutzt – unabhängig davon, wer ihn entwickelt ha