: Katharina Zweig
: Ein Algorithmus hat kein Taktgefühl Wo künstliche Intelligenz sich irrt, warum uns das betrifft und was wir dagegen tun können
: Heyne Verlag
: 9783641250232
: 1
: CHF 8.90
:
: Gesellschaft
: German
: 320
: Wasserzeichen
: PC/MAC/eReader/Tablet
: ePUB
Künstliche Intelligenz und Algorithmen erleichtern in Form von Navis, Rechtschreibprogrammen, Suchergänzungen oder Kaufempfehlungen schon lange unseren Alltag. Aber sie hinterlassen oft auch ein mulmiges Gefühl, weil wir nicht so recht verstehen, was da passiert. Katharina Zweig, IT-Expertin für Sozioinformatik und vielfach ausgezeichnete Informatikprofessorin, erklärt mit Witz und anhand einfacher Beispiele und Illustrationen, was Algorithmen eigentlich genau sind, wie sie funktionieren, welche völlig harmlos sind und welche uns tatsächlich Sorgen bereiten sollten. Damit wir wissen, worauf wir achten müssen, wo wir uns einmischen und Politik und Wirtschaft genauer auf die Finger schauen müssen, wenn wir diese Technik in menschlicher Hand behalten, ihre positiven Eigenschaften nutzen und die negativen kontrollieren wollen.

Prof. Dr. Katharina Zweig studierte Biochemie und Bioinformatik in Tübingen. Sie ist heute Informatikprofessorin an der RPTU Kaiserslautern-Landau, wo sie den deutschlandweit einmaligen Studiengang »Sozioinformatik« ins Leben gerufen hat. Sie wurde unter anderem mit dem DFG-Communicator-Preis für Wissenschaftskommunikation und dem GDD-Datenschutz-Preis ausgezeichnet, ist KI-Botschafterin des Landes Rheinland-Pfalz und Gründerin eines KI-Beratungs-Start-ups. Sie ist als Expertin für verschiedene Bundesministerien tätig, war 2018 bis 2020 Mitglied der Enquete-Kommission des Bundestages zum Thema »Künstliche Intelligenz« und ist gefragte öffentliche Rednerin mit großer Medienpräsenz. 2019 erschien bei Heyne ihr Spiegel-Bestseller"Ein Algorithmus hat kein Taktgefühl", 2023 legte sie mit dem zweiten Bestseller"Die KI war's" nach. Zweig ist verheiratet und hat zwei Kinder.

Vorwort

Das Wichtigste an diesem Buch sind Sie, meine lieben Leserinnen und Leser! Denn künstliche Intelligenz – oder kurzKI – wird überall Einzug halten und Entscheidungen über uns, mit uns und für uns treffen. Um diese Entscheidungen so gut wie möglich zu treffen, müssen wir alle darüber nachdenken, was gute Entscheidungen eigentlich sind – und ob der Computer sie an unserer statt treffen kann. Und dafür steige ich mit Ihnen in den Maschinenraum hinter diesem Ansatz. Dort können Sie sehen, wie viele Handgriffe wir Informatiker:innen und sogenannte Data Scientists in Wirklichkeit ausführen, um aus Daten Entscheidungen zu wringen. Und hier kommen Sie ins Spiel – denn an diesen Stellen geht es um die Frage, wieSie entscheiden würden. Denn die Gesellschaft sollte den Maschinen nur dann wichtige Entscheidungen überlassen, wenn sie darauf vertrauen kann, dass sie nach unseren kulturellen und moralischen Maßstäben handeln. Daher will ich mit diesem Buch vor allen Dingen eins: Sie ermächtigen! Ihnen das Gefühl des Kontrollverlusts nehmen, das viele beschleicht, wenn es um Algorithmen geht. Ihnen die notwendigen Begriffe erklären und aufzeigen, wo und wie Sie sich einmischen können. Sie aufrütteln, damit Sie mit uns Informatiker:innen, mit der Politik und Ihren Arbeitgebern über den Sinn und Unsinn von künstlicher Intelligenz diskutieren können.

Und warum wird die künstliche Intelligenz überall Einzug halten? Zum einen, weil sie uns die lästigen, immer wiederkehrenden Teile der Arbeit abnehmen kann und damit Prozesse effizienter macht. Zum anderen sehe ich im Moment aber auch die Tendenz, dass künstliche Intelligenz dazu genutzt werden soll, Entscheidungen über Menschen zu treffen. Indem beispielsweise aus bestimmten Daten herausgelesen wird, ob eine Bewerbung zu einem Vorstellungsgespräch führen sollte, ob eine Person fit genug für ein Studium ist oder ob jemand vielleicht terroristische Neigungen hat.

Doch wie konnte es so weit kommen, dass manche überhaupt erwägen, Maschinen für die besseren Richter über Menschen zu halten? Nun, zuallererst können Computer natürlich Datenmengen bewältigen, die Menschen nicht mehr analysieren können. Wichtiger scheint mir aber, dass es im Moment nicht weit her ist mit unserem Vertrauen in die Urteilskraft des Menschen. Nicht erst seitdem Daniel Kahneman 2002 für seine Forschung zur Irrationalität des Menschen und 2017 dann Richard Thaler für seine Idee des »Nudgings«1 mit dem Nobelpreis geehrt wurden, nehmen wir die Menschheit in ihrer Gesamtheit als irrational wahr, als manipulierbar, subjektiv und voreingenommen. Dabei ist natürlich der jeweils andere immer wesentlich irrationaler als man selbst,2 insbesondere, wenn er oder sie uns in unserer eigenen Individualität und Komplexität völlig falsch beurteilt! Wir hoffen daher darauf, dass die unbestechlichen Maschinen objektivere Entscheidungen treffen können, dass sie mit ein wenig »Magie« Muster und Regeln im menschlichen Verhalten entdecken, die den Experten entgangen sind, und die damit für sicherere Prognosen sorgen.

Woher kommt diese Hoffnung? In den letzten Jahren haben Entwicklerteams aus aller Welt gezeigt, wie gut und schnell Computer mithilfe künstlicher Intelligenz Aufgaben lösen, die noch vor zwei Jahrzehnten als große Herausforderungen galten: Die Maschinen schaffen es, täglich Milliarden von Webseiten zu durchforsten und uns die besten Ergebnisse für unsere Suchanfragen zu präsentieren; sie erkennen halbverdeckte Radfahrer und Fußgänger auf Kamerabildern und können deren nächste Bewegungen recht zuverlässig vorhersagen; sie haben im Schach und dem asiatischen Brettspiel »Go« sogar die jeweiligen Weltmeister geschlagen. Ist es da nicht naheliegend, dass sie die Gesellschaft auch dabei unterstützen könnten, faire Urteile über Menschen zu treffen? Oder sollten die Maschinen diese Urteile einfach gleich selbst fällen?

Manche versprechen sich davon, dass die Entscheidungen dadurch objektiver werden – das ist an vielen Stellen auch nötig! Eines der Län