→ NZZ Feuilleton, 28.07.2018

 

Wenn es um künstliche Intelligenz geht, sind nüchterne Analysen Mangelware. An der Staatlichen Hochschule für Gestaltung Karlsruhe versucht eine Gruppe aus Forschern und Künstlern, den Gegenstand der künstlichen Intelligenz zu entmystifizieren.

Künstliche Intelligenz (KI) ist zu einem Megathema unserer Zeit geworden. Computer spielen besser Schach, Go und Poker als der Mensch, und die erstaunte Öffentlichkeit fragt sich, welche Bastion menschlichen Denkens als nächste fallen wird. An alarmistischen Tönen mangelt es in der Debatte gewiss nicht. Wohl aber an nüchternen Analysen und Zeitdiagnosen.

Die Forschungsgruppe Künstliche Intelligenz und Medienphilosophie der Staatlichen Hochschule für Gestaltung Karlsruhe hat vor kurzem eine interdisziplinär angelegte Arbeitsgemeinschaft gegründet, in der Studierende der Bereiche Kunst, Philosophie und Informatik zusammenarbeiten, um die Auswirkungen künstlicher Intelligenz auf Gesellschaft und Kultur zu untersuchen.

Dem Initiator der Forschungsgruppe, dem Philosophen und Medientheoretiker Matteo Pasquinelli, geht es vor allem darum, den Hype um KI zu entmystifizieren und die Grenzen und Fehlschlüsse der Technologie zu analysieren. «99 Prozent dessen, was die Leute gemeinhin mit KI oder ‹intelligenten Maschinen› assoziieren, sind lediglich ausgefeilte Systeme der Strukturerkennung, die auf Deep Learning basieren», sagt er im Gespräch. «Sie lernen ein Muster durch eine logische Form, die eine statistische Häufigkeitsverteilung beziehungsweise statistische Inferenz ist.» Ob die – mathematisch formuliert – Interpolation von zwei Datenpunkten eine Definition von Intelligenz ist, daran lässt der Philosoph Zweifel.

Animismus für die Reichen

Pasquinelli, ein Schüler Umberto Ecos, argumentiert aus einer semiotischen Perspektive. In der Vorstellung von selbständig agierenden «Denkmaschinen» zeige sich eine Art Animismus, wie ihn weniger industrialisierte Kulturen pflegen. Künstliche Intelligenz sei daher gewissermassen «Animismus für die Reichen», so der Forscher. Das Problem sieht Pasquinelli dabei darin, dass die Daten – Twitter-Feeds, Strassenszenen, Wörter für Übersetzungen – öffentlich seien, die Modelle, in die sie eingespeist würden, jedoch privat.

An diesem Punkt könnte eine politische Kritik von KI ansetzen. Das Veröffentlichen von Facebook-Kommentaren etwa wird gemeinhin als Form der politischen Partizipation begrüsst, liefert in Wahrheit aber hauptsächlich Trainingsdaten für KI-Systeme. Problematisch an der Logik ist laut Pasquinelli auch, dass jedes Modell letztlich eine statistische Simplifizierung sei und bei der «Kompression von Information», die mit der Datenverarbeitung einhergehe, etwas verloren gehe.

Pasquinellis Ansatz erschöpft sich aber nicht in einer rein methodischen Kritik. Im Rahmen künstlerischer Experimente versucht er mit seinen Studenten eine neue Ästhetik zu entwickeln. Das Ziel ist es nicht nur, algorithmische Artefakte zu kreieren, sondern die Perzeption von KI-Systemen darzustellen. Wie sehen Maschinen? Wie hören sie? Was vergisst ein maschinell lernender Algorithmus? Durch eine Art kulturelles reverse engineering soll der Prozess des maschinellen Lernens umgekehrt werden.

Monströse Kreaturen

Der Stuttgarter Künstler Vincent Herrmann etwa komponierte einen Sound, der aufzeigt, wie sich Musik in künstlichen Ohren anhört: psychedelisch, verrauscht, schrill, als würde man einer Konversation unter Wasser lauschen. Der Student hat die Stimmgabel an den Maschinenraum angelegt – und maschinelles Lernen vertont. In einem weiteren Projekt hat Michail Rybakov visualisiert, wie neuronale Netze Krebszellen erkennen, indem er sie mit einer algorithmischen Technik als monströse Kreaturen darstellte.

An der Hochschule für Gestaltung gibt es eine ganze Reihe von Kunstprojekten, die das Thema KI geistreich verarbeiten. Dem Initiator Pasquinelli geht es darum, die Grenzfelder auszuleuchten und Unschärfen in der Analyse von KI zu beseitigen. Der Blick auf das Thema ist ebenso erfrischend wie erhellend. Der Philosoph ist intellektuell beflissen und agil auf einem Feld, das überwiegend von Programmierern bestellt wird.

Der Anspruch, eine Kritik der KI zu formulieren, ist nicht bloss ein leeres Versprechen, sondern eines, das mit Inhalt gefüllt wird. Der Medientheoretiker rekurriert in seinen lesenswerten Schriften unter anderen auf Deleuze, dessen Konzept der Kontrollgesellschaft und Dividuen er für die Beschreibung der digitalen Gesellschaft fruchtbar macht. Pasquinelli spricht von einer «Gesellschaft der Metadaten», in der Individuen nicht wie von der Stasi ausgeleuchtet, sondern vermasst würden und die Gesellschaft als Ganzes berechenbar und kontrollierbar werde. Das erlaube neue Steuerungsformen der algorithmischen Regulierung.

KI versteht keinen Spass

Wenn KI, zumindest in Koproduktion mit dem Menschen, Kunst erschaffen kann, kann sie dann als regelbasiertes System auch Regeln oder vielleicht Gesetze erfinden? Kann der Algorithmus in Zukunft womöglich gar Politik ersetzen? «Wahrscheinlich nicht», sagt Pasquinelli. Perzeption sei automatisierbar, nicht aber Politik. KI vermöge immer noch nicht Metaphern oder Ironie zu verstehen. Bei einem Witz lache jeder, nur die KI nicht. Autonomie bedeute die Fähigkeit, sich Gesetze zu geben. Automation dagegen meine, eine Regel zu befolgen. «Politik», so versucht sich der Philosoph an einer Definition, «ist die Erfindung neuer Regeln.»

Dass eine KI irgendwann nicht mehr aufhört, Büroklammern zu produzieren, und den Planeten in eine Bleiwüste verwandelt – das Gedankenexperiment stammt von Nick Bostrom –, hält Pasquinelli für abwegig. «Wir sind sehr gut darin, die Welt auch ohne KI zu zerstören.»