pp20240603

Kritik am Wording „sogenannte Künstlichen Intelligenz“ von Welf Schröter

Kürzlich hielt der Mitbegründer vom Forum Soziale Technikgestaltung, Welf Schröter, einen Vortrag im Rahmen der Reihe IAK Public der Integrata Stiftung zum Thema

>> Soziale Gestaltung der sogenannten „Künstlichen Intelligenz“ – Neue Wege betrieblicher Partizipation <<

Bei aller Wertschätzung der Bemühungen von Welf Schröter, den Begriff der Künstlichen Intelligenz einzuordnen und die Rolle und Verantwortung des Menschen als bewusst agierendes soziales Wesen auf unserem Planeten nicht aus den Augen zu verlieren, möchte ich im Besonderen auf die vom Autor benutzte und im Vortrag immer wieder mit Verve applizierte Wortkombination „sogenannte Künstliche Intelligenz“ reflektieren.

Als Referenz für meine Kritikpunkte nutze ich das öffentlich einsehbare Dokument
>> „Der mitbestimmte Algorithmus“
Ein erweiternder Ansatz zur Gestaltung der sogenannten „Künstlichen Intelligenz“ <<
von Welf Schröter [1].

Im Abschnitt Kritik des unzureichenden Begriffes „Künstliche Intelligenz“ schreibt der Autor: >> Seit nun mindestens vier Jahrzehnten reden überzeugte „KI“-Anhänger (damit sind wirklich Männer gemeint) … <<
Gewohnheitsgemäß bzw. entsprechend seiner eigenen Überzeugungen setzt Schröter KI in Anführungsstriche. Auch die KI-Anhänger sind überzeugt! Aber warum wird ein in unseren Dekaden hochrelevanter Forschungsbereich plus Überzeugung plus Anführungszeichen einem und nur dem einen Geschlecht zugeordnet?
Generell könnten wir eine Diskussion darüber führen, warum bei aller Technologieentwicklung Frauen in der Vergangenheit entweder weniger mitgewirkt haben oder mitwirkten, aber aus eigenem Interesse oder dem Interesse dominanter Männer diese weiblichen Mitwirkenden nicht sichtbar waren und wurden für die Nachwelt. Dafür gibt es sicher zahlreiche Beispiele. Nun aber diese „sogenannte KI“ allein dem männlichen Geschlecht zuordnen zu wollen, halte ich für nicht zuführend; könnte eher noch eine emotionale Komponente hinzufügen, die vom Kern der Fragestellungen ablenkt.

Weiterhin heißt es:
>> Mit der „daten-getriebenen KI“ verknüpfen die Drittmittelsuchenden vor allem die neuen Marketingbegriffe des sogenannten „Maschinellen Lernens“ oder des „Deeplearning“. Dieser „ML“ wird von einzelnen Interessengruppen die Fähigkeit zugeordnet, „ML“ könne „lernen“ und „denken“. Manche versteigen sich zu der skurrilen Sicht, dieses „ML“ erwerbe eine eigene „Ethik“, eine eigene „Moral“ und sei auf dem Weg, ein eigenes „Ich“ zu erzeugen. Diesem ideologisierten Ansatz gilt es mit Nüchternheit zu begegnen: Der Inhalt der sogenannten „daten-getriebenen KI“ ist pure Mathematik, brillante Mathematik. Aber nicht mehr. Von Menschen gemacht und von Menschen gestaltbar. Dieses algorithmisch Daten-Getriebene „denkt“ und „lernt“ nicht, hat kein „Ich“. Es folgt mathematischen und mathematisierenden Schritten. Dieses „ML“ ist nicht intelligent im gesellschaftswissenschaftlichen Sinne. Es verarbeitet Daten und Informationen nach mathematischen Impulsen. Wir dürfen uns in unserer Sprache nicht in eine Marketingwelt verleiten lassen. <<

Das steckt viel Zündstoff drin. Der Begriff der „Interessengruppen“ scheint Negatives zu assoziieren. Dabei dürfte es kaum – bewusst lebende – Menschen geben, die nicht von Interessen geleitet sind.
Die Begriffe „lernen“ und „denken“ werden salopp in einem Atemzug genannt. Hier würde ich unterscheiden. Während „denken“ eher mit Bewusstsein zu verbinden ist, scheint dies bei „lernen“ nicht so klar. Im Prinzip können wir „lernen“ auch unterteilen in bewusstes und unbewusstes Lernen. Vielleicht verkompliziert das aber an manchen oder vielen Stellen den Kern dessen, worauf wir aufmerksam machen wollen. Wir könnten uns ebenso die Frage stellen, ob Tiere und Pflanzen lernfähig sind. Insofern sie auf veränderte Umweltsituationen reagieren, sind sie es offensichtlich. Ohne die Notwendigkeit, Bewusstsein zu haben.
Wenn ein Säugling nach 10 oder 12 Monaten das erste Mal „Mama“ artikuliert, dann dürfte es nur eine sehr geringe Vorstellung von dem Konzept „Mutter“ haben. Bis zum „Ich-Bewusstsein“ vergehen weitere 12 Monate. Aber „100 mal Gehörtes“ wird – erlernt – und nachgeplappert.

Mathematik, Logik, Algorithmen und Verknüpfungen dürften auch bei menschlichen Denkprozessen eine Rolle spielen. Sowie Emergenz. Das einzelne Neuron weiß nichts, erst im komplexen Verbund entstehen Wissen und vermutlich ab einer bestimmten Komplexität Bewusstsein.

Traditionell scheint es so zu sein, dass der Mensch immer zuerst an den Menschen denkt, wenn wir von Intelligenz reden. Welf Schröter spricht selbst von einem alten, „gesellschaftswissenschaftlich geprägten Begriff“. Dem möchte ich gegenüber stellen, dass gerade erst die moderne Wissenschaft dabei ist, intelligente Verhaltensweisen bei Vertretern der Tier- und Pflanzenwelt zu erkennen und zu erforschen. Beispielsweise glaubte man lange Zeit, dass die Fähigkeit der Transitiven Inferenz allein dem Menschen vorbehalten sei. Schlussfolgerungen in Dreiecksbeziehungen hat man nun bei Wespen erkannt. Wenn Wespe A beobachtet, wie Wespe B gegen Wespe C verliert und A die Erfahrung hat, gegen B unterlegen zu sein, so folgert A, dass sie schwächer sei als C, wodurch sie einer Auseinandersetzung mit dieser aus dem Weg geht [2].

Das Thema Ethik in autonomen, autark agierenden oder reagierenden Systemen finde ich spannend. Der Ausschluss nur aufgrund der Tatsache, dass es sich um ein technisches System handelt, halte ich für nicht sinnvoll. Wieder stelle ich fest, dass eine Art von Ethik bereits in biologischen Systemen gibt, sprich Tiere, vielleicht sogar Pflanzen, die mit Duftstoffen bei Eintreffen von Fressfeinden ihre Nachbarn warnen. Ich spreche hier von Artenethik, zu der es bspw. gehören kann, dass ein Weibchen nach der Paarung das Männchen frisst oder ein Weibchen sich selbst opfert und das Gehege pflegt, sogar bis zu zwei Jahren, bis zum Schlüpfen des Nachwuchses aus den Eiern, um im Anschluss vor Erschöpfung zu sterben. Entsprechendes Verhalten wurde beim Perlenoktopus oder Perlenkraken an der kalifornischen Küste in tausendfacher Instanz entdeckt und beobachtet [3]. Und das alles wohl im Sinne des höchsten evolutionären Zieles: Der Erhaltung der Art.

Wenn wir uns heute mit den immer schlauer werdenden Versionen von ChatGPT unterhalten und sogar bei komplexeren Fragestellungen ausgeklügelte Antworten erhalten, so meine ich, dass man hierbei – zumindest partikulär – von intelligenten Fähigkeiten sprechen kann, die menschliche Intelligenz oder Schlussfolgerungsfähigkeit sogar übertreffen können. Wohl gemerkt – ein Automatismus zur Berücksichtigung ethischer Aspekte ist (noch?) nicht immanent, auch von Bewusstsein reden wir bei solchen KI-Systemen heute – noch – nicht. Auch wenn ich keinen plausiblen Grund dafür kenne, dass Bewusstsein kommen wird bei KI-Systemen, ob in 50 oder 500 Jahren, und wir uns nicht erst an dem Tag damit beschäftigen sollten, wenn es faktisch eingetreten ist.

Doch weit vor dem Auftreten von Bewusstsein gibt Chancen und Risken von KI-Systemen.
Beim EU AI Intelligence Act [4] ist die Rede von der Zuordnung der KI-Anwendungen zu bestimmten Risikoklassen. Das macht Sinn. So wie wir – zumindest in einem demokratischen Rechtsstaat – Kindern keine Waffe in die Hand drücken würden oder manche Filme erst ab dem 18. Lebensjahr geschaut werden dürfen.

>> Grundsätzlich muss gelten, dass „autonome“ und „selbstlernende“ Algorithmen sowie algorithmische Entscheidungssysteme nur für Entscheidungen über Sachen und Sachmittel (Energie, Material, Heizung, Verkehr etc.) eingesetzt werden dürfen. <<, schreibt Welf Schröter in [1].
– Ich würde das nicht so kategorisch formulieren. Denn der Autor nennt hier selbst den Bereich Verkehr. Dieser besteht zu einem großen Teil aus Menschen. Beim in Entwicklung befindlichen Autonomen Fahren kann u. U. eine KI eine vielfach schnellere und sinnvollere Entscheidung treffen. Natürlich in erster Linie im Sinne des Menschen. Hier steht die Frage nach der Vertrauenswürdigkeit des Systems und der ethischen Rahmenbedingungen, die selbst seitens des Menschen nicht immer einfach oder klar zu beantworten sind, wenn wir an das Trolley-Problem [5 ]denken.

Konklusion

Wenn wir von „sogenannter Künstlicher Intelligenz“ sprechen, dann verfolgen wir das Narrativ der Einzigartigkeit oder Einmaligkeit des Menschen. Ja, wir sind alle einzigartig. Aber nicht in dem Sinne, dass wir das Non-Plus-Ultra aller Entwicklungen wären. Mit Massentierhaltung, dem Auslösen des 6. Großen Artensterbens und des Klimawandels haben wir genug an Hybris und mangelnder Demut vor Mensch *und* Natur zur Schau gestellt.

In den kommenden Dekaden wird es darauf ankommen, Umgang (das Miteinander), insbesondere Entscheidungsprozesse sowohl der Menschen als auch von KI-Systemen in einen ethischen und vertrauenswürdigen Rahmen zu setzen. Mit einer Katze wollen wir gerne schmusen, ohne dass sie uns das Gesicht zerkratzt, obgleich sie es könnte. Sie hat nicht mal ein Bewusstsein, aber wir interpretieren, dass sie uns mag. Vielleicht tut sie es auf einer emotionalen Ebene. Wichtig ist, was am Ende herauskommt. Diese Frage stellt sich bei allen Soziogenten der Erde.

Quellen:

[1] https://denk-doch-mal.de/welf-schroeter-der-mitbestimmte-algorithmus-ein-erweiternder-ansatz-zur-gestaltung-der-sogenannten-kuenstlichen-intelligenz/

[2] https://bienen-nachrichten.de/2020/papierwespen-verhalten-sich-logischer-als-honigbienen/703

[3] https://www.scinexx.de/news/biowissen/neues-von-der-groessten-oktopus-kinderstube-der-welt/

[4] https://artificialintelligenceact.eu/de/

[5] https://www.bigdata-insider.de/was-ist-das-trolley-problem-a-c15ae5cc2132489e0414bab95537f496/

Hier geht es zur Übersicht aller Preprints von Michael M. Roth (MicialMedia)

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert