Wir gefährlich ist KI? Darüber gehen die Meinungen auch unter Experten auseinander. „Vorsicht ist auf jeden Fall angebracht!“ meint Dr. Patrick Krauß auf meine Frage, ob wir uns angesichts der Entwicklungen auf diesem Gebiet „warm anziehen“ müssten. Der Spezialist für Integration von Künstlicher Intelligenz und Neurowissenschaft von der Universität Erlangen sieht den Turing-Test durch ChatGPT als bestanden an. „Letztes Jahr 30. November – das Datum kann man sich merken. Das wird in die Geschichte der KI eingehen.“
Wie neuronale Netzte funktionieren, was wir von ihnen noch zu erwarten haben und ob wir in einigen Jahren vielleicht „bewusste Toaster“ kaufen können – danach haben Dirk Boucsein von philosophies und ich Herrn Krauß wie immer nach allen Regeln der Kunst befragt. Hier geht es zum Trailer (das komplette Interview findet man hier):

Danke für dieses wieder sehr sehenswerte Symposium. Besonders interessant fand ich den Hinweis auf den Zusammenhang zwischen Bewusstsein und autonomem Lernen. Beim Trainieren eines künstlichen neuronalen Netzwerks (nicht-autonomes Lernen) sagt der Trainer dem Netzwerk jedes mal, ob es sich (entsprechend der Aufgabe) richtig oder falsch verhalten hat. Aufgrund dieses Feedbacks konfiguriert sich das Netzwerk und wird „klüger“.
Ein bewusstes Tier dagegen merkt selbst, ob sich sich richtig oder falsch verhalten hat – dadurch, dass es sich z.B. befriedigt, gesättigt oder in Sicherheit fühlt oder aber Enttäuschung, Hunger oder Furcht empfindet.
Lebewesen ohne Bewusstsein können nicht individuell lernen – nur die Gattung lernt durch die Evolution, also dadurch, dass Individuen, die sich aufgrund ihrer ererbten Programme „falsch“ verhalten, einen geringeren Fortpflanzungserfolg haben, sodass diese Programme tendenziell verschwinden. Das Bewusstsein hat also eine neue, schnellere und effektivere Art des Lernens ermöglicht, und darauf beruhte wohl sein Erfolg in der Evolution (siehe auch meinen Gastbeitrag auf philosophies zu diesem Thema: https://philosophies.de/index.php/2023/01/09/die-funktion-des-bewusstseins/).
Lässt sich das nun auf Maschinen übertragen? Selbst wenn einen Roboter baut, der in einer Umwelt agiert, und der ein „Körperfeedback“ an seine zentrale Steuerung sendet, wird doch der Mensch festlegen müssen oder wollen, was dieses Feedback bedeutet. Beispielsweise melden die Körpersensoren eine bestimmte Innentemperatur – die Steuerung muss nun wissen, welche Temperatur normal ist, welche zu hoch und welche zu niedrig. Diese Grenzwerte wird der Konstrukteur oder Programmierer festlegen, aufgrund seines Wissens darüber, was der Maschine gefährlich werden kann. Wenn diese Grenzen aber vom Menschen festgelegt sind, braucht der Roboter hier kein Bewusstsein – er muss nicht spüren, dass es „ihm“ zu heiß oder zu kalt wird.
Also auch Embodyment erzeugt noch kein Bewusstsein. Nur wenn man keine Grenzwerte festlegen würde, die es der Maschine ermöglichen, Inputs zu bewerten, sodass die Maschine (bei Gefahr ihrer Zerstörung) selbst herausfinden müsste, was sie „bedeuten“, d.h. wie darauf zu reagieren ist – nur dann könnte sich Bewusstsein entwickeln. Voraussetzung wären vermutlich Millionen solcher Maschinen und Millionen Jahre – jedenfalls in der Realität. Aber vielleicht kann man den Prozess auf einem Rechner simulieren…
LikeGefällt 1 Person
Lieber Torsten Hesse,
entschuldige meine späte Antwort. Fundierte Kommentare verlangen eine fundierte Antwort und dafür fehlte mir in letzter Zeit die Muße. Aber jetzt habe ich alles gelesen, auch Deinen Artikel auf philosophies. Ich bin Dir sehr dankbar für den Hinweis, dass das Leib-Seele-Problem (ich persönlich ziehe die Bezeichnung Körper-Geist-Problem vor, da ich sie neutraler finde) kein Scheinproblem ist. Wie Du vermutlich weißt, bewege ich mich in Kreisen, in denen diese Aussage keine Selbstverständlichkeit darstellt 😉. Es wimmelt von Andeutungen und Behauptungen, das Problem sei eben irgendwie falsch gestellt und man müsse nur die richtige Perspektive einnehmen und alles löse sich in Wohlgefallen auf. Als ob nicht genau das – das Einnehmen von Perspektiven – der Kern des Problems wäre.
Aber ich möchte zu Deinem zentralen Punkt kommen: Der Funktion von Bewusstsein oder der Qualia, um genauer zu sein. Auch hier bin ich Dir dankbar, dass Du diesen Punkt ernst nimmst. In einem Buch von Bennett und Hacker habe ich vor Kurzem den – dort extra hervorgehobenen – Satz gelesen: „Die Frage nach dem evolutionären Vorteil ‚bewusster Erfahrung‘ ist entweder naiv oder verworren.“ Das „Argument“ für diese großmäulige Behauptung bestand dann darin, bewusste Erfahrung en passant mit Wahrnehmung gleichzusetzten. Wenn offenbar intelligente Leute so „argumentieren“, bleibt für mich eigentlich nur eine Erklärung: Man versucht von einem Problem abzulenken, dem man einfach nicht Herr wird.
Deine Argumentation finde ich dagegen interessant. Wenn ich es richtig verstanden habe, sagt sie im Kern folgendes: Bewusstes Erleben ermöglicht individuelles Lernen statt nur phylogenetischen Lernens. Individuelles Lernen ist aber wesentlich schneller und stellt daher im Endeffekt wieder einen Selektionsvorteil für die entsprechende Spezies dar. Warum aber ist bewusstes Erleben für individuelles Lernen notwendig? Das liegt daran, dass Anpassungen an die Umwelt über Rückkopplungskreisläufe funktionieren, die Zielwerte benötigen, denen sich das System annähert. Bei Robotern bzw. Zombies müssen bzw. müssten diese Zielwerte von einem externen Bewusstsein (einem Menschen, Gott) gesetzt werden, damit der Prozess funktioniert. Gibt es kein solches externes Bewusstsein, brauchen wir ein internes Bewusstsein, das in der Lage ist durch bewusstes Erleben Zielwerte zu setzen. Bewusstsein wäre also eine Art Zielwertgeber für die Optimierung von Überlebensfunktionen.
Dazu drei Gedanken.
1. Damit individuelles Lernen in diesem Sinne ein Selektionsvorteil ist, muss es vererbbar sein. Sich das vorzustellen ist im Zeitalter der Epigenetik kein grundsätzliches Problem, aber ich wollte es trotzdem anmerken.
2. Dass individuelles Lernen überhaupt ein Selektionsvorteil ist, scheint mir nicht evident. „…wir können Schmerz aushalten, falls es nötig ist“ schreibst Du. Woher wissen wir, ob es nötig und für unser Überleben vorteilhaft ist. Aber vor allem: Das Argument lässt sich auch umdrehen. Wir können mit unserem Empfinden auch einem negativen Impuls nachgeben. Man muss sich nur das Problem der Fettleibigkeit anschauen, das es so im Tierreich nicht gibt. Ob also dieser Selektionsvorteil existiert, ist eine offene Frage. Man bräuchte ein Argument dafür, dass die Vorteile die Nachteile überwiegen.
3. Zielwerte haben sich im Laufe der Evolution entwickelt und sind damit einfach da. Sie müssen nicht von außen gesetzt werden. Man denke z. B. der Blutzuckerspiegel. Zu fragen, woher sie kommen, ist m. E. eine Henne-Ei-Frage. Man könnte allenfalls argumentieren, dass wir durch das bewusste Erleben in der Lage sind, Zielwerte zu ändern, wenn dies z. B. durch eine plötzliche Änderung der Umweltbedingen notwendig ist. Bewusstsein wäre dann eine zusätzliche Funktion der Anpassung, die ein Zombie nicht hätte, denn: „Ein unbewusster Organismus, in dem Reize mit Reaktionen fest „verdrahtet“ sind, hat diese Freiheit nicht“, wie Du schreibst.
Ich denke aber, dass die Vorstellung ein unbewusster Organismus sei „fest verdrahtet“ (bzw. verhalte sich entsprechend), nicht (mehr) ganz stimmig ist. Flexibilität wurde in der Evolution immer groß geschrieben und wird es auch bei neuronalen Netzen, soweit ich das verstehe. Vor allem aber fürchte ich, es stellt sich hier wieder einmal die „Auswahlfrage“: Es gibt so viel Zielwerte, die vom Körper unbewusst angepasst werden (z. B. sinkt bei Liebeskummer der Appetit, ohne eine bewusste Entscheidung) – warum sollten dann bestimmte Anpassungsprozesse ein bewusstes Erleben benötigen? Was ist das „Mehr“ an Anpassung, bei welchen Prozessen greift es und warum kann diese Anpassung nicht unbewusst geschehen, wie so viele andere?
Das alles in Betracht ziehend ist individuelles Lernen m. E. einstweilen noch weit davon entfernt eine „hinreichend klaren Idee“ für die Funktion des Bewusstseins zu sein, die Chalmers zu Recht sucht.
LikeLike