Die Frage des Buchtitels scheint der aktuellen Pisa-Diskussion zu entspringen. Der Untertitel ("Der Wettstreit zwischen menschlicher und künstlicher Intelligenz") wird im Vorwort präzisiert: Es geht Bas Haring, Informationstechnologe an der Universität Leiden, um die Frage, inwieweit schon Maschinen Geist haben können - "Geist" als Sammelbegriff für Wille, Denken, Bewusstsein, Glaube, Hoffnung und Liebe.
Der Autor schickt voraus, ihm gehe es nicht so sehr um die Richtigkeit im Detail, sondern um die Grundzüge von Ideen - und davon hat er eine ganze Menge. Vor allem aber: Sie sind verpackt in bildhafte Formulierungen, die die Lektüre des Buches zu einem Lesevergnügen werden lassen; nicht umsonst ist Haring Preisträger zugleich für Jugendliteratur als auch für "Das Wissenschaftsbuch des Jahres".
Hier einige seiner Vergleiche: Es scheint, als wäre das Gehirn eine Ansammlung von "Marionetten": Jede einzelne von mehreren Milliarden ist mit hundert (oder tausend) anderen durch Schnüre verbunden, mit denen sie an anderen ziehen können (oder von ihnen gezogen werden). An anderer Stelle: Das menschliche Gehirn mit seinen Milliarden Nervenzellen gleicht eher einem Haufen kopfloser Hühner und weniger einer straff organisierten Armee oder Fabrik.
Und seine Ideen zur künstlichen Intelligenz? Es erscheint unbestritten, dass Computer gut logische Rätsel lösen können - wahrscheinlich sogar besser als der Mensch, und das ohne Ermüdungserscheinungen. Wer logisch folgern kann, wirkt intelligent. Aber kann er auch kreativ sein, kann eine Maschine gar klüger werden als ihr Schöpfer?
Die "Verdrahtung" des Gehirns ist nicht genetisch festgelegt, sondern entwickelt sich auf der Grundlage von Instinkten sowie durch Lernprozesse und Erfahrung. Zwar könne auch ein Computer, entsprechend programmiert, lernen (das wurde schon vor Jahrzehnten bewiesen). Aber funktioniert das auch bei einer Maschinenkonstruktion mit mehreren Milliarden Bauelementen, wie sie das menschliche Gehirn besitzt? Kann eine Maschine denken oder gar nachdenken - "Denken als eine Art Selbstgespräch, bei dem man die Worte nicht ausspricht"? Kann eine Maschine verstehen? Welche "Bedeutung" haben für sie die Dinge des Lebens, die für uns wichtig sind?
Eine Maschine mit einem speziellen Wahrnehmungsvermögen zu bauen, sei sicher möglich, auch wenn sie gegenwärtig (noch) nicht dieselbe Vielfalt an Gegenständen wahrnehmen könne wie wir. Schwieriger wird es offenbar mit der Frage nach dem "Geist". Kann eine Maschine Willen, Gefühle und Gedanken haben? Zum einen werde man das alles auch in einem menschlichen Gehirn nirgends lokalisieren und einer bestimmten Zellgruppe zuschreiben können. Zum anderen werde "Geist" nur in Beschreibungen von Funktionen und Erscheinungen real. Man nutze diese Begriffe demnach, wenn man jemanden beschreibt, der Geist hat. Sollten aber unsere Maschinen in Zukunft komplexer werden, müsste man möglicherweise auch über sie in "geistigen Begriffen" reden, weil keine anderen Worte dafür zur Verfügung stünden.
Nach Meinung des Autors gleichen unsere Emotionen denen eines entsprechend programmierten Roboters. Der Autor führt aus, dass Roboter tatsächlich eine Art Angst vor dem Tod haben können; er beschreibt sogar, dass und wie sie sich vermehren können.
Die Frage, ob sich Maschinen selbst erkennen, ob sie eine Kenntnis vom eigenen Körper haben und davon, was dieser Körper alles kann, führt zu der Frage nach dem "Ich". Es sei, meint Haring, ohne Weiteres möglich, einen Roboter zu bauen, der über seine Grenzen und Möglichkeiten wisse und sich damit in gewissem Sinne selbst (er)kenne.
Es bleibe demnach - wie so oft in Diskussionen zur künstlichen Intelligenz - die Frage: Haben wir etwas grundlegend Besonderes, was Maschinen nicht haben, besser: nicht haben können? Wille, Denken, Emotionen seien, wie schon gesagt, doch nur Begriffe, um die Wirklichkeit verständlicher zu machen - sie seien nicht realer als die geistigen Eigenschaften von Maschinen. Ist das vermeintlich Besondere an uns - wie etwa ein Bewusstsein - nur ein Glaube an etwas nicht nachweisbar Besonderes?
Vielleicht beruhigend: Im Menschsein sei niemand so gut wie der Mensch selbst. Der Mensch sei und bleibe das einzige "Tier", das sprechen könne, Kunst hervorbringe, demokratisch wähle und Krankenhäuser baue - und an sich selbst glaube. Wie lange aber noch sind wir die Einzigen?
Eine durchaus spannende Lektüre, die in eine Welt neuartiger, originell formulierter und teils befremdender Gedanken und Ideen führt. Eine weitergehende kritische Auseinandersetzung damit sei dem "Geist" des Lesers überlassen; diese Aufgabe wird ihm sicher kein Roboter abnehmen wollen oder können.
Bas Haring
Sind wir so schlau wie wir denken? Der Wettstreit zwischen menschlicher und künstlicher Intelligenz.
List-Verlag, Berlin 2005; 176 S., 19,95 Euro