Computers don’t give a damn (€)
Tim Crane mit einem messerscharf argumentierten Stück zum Thema „Künstliche Intelligenz“, das eine große philosophische Tiefe entfaltet. Ein Auszug zum Thema AGI, Artificial General Intelligence, der großen Utopie des Feldes:
„Was könnte das Ziel einer [Artificial] ‚General Intelligence‘ sein? Wie können wir in abstrakten Begriffen umschreiben, welche Probleme eine General Intelligence zu lösen versuchen würde? Ich glaube, man kann sagen: Niemand, ob in KI, Philosophie oder Psychologie, hat eine Vorstellung davon, wie sich diese Frage beantworten lässt. Vielleicht nicht deshalb, weil es eine schwierige empirische Frage ist, sondern eine, die nicht unbedingt Sinn ergibt. Ich nehme an, dass jemand im Geiste von Herbert Simon (dessen berühmtes KI-Programm ‚General Problem Solver‘ hieß), dass General Intelligence die grundsätzliche Fähigkeit ist, kognitive Probleme zu lösen. Das klingt gut, bis wir uns fragen, wie wir in grundsätzlichen Begriffen die kognitiven Probleme umschreiben, die wir mit unserer Intelligenz lösen. Wie können wir sagen, um was es sich bei diesen Problemen handelt?“
Als Beispiel führt er Gespräche auf: Natürlich können Siri und Alexa mit uns reden und unsere Sätze erkennen, sie können uns auch bestimmte Informationen geben oder uns dorthin führen. Aber allzu haben Gespräche kein definiertes Ziel – wir reden, um uns die Zeit zu vertreiben, unsere Gefühle und Wünsche auszudrücken, unser Gegenüber kennenzulernen, anderen etwas beizubringen, freundlich zu sein, Gesprächspartner zu etwas zu überreden. Aber wenn es kein eindeutiges Ziel eines Gesprächs gibt, kann es dann so etwas wie das Ziel einer „Artificial General Intelligence“ geben? Crane sagt: nein. Und führt das Argument dann mit der Frage zusammen, nach welchem Bauplan eine „denkende Maschine“ überhaupt konstruiert werden müsste.
Siehe auch:
Evolution komplexer Systeme
Ist AI-Autoritarismus wirklich stabil?
AI, das fleischlose Wesen
Entscheidungsmaschinen
Zwei empfehlenswerte Tech-Bücher