Quo Vadis

Fragen zu Digitalisierung und KI

Es gibt eine Reihe von Organisationen die sich damit beschäftigen mittels „neuronaler“ Vernetzung in Hochleistungsrechnern die Fähigkeiten von Gehirnen – bevorzugt unserem eigenen – nachzuahmen. Das ist sicher legitim und Wissenschaft wäre nicht das was sie ist, wenn sie so einen Ansatz nicht verfolgen würde.

Erste Ergebnisse liegen bereits vor. Computer haben schon Schachweltmeister geschlagen, sie analysieren unser Verhalten in sozialen Netzwerken oder in machen Staaten dieser Welt auch das Leben ihrer Bürger im generellen. So etwas erscheint mir jedoch höchstgefährlich für eine freie Gesellschaft und es wird größte Anstrengungen benötigen, um zu verhindern dass wir alle in einem Gebilde leben müssen, gegen das George Orwells Vision im Roman „1984“ eine Kindergeschichte ist.

Intelligent sind Computer bei allen Anstrengungen trotzdem nicht. Sie können schnell rechnen, verfügen aber lediglich über Eigenschaften, die ihnen menschliche Lebewesen einprogrammiert haben. Auch die selbstlernenden Algorithmen stammen von den Entwicklern und Programmierern. Diese Menschen legen fest, wo das Optimum liegt (sicher werden nun einige aufschreien und behaupten, dass es hier bekannte Wege und Algorithmen gibt die sich darum kümmern). Als ob diese Vertreter der Menschheit schon wüssten, was „optimal“ ist. Es ist und bleibt anzunehmen, dass die Intelligenzleistung ihrer Produkte maximal der guten alten Kopierregel entspricht und damit immer mindestens eine Stufe unter dem Original liegt.

Und das gilt – nur die unwesentliche Meinung des Autors – für alle KI-Prozesse. Das heißt, die Qualität der künstlichen Intelligenz ist abhängig vom Entwickler und seiner kognitiven Leistungsfähigkeit. Das es Einzelbereiche gibt, in denen Computersysteme dem Menschen überlegen sind ist nichts Neues. Schon eine alte Ladenkasse konnte schneller addieren als der Verkäufer…

Und noch eine Bemerkung am Rande: Alleine den Flug einer Libelle oder einer Stechmücke nachzuahmen erfordert einen sehr hohen Aufwand. Das ist sicher machbar, verglichen mit den „Gehirnen“ dieser Tiere aber eher eine Groteske denn eine Lösung. Wenn wir dieses Beispiel dann auf staatenbildende Lebewesen wie Bienen ausweiten, die individuell über soziale, navigatorische und mechanische Fähigkeiten verfügen und auch noch situationsabhängig reagieren und ihr Verhalten anpassen, dann rückt KI an ihre richtige Stelle. Mit wenig Gehirn erbringen diese Lebewesen so hohe Leistungen. Sie durch sich selbst optimierende Algorithmen zu imitieren ist sicher möglich, aber wozu der Aufwand? Denn KI erscheint wohl nichts anderes als eine Inselbegabung zu sein. Mit anderen Worten ein digitaler Autist.

An autonomes Fahren sollte man lieber nicht denken (im Hinblick auf Klimaerwärmung und den Schwund unserer Ressourcen stellt sich sowieso die Frage, wie lange es noch motorisierten Individualverkehr geben wird. Sich unabhängig und mühelos zu bewegen, also fahren und fliegen, ist ein alter Menschheitstraum. Deswegen versucht man wahrscheinlich gerade hier der Allgemeinheit einzureden, dass sich die Lösung aller Nachteile sozusagen bereits „in Arbeit“ befände.

Es gilt aber zu bedenken, dass gerade der öffentliche Verkehr ein Musterbeispiel für chaotische, nichtlineare Vorgänge ist. Wäre KI in der Lage, seltsame Attraktoren zu erkennen? Und wenn ja, was würde sie daraus machen? Wie fände sie hier ein Optimum? Und wenn, nach welchen Kriterien, bzw. Vorgaben?

Ausgefeilte Programme, die über die Fähigkeit verfügen bei Prozessen und Arbeiten „dazuzulernen“, also von Fehlern zu lernen, bringen sicher Vorteile auch wenn es komplex werden sollte.

Man kann aber am Beispiel eines Neurologen, der gerade mit Erfahrung, Vorsicht und hoher Sachkenntnis, unterstützt von einem Navigationssystem, einen Tumor im Gehirn eines Patienten entfernt verstehen, dass „eine Optimierung, also Lernen“ ohne eine Vielzahl der zur Verfügung stehenden Intelligenzleistungen, keiner Maschine oder künstlichen Intelligenz überlassen werden sollte.

Die in einer solchen Situation notwendigen und häufig unerwarteten Erwägungen und Entscheidungen gehören nicht in das Repertoire eine Maschine. Dazu fehlt ihr das nötige Möglichkeits-Spektrum für eine solche Handlung. Versuch und Irrtum zur Erlangung einer noch offenen (!) Perfektion – schlimmer ginge es im genannten Fall wohl kaum.

Um obige Gedanken noch einmal an einem einfachen Beispiel zu erläutern: Beim Steuern eines Fahrzeuges gibt es eine so große Anzahl von möglichen Situationen, dass sie unser Vorstellungsvermögen bei weitem überschreitet. Wie also soll ein Programmierer hinter seinem Schreibtisch, am besten auch ohne größere Erfahrung beim Führen eines Fahrzeuges, etwas entwickeln, was genauso gut oder sogar besser als unser Gehirn funktioniert? Zu glauben, dass man das schon irgendwann erreichen kann, ist unangemessener Größenwahn und lenkt uns von den eigentlichen Aufgaben ab.