Quo Vadis

Fragen zu Digitalisierung und KI

Beginnen wir mit dem in den letzten Jahren immer wieder zu hörenden Schlagwort „Digitalisierung“. Damit werden wir, so das Versprechen, alle anstehenden Herausforderungen bewältigen. Das klingt irgendwie überzeugend, aber was könnte damit gemeint sein, falls man es mal ganz genau wissen möchte?

Grundsätzlich ist die Antwort auf die Frage, was Digitalisierung eigentlich ist, relativ einfach zu geben, denn es geht nur darum, analoge Vorgänge und Zustände in binäre Zahlenreihen zu wandeln. Wie das funktioniert wissen wir schon lange. Geeignete Wandler tun diese Arbeit mit hinreichender Genauigkeit und produzieren damit meist eine gewaltige Menge an Nullen und Einsen. Diese binären Reihen, die elektronisch nichts anderes darstellen als eine Ansammlung der Zustände Ein und Aus, sind das Futter für Rechenmaschinen und natürlich Computern, der englischen Übersetzung von Rechnern. Von nun an ist der Weg frei, die Signale (Zahlen) in geeigneter Form zur Berechnung vielfältiger Aufgaben und Vorgänge zu nutzen.

Man möge mir diesen generellen Ansatz verzeihen, denn es geht im Folgenden nicht um genaue Details.

Was zunächst einfach begann, entwickelte sich im Laufe der Zeit zu einem komplexen Werkzeug mit dem gesteuert, dargestellt, gemessen, kommuniziert und analysiert werden kann. Nötig sind „nur“ Schnittstellen, Sensoren und Programme die sich den jeweiligen Aufgaben widmen. Alles kein Geheimnis. Aber um Missverständnissen vorzubeugen, auch keine einfache Angelegenheit für die Entwickler und ihre Programmierer, denen die Anwendungen meistens fremd sind. Was soll z.B. ein passioniert radelnder Programmier auch von autonomem Fahren von Lastkraftwagen verstehen?

Seit den 1970ern standen Mikrocontroller und CPUs zur Verfügung, die mit kleinen Speichern und einer Wortbreite von 8 Bit arbeiteten. Die unterschieden sich auf Grund ihrer geringen Größe erheblich von den Großrechnern, die schon damals in Wissenschaft, Industrie und Verwaltung eingesetzt wurden.

In der Folge begann man zunächst mit einfachen Steuerungen und kleinen Computern (Commodore, MSX und andere), was dazu führte, dass auch mittelständische Unternehmen manche Prozesse schon computergesteuert automatisierten. Größere Auswirkungen auf unsere Gesellschaft hatte das nicht. Man sah nur den Nutzen höherer Präzision und Kostensenkung durch die neuen Produkte (z.B. in der Metallverarbeitung).

In den 1980ern stieg die Zahl der Anwendungen weiter an und die digitalen Prozessoren verbreiteten sich nicht nur im industriellen und gewerblichen Sektor, sonder auch in privaten Bereichen, wobei es hier, außer einfacher Textverarbeitung und einfachen Computerspielen nur wenige wirklich brauchbare und vor allen Dingen bezahlbare Ansätze gab. Das sollte sich allerdings schnell ändern.

Apple und Microsoft präsentierten in den 1990ern ernstzunehmende Geräte, die schnell Einzug in den gewerblichen und privaten Sektor hielten und mittels leistungsfähiger Prozessoren zunehmend komplexere Abläufe ermöglichten. Sie deckten zuverlässig Bereiche wie graphische Bearbeitung, Steuerung, Kommunikation, Verwaltung, Buchführung und zahlreiche weitere Anwendungen ab und steigerten die Erwartungshaltung für weitere Erleichterungen bei einer breiten Mehrheit.

Es ergaben sich immer mehr neue Möglichkeiten um lästige, langwierige und meist auch langweilige Tätigkeiten schneller und auch billiger zu erledigen. So konnten nun zum Beispiel die Mitarbeiter einer Firma ihre Briefe selbst an zahlreiche Adressaten schreiben und diese Serienbriefe dann versenden. Scharen von Schreibkräften, die noch ein paar Jahre zuvor in großer Anzahl für die Kommunikation mit Kunden nötig waren, wurden nun überflüssig und – so der neue Begriff – freigestellt. Dieser Trend, also die Reduktion redundanter Arbeitskraft hat seither stark zugenommen und sich bis ins Mittelmanagement fortgesetzt. Die Liste der betroffenen Branchen ist lang und wächst stetig.