Categories Menu

32 (2025) Gottschlich. KI und die Automatisierung des Staatswesens

Das Potential in der Automatisierung hoheitlicher Vollzüge wird nur dann angemessen begriffen, wenn zugleich die Frage nach den Grenzen der Automatisierung im Bewusstsein gehalten wird. Das wird im Folgenden beleuchtet.

[Offensichtlich gibt es mindestens zwei hauptsächliche KI-Anwendungsgebiete, die gleichsam alle Menschen dieser neu entstehenden Kultur betreffen: a) Industrielle und b) verwaltungsbehördliche  Vollzüge,  und unter c) könnte man alle politischen und kulturellen Vollzüge im weiteren Sinn deponieren.Etwa politische Reden und Diskussionen sowie die Schaffensprozesse der Künste und Wissenschaften mit ihren je eigenen Rezeptions- und Reproduktionsprozessen. Selbst die religiösen Vollzüge, sofern sie nicht durch den Kultus für die Gemeinden rituell vorgeregelt sind, könnten das „Potential der Automatisierung“ bereichern. (Neue Predigten und neue Varianten der geistlichen Gesänge samt zeitgemäß „verbesserten“ Liedtexten usf.)

KI-Intelligenzen können „alles“, was unter a) bis c) angeführt wurde. Und wenn wir den Journalismus gleichfalls zu den politischen Vollzügen rechnen, wäre auch dieses Zwischen- und Sammelsurium-Gebiet erfaßt. Die Einteilung wäre zweckentsprechend gelungen: die gewünschte Übersicht für den unvermeidlichen Feldherrnhügel der aktuellen Epochenführer liegt parat. 

Wenn aber die neuen „Intelligenzen“ alles können, können sie auch  vielen Dingen, Geräten und Werkzeugen, die bislang der Mensch und dessen Vernunft bedienen und „führen“ mußte,  gleichsam inkorporiert werden, um als autonomes Mittel tätig zu werden: Nicht nur an „selbstfahrende Autos“ ist dabei zu denken, sondern überhaupt an jedes K-I-Programm, dem der Mensch eine bestimmte  Arbeit oder eine bestimmte Lösung einer Aufgabe überlassen kann: Übersetzungen, Hausaufgaben, Buchprojekte u.a.m. Wir sehen: der schachspielende Computer, der einen „menschlichen“ Schachspieler besiegt, war nur das Menetekel eines Anfangs, der kein Unheil, sondern eine neue dienende Glückswelt verhieß.

 Wer jedoch nach den Grenzen einer neuen Technik fragt, macht sich als „rückständiger Bremser“ verdächtig: er widerspricht dem Innovationgeist der Moderne: Diese ist offen für jede mögliche Anwendung, die demnächst noch entdeckt werden mag, und ebenso offen für jede weitere Erforschung und „Weiterentwicklung“ der neuen Technik. Sollte es dabei zu Katastrophen und Selbstschädigungen kommen (können), wie bei der Entdeckung und Anwendung einer „Atombombe“, werden sich Wege finden, das entschlüpfte Ungeheuer unter die sodann erforderlichen Grenzen einzuhegen. Das Prinzip der offenen Forschung folgt unmittelbar aus der Unmöglichkeit, dem Verstand des Menschen irgendwelche Grenzen aufzuerlegen.  Ihm ist daher erlaubt, alles auszuführen, was er entdeckt haben mag. Kein böser Gott hindert seine Freiheit und die unendlichen Tiefen seines Verstandes.  

Die Gegenposition zu dieser Position behauptet hingegen: Wer für seine Verstandeshandlungen und Verstandeserkenntnisse keine vernünftigen Grenzen angeben kann und wirksam einsetzt, macht sich schuldig, –  an sich selbst und an allen, die die vernunftlosen Folgen seiner entgrenzten Freiheit   zu ertragen haben. Gäbe es diese Gegenposition nicht, hätte die Menschheit kein Mittel, radikale Sekten in vernunftgebotene Schranken zu weisen, zu bekämpfen und zu verbieten.

Radikale Sekten sind jene, die für den Vollzug ihrer Rituale den Tod der Praktizierenden in Kauf nehmen. Weniger schuldhaft scheinen vernunftlose Verstandeserkenntnisse zu sein: wer mit 2+2=5 rechnet, muß für sich bleiben und rechnen, er verfolgt das Experiment einer „anderen“ Mathematik, die nur als Kulturgut einer „anderen“ (utopischen) Menschheit reüssieren könnte.

Bei den säkularen Sekten der aktuellen Geschlechte-Wechsler und -erfinder geschieht „dasselbe“, aber als „angewandte“ Mathematik. Wenn das Geschlecht des Menschen nur noch die Wirkung einer kulturellen Infiltration ist, ist ein Mensch wirklich geworden, dessen Verstand gleichsam Amok läuft, aber gegen sich selbst und damit auch gegen alle, die ihm folgen.

Nun sind aber die Digitalogen der K.I keine Sekten, sie und ihr „Handwerk“ wurden aus der Not der digitalen Kultur selbst geboren. Man könnte sie als Verwaltungskünstler im Rang von Verwaltungssklaven bezeichnen, wäre da nicht die entgrenzte Möglichkeit der digitalen Freiheit, auf alle Inhalte der Vernunft und des Verstandes des Menschen übergreifen zu können. Dieser digitale Dämon kann Mensch spielen, also vortäuschen, einer zu sein. Eine für Descartes noch unbekannte Variante eines bösen Weltdämons, der Gott zu spielen und zu scheinen versucht. ]

Begriffsbestimmung

Der Ausdruck „künstliche Intelligenz“ ist irreführend. Eine Maschine ist kein Selbst, das fühlt, wahrnimmt, vorstellt, urteilt und schließt. Es ist sinnlos, in Bezug auf Maschinen von Handlung, Schuld, Zurechenbarkeit und Verantwortung zu sprechen. Auch die Rede von „autonomen“ Maschinen ist irreführend. Maschinen sind nicht autonom im Sinne der Selbstbestimmung, sondern sie funktionieren gemäß ihrer Programmierung so, dass sie in einer für uns nützlichen Weise ohne Steuerungsbedarf mit Objekten wechselwirken. So ist auch das Operieren einer KI nur die Mimikry von Sprache. Sie ist ein System, das Daten in einer durch Algorithmen geregelten Weise zueinander ins Verhältnis setzt. Zeichen werden gemäß einer errechneten Wahrscheinlichkeit – ohne Bewusstsein ihrer Bedeutung – verknüpft. Dennoch entsteht der Schein sinnverstehenden, folgerichtigen Denkens. Damit haben wir einen Assistenten geschaffen, der durch „automatisiertes Denken“ die Datenmassen organisiert. Passender wäre es, von algorithmischen Systemen oder Assistenzsystemen zu sprechen.

[Die schleichende oder auch offene Aushöhlung der vernunftmoralischen Normbegriffe wie Selbst, Ich, autonom, Denken und Erkennen, Gewißheit und Gewissen, auch Handeln und Tun, Schaffen und Erfinden usf. demonstriert bereits am neuen Sprachgebrauch die erfolgte Verelendung des bisherigen „Normals.“ Das „K-I -Normal“ ist somit ein nochmals anderes Normal als jenes, das  die woke Postmoderne in der USA-Kultur ausbrütete und nach Europa überschwappen ließ oder immer herüberschwappen läßt. Maschinen sollen Eure neuen Brüder und Schwestern sein. Und mehr als nur Geschwister, sie sollen eure neuen „Seelsorger,“ Lebensberater und Lehrer sein. (Und wenn sie noch nicht gendern, meldet ihre bösartigen Umtriebe bei den EU-konformen Büros der neuen  „Hasspolizei“.) 

Ihr (Alt-)Menschen müßt in neue Schulen gehen, Euer Leben wird ein (neu) betreutes Leben sein. Eure bisherige Spontanität und Kraft,  Euer Mut und Euer „selbsteigener“ Verstand, der auf eine allgegenwärtige Vernunft vertraute, –  sie alle haben ausgedient.  Kurz: Euer bisheriger Geist, dessen Freiheit und Freude an sich selbst, muß radikal „umlernen.“ Es ist wie die kollektive Einweisung in eine Anstalt für Menschen, die sich bisher für normal-gesunde Menschen hielten und schon damit zeigten, daß sie einer neuen Heilung bedurften…        

Wie stolz wart ihr doch auf eure Werke, auf Euer Reden und Denken, auf Eure Erfolge beim Vermitteln in Streitfragen aller Art. Wann und wie wird auch „Oslo“ reagieren und umlernen? Neue Nobelpreisträger verlangen neue Nobelpreise. Wird es schon bald Nobelpreise für Virtuosen der Spracherkennung geben?    Diese werden fähig sein, noch den raffiniertesten KI-Roman als „fake-Roman“ zu erkennen und könnten insofern die letzten Mohikaner einer Kultur sein,  in der es noch keine lese- und denkfähigen Algorithmen gab, weil schon jede Mimikry in dieser Richtung als solche erkennbar war. Und dies sogar am Stereotyp der Karl May-Romane, deren jeder ein variiertes Duplikat seines Vorgängers war und ist.

Schon seit der Neuzeit war ein „Selbst“ für alle Naturwissenschaften ein ominöses Ding, das den Anspruch erhob, kein Ding zu sein und dennoch empirisch wirklich da zu sein. Es sollte eine Welt selbstbezüglicher Weltwesen geben können, die sich der exakten Definition, Beobachtung und wissenschaftlichen Vermessung entziehen könnten? Handelte es sich um  eine neue Religion oder nur um  eine raffinierte Fortbildung der alten Religion, die es wagte, der neuen Wissenschaftsmenschheit zu widersprechen?]

Zwei Arten von Maschinen sind zu unterscheiden: eine, die ihre Funktion nur unter menschlicher Steuerung ausübt und eine [andere], den Automaten, der ohne stetigen Eingriff operiert. Die Exekution der im Programm vergegenständlichten Befehle generiert den Schein von Selbsttätigkeit. Im Begriff des Automaten ist weiter zu unterscheiden zwischen solchen, in denen das automatisierte Denken und die auslagerbare Weltauseinandersetzung linear und starr in den programmierten Bahnen verläuft, und einer Form von automatisiertem Denken, dessen hardware und software eine Beweglichkeit und Wechselwirkungsfähigkeit ermöglichen. Dadurch gewinnt der Automat die Potenz, als Assistenzsystem die Weltauseinandersetzung unter Nützlichkeitsaspekten zu begleiten. Ein Assistenzsystem ist ein Werkzeug, das nicht nur zur physischen Entlastung dient, sondern so potent geworden ist, dass es den Vollzug der Weltauseinandersetzung unterstützen kann – im Begreifen, Urteilen und Schließen sowie im Entscheiden und Handeln.

[Unterscheidungen, die unmittelbar beweisen: eine neue Sache entwickelt sich kraft ihrer eigenen Unterschiede, die Prinzipien folgen, denen sich die Vernunft des Menschen nicht entziehen kann. Es handelt sich um Erfahrung und Erfahrungswissen, nun aber auf einem gänzlich neuen Kontinent, auf einem von  menschlicher Intelligenz erschaffenen Kontinent: diese Intelligenz kann mit dem Algorithmus der Zahlenwelt auf bislang unbekannte Art und Weise umzugehen, sie ist „allseitig und allwissend“ anwendbar. Dazu war die Erfindung von senderfähigen Informationsträgern entscheidend. Diese interagieren nun gleichsam unter sich und „hinter verschlossenen Türen“.  In den Schaltzentralen neuer Technokraten.  Prompt entstand und entsteht eine neue Welt und Kultur.

Die erste Art: eine Maschine, die  Ziele und Zwecke realisiert, die ihr bei gleichzeitiger Steuerung durch Menschen anbefohlen werden, genau zu vollziehen.  Dies waren und sind bereits unsere bisherigen Maschinen (Flaschenöffner, Autos, Schreibmaschinen usf.).  Das Merkmal „stetiger Eingriff“ ist entscheidend. Es ist ein Handlungseingriff, kein Gesetzeseingriff, obwohl er nicht zufälligerweise geschieht, sondern mit Absicht und Vorsicht.  

Ein „gesetzlicher Eingriff“ regiert unsere Natur: die körperlich eigene und alle übrige. Bäume wachsen ihren natürlichen Gesetzen folgend. Alle Tiere und Pflanzen realisieren ihr Wesen, nicht ein fremdes, sie sind, sofern natürlich verblieben, keinem anderen Wesen untertan. Bei den anorganischen Dingen liegt die Sache anders, weil sie nicht autonom, oft gar nicht von innen heraus wirken und sich erhalten,  statt Wachsen und Zeugen ist das Drücken und Stoßen ihre Daseinsmethode. (Kontinente wachsen nicht, sie werden erbrochen, überschwemmt und sedimentiert und vor allem: übereinander geschoben und geschichtet.)

In der zweiten Art von „Autonomie“ haben die Maschinen ihre ersten Befehle, die des Menschen,  als wiederholbare integriert. Sie scheinen ein eigenes Gedächtnis erworben zu haben. Im Prinzip war bereits das Rad eine solche „Selbständigkeitsmaschine“, denn man mußte ihm den Befehl, immer weiter zu rollen, sich immer weiter zu drehen,  nicht mehr  aufs Neue wiederholen. Das Rad schien durch sich selbst verstanden zu haben. –

Die weitere Differenzierung im Wesen des Automaten erfolgt nun bereits auf der erwähnten neuen Grundlage des algorithmischen „Denkrechnens“ seiner digitalen Kommunikationsfähigkeit: es kann senden und empfangen. Damit sind die starren Bahnen einer einfachen Programmierung, die für jede Lokomotive immer nur ein Geleise  benötigt, verlassen. Oder wie Max Gottschlich formuliert:  Hardware und Software beginnen miteinander zu wechselwirken: Der Begriff einer selbstlernenden Maschine ist geboren und Realität  geworden. Das Rad mußte nicht lernen, als Rad zu „laufen und zu rollen“, seine immanente Mechanik war Teil seines Wesens. Nur eckige und extrem unrunde Räder mußten selektiert werden.  Das neue Rad lernt, in verschiedenen Richtungen und in verschiedener Art und Weise zu „rollen“. Es kann sogar fähig werden, Bewegungen nur vorzutäuschen, im Übrigen aber: Anfang und Ende seiner Bewegungen und Wege „unfaßbar“ exakt vorauszubestimmen: Es möchte auf dem Mond nicht nur „exakt“ landen, es möchte daselbst auch einige „genau ausgezirkelte“ Ausfahrten unternehmen.

Das „Assistenzsystem“ ist die vollendet ausgelernte Maschine, die dennoch immer weiter lernt.  Sie steuert sich selbst auf den Mond, um nach einigen Fahrrunden  wieder zurück auf die Erde zurückzufliegen. Fliegen und Fahren sind zwei  von vielen Fähigkeiten ihres Lernsystems.  Es könnte auch den Mars besuchen und daselbst einige Fahrten und Beobachtungsrunden unternehmen. „Wir“ haben ihm auch bereits befohlen, nach Gesteinsproben auf dem Mars zu bohren und die Fundgesteine auf die Erde zurückzubringen, um sie weiteren wissenschaftlichen Untersuchungen zu unterwerfen.]

Innerhalb des Assistenzsysems ist eine Differenz relevant, die in den Ausdrücken „smart“ und „intelligent“ steckt. „Smart“ bezieht sich auf das Finden und Gebrauchen geeigneter Mittel für vorausgesetzte Zwecke, um Lösungen für Probleme zu generieren sowie zu prüfen. Die KI ist darüber hinaus der „intelligente“ Assistent, der zum scheinbar selbständigen Agenten wird. Zwei Arten dieses „autonomen“ Assistenten sind zu unterscheiden: eine auf ein bestimmtes Gebiet beschränkte Artificial Narrow Intelligence und eine Artificial General Intelligence, in der die KI die Gebiete verknüpft.  Möglich wird dies durch ein künstliches neuronales Netz. Eine „Verarbeitungsschicht“ empfängt aktivierende Signale durch eine „Eingabeschicht“. Das Resultat der Verarbeitung zeigt die „Ausgabeschicht“. Im Unterschied zum Schaltkreis erlaubt das neuronale Netz eine Plastizität der Funktionalität im Gebrauch.

[In den „vorausgesetzten Zwecken“ steckt zunächst noch der gute alte Mensch und mit ihm die gute alte Menschheit. Man bemerkt aber, daß vom „Lückenbüßer-Gott“ keine Rede mehr ist. Genießen die neuen Assistenzsysteme der neuen Maschinen(Menschheit) allüberall den Segen einer guten Macht, oder könnte sie mit der malignen Gottheit Descartes unter einer Decke stecken?  Könnten sie Zwecke und  Mittel generieren, die die Vernichtung der Menschheit programmierbar machen?

Mit welcher Software (digitales Programm) läßt sich der vorgesetzte Zweck,  beispielsweise ein reales Mittel (Schrauben in einem Werkzeugarsenal)  raschest herbeizuschaffen realisieren? Man sieht, daß mehrere Softwares (superintelligente Assistenten),   zusammenarbeiten müssen um a) die logische Lösung als Plan einer Handlungskette zu finden und b) die praktische Durchführung des Plans zu gewährleisten. Pro Tag erreichen tausend Bestellungen unser Firmenlager und wollen wirklich „smart“ abgewickelt sein.

Der (menschliche)  Lagerangestellte  muß demnach fähig sein, mit den außermenschlichen Intelligenzen praktisch-vernünftig (also auch moralisch gewissenhaft) zusammenzuarbeiten. Eine Symbiose von Mensch (als Herr) und Diener-Intelligenz (als Sklave) regiert das gesamte Berufsleben der künftigen Menschheit. Aber diese Sklaven sind einigermaßen gefährlich und unberechenbar.  Es handelt sich um spezielle Ingenieurs-Sklaven, die sich bitten und beknien lassen, wenn ihre Assistenzfahrzeuge ins Stocken oder Schleudern geraten.

Der Unterschied von allgemeiner und spezieller  Assistenz-Intelligenz folgt  aus der Logik unserer Vernunft: ihrer praktischen und theoretischen Veranlagung.  Schon vor der  Erfindung dieser Assistenten-Welt existieren weitere (allgemeinere) und speziellere Zwecke und Mittel.  Und wie schon erwähnt: noch ist kein Programm bekannt, das als menscheitsvernichtendes auch für apokalyptische Assistenten sorgen würde.

Gewiß läßt sich ein selbst-lernender Schaltkreis als „neuronales Netz“ umschreiben,  – die Analogie zum Gehirnorgan des Menschen ist offensichtlich. Mit welchen Konsequenzen aber diese Analogie verbunden ist, wenn sie Realität werden sollte: Sklaven mit eigenem  („haltbareren“) Gehirn dienen und betreuen Menschen, die über ein lediglich natürliches Gehirn verfügen, wollen wir uns heute noch nicht näher ausmalen.

Eingabeassistenten auf der einen Seite, Verarbeitungsassistenten auf der andern Seite, und in der Mitte die Krone der bisherigen Menschheit: ein Trio von niegewesener Macht, sofern das unbekannte Wesen in der Mitte sein Mitspracherecht nicht schon an höhere Mächte verkauft hat.

Die Hoffnung lebt, daß keine „neuen Vernunftzwecke“ erscheinen, deren                                         Ausführungsmittel  bei Amazon auf  Abruf lagern.

Einerseits sollen sich im neuronalen Netz gemäß den Regeln des Algorithmus Gewichtungen bestimmter Verknüpfungen herauskristallisieren, die ein „Erkennen“ von komplexen Mustern ermöglicht; andererseits muss diese Gewichtung plastisch bleiben, um adaptierbar zu sein. Das ermöglicht maschinelles „Lernen“. An dieser Plastizität hängt der Schein der Reflexivität. Durch den Gebrauch des Algorithmus etablieren sich im Substrat des neuronalen Gefüges Verknüpfungen, die zur Grundlage rekalibrierender Veränderung herabsetzt werden. Die Zweckmäßigkeit des Verfahrens in der Plastizität des Relationierungsprozesses von Daten beruht also auf der in der Natur präsenten Zweckförmigkeit der neuronalen Vermittlung. Die „Intelligenz“ der KI beruht auf dem Prinzip der Nachahmung der Natur durch Technik. Die moderne Bionik greift den in die Antike zurückgehenden Gedanken auf, dass die Kunst die Natur, indem sie diese nachahmt, zur Perfektion bringt. Diese Vorstellung ist in der Entwicklung der KI leitend.

[ Das neue „Erkennen“ ist somit als Wiederkennen eingegrenzt und unterläuft das bisherige Erkennen der Vernunftaufklärung. Dieses fragte nach dem Wesen und der Identität (Gattung, Art und Individualität) einer Sache und setzte voraus, diese Erkenntnis auch wirklich leisten zu können. (Weil schon viele erkannte Sachen als erkannte konkrete Begriffe sich angesammelt hatten.) Ein System von Begriffen mithin, das uns von der Natur der Sache(n) verbindlich reden ließ. Also suchte man zweck-letztlich zu verbindlich unterscheidenden Definitionen zu kommen.  Ein Mann ist keine Frau, ein Känguru ist keine potentieller Mensch usf.

Dieses „Szenario interessiert den Algorithmus jedoch nicht. Er bewegt sich nicht in einem System von Begriffen und Definitionen, er bewegt sich in mathematischen Zeichensystemen und deren „bildgebenden“ Anwendungen, um ein „unfehlbares“                                                                                                                 Vergleichen von Bildern mit anderen Bildern bzw. Zeichenmustern zu ermöglichen und mögliche und unmögliche Bilder „gleichberechtigt“ unter das (bald nicht mehr)staunende Volk zu bringen.   

Und als „methodischer Gipfel“ kann das Wiederkennen der Gleichheit von Bildern mit willkürlich fixierten Musterbildern gelten.  

Nimmt man der KI-Intelligenz dieses Bilderdenken weg, weiß es nicht, was es anfangen soll mit sich und der Welt.  Es ist sosehr auf immer weitere Anwendungen seines Musterverfahrens  angelegt, daß es meint, mit  immer weiteren (neuen) erfolgreichen Vergleichen das Wesen der Sache erschöpfen zu können.

Die vorgesetzten Muster mögen so komplex wie nur immer sein, sie mögen aus abertausend Pixeln und Zahlenchiffren zusammengefügt sein,  – wird aber ein vorliegendes Bild als Abkömmling eines Musterbildes erkannt und „dechiffriert“, wird nur diese „Urbild-Beziehung“  bestätigt und keinerlei Wesen der Sache, das vielleicht als Bild erschienen sein könnte, erkannt. Bei größter Anwendungsvielfalt und -Virtuosität ist die gleichzeitige Verdummung (Blendung und Auslöschung) des Wesens-Erkennens unausweichlich mitverhängt. 

Ein Eisberg, der aussieht wie ein Walfisch, ist von diesem durch „Welten“ unterschieden. Wissens-Systeme (der normalen Natur-Wissenschaften) die darum wissen, lassen sich durch virtuos anwendbare Bilderkennungssysteme nicht täuschen. Algorithmisch anwendbare Bildsysteme sind bereits die Täuschung, für deren Überwindung sie gehalten werden. Am Scheinen dieses Scheins der doxa hätte Plato  seine  Freude eines kritischen Durchschauens. Eine Katharsis, durch die Macht der Idee ermöglicht und verwirklicht: Idee und  Begriff, Wort und Satz, Bild und Erscheinung der wahren Sache fallen nicht auseinander.

Um sich aber in einer Welt unendlich vieler digitaler Sachen zurechtfinden zu können, ist just diese Blendung und Auslöschung unvermeidlich.     

„Plastizität“ ist das Wort eines Selbstbetrugs, der den modernen Gehirnbesuchern, die neuerdings Myriaden von neuronalen Netzen besuchen und untersuchen,  zur Täuschung verführt, den Urheber und Betreiber der Gehirnmühle persönlich ansprechen zu können. Aber warum sollte es nicht doch endlich möglich geworden sein, nachdem es sogar unseren algorithmischen  und digitalen Maschinen möglich wurde?

Max Gottschlich zählt nicht zu den „Verführten und Verblendeten“: er beharrt darauf: auch diese Maschinen  spielen nur die „Spiele“ des natürlichen Gehirns nach, sie bemühen sich um Nachahmung der Natur durch Wissenschaft und Technik. Diese „Spiele“ haben übrigens die großen Stile der vormodernen Künste und deren wahre Schönheitsideale (von der Antike bis zu Raffael und Beethoven) abgelöst. Deren Plastizität war noch unmittelbar anschaubar und tradierbar, sie ermöglichte einen sensus communis, an dessen Macht und Wahrheit in der modernen Welt und Kultur nur noch die apersonalen Werke und endlosen Genres  des Films erinnern.

Die „Intelligenz“ der KI beruht auf dem Prinzip der Nachahmung der Natur durch Technik. Die moderne Bionik greift den in die Antike zurückgehenden Gedanken auf, dass die Kunst die Natur, indem sie diese nachahmt, zur Perfektion bringt. Diese Vorstellung ist in der Entwicklung der KI leitend.

Die vertiefte Naturbeherrschung, die uns die KI-Entwicklung eröffnet, bedarf keiner neuen anschaulichen Ideale mehr, denn sie sucht nach neuen Gegenstandwelten, nach neuen Produktionswelten, von denen die bisherige Menschheit nicht einmal träumen konnte. (Welten die auch die aktuellen Propheten der Kirchen, ratlos machen; ihr Trick, mit den alten heiligen Schriften die neue Zeichen einer neuen Welt erkennen und deuten zu können, verfängt nicht mehr.) 

Roboter werden möglich, deren zweckentsprechendes Handeln „als wie“ ein menschliches Handeln und sogar „als wie“ wie ein tierisches Instinkthandeln  in die Welt des Menschen eintreten wird. (Die natürlichen Menschen werden glauben, „Außerirdische“ geworden zu sein.)

Denn auch das gehört zur neuen (wissenschaftlichen) Mimikry an die Natur: Sie vermag erstmals auch Gegen-Naturen zu erzeugen, zu kommunizieren und zu tradieren. Wie sie auch neue Schachspiele mit neuen Regeln kreieren und verbreiten kann. Und genügend Menschen werden sich finden,  um den neuen Hort einer unterhaltsamen Lebensabwechslung zu besuchen.

Beinahe unnötig  zu ergänzen, daß die Symbiose von Algorithmus und bildgebender Digitalität auch die alte Welt der Buchstaben und ihrer literalen Kultur „aufmischen“ wird. Radikale Veränderungen sind möglich, die schon heute das akademische Proletariat der Ghostwriter existenzbedrohlich belagern.] 

Nutzen

Die moderne Zivilisation generiert in Wissenschaft und Technik eine beherrschbare Objektwelt. Im Namen der Digitalisierung werden in Bezug auf die Natur und die soziale Welt Datenmassen generiert, die eine Übersetzung des Wirklichen in immer umfassendere, genauere und anpassungsfähigere Modelle ermöglichen. In einem Modell wird die Wirklichkeit in ein System eindeutig bestimmbarer gegenständlicher Relationen zwischen Erscheinungen verwandelt. Was solcherart in die festen Formen eines Modells eingefügt wurde, wird in seinem Verhalten bestimmbar, damit beherrschbar. Je umfassender und genauer die Modelle, desto mehr steigt der Bedarf an automatischen Assistenten, ohne welche die Nutzung der Datenmassen in der Verwaltung der technischen Zivilisation unmöglich wäre. Solche „Erntemaschinen“ bereiten vermittels algorithmischer Regeln die Daten nach Nutzenaspekten auf. Dadurch wird es möglich, die Effizienz von Verfahren zu maximieren.

[Wie mag der künftige Mensch der neuen „modernen Zivilisation“ beispielsweise Goethes Italienische Reise lesen und verstehen? Auch dieses Buch wird als „beherrschbare Objektwelt“ gefügig geworden sein. Im „Stil“ von Wikipedia wird jedes vorkommende Wort anklickbar sein, weshalb man durch das ständige Anklicken immer weniger Zeit und Intelligenz für das Lesen im früheren („besonnenen“)  Sinn „anwenden“ wird. Ebenso wird man mit den Geschmacksurteilen Goethes nur noch wenig anfangen können. Seine Hochurteile auf Palladio („vollendete Architektur“) setzen zuviel vergleichendes Wissen über antike und die (noch nicht „moderne“) Kunst der Neuzeit voraus.

Doch auch diesbezüglich wird man eine Werkreihe Palladios „auf Mausklick“ mit den Werken seiner antiken Vorgänge vergleichen können. Doch Euer Vergleichen, würde Goethe einwenden, ist längst nicht mehr mein Vergleichen.

Einzig bei den Wissenslücken Goethes, (Erdbeben bei Vicenza konnte er noch nicht auf eine „Kontinentalverschiebung“ zurückführen) wird man sich dem Unwissenden der alten Zeiten überlegen wissen.

Nicht einmal wiederholen  lassen sich seine Fragen und Antworten im System der Künste (Architektur, Malerei, Musik und Dichtung) und deren historischen Entwicklungen durch die „eindeutig bestimmbaren“ Methoden des digitalen Algorithmus,  mag dieser noch so  „genau anpassungsfähige Modelle“  generieren. Einzig beim Ordnen der „Zettelwirtschaft“ seine Notizen hätte er einen automatischen Assistenten  vermutlich nicht verweigert. Doch kannte er weder Schreibmaschine noch Computer. Es gab eine Welt vor dem Internet, eine Welt ohne Internet. Bücher, die heute nicht auch in der Internetwelt erscheinen, sind wie nicht erschienen.

Algorithmische Entscheidungssysteme werden seit den 1980er-Jahren von Banken und Versicherungen genutzt, um die gegebenen Daten in Bezug auf Kreditvergaben und Versicherungspolizzen nach Regeln mathematischer Modelle zur Beurteilung der Situation und für Ableitungen aufzubereiten. Seit den 2000er-Jahren inkludieren diese Systeme „maschinelles Lernen“. Das ermöglichte ein Operieren mit großen Datenmengen in einer Vielzahl von Bereichen. Je potenter und komplexer Entscheidungssysteme sind, desto schwieriger wird die Nachvollziehbarkeit der Wege und Resultate. So mussten ergänzende Systeme entwickelt werden, die die Entscheidungssysteme erklären, die Erklärbarkeitstechnologien. [Ab

Die staatliche Verwaltung hat es wesentlich mit regelbasierten Prozessen zu tun, weshalb sich die Nutzung der KI nahelegt. Im Gebrauch ist v.a. die Artificial Narrow Intelligence: im front office (chatbots, Antragsstellung, Datenerfassung usw.) wie im back office (Sachbearbeitung, Ordnung und Klassifizierung von Dokumenten, Workflowmanagement, prädiktive Modellierungen von Ausgaben usw.). Anwendungen im juristischen Bereich machen es möglich, Sachverhalte zur Masse bisher dokumentierter Fälle und Entscheidungen ins Verhältnis zu setzen. In Anbetracht potenter werdender Systeme stellt sich die Frage nach den Grenzen und objektiven Rückwirkungen dieser Technologie.  

[ Hoheitliche Verwaltungsvollzüge müssen erstens „rechtsbasiert“ und zweitens „sachbasiert“ sein. Ein Unterschied, der in der  „zitierenden Anwendung“ des Wortes „regelbasiert“ verloren geht. Ob deshalb die individuellen Bedürfnisse, die Pflichten und Wünsche der Kunden gleichfalls nur regelbasiert „behandelbar“ sind, ist zu bezweifeln. Früher wagte man noch zu  äußern: Jeder Fall liegt irgendwie doch „individuell anders“, ganz abgesehen davon, daß jeder Fall individuell – erlebt und vollzogen wird.

Die Frage nach den objektiven Rückwirkungen der neuen KI-Technologien wird üblicherweise ambivalent beurteilt. Die Einen erklären: der Umgang mit den Behörden ist einfacher geworden, die Anderen erklären: er wurde unübersehbar komplex, sosehr, daß von einem „Umgang“ keine Rede mehr sein könne. 

Exkurs. Ist eine Regel genau (bestimmt-bestimmt) definiert, ist sie Material- und Raum- und Zeitbezogen. Daher sind arithmetische und geometrische Regeln Grundregeln, mit denen sich rechnen und zeichnen läßt,  und davon zehren auch alle algorithmischen Anwendungsregeln.  

Dagegen sind rein logische Regeln unbestimmt-bestimmt, sie geben keine bestimmten, keine „basierten“ Anwendungen vor.  Die Hegelsche Negation ist daher keine „regelbasierte“ Regel, sie ist eine logische Operation, deren Allgemeinheit nicht durch sich selbst eine Besonderung enthält und „generiert“. Die Besonderung muß daher durch das jeweilige logische Denken eines „Dialektikers“ im jeweiligen „Element“ des Daseins gefunden, entschieden und durchgeführt werden. In der Logik des Begriffs (als unendlicher Negativität): im logischen Dasein des logischen Seins. Daher ist eine ontologische Logik möglich und notwendig.

Sie führt auf eine „Entwicklung der Begriffe des Seins-Begriffes, und allein diese kann als unbestimmt-bestimmte Regel gelten. Mit anderen Worten: die Entwicklungen im Denken und im Geist und in der Natur sind frei und dennoch nicht zufällig.

Sein und Nichts negieren einander zum Begriff des Werdens, aber das Dasein als eines und ein anderes  Dasein negieren einander zum Begriff des Veränderns. Verändern kann daher nicht als „Anwendung“ des Werdens erfolgen, es kann nur als Weiterentwicklung des anfangenden Begriffes (des Werdens des Seins) „generieren“. Die Negation bleibt als innerer Motor bestehen, ist aber keine „Anwendungsmatrix“, sie ist kein Muster für nachfolgende Beispiele des Musters. Man könnte von freier Selbstwandung der Negation sprechen, die sich daher nicht an regelbasiert „denkende“, (eigentlich: rechnende) Maschinen delegieren läßt. Woraus natürlich nicht folgt, daß man mit KI-Programmen nicht mit Plato- und Hegel-Texten ad libitum  herumspielen könnte. Aber Herumspielen ist kein gedankenbewußter (reflexiver) Nachvollzug vernünftiger Begriffe.]

Probleme

Die KI entfaltet ihre Funktionalität auf Grundlage bestimmter Voraussetzungen, die die Resultate mitbestimmen. Das betrifft die Auswahl des Datenmaterials, die Form der Verarbeitung im Algorithmus und den Modus des „Trainings“ durch Korrekturen. Da es im öffentlichen Dienst um die Organisation der Mittel zum Zweck des Gemeinwohls, der Selbsterhaltung des Staates als einer Freiheitswelt geht, muss ein Einsatz solcher Systeme zur Unterstützung der Verwaltung unter der Prämisse maximaler Transparenz in Hinblick auf die in den Algorithmen verborgenen Voraussetzungen erfolgen. Die Verwaltung wie die Politik muss sich in begründeter Weise zu den Resultaten dieser Assistenzsysteme ins Verhältnis setzen können. Nur wenn man den Resultaten von Assistenzsystemen nicht blind vertrauen muss, können sie ihrer Bestimmung entsprechen. Das Problem der wachsenden Abhängigkeit staatlicher Akteure von big tech und deren Partikularinteressen tangiert bereits eine grundsätzlichere Ebene. Denn damit wird das Vertrauen in den Staat als institutionalisiertem Willen zum Gemeinwohl prekär.

[Auch hier könnte man die Mimikry an die „Natur“ gewisser geistiger Vollzüge des Menschen anführen: Auch das Sprechen des Menschen setzt  bestimmte Voraussetzungen voraus, die durch das Sprechen erfüllt werden (müssen.)  Wer spricht, kann die Regeln des Sprechens nicht ignorieren, weder im Selbstgespräch noch im Gespräche mit anderen Menschen. Folglich gehen die KI-Anwendungen im Gebiet des „Spracherkennens“, Sprachenlernens und Sprachenkönnens ins Unermeßliche.

Nun läßt sich jedoch „Vertrauen“ (der Bürger in ihren Staat und umgekehrt, nicht an Maschinen, auch nicht an algorithmisch denkende, „auslagern“ und delegieren. Dies würde den Bürger als Souverän seiner Demokratie entrechten und verunmündigen. Der Grundsatz einer „maximalen Transparenz“ gesteht bereits ein, daß eine vollständige nicht möglich ist,  weil die wenigsten Bürger zugleich als wissende Administratoren ihre Behördengänge aktiv sein können. Der Bürger erhält neuerdings eine individuelle ID-Nummer, um seine Behörden auch digital und bald nur noch digital zu besuchen.   Wie die Individualität der numerischen Identität gesichert wird, wäre bereits eine höhere oder tiefere Transparenzfrage. Unterschiedliche Namen und Ziffern reichen wohl nicht aus. In Deutschland leben wie viele Maiers und Merkels? Es muß die einzigartige Individualität der je eigenen ID-Nummer gewährleistet bleiben. Und jeder Bürger soll nur seine eigenen Steuern zahlen, nicht die irgend eines anderen Bürgers desselben Staates.]

Zur tieferen Problemebene führt die Frage: In welchem Maß ist eine Automatisierung der Vollzüge in der Verwaltung und Gestaltung des politischen Gemeinwesens erstrebenswert? Zunächst ist zu bedenken, dass die Automatisierung auch zu neuen Abhängigkeiten und einem Fähigkeitsverlust führt. Kein up-skilling ohne de-skilling. Dieser selbstverschuldeten Unmündigkeit muss gezielt entgegengewirkt werden.

[Der Begriff einer „selbstverschuldeten Unmündigkeit“ geht auf Kant zurück und appellierte an das Gewissen und den Mut seiner Mitbürger, sich ihres Verstandes  zu bedienen, wenn sie aufgefordert wurden, erkennbar unvernünftigen Zielen und Zwecken ihrer Regierenden- in Politik und Religion – zu folgen.

Davon ist die heutige Lage der Menschen und ihrer Staaten (Demokratien im Westen, Nicht-Demokratien im Osten und Süden) sowie einer Super-Demokratie namens EU in der „Mitte“) offensichtlich stark unterschieden. Denn die neuen technologischen Veränderungen – primär durch Algorithmus und digitale Kommunikation – erzeugen per se – durch sich selbst- ein neues „Gefälle“ zwischen Regierenden  und Regierten (auf allen Ebenen von Staat, Kultur und Gesellschaft). Weshalb eine Frage entstanden ist, die Kant unbekannt war: welches Verstandes sollen  sich die Bürger bedienen, um von welchen Obrigkeiten nicht in die Irre geführt zu werden?

Die heutige Unmündigkeit ist offensichtlich zu hohen Anteilen fremdverschuldet, ohne daß man anonyme Mächte als schuldige „Fremdbestimmer“  voraussetzen muß. Denn ein  digitaler Verstand ist nur in Ansätzen vorhanden, und ein algorithmischer Verstand ist nicht einmal unter Mathematikern, die mit mathematischen Anwendungsmethoden vertraut sind,  gang und gäbe. Dieses Wort im Sinn eines menschlichen Autofahrers verstanden, der Startpedal, Gaspedal und Bremspedal  seines Autos erfolgreich zu bedienen weiß, ohne über das Innere seines Wagens, das über weitere tausend „Motoranwendungen“ verfügt, Bescheid zu wissen. Von dieser Reduktion auf eine bedienungsleicht anwendbare Außenfläche (Display, Cockpit usf.) ist die moderne Digitalwissenschaft und deren „tippende und wischende Kultur“ noch weit entfernt.]

Die Automatisierung schlägt darüber hinaus auf das Selbstverständnis von Recht und Staat zurück. Je mehr hoheitliches Handeln auf Assistenzsysteme ausgelagert wird, desto mehr entfremdet sich der Staat von seiner Bestimmung. Ein instrumentelles Verständnis von Recht und Staat wird dominant, sowohl beim Beamten als auch beim Bürger. Der Staat ist keine Maschine, keine Technokratie, in der Bürger wie Datensätze verwaltet werden, sondern eine organische Einheit von Institutionen, in denen dem Bürger gelebte Freiheit begegnen muss, wenn jener den Staat anerkennen können soll.

[Richter nicht mehr in Richterroben, sondern hinter Laptops sitzend und agierend,- diese neue Situation erfahren wir in analogerweise in Spitälern und Arztpraxen: Nicht der Patient wird wahrgenommen, sondern zuerst und entscheidend alle über ihn eingespeicherten Informationen, die digital „abrufbar“ bereit stehen, wie früher die papiernen Zettel im Patientenakt.

Jetzt werden sie vom Bildschirm der unersetzlichen Diagnostik-Computer, in die sie „hineindiktiert“ wurden, abgelesen und als mündlicher Rapport an den staunenden Patienten weitergegeben.  Der Arzt als Dolmetscher seiner (fast) allwissenden Beratermaschine hat Mühe, sich nochmals als Arzt, als Urenkel des Hippokrates wiederzuerkennen.

Die Justiz als Verwandte der Hippokrates-Macht erwartet ein ähnliches Schicksal:

Automatisiere Rechtsfindung bei umstrittenen Rechtsentscheidungen und automatisierte Findung neuer Rechte in bislang noch unbekannten oder noch nicht rechtlich bearbeiteten Rechtsfällen müssen zwangsläufig zu einem Vertrauensverlust der Bürger in ihren „Rechtstaat“ führen, wie im aktuellen  Clash of Zivilisations alle Tage zu beobachten ist. Der Informationsvorsprung und der Virtuositätsvorsprung der „Assistenzsysteme“  schwächt den eidpflichtigen Justizexperten  in allen Etagen seiner Behörden. Ohne die abgefragten Ratschläge  seiner (KI-geschulten) Assistenten läßt er sich nicht mehr auf persönliche Beratungen mit seinen Klienten ein. Der digitale Prothesen-Beamte der Zukunft begrüßt uns „freundlich wie immer“, hat es aber nunmehr noch „dicker hinter den Ohren.“

Ist nun die Gefahr von Humes Staat als Leviathan für immer gebannt, oder – im Gegenteil- für immer unser neuer (Mafia-)“Staat im Staat“?  Hegels Traum von  gelebter Sittlichkeit in einem Staat, den eine organische Einheit von Institutionen auszeichnet, scheint am Horizont der Geschichte zu verschwinden:  Denn Maschinen-Staaten müssen mit Maschinen-Bürgern konvergieren, und „Freiheit“ wird ein unverständliches Fremdwort einer fremden Sprache.]

Würde etwa die Rechtspflege automatisiert werden, ein Angeklagter sein Urteil von einer Maschine, also von einer Sache empfangen, so würde dies das Recht der Person, als Nicht-Sache, als Präsenz von Freiheit anerkannt zu werden, verletzen. (Eine Schilderung solcher Erfahrung gibt Franz Kafkas „Der Prozeß“. Der Angeklagte stirbt nicht wie eine Person, sondern „wie ein Hund“.) Die Grenze der Assistenzsysteme besteht darin, dass kein Algorithmus Abwägungen ersetzen kann, die aus dem Wissen und Wollen eines Gemeinwohls, dem Guten und Gerechten für die politische Gemeinschaft entspringen. Ein richterliches Urteil z.B. ist schon deshalb nicht eine automatisierbare Subsumtion eines „Falles“ unter eine Regel, weil es eine Forderung der Gerechtigkeit ist, die jeweilige Situation im Sinne der Billigkeit zu berücksichtigen.

[Wenn aber dem Algorithmus  der digitalen Denkmaschine  der Unterschied von (freiem)Mensch und (unfreier)Sache prinzipiell gleichgültig  sein muß, wie wir ja auch bereits das Kleine Einmal Eins auf beide mit gleicher (mathematischer) Berechtigung anwenden, was dann? Bedroht uns daher  das historische Novum eines mathematischen Leviathans? Dessen (politische !) Macht könnte mächtiger werden als die Macht aller Fürsten und Tyrannen  der bisherigen Menschheitsgeschichte.

Schon heute haben ältere Menschen den Eindruck, von den digitalen Anfragen der Behörden nur noch als weltfremder Barbar und insofern sogar schlechter als ein Hund behandelt zu werden.  Seinen vierbeinigen  Menschenfreund läßt niemand verhungern, weil ihn die Rechte des modernen Tierschutzes schützen. Den vor seinem Computer informell verhungerten Pensionisten, der den digitalen  Zugang zu seiner Pensionsbehörde verwurschtelt hat, können nur noch freundliche Administratoren vor seinem finanziellen Untergang  retten.

Ist aber jeder Rechtsfall ein „situativer“ (vernunftlogisch: ein individueller), und tendiert die Logik des Rechts  schon bisher dazu, nur das als rechtlich relevant anzuerkennen, was ein Fall des positiven Rechtes ist, mag dieses noch so unmenschlich und existenzvernichtend sein, (wie Balzacs „Vetter Pons“ schildert). –  Dann könnte sich diese abstrakte Normativität, wie im Fall Kafkas vorhergesehen, tragisch auch für die Demokratie der säkularen Vernunft entfalten.  (Sie könnte agieren wie ein Geiselnehmer, dem niemand und nichts Einhalt gebieten kann.)  

In der Vernunftwelt gibt es keine zwei Situationen, die einander völlig (vollkommen) gleichen, in der algorithmisch programmierten Welt gilt das Gegenteil. Folglich ist die Versuchung groß, jene an diese immer „vollkommener“ anzugleichen.]

Hier lauert also eine Falle: Gerade indem sich die Staatsverwaltung durch den Gebrauch der KI perfektionieren will, kann dies existenzbedrohend werden. Denn der Staat hat seine Existenz im Bewusstsein seiner Bürger, die ihn als Ort ihrer Freiheit anerkennen. Lebt der Bürger im Bewusstsein, von einer Technokratie reguliert zu werden, kann er den Staat nur als äußere Gewalt ansehen, in der er sich nicht mehr findet. Nur wer sich diese grundsätzliche Problematik vor Augen hält, kann der Gefahr entgehen, dass sich das Mittel, wie beim Goethe‘schen „Zauberlehrling“, gegen den Zweck verselbständigt.

[Der Zwecke-Konflikt ist unvermeidlich, und wird er unlösbar, kann der  mathematisch wissenschaftliche Zweck „einwandfrei“ obsiegen.   Wann wird er unlösbar? Wenn eine Mathematiker-Oligarchie (als politisch mächtige Partei oder als Beraterpartei einer anderen führenden Partei), Mitentscheidungskraft gewinnt. Mao Zedongs Millionenheeren straff kollektivierter Proletarier  fehlte noch die allerletzte Vervollkommnung digitaler Lemminge.

Militärische Aspekte

Der Nutzen der Assistenzsysteme für das Militär liegt darin, durch schnelle Verarbeitung großer Datenmengen aus unterschiedlichen Quellen möglichst umfassend relevante Faktoren ins Kalkül ziehen zu können. Damit soll eine belastbare Grundlage für die laufend nötigen Entscheidungen im Feldgeneriert werden, was in der komplexen Wechselwirkungsdynamik mit dem Feind den eigenen Vorteil sichern soll. Dabei geht es um den Faktor Zeit, die Präzision und Anpassungsfähigkeit der Streitkräfte auf allen Ebenen.

[Der neue Feldherrnhügel wird digital sein, und die Bomben und Granaten „werfenden“ Drohnen stehen mit den Kamera-Drohnen, die das  Geschehen „von oben“ beobachten und begleiten,  auf gleicher taktischer Ebene, obwohl die „Neutralisierung“ des Feindes nach wie vor des Krieges Zweck und Ziel bleibt. Noch vor Kurzem beklagten deutsche Gründlichkeit-Moralisten die „Unmenschlichkeit“ dieser neuen Kriege. Sie träumten noch von einem „Städtekampf in Bagdad“ zwischen den unfriedsamen Yankees der Ersten und den friedliebenden Jihadisten der Zweiten, der islamischen Welt.  

Doch Vater Mars interessiert nicht mehr, was die Alteuropäer zusammenträumen,  er erneuert sein Bodenpersonal auf der Erde. Und schon längst benutzt er auch den bisher  unberührt gebliebenen „Weltraum“ (ein merkwürdig veraltetes Wort) mittels „Kontinentalraketen. Kriege zwischen Planeten und zwischen Monden  werden möglich, noch bevor sie als bewohnte Kolonien der künftigen Menscheit  in Dienst genommen werden. Und daß dieser Dienst nicht ohne vielfältig „anwendbare“ Drohnen vollziehbar sein wird, können auch Nichtpropheten prophezeien  

Anders wird ab nun entschieden, anders wird nun gekämpft, und wer die neue Ensemble-Kunst der künftigen Kriege auch nächster Nähe studieren möchte, könnte sich in der Ukraine oder noch genauer an der Mehrfronten-Front Israels informieren. Die Hydra der Jihadisten von Teheran bis Gaza und Libanon opfert sich „freiwillig.“  Scheinbar wird Anfangen und Enden des Kriegs so vorhersehbar wie die mathematisch dirigierten Experimente in den Labors der Naturwissenschaften. Das Gegenteil wird Realität, wie die kurze Aufzählung der alten und neuen „Faktoren“ belegt. Vater Mars rüstet um und auf zugleich.  

Analysetools sollen das Geflecht des Geschehens modellieren und überblickbar machen, bis hin zur Antizipation künftiger Szenarien. Darüber hinaus verspricht man sich, die Abhängigkeit von „menschlichen Faktoren“ in der Einschätzung der Lage, die nachteiligen Folgen zeitigen, reduzieren zu können, bis hin zur Abhängigkeit vom Genie des „Feldherren“, von dem Clausewitz sprach. Doch nachdem auch „systemische Konkurrenten“ Assistenzsysteme einsetzen, entsteht eine Dynamik der Automatisierung in der militärischen Rüstung, in der es – gleich dem KI-gestützten Trading im Aktienhandel – auch um einen Wettlauf um den Faktor Zeit geht. Aus der Angst vor dem gegnerischen Vorteil entsteht ein Drang zur Integration von KI in Militärtechnologie. Die Argumente für die Nützlichkeit der Militärrobotik für die Aufklärung und Präzisionsangriffe liegen auf der Hand. Die Risikominimierung für die eigenen Soldaten sowie die Reduktion von Kollateralschäden durch maschinelle Präzision werden auch als ethisch relevante Argumente für deren Einsatz ins Treffen geführt. [Die Einheit von Modell und Überblickbarkeit (auf einen Blick) ist Programm eines die Welt beherrschenden Denkens im Sinne des Entdeckers Bacon. Jedes Modell lädt zu weiteren Modellierungen ein, aber erst im digitalen Zeitalter und dessen Einheit mit dem algorithmische Denken erfüllt sich Bacons Traum.  Nun also auch für die Nachfolger des Feldherren Clausewitz. Ob und welche Versprechungen des Modells wirklich erfüllbar sind, ist prinzipiell nicht vorhersagbar, weil wohl auch künftig die Binsenweisheit gelten wird: „Jeder Krieg ist anders.“

Andererseits aber doch auch ein Krieg und nichts anderes als einer und dieser eine.  Und wie immer lautet die Losung der Vernunft unhintergehbar: Die Verwüstungen werden andere sein, aber der Verwüster – die Menschheit- bleibt ihrem Dämon treu. Nochmals für tausend Jahre? Welcher Prophet würde dafür seine Hand ins Fegefeuer der künftigen Geschichte legen?  

Nicht unwichtig ist auch der Faktor der Erzählbarkeit der neuen Kriege. Und mit dieser das alte Schreibhandwerk der Historiker. Das gemütliche Nacherzählen á la Ranke und Droysen dürfte vorbei sein. Möglich daß auch die digitale Historie der Zukunft den Weg der (optischen) Modellierung nicht verschmähen wird.  Beispiele dafür, selbstverständlich in einer kreativen Symbiose mit der  führenden neuen Kunst des universalen Films, finden bereits Eingang in die Märkte des Internets. (Kaum eine Schlacht der Geschichte, die nicht bereits „neu erzählt“ wurde.)

Die neue Schnelligkeit der neuen Kriege würde ihren Gipfel erreicht haben, wenn der Gegner neutralisiert wurde, ohne dies bemerkt zu haben, was aber unmöglich ist, solange seine Menschenexistenz mehr als der wiederholbares Programm  ist.  Ob man in weiterer Zukunft die Kriege des Krieges an digitale Söldner, Söldnerwaffen  und „Clausewitze“  auslagern könnte, ist eine Frage, die zuviele unbekannte Zukunftsfaktoren voraussetzt. Vor allem wissen wir nicht, ob und welchen neuen Moralitäts-Level  die Menschheit künftig erklimmen könnte.

Die Probleme liegen auf der Hand: Die technische Ebene betrifft v.a. die Fehleranfälligkeit in der Unterscheidung von Freund und Feind durch Algorithmen sowie eine wachsende empfindliche Abhängigkeit der Funktionalität des Militärs von der Funktionalität von Systemen, den Herstellern und erforderlichen Ressourcen. Grundsätzlicher sind folgende Punkte: In der Logik von Assistenzsystemen liegt es, dass sie durch den Modus ihrer Aufbereitung des Datenmaterials implizit Entscheidungen nach Nützlichkeitsgesichtspunkten nahelegen. Je höher die Potenz der Systeme, je abhängiger der Mensch wird, desto höher erscheint der Grad der Verbindlichkeit dieser Handlungsempfehlungen. Die Automatisierung umfasst dann indirekt auch die Entscheidungen selbst.

[Diese Weltpremiere einer neuen Kriegsführung hätte auch Clausewitz baffiert und in völlig neue strategische, taktische und auch moralische („ethische“) Gedankengänge entführt. Ein Stab von Entscheidern (beispielsweise die Armeeführung in Israel, die nur noch  dem politischen Echelon untersteht) hat ihrerseits einen Stab von KI-versierten Beratern zur Seite. Wobei diese Berater  das letzte noch menschliche Glied in der neuen Befehlskette sind. In einem allerletzten Schritt könnten auch noch diese Berater das Beraten an KI-generierte Programme delegieren. Vor einem Angriff gegen die Bastionen  oder gegen die  Untergrund-Tunnels des Feindes, brauchte der General daher nur noch seinen „Laptop“ zu befragen, um die Entscheidung des Programms zu seiner eigenen zu erheben.

Schlägt aber der Angriff fehl oder erweist sich sonstwie als mangelhaft, wird das Programm und sein Programmierer schuldig gesprochen und (nicht mehr?) angeklagt. Nicht eine Armee von Menschen, sondern eine digitale Firma und deren Programme haben versagt. Aber auch bei Firmen (sie sind „Rechtspersonen“) muß eine Menschengruppe namens Firmenleitung die Haftung und Verantwortung übernehmen.

Daher bleibt es zunächst noch undenkbar,  daß ein durch KI-Befehl verursachter Atombombenabwurf als Naturereignis oder „höheres Schicksal“ hingenommen wird. Widrigenfalls wäre zu den in der bisherigen Menschheitsgeschichte verheerenden Naturkatastrophen ein unberechenbarer „Pool“ an KI-Katastrophen hinzugekommen. Gleichsam eine zweite (digitale) Kontinentalverschiebung, die neue Erdbebenketten um die Menschheit legen würde.  Es wären nicht mehr nur „Erdbeben“,  es wären digitale und zugleich reale „Menschheitsbeben“:  Seuchen, totale Verarmungen,  Ausfall der lebensermöglichenden Versorgungssysteme der modernen Zivilisation, mit einem Wort:   Rückkehr in die Steinzeit durch ein globales „Reset“. Wo sieht man sich weder? Auf dem „Planet der Affen.“   

Die wachsende Automatisierung der Kriegsführung generiert eine beschleunigende und enthemmend-dehumanisierende Dynamik. Alle hemmenden Faktoren im Kriegsgeschehen, auf die Clausewitz hinwies, hängen an einer hinterfragenden Reflexion des tödlichen Wechselwirkungsgeschehens. Solche Hemmung entfällt beim Automaten. Dies unterstreicht die Dringlichkeit der Aufgabe für die Völkergemeinschaft, sich zu einer rechtlichen Hegung des militärischen Einsatzes der KI im Sinne des Humanitären Völkerrechts durchzuringen.

[Damit wird auch die Kategorie des „gerechten Krieges“, der durch das aktuelle Völkerrecht ermöglicht und „eingehegt“ wird,  auf den „Prüfstand“ neuer (enthemmter) Faktoren gestellt. Kollidieren zwei entgegengesetzte Auffassungen von „Gerechtigkeit“ und „gerechtem Krieg“, was schon bisher eine Crux und ein Gordischer Dauerknoten der Menschheitsgeschichte war, könnte das Problem nochmals „gordischer“, nochmals verhängnisvoller und nochmals schicksalhafter werden. Wie auch die technologisch assistierten Aktual-Kriege in der Ukraine und der Mehrfrontenkrieg Israels mit seinen islamischen Todfeinden bestätigen.

Bisher ließen sich „enthemmte Leidenschaften“ verfeindeter Völker, Staaten und Ideologien auf dem „Feld der Ehre“ abkühlen und abklären. Sieg und Niederlage wurden in der Vormoderne sogar als Gottesurteil hingenommen, bis auch dieses „metaphyische Gerechtigkeitsprinzip“ durch den Dreißigjährigen Krieg zuschanden wurde. Seit dem Ersten Weltkrieg  ist die Kategorie (Gottesurteil) verschollen, und wenn für immer, wofür vieles spricht, ist auch für künftige, digital und K.I.- geführte Weltkriege ein neues Gerechtigkeitsprinzip unausweichlich. Welche Religion oder Wissenschaft oder welche Vernunft(politik) der Menschheit erklärt sich für zuständig?

Leo Dorner, November 2025