Schutz, Präzision, Schnelligkeit – Künstliche Intelligenz als Werkzeug der Zukunft

Expertendiskussion im Umfeld der Münchner Sicherheitskonferenz MSC

Künstliche Intelligenz (KI) – eine der großen Innovationen unserer Zeit. KI ist mittlerweile ein nicht mehr wegzudenkendes Werkzeug, das für den Menschen rund um die Uhr Tätigkeiten ausführt. Auch die Bundeswehr nutzt es. Doch wo grenzt das immense Potential an nicht abschätzbare Gefahren? Darüber diskutierten im Vorfeld der Münchner Sicherheitskonferenz am Donnerstag Experten aus Wissenschaft, Wirtschaft und Bundeswehr mit etwa 120 Gästen in der Microsoft-Zentrale in München. Es war eine gemeinsame Veranstaltung des von Verteidigungsministerin Ursula von der Leyen im Juni 2018 ins Leben gerufenen Think Tanks „German Institute for Defence and Strategic Studies“ (GIDS) an der Führungsakademie der Bundeswehr in Hamburg und Microsoft Deutschland.

Zwischen Hollywood und Realität
„Die Bundeswehr braucht Künstliche Intelligenz“, sagte Generalleutnant Jörg Vollmer, Inspekteur des Heeres auf dem Panel „Künstliche Intelligenz im Kontext innerer und äußerer Sicherheit“. Admiral Manfred Nielson, Vizekommandeur des NATO-Kommandos ACT (Allied Command Transformation) unterstrich, KI könne viele Prozesse schneller strukturieren und analysieren und so die Entscheidungs- und Handlungsfähigkeit steigern. So könne Personal für andere Kernkompetenzen freigemacht werden. Mit den beiden Spitzenbeamten der Bundeswehr diskutierten Sian John, Chief Security Advisor Microsoft Corporation und Anja Kaspersen, Direktorin bei den Vereinten Nationen.

„Künstliche Intelligenz verändert unsere Gesellschaft grundlegend“, sagte Thorsten Herrmann, Mitglied der Geschäftsführung Microsoft Deutschland. „Wir müssen aber erst einmal differenzieren, denn die Technologien, die heute verfügbar sind, unterscheiden sich sehr stark von dem, was zum Beispiel in Hollywood Blockbustern gezeigt wird.“ Das Potential von schon heute vorhandener KI-Technologie sei allerdings schon jetzt als Ergänzung kognitiver Fähigkeiten des Menschen immens. Das ist auch für militärische Prozesse interessant, denn sie können Reaktionszeit steigern und Schutz bieten.

Sicherheit ist auch ein Thema bei Microsoft als ein weltweit vernetztes Unternehmen – insbesondere in Bezug auf Cyberangriffe. Dies ist auch ein virulentes Thema für die Bundeswehr. Und auch hier kann Künstliche Intelligenz helfen, so Sian John. Die Angriffe auf Systeme im Cyberraum würden größer, besser und schneller. „Es gibt mehr Technologie, die Welt vernetzt sich mehr, damit wird die Angriffsfläche größer“, sagte die KI-Expertin. Microsoft nutze Künstliche Intelligenz aber nicht nur zur Sicherung von Systemen. „Das Ziel ist es, dass die Technologie die Basisarbeit macht, auf deren Grundlage die Menschen Entscheidungen treffen“, erklärte John. Durch Algorithmen sei Künstliche Intelligenz mittlerweile so weit, dass Maschinen eigenständig lernen, Daten zu verarbeiten. Die dann gefilterten Daten, helfen dem Menschen, schneller entscheiden zu können. Künstliche Intelligenz sei ein wichtiges Werkzeug, sich vor Bedrohungen zu schützen – hierbei sei Schnelligkeit ein wesentlicher Faktor und den können Künstliche Intelligenz verbessern.

Klarheit der Begriffe

Der Inspekteur des Heeres erklärte, dass die Digitalisierung der Streitkräfte in vollem Gange sei. In Munster habe man bereits mit der Aufstellung von Test- und Versuchskräften begonnen, die erste Erfahrungen in der Digitalisierung von landbasierten Operationen sammelten. Künstliche Intelligenz sei ein Bestandteil davon. „Insgesamt integrieren wir aber neue Entwicklungen zu langsam in das System“, erklärte er. Da pflichtete ihm Vizeadmiral Nielson bei: „Der Zug ist abgefahren“, stellte er nüchtern fest und forderte: „Wir sollten den Anschluss nicht verpassen. Wir brauchen einen übergreifenden Ansatz bei Künstlicher Intelligenz.“ Anja Kaspersen differenzierte, das KI eine Eigenschaft sei, kein System. Man müsse mehr Klarheit in die Diskussion bringen und die Begriffe schärfen. Erst dann könne man zielführend über Chancen und Risiken sprechen.

Das betrifft auch die Unterscheidung von automatisierten und autonomen, beziehungsweise halbautonomen Waffensystemen. „Wir verwenden bereits halbautonome Waffensysteme“, erklärte Vollmer. Beispielsweise nutze der Schützenpanzer ein halbautonomes System zur Abwehr von Raketen. Der Mensch sei nicht mehr involviert. Allerdings sei es der Mensch, der entscheidet, wann ein solches System zu welchem Zweck genutzt wird. Admiral Nielson gab zu bedenken, dass man nicht nur die Auswirkungen von Künstlicher Intelligenz beachten müsse, „wir müssen darüber nachdenken, wie wir Menschen ausbilden, damit sie in Zukunft mit der Technologie umgehen können.“ Auch über den Aspekt eines Regelwerkes, wie mit Künstlicher Intelligenz umzugehen sei, wurde diskutiert. Das war gerade Direktorin Kaspersen wichtig, denn hier sei man darum bemüht, Leitlinien zum Umgang mit KI zu entwickeln – multilateral. Doch Regelwerk hin oder her. „Wir wollen unsere Soldatinnen und Soldaten in den Einsätzen bestmöglich schützen. Wenn KI das kann, dann ist das gut“, sagte Admiral Nielson. „Künstliche Intelligenz sollte unser Diener sein“, sagte John. Vollmer pflichtete bei, „aber ich möchte, dass ein Mensch das noch kontrolliert.“

Die Ethik mitgedacht

Im zweiten Panel „Ethische und rechtliche Aspekte der Anwendung Künstlicher Intelligenz im Umfeld öffentlicher Sicherheit“ debattierten Marcel Otto Yon, CEO Bundeswehr Cyber Innovation Hub, Konstantin von Hammerstein, Der Spiegel, Oberstaatsanwalt Markus Hartmann, Zentral- und Ansprechstelle Cybercrime im Bundesland Nordrhein-Westfalen, und Prof. Dr. Merith Niehuss, Präsidentin der Bundeswehr Universität München. Hier ging es beispielsweise um die Frage, ob die Gesetzgebung der schnellen Entwicklung von Cyberangriffen und damit auch KI folgen könne. Hier gab Yon zu bedenken, dass ein Einschreiten durch den Gesetzgeber wohl überlegt sein müsse. „Im Falle der Biometrie hatte sich der Gesetzgeber eingeschaltet und damit einen ganzen Industriezweig ins Ausland befördert“ Aber ungeachtet dessen erklärte Oberstaatsanwalt Hartmann: „der Gesetzgeber wird sich der ethischen Verantwortung rund um Künstliche Intelligenz stellen müssen“.

In Wissenschaft und Industrie werde Ethik selbstverständlich immer mitgedacht, sagte Niehuss. Aber man müsse gut abwägen, wo die Gefahren den Nutzen übersteigen, um dann mit einem Regelwerk oder Gesetzen einzugreifen. „Die ganz große Vision einer der Biologie nachempfundenen Intelligenz wird noch sehr lange dauern“, sagte Yon und plädierte dafür, die Debatte auf das zu fokussieren, was derzeit existiere: KI als Werkzeug, Prozesse des Alltags zu optimieren, damit der Mensch schneller und besser entscheiden könne – beispielsweise bei der Krisenfrüherkennung. Den Menschen zu ersetzen, soweit sei man noch nicht. „Am Ende macht ein Mensch den Plausibilitätscheck“, so Niehuss. Schließlich blieb die Erkenntnis: „KI ist eine Naturgewalt. Der Zug wird nicht aufzuhalten sein“, sagte von Hammerstein. Doch Vieles ist eine gute Ergänzung, so dass sich der Mensch auf Kernkompetenzen konzentrieren kann – das war Konsens. Generalmajor Oliver Kohl, Kommandeur der Führungsakademie in Hamburg und damit Mitveranstalter, schloss die Veranstaltung mit den Worten: „Bei all diesen Veränderungen, die auf uns zurollen, stellen sich für uns an der Führungsakademie der Bundeswehr zwei Fragen: Wie werden wir künftig führen? Und wie wollen wir dafür ausbilden?“ – Anregungen zur Beantwortung dieser Fragen bot der Nachmittag allemal.