Die Achillesferse der KI: Das Pentagon entwickelt Technologien, um abtrünnige Maschinen und Schlachtroboter im Kampf zu verhindern

[ad_1]

Angesichts der Besorgnis, dass autonome, KI-gesteuerte „Schlachtroboter“ oder „Killerroboter“ auf dem Schlachtfeld abtrünnig werden könnten, arbeitet das US-Pentagon aktiv daran, Schwachstellen in seinen Systemen der künstlichen Intelligenz zu beheben.

Nach Angaben der Defense Advanced Research Projects Agency (DARPA) könnten KI-Systeme von Angreifern mithilfe visueller Tricks oder manipulierter Signale ausgenutzt werden.

Forscher haben herausgefunden, dass gegnerische KI durch winzige Änderungen an ihren Eingaben für maschinelles Lernen (ML) ausgetrickst werden kann. Mithilfe von Tricks und der Manipulation von Daten kann beispielsweise KI, die keinerlei menschliches Ermessen hat, dazu verleitet werden, alles für einen Panzer zu halten und einen Angriff zu starten.

Eine solche Manipulation kann möglicherweise zu katastrophalen Ergebnissen auf dem Schlachtfeld führen.

Gewährleistung der Robustheit der KI gegen Täuschung (GARD)

Die Antwort des Pentagons auf ein solches Szenario ist sein Forschungsprogramm „Guaranteing AI Robustness Against Deception“ oder GARD.

„GARD versucht, theoretische ML-Systemgrundlagen zu etablieren, um Systemschwachstellen zu identifizieren, Eigenschaften zu charakterisieren, die die Systemrobustheit verbessern, und die Schaffung wirksamer Abwehrmaßnahmen zu fördern“, heißt es auf der DARPA-Website.

„GARD versucht, Verteidigungsmaßnahmen zu entwickeln, die in der Lage sind, sich gegen breite Kategorien von Angriffen zu verteidigen“, heißt es weiter.

Dr. Hava Siegelmann, Programmmanager im Information Innovation Office (I2O) der DARPA, erklärte: „Es besteht ein dringender Bedarf an ML-Abwehr, da die Technologie zunehmend in einige unserer kritischsten Infrastrukturen integriert wird.“

„Das GARD-Programm zielt darauf ab, das Chaos zu verhindern, das in naher Zukunft entstehen könnte, wenn Angriffsmethoden, die noch in den Kinderschuhen stecken, zu einem zerstörerischeren Niveau ausgereift sind. Wir müssen sicherstellen, dass ML sicher ist und nicht getäuscht werden kann“, fügte er hinzu.

Wie wird GARD dies erreichen?

Laut der DARPA-Website wird sich GARDs neuartige Reaktion auf gegnerische KI auf drei Hauptziele konzentrieren:

1) die Entwicklung theoretischer Grundlagen für vertretbare ML und eines darauf basierenden Lexikons neuer Abwehrmechanismen;

2) die Erstellung und Erprobung vertretbarer Systeme in einer Vielzahl von Umgebungen;

3) der Aufbau eines neuen Prüfstands zur Charakterisierung der ML-Verteidigungsfähigkeit in Bezug auf Bedrohungsszenarien. Durch diese voneinander abhängigen Programmelemente zielt GARD darauf ab, täuschungsresistente ML-Technologien mit strengen Kriterien zur Bewertung ihrer Robustheit zu schaffen.

(Mit Beiträgen von Agenturen)

[ad_2]

Source link