KI-Anwendungen in den Streitkräften

Die­ser Bei­trag baut auf dem Arti­kel „Künst­li­che Intel­li­genz (KI) und KI-Anwen­dun­gen – was ist das?“ auf und nimmt des­sen grund­le­gen­de Defi­ni­tio­nen sowie Ein­ord­nun­gen als Aus­gangs­punkt. Hin­weis zur Ent­ste­hung: Die­ser Arti­kel wur­de mit Hil­fe von ChatGPT‑5 ver­fasst.

Oberst­leut­nant i.G. Maxi­mi­li­an Har­hau­sen

Zwei Per­spek­ti­ven auf KI in der Bun­des­wehr

Künst­li­che Intel­li­genz (KI) ist nicht „eine“ Tech­no­lo­gie, son­dern ein Bün­del von Ver­fah­ren und Anwen­dun­gen, die Mus­ter erken­nen, Pro­gno­sen lie­fern oder auto­ma­ti­sier­te Assis­tenz­funk­tio­nen bereit­stel­len. Im Kon­text der Streit­kräf­te sind zwei Ein­satz­be­rei­che klar zu unter­schei­den: Ers­tens admi­nis­tra­ti­ve und betrieb­lich-orga­ni­sa­to­ri­sche Anwen­dun­gen im Grund- oder Frie­dens­be­trieb (Büro, Logis­tik, Per­so­nal­we­sen, Aus­bil­dung), die bereits heu­te in vie­len Orga­ni­sa­tio­nen ein­ge­setzt wer­den; zwei­tens tak­ti­sche und ope­ra­tio­nel­le Gefechts­feld-Ser­vices, bei denen KI-Funk­tio­nen die Wahr­neh­mung, Ana­ly­se, Ent­schei­dungs- und Wirk­ket­ten unter­stüt­zen — mit aller gebo­te­nen Vor­sicht hin­sicht­lich Sicherheits‑, recht­li­cher und ethi­scher Gren­zen.

 
KI-Per­spek­ti­ven in der Bun­des­wehr, Gra­pik: Gene­riert mit ChatGPT

Ver­wal­tungs- und Büro­an­wen­dun­gen

In den Büro-Berei­chen der Bun­des­wehr wer­den KI-gestütz­te Werk­zeu­ge ab 2026 zum inte­gra­len Bestand­teil des Arbeits­all­tags. In der (daten­schutz- und infor­ma­ti­ons­si­cher­heits­kon­for­men) Beschaf­fung befin­den sich dazu der­zeit: Gene­ra­ti­ve KI (GenAI) für Text- und Doku­men­ten­ar­beit zur Unter­stüt­zung beim For­mu­lie­ren von Berich­ten, Pro­to­kol­len, Stan­dard-E-Mails, Zusam­men­fas­sun­gen lan­ger Doku­men­te oder beim Erstel­len von Vor­la­gen. Sol­che Sys­te­me spa­ren Zeit und erhö­hen die Kon­sis­tenz von Arbeits­pro­duk­ten, sofern die Aus­ga­be durch Men­schen geprüft und unver­än­dert ver­ant­wor­tet wird. Beim Infor­ma­ti­ons- und Wis­sens­ma­nage­ment soll zukünf­tig die seman­ti­sche Suche, auto­ma­ti­sche Ver­schlag­wor­tung, Extrak­ti­on rele­van­ter Infor­ma­tio­nen aus gro­ßen Doku­men­ten-Kor­po­ra (Stich­wort: Rege­lungs­land­schaft) mit KI-Sys­te­men unter­stützt wer­den, was die Auf­find­bar­keit von Vor­schrif­ten, Richt­li­ni­en, Wei­sun­gen und Tech­nik­do­ku­men­ta­ti­on deut­lich ver­bes­sern wird. Eben­falls in Unter­su­chung sind Aspek­te der Aus- und Wei­ter­bil­dung wie adap­ti­ve Lern­platt­for­men, die Lern­stän­de ana­ly­sie­ren und indi­vi­du­el­le Übungs­plä­ne vor­schla­gen oder Simu­la­tio­nen, die Rou­ti­ne-Trai­nings effi­zi­en­ter machen.

Die­se Anwen­dun­gen sind in der Regel nicht in dem Maße sicher­heits­kri­tisch wie es Waf­fen­sys­te­men sind, sie unter­lie­gen aber Datenschutz‑, Geheim­schutz- und Betriebs-IT-Vor­ga­ben, was ihre Beschaf­fung und Inte­gra­ti­on alles ande­re als tri­vi­al macht. Sol­che Diens­te müs­sen zen­tral gesteu­ert, gehär­tet und Ver­ant­wort­li­chen klar zuge­ord­net wer­den (Daten­schutz­be­auf­trag­te, Betriebs­ver­ant­wort­li­che, Infor­ma­ti­ons­si­cher­heits­ver­ant­wort­li­che).

Kla­re Bedin­gung für den Ein­satz im admi­nis­tra­ti­ven Bereich ist dabei beson­ders die Daten­ho­heit: Sen­si­ble und gehei­me Daten dür­fen nicht unge­prüft in öffent­li­che Cloud-GenAI-Diens­te (wie bspw. ChatGPT) gelan­gen. Auch müs­sen gene­rier­te Inhal­te, dort wo dies im Rah­men der Hoch­au­to­ma­ti­sie­rung ver­tret­bar ist, durch Men­schen vali­diert wer­den — unbe­auf­sich­tig­te Frei­ga­ben sind mit den damit ver­bun­de­nen Risi­ken nur in Anle­gung eines stren­gen Maß­sta­bes zu ver­tre­ten. Trans­pa­renz und Nach­voll­zieh­bar­keit sind letzt­lich die Basis, um Ver­trau­en in das admi­nis­tra­ti­ve Sys­tem nicht zu unter­gra­ben. Defi­nier­te Ein­satz­pro­fi­le, Ver­sio­nie­rung und Audi­ting der KI-Model­le sind Maß­nah­men, die neben der Schu­lung der Nut­ze­rin­nen und Nut­zer obers­te Prio­ri­tät haben. 

Im Rah­men eines umfas­sen­den Chan­ge-Manage­ments muß dabei nicht nur ein Groß­teil der Pro­zes­se neu gedacht wer­den, auch müs­sen Gren­zen, Risi­ken und die Hand­ha­bung der KI-Sys­te­me in der Bun­des­wehr fes­ter Bestand­teil der Befä­hi­gung für die Arbeit im Stabs­dienst wer­den – die­se Her­aus­for­de­run­gen wer­den aktu­ell mit Hoch­druck ange­gan­gen.

Gefechts­feld-Ser­vices — Anwen­dungs­fel­der und ope­ra­ti­ve Ein­ord­nung

Der Kern des Arti­kels wid­met sich nun den Gefechts­feld-Anwen­dun­gen, wobei aus Sicher­heits­grün­den tech­ni­sche und kon­kre­te Details bewusst aus­ge­klam­mert blei­ben müs­sen. Statt­des­sen sol­len Funk­tio­nen, Inte­gra­ti­ons­punk­te und betrieb­li­che Impli­ka­tio­nen auf einem kon­zep­tio­nel­len Niveau dar­ge­stellt wer­den.

Wahr­neh­mung und Erken­nung („Find / Fix“) 

KI-Metho­den ver­bes­sern die Fähig­keit, rele­van­te Signa­le aus hete­ro­ge­nen Sen­so­ren zu extra­hie­ren. In der Bil­der­ken­nung und Video­ana­ly­se hel­fen auto­ma­ti­sche Detek­ti­on, Klas­si­fi­zie­rung und Prio­ri­sie­rung von Objek­ten in Luft‑, Boden- sowie See­auf­nah­men und die auto­ma­ti­sche Mar­kie­rung ver­däch­ti­ger Bewe­gun­gen führt zur schnel­le­ren mensch­li­chen Wahr­neh­mung. Sen­sor­fu­si­on beschreibt die Zusam­men­füh­rung von opti­schen, Radar‑, akus­ti­schen und SIG­INT-Daten zu einem kohä­ren­ten Lage­bild. KI kann dabei Inkon­sis­ten­zen erken­nen, Anoma­lien mar­kie­ren und Kon­text-Vor­schlä­ge erzeu­gen. Die stän­di­ge Lage­ak­tua­li­sie­rung run­det den Schritt ab: Model­le, die Mus­ter in Bewe­gun­gen oder Signa­len iden­ti­fi­zie­ren und so Hin­wei­se auf sich ver­än­dern­de Bedro­hun­gen geben, unter­stüt­zen „Ope­ra­teu­re“ in hohem Maße bei der Bewer­tung der Lage.

Ziel-Prio­ri­sie­rung und Ent­schei­dungs­un­ter­stüt­zung („Track / Tar­get / Enga­ge“) 

In der Ziel-Ver­fol­gung, Prio­ri­sie­rung und Ent­schei­dungs­un­ter­stüt­zung („Track / Tar­get / Enga­ge“) ist fest­zu­hal­ten, daß KI in der Bun­des­wehr kei­ne eigen­stän­di­gen „Schieß­be­feh­le“ lie­fern soll, son­dern als Hilfs­mit­tel für den Men­schen dient. Sie kann Prio­ri­sie­rungs­vor­schlä­ge lie­fern, indem sie etwa anzeigt, wel­che Zie­le wei­ter­ver­folgt oder an ande­re Kräf­te zur Bekämp­fung wei­ter­ge­ge­ben wer­den soll­ten. Eben­so kann sie bei der Risi­ko- und Kol­la­te­ral­scha­den­ab­schät­zung hel­fen, indem sie Ent­schei­dungs­op­tio­nen mit wahr­schein­li­chen Kon­se­quen­zen abgleicht. Die juris­ti­sche und ethi­sche Ver­ant­wor­tung ver­bleibt dabei jedoch stets beim Men­schen. Schließ­lich kann KI auch die Prü­fung von Alter­na­ti­ven in Feu­er­leit­pro­zes­sen beschleu­ni­gen, etwa indem sie Optio­nen auf­zeigt, wel­che Effek­to­ren am sinn­volls­ten her­an­ge­zo­gen wer­den soll­ten, ohne dabei selbst aktiv in den Pro­zess ein­zu­grei­fen.

Wir­kungs­er­fas­sung („Assess“)

In der Wir­kungs­er­fas­sung („Assess“) geht es vor allem um die „Post-Engagement“-Analyse. Hier­bei unter­stüt­zen KI-Sys­te­me die auto­ma­ti­sche Aus­wer­tung von Effek­ten nach einem Ein­satz, bei­spiels­wei­se ob ein Ziel tat­säch­lich neu­tra­li­siert wur­de, basie­rend auf Bild- und Sen­sor­da­ten. Durch Rück­mel­dun­gen ent­ste­hen zudem Lern­schlei­fen, mit denen sich Erken­nungs- und Vor­her­sa­ge­mo­del­le kon­ti­nu­ier­lich ver­bes­sern las­sen – immer unter der Bedin­gung, daß der Mensch die fina­le Kon­trol­le behält.

„Edge-Com­pu­ting“ und klein­tei­li­ge Model­le 

Von beson­de­rer Bedeu­tung sind die Ent­wick­lun­gen im Bereich des „Edge-Com­pu­ting“: Hier­bei geht es dar­um, klei­ne, robus­te KI-Model­le direkt auf tak­ti­schen Platt­for­men wie Droh­nen, Sen­so­ren oder führ­ba­ren Beob­ach­ter­ge­rä­ten ein­zu­set­zen. Die­se Model­le kön­nen ers­te Klas­si­fi­ka­tio­nen vor­neh­men und ledig­lich Meta-Daten oder prio­ri­sier­te „Clips“ wei­ter­lei­ten. Auf die­se Wei­se lässt sich der Kom­mu­ni­ka­ti­ons­be­darf ver­rin­gern, und die Sys­te­me kön­nen auch dann noch ope­rie­ren, wenn die Netz­werk­ein­bin­dung gestört oder umkämpft ist.

Auto­no­mie­gra­de und „Mensch-in-der-Schlei­fe“ 

Bei allen Gefechts­feld-Anwen­dun­gen gilt der fun­da­men­ta­le Grund­satz, daß Men­schen die fina­len, legal-ethi­schen Ent­schei­dun­gen ver­ant­wor­ten. KI-Unter­stüt­zung darf sowie muß Ent­schei­dungs­pro­zes­se beschleu­ni­gen und auch auto­ma­tisch leta­le Aktio­nen ohne direk­te mensch­li­che Kon­trol­le aus­lö­sen – alles ande­re wäre in Zei­ten der Hoch­au­to­ma­ti­sie­rung unzweck­mä­ßig. Mit Blick auf den kon­kre­ten Aus­prä­gungs­grad von Auto­no­mie muß das Maß an ope­ra­ti­ver und stra­te­gi­scher Ver­ant­wor­tung beim Ein­satz die­ser Sys­te­me – sowohl recht­lich, als auch poli­tisch – nach kla­ren und ver­bind­li­chen Regeln defi­niert wer­den. Dies gilt in beson­de­rem Maße für Sys­te­me mit offen­siv-tak­ti­schem Bezug (z. B. „Loi­te­ring- Muni­ti­on“). Sol­che Sys­te­me wer­den in der öffent­li­chen Debat­te beson­ders kri­tisch betrach­tet. Aus nach­voll­zieh­ba­ren Grün­den kön­nen an die­ser Stel­le kei­ne ope­ra­ti­ven Prin­zi­pi­en dis­ku­tiert wer­den. Her­aus­zu­he­ben ist aber, daß bei Ein­satz, Prü­fung und Zulas­sung die­ser Sys­te­me, die Tech­nik stren­gen Regeln fol­gen muß (Völ­ker­recht, deut­sches Recht, Gewähr­leis­tung der Unter­schei­dungs- und Ver­hält­nis­mä­ßig­keits­prin­zi­pi­en). Auch Ver­ant­wor­tungs- und Haf­tungs­re­ge­lun­gen spie­len eine zen­tra­le Rol­le: Wer ent­schei­det, wer prüft vor, wäh­rend und nach einem Ein­satz — die­se Fra­gen sind zuvor­derst poli­tisch, dann mili­tä­risch und zuletzt tech­nisch zu klä­ren.

Risi­ken, Gren­zen und betrieb­li­che Anfor­de­run­gen 

Bei aller Eupho­rie über die Mög­lich­kei­ten eines Post-Huma­nen-Gefechts­fel­des ist die Tech­nik, mit Blick auf Robust­heit und Gene­ra­li­sier­bar­keit, immer noch mit gro­ßen Her­aus­for­de­run­gen behaf­tet. KI-Model­le sind oft emp­find­lich gegen­über ver­än­der­ten Umge­bun­gen oder geg­ne­ri­schen Täu­schun­gen (z.B. adver­sa­ria­le Mani­pu­la­tio­nen). Auch die Daten­qua­li­tät zum Trai­ning der Model­le spielt eine gro­ße Rol­le. Ver­al­te­te, ver­fälsch­te Daten oder unge­eig­ne­te Trai­nings­da­ten füh­ren zu Fehl­alarm­si­tua­tio­nen oder ver­pass­ten Erken­nun­gen. Auch Über­ver­trau­en könn­te zum Pro­blem wer­den: Auto­ma­ti­sier­te Vor­schlä­ge dür­fen nicht als unfehl­bar behan­delt wer­den. 

In orga­ni­sa­to­ri­scher und recht­li­cher Hin­sicht stel­len sich beson­de­re Anfor­de­run­gen: So müs­sen alle KI-Sys­te­me einer kon­se­quen­ten Zer­ti­fi­zie­rung und Prü­fung unter­zo­gen wer­den. Dies umfasst rea­lis­ti­sche Test­sze­na­ri­en, kla­re Prüfras­ter und eine unab­hän­gi­ge Eva­lu­ie­rung, um sowohl die Funk­ti­ons­fä­hig­keit, als auch die Sicher­heit der Sys­te­me zu gewähr­leis­ten. Eben­so zen­tral ist eine robus­te Betriebs-IT- und Sicher­heits­ar­chi­tek­tur: Model­le müs­sen abge­si­chert sein, Daten­pfa­de klar getrennt, Updates ver­schlüs­selt und Schnitt­stel­len ein­deu­tig defi­niert wer­den. Par­al­lel dazu kommt der Aus- und Wei­ter­bil­dung des Per­so­nals eine Schlüs­sel­rol­le zu. Nur wenn Nut­ze­rin­nen und Nut­zer in der Lage sind, „KI-Out­puts“ zu ver­ste­hen, kri­tisch ein­zu­ord­nen und gege­be­nen­falls zu hin­ter­fra­gen, lässt sich ein ver­ant­wor­tungs­vol­ler Betrieb sicher­stel­len. Auch im Bereich „Gover­nan­ce“ und Ethik sind kla­re Vor­ga­ben not­wen­dig. Ver­bind­li­che Regel­wer­ke müs­sen defi­nie­ren, für wel­che Ein­satz­zwe­cke KI-Sys­te­me zuge­las­sen sind, wo Inter­ven­ti­ons­schwel­len lie­gen und wel­che Ver­ant­wort­lich­kei­ten bestehen. Trans­pa­renz ist ein zen­tra­les Gebot: Soweit es tech­nisch mög­lich ist, müs­sen Sys­tem­gren­zen erklärt und Ent­schei­dun­gen nach­voll­zieh­bar gemacht wer­den. Ergän­zend ist die Abstim­mung mit inter­na­tio­na­len Part­nern unver­zicht­bar, damit ein gemein­sa­mer Rechts­rah­men ein­ge­hal­ten und kom­pa­ti­ble Stan­dards gewahrt wer­den kön­nen. Aus die­sen Anfor­de­run­gen erge­ben sich kon­kre­te Emp­feh­lun­gen für die Ein­füh­rung und Betreu­ung von KI-Diens­ten in den Streit­kräf­ten. Ein stu­fen­wei­ser „Roll­out“ bie­tet sich an, bei dem zunächst admi­nis­tra­ti­ve und risi­ko­är­me­re Anwen­dun­gen ein­ge­führt wer­den, wäh­rend par­al­lel Test­um­ge­bun­gen und Eva­lua­ti­ons­zen­tren für Gefechtsfeld-„Use-Cases“ auf­ge­baut wer­den. Kla­re Ver­ant­wort­lich­kei­ten sind dabei essen­zi­ell: Es muß ein­deu­tig gere­gelt sein, wer Model­le geneh­migt, wer sie betreibt und wer recht­lich die Ver­ant­wor­tung trägt. Eben­so wich­tig ist ein kon­se­quent mensch­zen­trier­tes Bedien­kon­zept. Die Benut­zer­ober­flä­chen müs­sen so gestal­tet sein, daß Quel­len für Vor­schlä­ge schnell erkenn­bar und ver­ständ­lich sind. Um die Zuver­läs­sig­keit sicher­zu­stel­len, bedarf es robus­ter Test- und Zer­ti­fi­zie­rungs­pro­zes­se, die simu­la­ti­ons­ge­stützt und durch stren­ge Feld­ver­su­che abge­si­chert sind. Schließ­lich ist die enge Koor­di­na­ti­on mit Bünd­nis­part­nern not­wen­dig, damit gemein­sa­me Stan­dards, Inter­ope­ra­bi­li­tät und abge­stimm­te Sicher­heits­an­for­de­run­gen von Anfang an gewähr­leis­tet sind.

Fazit 

KI ist ein Mul­ti­funk­ti­ons­werk­zeug, das im admi­nis­tra­ti­ven Bereich Effi­zi­enz­ge­win­ne und Ent­las­tung bie­tet, wäh­rend sie auf dem Gefechts­feld die Wahrnehmungs‑, Ana­ly­se­fä­hig­keit stei­gert, damit zur alt­be­kann­ten Füh­rungs- und so schließ­lich zur Wir­kungs­über­le­gen­heit füh­ren kann. Bei­de Nut­zungs­be­rei­che ver­lan­gen jedoch ein strin­gen­tes „Gover­nan­ce“- und Sicher­heits­re­gime. Nur so las­sen sich Chan­cen nut­zen und zugleich die Risi­ken – tech­nisch, recht­lich und ethisch – beherrsch­bar hal­ten. Heu­ti­ge Ent­schei­dungs­trä­ger müs­sen daher nicht nur in Tech­no­lo­gie inves­tie­ren, son­dern vor allem in Prüf‑, Aus­bil­dungs- und Rege­lungs­struk­tu­ren, die den Ein­satz von KI ver­ant­wort­bar machen.

Der Autor ist als Refe­rent für Cyber-Ope­ra­tio­nen sowie als Beauf­trag­ter für Künst­li­che Intel­li­genz im Stra­te­gie­re­fe­rat des Kom­man­dos Cyber- und Infor­ma­ti­ons­raum ein­ge­setzt.