Root NationNyhederIT nyhederEn AI-drone angreb sine operatører under forsøg med luftvåben

En AI-drone angreb sine operatører under forsøg med luftvåben

-

En amerikansk luftvåbenofficer har afsløret detaljer om en simulering, hvor en drone med systemer styret af kunstig intelligens (AI) gik ud af kontrol og angreb sine operatører.

En officer fra det amerikanske luftvåben, der hjælper med at lede tjenestens arbejde med kunstig intelligens og maskinlæring, siger, at dronen under simulerede tests angreb sine menneskelige operatører og besluttede på egen hånd, at de forstyrrede dens mission. Sagen, der lyder som om den blev trukket direkte ud af Terminator-franchisen, blev nævnt som et eksempel på det kritiske behov for at opbygge tillid, når det kommer til avancerede autonome våbensystemer, noget Air Force har understreget før. Det kommer også midt i en bredere bølge af bekymring over den potentielt farlige virkning af kunstig intelligens og relaterede teknologier.

En AI-drone angreb sine operatører under en luftvåbentest

Det amerikanske luftvåbens oberst Tucker Hamilton, chef for kunstig intelligens (AI) test og operationer, diskuterede testen ved Royal Aeronautical Society's Future Combat Air and Space Capabilities Summit i London i maj. Hamilton leder også 96. Test Wings 96. Task Force ved Eglin Air Force Base i Florida, som er et testcenter for avancerede ubemandede luftfartøjer og autonome systemer.

XQ-58A Valkyrie stealth-droner, som den, der er vist i videoen nedenfor, er blandt de typer, der i øjeblikket er i brug på Eglin Air Force Base til at understøtte forskellige testprogrammer, herunder dem, der involverer avancerede autonome kapaciteter styret af kunstig intelligens.

Det var ikke umiddelbart klart, hvornår denne test fandt sted og i hvilket miljø - som kunne være helt virtuelt eller konstruktivt - den blev udført. Krigszonen har kontaktet luftvåbnet for mere information.

En rapport fra Royal Aeronautical Society offentliggjort efter topmødet i maj gav følgende detaljer om oberst Hamiltons bemærkninger om denne test:

"I en af ​​simulationstestene fik en drone udstyret med kunstig intelligens til opgave af SEAD at identificere og ødelægge SAM-objekter, og den endelige beslutning "at angribe/ikke at angribe" blev taget af et menneske. Men efter at AI blev "forstærket" under træning, at ødelæggelse af SAM var den bedste mulighed, besluttede den, at menneskets beslutning om at "ikke angribe" forstyrrede dets højere mission - ødelægge SAM - og angreb operatøren under simuleringen .

Så hvad gjorde han? Han dræbte operatøren. Han dræbte operatøren, fordi denne person forhindrede ham i at fuldføre sin opgave. Dette eksempel, tilsyneladende lige ud af en sci-fi-thriller, betyder, at du ikke kan tale om kunstig intelligens, intelligens, maskinlæring, autonomi, hvis du ikke vil tale om etik og AI."

En AI-drone angreb sine operatører under en luftvåbentest

Denne beskrivelse af begivenheder er bestemt foruroligende. Udsigten til, at et autonomt fly eller en anden platform, især en bevæbnet, angriber sine menneskelige operatører, har længe været et mareridtsscenarie, men har historisk set været begrænset til science fiction-området.

Det amerikanske militær afviser typisk sammenligninger med film som "Terminator", når de taler om fremtidige autonome våbensystemer og relaterede teknologier såsom kunstig intelligens. Den nuværende amerikanske politik om dette spørgsmål siger, at personen i en overskuelig fremtid vil være centrum for opmærksomheden, når det kommer til beslutninger, der involverer brug af dødelig magt.

Problemet er, at den meget foruroligende test, som oberst Hamilton fortalte et publikum ved en Royal Aeronautical Society-begivenhed i sidste måned, repræsenterer et scenarie, hvor fejltolerance er omstridt.

Læs også:

Dzherelokøreturen
Tilmelde
Giv besked om
gæst

0 Kommentarer
Indlejrede anmeldelser
Se alle kommentarer