top of page

PROBLEMER

ETIK

Autonome våben overlader beslutninger om liv og død i mennesker til maskiner, hvilket er moralsk forkasteligt. Det er dehumaniserende at reducere menneskeliv til digitale data, og automatiseret drab er en grænse vi aldrig bør overskride.

1

4

ESKALERING

Algoritmer kan tage beslutninger langt hurtigere end mennesker. Når algoritmer selv kan bestemme at angribe, fjerner det en menneskelig barriere og nedsætter grænsen for brugen af vold. Hvis flere sider i en militær konfikt anvender autonome våben, kan det lede til eksalering af konflikten før et menneske kan nå at reagere.

KRIGSFORBRYDELSER

Det er en juridisk gråzone hvem er der er ansvarlig, hvis en beslutning taget af et autonomt våben leder til en krigsforbrydelse. Uden internationale aftaler giver det stater et juridisk slør at gemme sig bag, når de begår krigsforbrydelser.

2

5

UDBREDELSE

Koden bag autonome våben kan let deles, og et småt antal individer kan på en gang anvende et stort antal autonome våben. Det gør udbredelse af autonome våben blandt ikke-statslige aktører som terrorister særligt bekymrende. Samtidig risikerer vi et våbenkapløb blandt stater med en kunstig intelligens teknologi som vi endnu ikke forstår.

UFORUDSIGELIGHED

Kunstig intelligens algoritmer lærer fra data, hvilket kan gøre deres beslutninger uforudsigelige og deres beslutningsgrundland uigennemsigtigt. Da beslutningen om at angribe i autonome våben er baseret på kunstig intelligens, gør det dem særligt farlige.

3

6

DISKRIMINATION

Da kunstig intelligens kan trænes på data til at genkende fysiske træk som hudfarve, er de uheldigvis særligt nyttige til folkedrab og etnisk udrensning. Selv hvis det ikke er intentionen, er der større risiko for at et autonomt våben ved et uheld angriber en uskyldig som deler fysiske træk med fjenden.

bottom of page