AI-ul poate deveni o forță letală fără reguli, pe front.
Pentagonul este criticat pentru lipsa de restricții aplicate AI-ului.
Experții cer dezbateri pe etica și legea războiului.
Roboții militari dotați cu Inteligență Artificială sperie experții. Pentagonul a publicat o directivă privind politica sa de dezvoltare a armelor cu funcții autonome. Din păcate însă, multe alte state dezvoltă arme autonome care pot fi roboți sau drone ucigașe.
Incorporarea inteligenței artificiale în sistemele de armament reprezintă o sursă majoră de îngrijorare din cauza posibilității de a opera autonom și de a administra forță letală fără intervenția umană. Acest lucru ridică întrebări serioase despre responsabilitate și accountability, întrucât o mașină nu poate fi trasă la răspundere în cazul selectării greșite a țintelor sau a comiterii de crime de război. De asemenea, implicarea AI în luarea deciziilor pe câmpul de luptă deschide calea spre posibile abuzuri și erori, având în vedere complexitatea și imprevizibilitatea războiului modern.
Pentagonul a emis o directivă în ianuarie 2023, explicând politica sa în legătură cu dezvoltarea și utilizarea funcțiilor autonome și semi-autonome în sistemele de armament. Directiva susține că utilizarea capabilităților AI în sistemele de armament autonome sau semi-autonome va fi conformă cu Principiile Etice AI ale DOD.
Totuși, există critici care subliniază că politica are lacune semnificative, inclusiv posibilitatea de a ocoli revizuirea senior necesară pentru dezvoltarea și desfășurarea armelor autonome „în cazuri de nevoie militară urgentă”, ceea ce ridică îngrijorări serioase privind etica, legalitatea, și securitatea acestor sisteme.
Citește și