A raport Narodowej Komisji Bezpieczeństwa ds. Sztucznej Inteligencji (NSCAI) opowiada się za użyciem broni AI w celu przeciwdziałania ewentualnym przyszłym zagrożeniom ze strony Chin lub Rosji. Oficjalny raport został stworzony dla prezydenta Bidena i Kongresu i zaleca odrzucenie globalnego zakazu broni autonomicznej opartej na sztucznej inteligencji, zwłaszcza biorąc pod uwagę wysokie prawdopodobieństwo, że podobne zobowiązania ze strony Rosji lub Chin „prawdopodobnie będą puste”.

Według Rejestr Federalny, autor raportu, Komisja Bezpieczeństwa Narodowego ds. Sztucznej Inteligencji, jest „tymczasowym, niezależnym podmiotem federalnym utworzonym przez Kongres”, który został „stworzony w celu przeprowadzenia przeglądu i przedstawienia Prezydentowi i Kongresowi zaleceń związanych z wykorzystaniem sztucznej inteligencji dla bezpieczeństwa narodowego”. Panel jest prowadzony przez byłego dyrektora generalnego Google Erica Schmidta i byłego asystenta sekretarza obrony Roberta Worka.

Potencjalny zastrzyk kapitału w wysokości 40 miliardów dolarów na AI Weapons

15 komisarzy, którzy sporządzili 756-stronicowy raport, sugeruje inwestycję w wysokości 40 miliardów dolarów w celu „rozszerzenia i demokratyzacji federalnych badań i rozwoju (B+R) nad sztuczną inteligencją oraz opracowania „ambitnego planu”, aby w przypadku „alarmującego deficytu talentów” Departamentu Obrony (DoD) i Intelligence Community (IC) zostałyby naprawione, wtedy Stany Zjednoczone nie powinny mieć problemu z „gotowością na sztuczną inteligencję do 2025 roku”.

Raport dalej chwali korzyści płynące ze sztucznej inteligencji, wspominając o możliwości „skompresowania ram czasowych decyzji”, co jest główną zaletą w sytuacjach wymagających reakcji wojskowych, których ludzie nie są w stanie wykonać samodzielnie. Artykuł następnie stanowczo stwierdza, że ​​Stany Zjednoczone mogą bezpiecznie i legalnie używać broni autonomicznej:

Broń gotowa na sztuczną inteligencję 2025 – przyniosła ci wujek Sam

Zgodnie z raportem, pod warunkiem, że ich użycie jest dozwolone przez ludzkiego dowódcę lub operatora, właściwie zaprojektowane i przetestowane systemy uzbrojenia wykorzystujące sztuczną inteligencję i autonomiczne mogą być używane w sposób zgodny z międzynarodowym prawem humanitarnym. Rygorystyczne, istniejące procedury przeglądu i namierzania broni przez Departament Obrony, w tym dedykowane protokoły dla autonomicznych systemów uzbrojenia oraz zobowiązanie do przestrzegania silnych zasad etycznych AI, są w stanie zapewnić, że Stany Zjednoczone będą prowadzić bezpieczne i niezawodne systemy uzbrojenia wyposażone w sztuczną inteligencję i korzystać z nich w zgodny z prawem sposób.

Jednak nie wszyscy zgadzają się z treścią raportu i dylematem moralnym, jaki stwarza. Niektórzy, jak sekretarz generalny ONZ António Guterres, wezwali do wprowadzenia zakazu zabójczych robotów od listopada 2018 r., ponieważ uważa on, że „maszyny, które mają moc i swobodę odbierania ludzkiego życia, są politycznie nie do przyjęcia, są moralnie odrażające i powinny być zakazane przez prawo międzynarodowe.

Kampania Stop Killer Robots

Profesor Noel Sharkey, rzecznik kampanii na rzecz powstrzymania zabójczych robotów, ma podobne zdanie i uważa, że ​​raport jest „szokujący i przerażający”, zwłaszcza że „może prowadzić do mnożenia decyzji dotyczących podejmowania przez sztuczną inteligencję broni dotyczących tego, kogo zabić”.

„Najstarsi naukowcy zajmujący się sztuczną inteligencją na świecie ostrzegali ich przed konsekwencjami, a jednak kontynuują” – powiedział Sharkey dla BBC. „Doprowadzi to do poważnych naruszeń prawa międzynarodowego”.

Kampania na rzecz Stop Killer Robots została zapoczątkowana w 2013 roku przez organizacje pozarządowe, takie jak Human Rights Watch, kładąc podwaliny pod koalicję, która dąży do prewencyjnego zakazu śmiercionośnych autonomicznych systemów broni (LAWS). Od tego czasu 30 krajów domagało się takiego zakazu broni AI: Algieria, Argentyna, Austria, Boliwia, Brazylia, Chile, Chiny, Kolumbia, Kostaryka, Kuba, Dżibuti, Ekwador, Egipt, Salwador, Ghana , Gwatemala, Stolica Apostolska, Irak, Jordania, Meksyk, Maroko, Namibia, Nikaragua, Pakistan, Panama, Peru, Palestyna, Uganda, Wenezuela i Zimbabwe.

Tymczasem w Chinach

Chiny, choć zgodziły się na traktat zakazujący używania takiej broni, nie podzielały tej samej opinii na temat jej rozwoju lub produkcji. Nie jest to zaskoczeniem, biorąc pod uwagę, że w ostatnich latach chińska armia znacząco inwestuje w robotykę, rój, a także sztuczną inteligencję (AI) i uczenie maszynowe (ML), systemy uzbrojenia, które są reklamowane jako „autonomiczne” (自主) lub „inteligentny” (智能化) przez chiński przemysł obronny.

POWIĄZANY ARTYKUŁ: Armia USA gotowa do produkcji 33 gramów nanodronów

Były dyrektor generalny Google opowiada się za bronią autonomiczną i sztuczną inteligencją, aby wyprzedzić chińskie i rosyjskie zagrożenia