Czy drony powinny służyć do zabójstw?
Po kilku miesiącach przygotowań, pod koniec kwietnia Human Rights Watch rozpoczęła ogólnoświatową kampanię, której celem jest wprowadzenie zakazu rozwoju, produkcji i stosowania automatycznych systemów bojowych.
02.05.2013 11:45
Zalogowani mogą więcej
Możesz zapisać ten artykuł na później. Znajdziesz go potem na swoim koncie użytkownika
Na całym świecie wykorzystuje się obecnie dziesiątki, jeśli nie setki typów dronów. Większość z nich jest nieuzbrojona, ale niektóre z nich, tak jak na przykład okryte złą sławą Predatory, mogą wziąć na swój pokład całkiem pokaźny zestaw uzbrojenia. Co prawda dziś, niezależnie od tego jak bardzo autonomiczny nie byłby dany system, decyzja o otwarciu ognia podejmowana jest przez człowieka, jednak wcale tak być nie musi. Już teraz trwa kampania mówiąca, że skoro samoloty mogą same startować, tankować w powietrzu czy lądować na lotniskowcach, to właściwie dlaczego nie miałyby same otwierać ognia.
Organizacja Human Rights Watch postanowiła rozpocząć ogólnoświatową kampanię pod nazwą „Stop Killer Robots”. W jej ramach organizacje pozarządowe z całego świata wywierać mają presje na rządy, by te zdecydowały się zapobiec powstaniu problemu i wprowadziły międzynarodowy zakaz produkcji takiej broni.
- _ Roboty wyposażone w śmiercionośną broń, które mogą namierzyć i zabić bez interwencji ze strony człowieka nigdy nie powinny powstać _ - twierdzi Steve Goose, który w HRW odpowiada za nadzór nad bronią. - C_ złowiek powinien być zawsze włączony w proces decyzyjny na polu bitwy. Zabójcze roboty przekroczą każde moralne i prawne granice a _ [prace nad nimi] _ powinny zostać zaniechane jako niemoralne. _
Human Rights Watch uważa, że algorytmy decydujące o czyimś życiu są ślepym zaułkiem technologii, w który w ogóle nie powinniśmy brnąć. Według organizacji w pełni automatyczna broń z jednej strony „może zwiększyć cywilne straty podczas konfliktu zbrojnego”. i nie będzie w stanie „sprostać podstawowym zasadom międzynarodowego prawa humanitarnego”, z drugiej nie bardzo wiadomo kto byłby odpowiedzialny za nieuniknione błędy w działaniu takiej broni. Błędy, które w tym wypadku mogłyby być śmiertelne. Kto miałby ponieść konsekwencje błędów? Producent? Dowódca? Dostawca oprogramowania?
Prace nad kampanią rozpoczęły się po publikacji raportu „Losing Humanity”, który został przygotowany wspólnie przez organizację oraz Harvard Law School. Human Rights Watch już wtedy postulowała opracowanie międzynarodowej konwencji, która zakazywałaby prac nad rozwojem w pełni automatycznych systemów bojowych.
Pewne kroki prawne w kierunku zakazu rozwoju tego typu broni zostały już podjęte. W listopadzie zeszłego roku amerykański Departament Obrony wydał dyrektywę, która zabrania amerykańskiemu wojsku stosowania w pełni automatycznych systemów wyposażonych w broń, która może zabić. Ale to tylko dyrektywa, którą nie dość, że można w każdej chwili odwołać, to obowiązywać będzie jedynie przez dziesięć lat i nie ma żadnej gwarancji, że po tym czasie zostanie przedłużona.
Polecamy w serwisie Giznet.pl: Analitycy: miliony użytkowników opuszczają Facebooka