Etika veštačke inteligencije je deo etike tehnologije specifične za robote i druga veštačko inteligentna bića. To je tipično podeljen na robotiku, briga moralnog ponašanja ljudi pri, izgradnji, korišćenju i tretiraju veštačko inteligentnih bića, i etiku mašina, zabrinutost moralnog ponašanja veštačke inteligencije.[1][2][3][4]

Prava robota su moralne obaveze društva prema robotima, veštačkoj inteligenciji, slično kao prava ljudi ili prava životinja. To može da uključuje pravo na život i slobodu, slobodu mišljenja i izražavanja i jednakosti pred zakonom.[5] Ovo pitanje se smatra od strane Instituta za budućnost i Ujedinjenom Kraljevstvu Odeljenja za trgovinu i industriju.[6]

Pretnja privatnosti

уреди

Aleksandar Solženjicin opisuje korišćenje tehnologije prepoznavanja govora u službi tiranije.[7] Ako postoji AI program koj može da razume prirodu jezika i govora , a zatim, uz adekvatne procesorske snage, mogoao bi teoretski slušati svaki telefonski razgovor i pročitati svaki e-mail u svetu, razume ih i dati izveštaj operatorima ovog programa dali je ono što je rekao i tačno ko je to rekao. AI program ovako može dozvoliti vladi ili druge subjekte da efikasno suzbi pobunu i napadaju svoje neprijatelje.

Pretnja za ljudsko dostojanstvo

уреди

Džozef Veizenbaum tvrdi u 1976. da AI tehnologija ne treba da se koristi kao zamena ljudi na pozicijama koje zahtevaju poštovanje i brigu, kao što je bilo koji od ovih:

  • predstavnika korisničke službe (AI tehnologija se već koristi za sisteme Govorni telefonskih-based)
  • terapeut (kao što je predložio Kenneth Colbi u 1970)
  • dadilju za starije (kao što je rekla Pamela McCorduck u svojoj knjizi "Peta generacija")
  • vojnik
  • sudija
  • policajac

Veizenbaum objašnjava da zahtevamo autentične osećanja empatije od naroda na ovim pozicijama. Ako bi ih mašine zamenile, naći ćemo sami otuđeni i frustriran. Veštačka inteligencija, ako se koristi na ovaj način, predstavlja opasnost za ljudsko dostojanstvo. Veizenbaum tvrdi da je činjenica da se zabavljaju mogućnost mašina u ovim pozicijama ukazuje na to da smo iskusili "atrofije ljudskog duha koji dolazi od razmišljanja o sebi kao kompjutera."

Pamela McCorduck uzvraća, govoreći za žene i manjine "Ja bih radije rizikovala sa nepristrasnim računara", ističući da postoje uslovi u kojima bismo radije da imamo automatske sudije i policiju koji nemaju lične ciljeve na sve.

Bill Hibbard piše da je "Ljudsko dostojanstvo zahteva da se trudimo da ukloni naše neznanje o prirodi postojanja, a AI je potreban za te težnje."

Proizvodnja veštačke inteligencije za rat

уреди

Neki stručnjaci i naučnici dovode u pitanje upotrebu robota za vojnu borbu, posebno kada se takvim robotima daje određeni stepen autonomnih funkcija. Američka mornarica je finansirala izveštaj koji ukazuje da kako vojni roboti postaju složeniji, ne treba da bude veća pažnja na posledice njihove sposobnosti da autonomne odluke. Jedan istraživač kaže da bi autonomni roboti možda bili humaniji, pošto bi mogli efikasnije doći do donošenja odluka.

U okviru ove poslednje decenije, došlo je do intenzivnog istraživanja u autonomne vlasti sa mogućnošću da uče pomoću dodeljene moralne odgovornosti. "Rezultati se mogu koristiti prilikom izrade budućih vojnih robota, da kontrolišu neželjene tendencije da dodeli odgovornost robota." postoji šansa da će roboti razvijaju sposobnost da donose sopstvene logičke odluke o koga da ubije i zato treba da postoji niz moralni okvir da AI ne može zameniti.

AI oružje predstavlja vrstu opasnosti drugačije nego ljudsko upravljeno oružje. Mnoge vlade su počele da finansiraju programe za razvoj AI oružje. Zbog potencijal AI oružja postane opasniji od ljudsko upravljenog oružjija, Stiven Hoking i Maks Tegmark potpisali su peticije za zabranu AI oružje. Poruka od  Hoking i Tegmark navodi da AI oružje predstavlja neposrednu opasnost i da je potrebna akcija kako bi se izbegle katastrofe u bliskoj budućnosti.

"Ako bilo koja velika vojna sila gura napred sa razvojem AI oružja, globalna trka u naoružanju je praktično neizbežna, a krajnja tačka ove tehnološke putanje je očigledna: autonomno oružje će postati Kalašnikovi sutrašnjice", kaže peticija, koja uključuje Skajp co -founder Jaan Talin i MIT profesor lingvistike Noam Čomski.

Osnovni argument

уреди

Ako superintelligent AI moguć, I a ako je moguće superintelligence ideje biti u suprotnosti sa osnovnim ljudskim vrednostima, onda A.I. predstavlja opasnost ljudskog izumiranja. Superintelligence, koji se može definisati kao sistem koji prevazilazi mogućnosti ljudi u svim relevantnim poduhvatima, mogu nadmudriti ljude bilo koje vreme kada svoje ciljeve stupe u konflikt sa ljudskim ciljevima; Stoga, osim ako superintelligence odluči da dozvoli čovečanstvo da koegzistiraju, prvi superintelligence da se stvori će neumitno dovesti do ljudskom istrebljenja

Ne postoji fizički zakon onemogućava čestice od toga da bude organizovane na načine koji obavljaju čak i više naprednih proračuna od aranžmana čestica u ljudskim mozgovima. Pojava superintelligence, ako i kada se desi, može da iznenadi ljudski rod. Eksplozivna tranzicija je moguća: čim se napravi prva Veštača inteligenicja, ona će samu sebe unaprediti dok ne dođe nastanak Superinteligencije. Baš kao što je sadašnji opstanak šimpanze zavisi od ljudskih odluka, isto tako bi ljudski opstanak zavisio od odluke i ciljeva nadljudskim AI. Rezultat bi mogao biti istrebljenja ljudi, ili neka druga globalna katastrofa.


Reference

уреди
  1. ^ Anderson. „Machine Ethics”. Архивирано из оригинала 28. 09. 2011. г. Приступљено 27. 6. 2011. 
  2. ^ Anderson, Michael; Anderson, Susan Leigh, ур. (jul 2011). Machine Ethics. Cambridge University Press. ISBN 978-0-521-11235-2. 
  3. ^ Anderson, Michael; Anderson, Susan Leigh, ур. (July—August 2006). „Special Issue on Machine Ethics”. IEEE Intelligent Systems. 21 (4): 10—63. ISSN 1541-1672. doi:10.1109/mis.2006.70. Архивирано из оригинала 12. 10. 2012. г. Приступљено 09. 10. 2016.  Проверите вредност парамет(а)ра за датум: |date= (помоћ)
  4. ^ Anderson, Michael; Anderson, Susan Leigh (zima 2007). „Machine Ethics: Creating an Ethical Intelligent Agent”. AI Magazine. American Association for Artificial Intelligence. 28 (4): 15—26. ISSN 0738-4602. 
  5. ^ Evans, Woody (2015). „Posthuman Rights: Dimensions of Transhuman Worlds”. Universidad Complutense Madrid. Приступљено 7. 4. 2016. 
  6. ^ „Robots could demand legal rights”. BBC News. 21. 12. 2006. Приступљено 3. 1. 2010. 
  7. ^ McCorduck 2004, стр. 308

Spoljašnje veze

уреди
  NODES
Association 1
games 1
games 1
mac 6
Note 1
os 49