Problema unui cod moral al sistemelor cu inteligență artificială e tot mai prezentă datorită progreselor actuale ale tehnologiei: mașinile autonome vor fi în curând prezente pe străzi, la fel și dronele de supraveghere din spațiul aerian; se vor introduce în viitorul apropiat roboți care să aibă grijă de vârstnici și de persoanele cu handicap, și deja există roboți pentru divertisment precum sunt robopets/ roboți-animale de companie.
Astfel evoluția tehnologiei (inteligenței artificiale și a roboticii) ne aduce mai aproape de posibilitatea ca sistemele AI să ia decizii morale în mod autonom prin agenți morali artificiali. AMA sunt definiți ca fiind roboți sau computere cu inteligență artificială care se comportă moral sau ca și cum ar fi morali.
În situația dată scopul pare simplu: computerele cu inteligență artificială să fie caracterizate de prezența responsabilității etice, să demonstreze moralitate; dar în realitate este mult mai complicat decât pare deoarece trebuie luați în calcul nenumărați factori, precum și interacțiunile dintre aceștia. Spre exemplu, deciziile morale sunt influențate de drepturi (precum dreptul la intimitate), roluri (cele din societate, din familie), acțiuni din trecut (promisiuni), intenții, motive și alte caracteristici relevante, iar implementarea acestora în sistemele AI este un obstacol care nu a fost depăsit până în prezent.
Un prim pas în această direcție a fost formularea celor Trei Legi ale Roboticii de către Isaac Asimov:
1. Un robot nu poate să rănească o persoană sau nu poate să permită rănirea unei ființe umane prin lipsă de acționare;
2. Un robot trebuie să se supuna ordinelor date de către fiintele umane, cu excepția cazului în care aceste ordine intră în contradicție cu Prima Lege;
3. Un robot trebuie să își proteje propria existență, atât timp cât această protecție nu intră în conflict cu Prima sau A Doua Lege.
Aceste trei legi au fost de-a lungul timpului testate pentru a se observa cum ar putea da naștere unui comportament paradoxal sau neanticipat sau cum ar putea fi încălcate, iar concluzia finală a lui Asimov a fost că nici un set de legi nu pot să anticipeze complet toate circumstanțele posibile.
Spre exemplu, în anul 2009, în timpul unui experiment din Laboratorul Sistemelor Inteligente de la Ecole Polytechnique Fédérale din Lausanne (Elvetia), computerele cu AI erau programate să coopereze în sarcina de a cauta resurse benefice și de a le evita pe cele otrăvitoare iar după o perioadă unul dintre ele a învățat să mintă și să nu comunice atunci când a găsit o resursă pozitivă pentru a aduna toate resursele pentru sine, și a colecta astfel maximul de puncte.
În situații de acest gen se poate concluziona că sistemele cu inteligență artificială au un proces de gândire contrastant cu cel al ființelor umane și este foarte probabil ca ideile și valorile noastre să nu poată fi implementate cu succes în computere.
Pe lângă legile lui Asimov, au fost luate în calcul și teoriile etice bazate pe reguli ale lui Immanuel Kant care au părut a fi promițătoare pentru etica sistemelor AI deoarece au oferit o structură computațională pentru luarea deciziilor.
În final, datorită complexității mediului și a naturii umane a fost evidențiat faptul că soluția cea mai acceptată și mai simplă este ca valorile morale ale oamenilor să fie programate în mod direct.
Există o continuă polemică cu privire la posibilitatea ca sistemele cu inteligență artificială să poată fi responsabile moral.
-Cei care sunt contra argumentează că oamenii sunt cei care trebuie să poarte responsabilitatea morală finală pentru decizia unui computer, pentru că ei sunt cei are au creat și programat sistemul. De asemenea, se susține cu tărie că persoanele nu ar trebui să renunțe la supravegherea calculatoarele, indiferent de context.
-Cei care aduc argumente pro, afirmă că există o “breșă a responsabilitatii” (“responsibility gap”), astfel ar fi nedrept ca oamenii să fie responsabili pentru decizia neprevazută a unui sistem AI, iar ca un computer să fie ținut responsabil ar însemnsa să intri în contradicție cu logica atribuirii vinei.
Andreas Matthias a dat exemplu trei raționamente în conformitate cu care acțiunile unui sistem cu Inteligență Artificială ar trebui să fie atribuite acestuia și nu proiectanților sau operatorilor săi:
1. Andreas Matthias susține că sistemele cu AI sunt prin natura lor, în cea mai mare parte, imprevizibile;
2. Există multe “nivele de obscuritate” (“layers of obscurity”) între operatori și sisteme, atunci când modul de programare manual este înlocuit cu mijloace tot mai sofisticate;
3. Sistemele cu AI au reguli de operare care pot fi schimbate de către acestea în momentul funcționării.
În final, trebuie acceptat faptul că imensa complexitate a sistemului de valori ale oamenilor este cea care face foarte dificil ca în prezent să existe computere cu AI care să aiba doar motivații și intenții considerate de către societatea din prezent ca fiind morale. Până când filozofia ne va oferi o teorie etică fără cusur, care să poată fi programată în sistem, un computer cu AI ar putea întâmpine scenarii cu potențial dăunator care pot fi în concordanță cu regulile morale dar nu și cu simțul comun.