Apariția noțiunii de inteligență artificială și progresul acesteia se întinde pe parcursul ultimilor 65 de ani. În 1950 Alan Turing a fost primul care s-a intrebat “pot computerele sa gândească?”. Atunci a începutt discuția privind posibilitatea creării unui creier artificial care să simuleze căile neuronale și raționamentul uman. Din anii ’50 până în anii ’80, cercetarea în acest domeniu a trecut prin diferite etape inclusiv una mai puțin fericită între 1974-1980 când criticile și obstacolele financiare aproape că au oprit evoluția AI-ului.
Începand din anii ’90 însă, AI-ul a fost folosit cu succes în IT. Cercetarea în domeniu a determinat mari progrese în cazul rețelelor neuronale și algoritmilor genetici. Un viitor în care AI-ul are o prezență pregnantă în viața de zi cu zi e privit atât cu optimism cât și cu pesimism. În ultima vreme, din rândul academicienilor și al personalităților din domeniul tehnologiei au venit multiple avertizări vehemente. Acestea se refereau la nevoia existenței cercetărilor și mijloacelor de a evita potențiale daune sau catastrofe cauzate de un sistem cu un AI superinteligent.
Mai mult de 150 dintre acești oameni de știinta și antreprenori, printre care se numară Stephen Hawking, Elon Musk sau castigătorul premiului Nobel în fizică Frank Wilczek și-au adaugat numele la o scrisoare deschisă. Aceasta pune accentul pe precauție în folosirea inteligenței artificiale și accentuează afirmația “Sistemele cu inteligență artificială trebuie să facă ceea ce noi vrem să facă”.
Un prim semnal de alarmp în acest sens a venit în anul 2013. Atunci, un sistem AI (un algoritm) a fost pus să joace Tetris cu scopul de a nu pierde niciodată. Surprinzător sau nu, a trecut peste comenzile clasice și a învățat repede că modul prin care sigur nu poate să piardă este să pună jocul pe pauză. După acest eveniment numeroși cercetători au afirmat că un algoritm ar putea să învețe pe termen lung că poate să evite întreruperile planficate pe care o persoană le poate face dacă dezactivează “butonul roșu“ sau dacă identifică și sterge codul care permite existența întreruperilor din exteriorul sistemului.
Ce se face în prezent pentru a fi evitate situațiile nedorite?
Din prisma ideii de a democratiza puterea asupra inteligenței artificiale a apărut laboratorul de cercetare OpenAI. Prin OpenAI, Elon Musk a declarat că dorește să facă accesibile informațiile cu privire la AI. “Libertatea constă în distribuția puterii iar despotismul în concentrarea acesteia” a declarat Musk, specificând că își dorește să “contribuie la creșterea posibilității că viitorul va fi unul bun”. OpenAI urmărește ca puterea să nu fie concentrată în mainile unei elite ci să împărtăsească cea mai mare parte a cercetărilor, cu oricine care dorește să aibă acces la această tehnologie, în mod gratuit. Astfel Musk și Open AI doresc să combată inteligenț artificială malițioasă nu prin restricționarea accesului la această tehnologie ci prin extindere acestuia.
Pe de altă parte un grup de cercetători de la DeepMind au arătat cum se poate întrerupe în siguranță un sistem AI. Prin acest proces o persoană poate să oprească inteligența artificială fără consecințe negative la nivelul procesului de învățare al computerului. AI-ul la care s-a încearcat înteruperea în siguranță se bazează pe învățarea prin recompense. În acest caz, comportamentul AI-ului este ghidat de succesele din activitățile anterioare. Învățând din context care acțiuni sunt cele care duc la recompense viitoare acesta nu se va opri daca o anumită activitate poate aduce daune fie pentru sine fie pentru ceea ce îl înconjoară. În astfel de momente cu consecințe negative, o persoană intervine și apasă “butonul roșu”. Însă intervenția umană schimbă contextul în care operează sistemul AI și poate duce la două posibile consecințe:
– fie robotul învață că nu trebuie să mai repete activitatea,
– fie va vedea întreruperea din afară ca un obstacol și va încerca să o evite pe viitor, să resiste intervenției umane sau să dezactiveze “butonul roșu”.
Cercetătorii au evidențiat că se poate întrerupe activitatea unui sistem AI în siguranță prin intermediul unor modificări la nivelul algoritmului. Aceste modificări ar determina sistemul să creadă că el a decis să schimbe cursul unei acțiuni sau să o întrerupă. Este vorba de un fel de amnezie selectivă la nivelul AI-ului. Acest framework îi permite “operatorului uman” să întrerupă un sistem AI în mod repetat și în siguranță, fără ca AI-ul să învețe cum să împiedice întreruperile. Aceiași cercetătorii au adăugat însă că nu este foarte clar dacă toți algoritmii pot fi făcuți să fie “safely interruptible”. Acest lucru a fost determinat și de faptul că au eșuat în modificarea unuia care era mai “general” și care nu era limitat de anumite asumpții precum “environment class”.
Cert este că până să apară amenințări din partea AI-ului, acesta mai are mult de evoluat. Ar trebui să devină, în primul rând, self aware. Mai apoi ar trebui să nu fie limitat de inputul unei cantitități de date formatate corespunzător. De asemenea, învățarea deep learning ar trebui să aibă loc și în afara supervizării umane. Cu toate acestea, aspectul esențial rămâne dobândirea simțului comun. Acest “simț comun” este dificil de programat și presupune mult hand coding cu privire la o cantitate mare de taxonomii. Însă fără el nu se poate ajunge la superinteligența AI.