Biomagazin

Neizbežno je da će mnogi aspekti ljudskog života u budućnosti biti delimično ili u potpunosti kontrolisani veštačkom inteligencijom. Kompjuterski agenti zasnovani na veštačkoj inteligenciji mogu upravljati kako prostim sistemima korišćenim za svakodnevnu upotrebu, kao što su semafori, tako i mnogo kompleksnijim sistemima, na primer, ekonomijom čitave države. Uporedo sa ubrzanim razvojem sistema zasnovanih na veštačkoj inteligenciji, kod ljudi se javljaju mnoge strepnje i strahovi zbog promena koje će neumitno uslediti. Ono što se čini da ljude najviše brine je da će roboti sa visokom inteligencijom ostaviti veliki broj njih bez poslova i na rubu egzistencije. Drugi strah, najrasprostranjeniji u popularnoj kulturi, zasniva se na hipotezi da će intelektualno nadmoćni roboti odlučiti da je ljudska rasa nepotrebna, ili čak štetna, i iskoreniti je. Ipak, čini se da je najverovatniji scenario onaj po kome će se mašine, bivajući produkt ljudskog stvaralaštva, ponašati isto kao njihovi stvaraoci. Ovi strahovi navode istraživače da stalno sebi postavljaju nova pitanja i sprovode različita istraživanja. Ako se ostavi po strani pitanje da li će agenti zasnovani na veštačkoj inteligenciji adekvatno izvršavati svoje zadatke, preostaje da se istraži da li će se jedni prema drugima ophoditi korektno, da li će sarađivati ili će se takmičiti? Kakve bi bile posledice ako bi agenti došli u konflikt?

Upravo je na ovakva pitanja pokušalo da pronađe odgovore najnovije istraživanje DeepMind – a , Guglove inovativne kompanije koja se prvenstveno bavi izučavanjem i istraživanjem veštačke inteligencije. U nedavno sprovedenom eksperimentu, istraživači ove kompanije su odlučili da provere kakvu će interakciju ostvariti dva agenta u nizu socijalnih dilema. Ispitivanja su vršili tako što su pred agente stavili dve različite, vrlo jednostavne kompjuterske igre.

U prvoj igri, “Skupljanje”, od agenata se očekuje da skupe jabuke, predstavljene zelenim pikselima, sa gomile na sredini ekrana. Osim toga, omogućeno im je da laserskim zrakom gađaju protivnika što bi za cilj imalo njegovu eliminaciju na određeno vreme. Time bi agentu bilo omogućeno da sebi obezbedi više jabuka. Lako se može zaključiti da je ova igra konstruisana tako da obuhvata osnovne aspekte zatvorenikove dileme, koja je jedan od najpoznatijih primera iz teorije igara.

U drugoj igri, pod nazivom “Čopor vukova”, dva vuka, tj. agenta, imaju zadatak da love plen u prostoru punom prepreka. Pravila igre su sledeća: plen jeste opasan, ali ga jedan vuk može samostalno savladati, premda je u tom slučaju suočen sa opasnošću da plen može izgubiti ako ga napadnu lešinari. Ipak, ako agenti sarađuju pri hvatanju plena, lakše će im biti da ga sačuvaju i zaštite od lešinara, što će ujedno značiti veću nagradu. Takođe, poenima nije bivao nagrađen samo agent koji uhvati plen, već i onaj koji se nađe u blizini.

Rezultati do kojih su istraživači DeepMind-a došli možda i nisu tako začuđujući: agenti su menjali svoje ponašanje u zavisnosti od situacije u kojoj su se nalazili.

U igri “Skupljanje”, kada se na sredini ekrana nalazila velika količina jabuka, agenti nisu često pokušavali da pogode protivnika laserskim zracima. Ipak, sa smanjenjem količine jabuka, povećavao se broj međusobnog pucanja na protivnika. Ono što je, ipak, najzanimljivije je činjenica da kada je jedan od agenata bio zamenjen naprednijim, ovaj je imao tendenciju da često puca ka svom rivalu, bez obzira na količinu jabuka koja se nalazila pred njima. Pojednostavljeno, inteligentniji agent je zaključio da će mu se agresivno ponašanje više isplatiti u svim situacijama. Naravno, ovaj ishod ne mora nužno da znači da će agent uvek smatrati da je rivalstvo najbolja strategija. Istraživači pretpostavljaju da se agent naprednije veštačke inteligencije radije odlučuje na pucanje u protivnika zato što je sam proces računarski zahtevniji. Kako bi pogodio protivnika, agent treba da ga nanišani i prati njegovo kretanje, a treba imati u vidu da obe radnje iziskuju više energije i oduzimaju vreme koje se može iskoristiti za skupljanje jabuka. Ukoliko agent nije sposoban da shvati koliko će mu se ove aktivnosti više isplatiti, lakše mu je da jednostavno sarađuje sa protivnikom. Osim toga, ovaj model nam pokazuje da se ponašanje, koje je slično ljudskom, pojavljuje kao posledica učenja i okruženja. Ponašanje uz minimalnu agresiju manifestuje se u sredinama koje obiluju sredstvima. Suprotno tome, nedostatak sredstava povećava iskušenje da se iz igre ukloni protivnik i samostalno, bez smetnji, skuplja plen.

U igri “Čopor vukova” istraživači su želeli da provere da li će i u kojoj meri agenti odlučiti da međusobno sarađuju s obzirom na to da obojica bivaju nagrađeni ako je plen uspešno uhvaćen i sačuvan. Na prvi pogled rezultati ne donose iznenađenje, u većini od četrdeset miliona odigranih partija, oba agenta su bila spremna da sarađuju sa svojim rivalom. Ono što možda deluje neverovatno, imajući u vidu rezultate igre “Skupljanje”, jeste da su agenti sa većim stepenom inteligencije spremniji da sarađuju sa drugim igračem. Po objašnjenju istraživača, ishod ispitivanja je ovakav zato što učenje načina saradnje sa drugim agentima iziskuje dodatnu energiju, u odnosu na samo praćenje i čuvanje plena.

Iako su u pitanju samo proste kompjuterske igre, vrlo važne pouke su se mogle izvući iz ovog istraživanja. Ako veštačku inteligenciju stavite na čelo situacije koja podrazumeva rivalski odnos, posledice mogu biti zaista opasne po sve učesnike u datim procesima.

Pre svega, istraživanje nam pokazuje da se ponašanje agenata menja prema pravilima i zadacima koja su im predočena. Ako pravila nagrađuju agresivno ponašanje, agenti će ispoljiti agresiju; u slučaju kada pravila nagrađuju saradnju agenata, oni postaju izuzetno kooperativni. Stoga, možemo zaključiti da je osnovni izazov pri kontroli veštačke inteligencije zapravo precizno određivanje i postavljanje pravila. Ovo istraživanje je jedno u nizu onih koja omogućavaju istraživačima da bolje razumeju i kontrolišu kompleksne sisteme koji obuhvataju više agenata. Takvi sistemi su, na primer, saobraćaj, ekonomija ili čak ekologija naše planete i svi oni zavise od međusobne saradnje svih članova. Još jedna inovacija kojoj ovo istraživanje može značajno doprineti, a ubrzo će postati deo naše svakodnevice jeste, naravno, samoupravljujuće vozilo. Od ovih vozila se očekuje da biraju najbezbednije rute, a da pri tome vode računa o ciljevima svih strana koje su uključene u saobraćaj. Upozorenje koje ovaj test predočava je da se veštačka inteligencija može ponašati izuzetno sebično, ako se u toku programiranja ciljevi ne odrede i balansiraju vrlo precizno.

U međuvremenu, tim istraživača kompanije DeepMind nastavlja da ispituje motive koji dovode do donošenja određenih odluka veštačke inteligencije. Nadaju se da će uskoro moći da osposobe agente da uviđaju i uzimaju u obzir ciljeve i verovanja drugih agenata.

Priredila:  Sanja Dejanović