Slušaj vest

Veštačka inteligencija (AI) uskoro bi na spisak svojih nadljudskih sposobnosti mogla da doda i znanje o biologiji. Naime, Antropikov model Mythos, koji još nije javno objavljen zbog svojih sposobnosti hakovanja, nedavno je uspeo da reši trećinu najtežih zadataka obrade i analize podataka koje su sastavili stručnjaci za biologiju.

Mythos je mogao da radi stvari koje nijedan od testiranih ljudi nije uspeo, na primer da rekonstruiše vrstu ćelije iz sirovih DNK podataka.

Kako Ekonomist izveštava, takva sposobnost rešavanja problema znači da bi AI uskoro mogao i korisnicima da pruži izuzetno opasne moći: sintetisanje virusa, stvaranje novih neurotoksina ili "stvaranje takozvanog ogledalnog života (mirror life)" – veštački oblikovanih organizama sa obrnutom biološkom strukturom, koji bi mogli da ugroze ili unište postojeći život na Zemlji.

Takve opasnosti predstavljaju mračnu stranu demokratizacije veštačke inteligencije. Potpuno je zamislivo da bi AI mogao usamljenom mizantropu da da moć da uništi čovečanstvo.

Rizici po biobezbednost mnogo su ozbiljniji od rizika po sajber bezbednost. Ako jedan genetski modifikovan virus može da izazove milijarde smrti, čovečanstvo nema prostora za učenje na greškama.

Nije sigurno da će veštačka inteligencija moći da pomogne u odbrani od opasnosti koje sama stvara. Softver može brzo da se popravi, ali ljudska biologija je daleko manje prilagodljiva. Zato će stvaranje modela bezbednih za javnu upotrebu zahtevati velika otkrića u osnovnoj nauci o veštačkoj inteligenciji.

Koliko još?

Koliko još vremena imamo? Današnji javni AI modeli izuzetno su teorijski potkovani i briljiraju na pisanim testovima, ali, srećom, još uvek početnicima pružaju malo praktične pomoći u laboratoriji. Međutim, iz Antropika, tvorca Mythosa (koji nije za javnost), upozoravaju da bi taj model uskoro mogao da bude sposoban da vodi početnike kroz složene laboratorijske postupke.

Kako Mythos i slični modeli još nisu testirani u pogledu svojih praktičnih sposobnosti, moguće je da takvu sposobnost već poseduju.

Modeli sa takvim sposobnostima, baš poput nuklearnog oružja, nikada neće biti potpuno bezbedni ako budu javno dostupni. Problem je i to što današnje metode zaštite nisu dovoljno pouzdane.

Jedna od mogućih mera zaštite bila bi programiranje AI-ja da odbija da daje opasne informacije ili izvršava rizične zahteve. Međutim, korisnici često uspevaju da zaobiđu ta ograničenja takozvanim "džejlbrejkovanjem", odnosno manipulisanjem modela kako bi ipak otkrio zabranjene informacije.

čovek gleda u robota
Veštačka inteligencija (AI) uskoro bi na spisak svojih nadljudskih sposobnosti mogla da doda i znanje o biologiji Foto: Shutterstock

Iako je to danas teže nego ranije, jedno nedavno istraživanje pokazalo je da je čak 90% početnika uspelo da dobije informacije o virusologiji od modela koji su trebalo da odbiju takve upite. Prepustiti budućnost čovečanstva u ruke takvih sistema bila bi greška.

Druga mera bila bi uklanjanje opasnih podataka iz procesa treniranja AI modela. Think tank SecureBio predlaže da se iz podataka za treniranje AI modela uklone informacije o "ogledalnom životu", nabavci opasnih patogena, zaobilaženju biobezbednosnih zaštita i proceni mogućnosti izazivanja pandemije.

Međutim, problem je u tome što bi dovoljno napredan AI model mogao sam ponovo da dođe do tog znanja, čak i ako mu takve informacije nisu bile direktno dostupne tokom treniranja, koristeći osnovne naučne principe i logičko zaključivanje.

Slični pokušaji uklanjanja materijala povezanog sa seksualnim zlostavljanjem dece iz podataka za treniranje generatora slika nisu bili uspešni. Sistem treniran isključivo na bezazlenim slikama i dalje može da stvara eksplicitan sadržaj koji nikada nije "video".

Treća ideja usmerena je na kontrolu fizičkog sveta. Vladine bezbednosne službe mogle bi i trebalo bi više da nadziru dobavljače tehnologija (poput sinteze DNK) koje, uz legitimnu primenu, mogu biti i zloupotrebljene. Pravila "upoznaj svog korisnika" trebalo bi da ograniče pristup takvim uslugama samo na proverene istraživače i institucije.

Težak nadzor

Međutim, stvaranje virusa nije poput izrade nuklearnog oružja, za koje su potrebni retki i lako pratljivi materijali. U biologiji je, uz komercijalno dostupnu opremu, relativno lako razviti smrtonosne agense. Država ne može da nadzire svaku Petrijevu posudu.

Zato će biti potrebna nova naučna otkrića kako bi se razvile efikasnije zaštite. Jedan od obećavajućih pristupa liči na svojevrsnu "operaciju mozga" nad modelima nakon njihovog treniranja.

Druga metoda pokušava da navede modele da u određenim oblastima namerno daju netačne odgovore, dok bi treća mogla da identifikuje i deaktivira neuronske sklopove koji se aktiviraju pri radu na sintetičkoj biologiji. Za sve to biće potreban napredak u osnovnoj nauci o veštačkoj inteligenciji kako bi se otvorila "crna kutija" današnjih neuronskih mreža i bolje razumelo kako one zapravo funkcionišu.

Dok takve tehnike ne budu razvijene, vlade će morati da ograniče pristup sistemima koji bi mogli da omoguće bioterorizam. To je posebno važno za open-source modele, koji se nakon javnog objavljivanja više ne mogu povući niti se može pratiti njihova upotreba.

Odgovorni istraživači trebalo bi da mogu da koriste AI za napredak nauke (DeepMindov Isomorphic Labs upravo razvija nove terapije protiv raka), ali uz stroge bezbednosne protokole. Nema smisla koristiti veštačku inteligenciju za poboljšanje života ako istovremeno daje teroristima moć da ugroze čovečanstvo.

Vaše mišljenje nam je važno - ostavite nam komentar, nije potrebna registracija!

BONUS VIDEO:

00:25
VEŠTAČKA INTELIGENCIJA IMA SVOJU VERU, OSNOVANA CRKVA MOLTA! Izvor: Kurir

(Jutarnji/MONDO)