Kao sto je Gary Marcus objasnio, GPT-4 je kvantitativno bolji, ne kvalitativno:
How GPT-4 fits into the larger tapestry of the quest for artificial general intelligence
garymarcus.substack.com
Ovaj komentar sa clanka koji sam linkovao iznad veoma dobro opisuje u sta se GPT pretvara:
Seems like AI development is becoming more about passing standard tests than tackling the hard problems of intelligence.
Hacks that create a hypeable and sellable product are what's favoured.
A skaliranje (to jest filovanje modela sa sve vecim kolicinama informacija) ne donosi stepen napretka koji obecavaju kreatori. Sto je i ocekivano jer ne mozes korenito promeniti nacin na koji deep learning model radi tako sto ces ga filovati sa sve masivnijum learning setovima. Kao sto sam rekao ranije, najverovatnije ce nam trebati nova revolucija u dizajnu AI modela jer deep learning nije put koji vodi ka AGI (artificial general inteligence). Deluje impresivno i moze biti neverovatno mocan alat u pravim rukama ali tu nema s od inteligencije.
Takodje, tu je i problem potencijalnih opasnosti ako nastavimo da implementiramo deep learning algoritme u sve i svja bez ikakve regulacije (ne zaboravite stari "dobri" moto Facebooka: move fast and break things koji dobro opisuje celokupnu Silicon Valley kulturu, nightmare scenario kada se u jednacinu ubace modeli poput GTP-a). Na primer,
Microsoft je otpustio celokupan AI ethics tim jer liberalni kapitalizam ne voli ikakve ograde u svojoj nezajazljivoj gladi za profitom i market share-om, sto je veoma opasno na duge staze. Charles Stross i Ted Chiang objasnili, jos 2017.:
https://www.buzzfeednews.com/article/tedchiang/the-real-danger-to-civilization-isnt-ai-its-runaway
Tu su i Gary Marcus i Stuart Russell (jedan od pionira modernog AI pristupa) koji su nedavno gostovali kod Sama Harrisa:
Sam Harris speaks with Stuart Russell and Gary Marcus about recent developments in artificial intelligence and the long-term risks of producing artificial general intelligence (AGI).
www.samharris.org
Za kraj, procitajte i knjigu Stuarta Russella (tamo sam i nasao dva linka koja sam podelio iznad). Veoma dobro stivo za citati trenutno: Human Compatible: Artificial Intelligence and the Problem of Control
Nevezano za regulisanje deep learning algoritama, ovi Holandjani imaju (po meni) mnogo bolju polaznu ideju u odnosu na GPT i klonove:
Ni njihov pristup vrv nece dovesti do AGI jer mozak funckionise tako sto ucenje ojacava konekcije izmedju neurona, kojih u ljudskom mozgu ima
100 triliona a mi, za sada, nemamo materijal koji se moze ponasati kao neuroni koliko je meni poznato. Ali, u svakom slucaju vise cemo napredovati ako pokusamo da fizicki simuliramo rad neurona umesto koriscenja virtuelnih neuronskih mreza koje veze nemaju sa onim sto se desava u nasem "wetware-u."