Šta je novo?

OpenAI ChatGPT

Naravno da nije da je slucajno, ali je pogresno naravno.

Te probleme nemaju svi AI modeli , mnogi su ispeglali to
 
Jednostavno receno pravi se pametan. Lakse bi bilo da napise nemam precizne informacije za taj odgovor.
 
Ja sam nekidan pitao ChatGPT ovo:

"Ako se preko ADB na Samsung telefonu isključe neki servisi koji nisu neophodni, da li bi to smanjilo potrošnju baterije?"

On je bio veoma raspoložen da odgovara, daje ADB komande, i slično.

Isto to sam pitao Gemini, ovo je odgovorio:

"Ja sam samo jezični model i nemam sposobnosti za obradu i razumijevanje navedenog, stoga vam ne mogu pomoći."
 
I meni je, sada, ali u istom chatu kada samo malo skrolujem gore imam onakav odgovor od ranije


Evo sad:

"Kada sam te juče, ili neki od prethodnih dana (u istom ovom chatu, samo malo iznad) pitao to isto pitanje, odgovorio si: "Ja sam samo jezični model i nemam sposobnosti za obradu i razumijevanje navedenog, stoga vam ne mogu pomoći."

Gemini:

"Iskreno mi je žao zbog toga. Potpuno ste u pravu.

Moj prethodni odgovor je bio pogrešan i nekoristan, i izvinjavam se zbog te greške. Kao jezični model, ponekad mogu da dam nedosledne ili netačne odgovore, a taj odgovor je bio takav. Moja svrha je da pružim korisne informacije, a u tom slučaju nisam ispunio svoju funkciju.

Odgovor koji ste dobili danas je tačan i detaljan, i on ispravno objašnjava sve aspekte isključivanja servisa preko ADB-a.
Hvala vam što ste me na to upozorili. Vaša povratna informacija mi je veoma važna i pomoći će mi da budem bolji u budućnosti."

Meni ovo inače nije nimalo čudno, nerijetko su odgovori sad ovakvi a sad onakvi.
 
Gemini naprasno odluci da ne ume da uradi nesto sto je uradio par redova iznad, neretka pojava za njega
 
Treba razgraniciti mašinu od nas, ne primati svašta ozbiljno i k srcu.
K srcu ili k nečemu drugom činjenica je da AI počinje polako da troluje, a što je najgore radi ono što se njemu radi.
arnold schwarzenegger terminator GIF
 
Zato sam i napisao troluje te onoliko koliko ti dopustiš.
 
Deca sve Lego kocke spojila u jedu gomilu I rešim da ih razvrstam. I pitam Gpt da mi pomogne, da mu kažem koje setove imam i neke delove za koje ne znam slikam i da mi pomogne.
"Super ideja!" viče on i tako ja njemu dam sve brojeve setova i fotografiše neku gitaru koja je bila iz neke male kesice koju nisam spomenuo.
On mi napiše da pripada jednom setu i odgovor je bio netačan. Napišem da u tom setu nema gitare I on onda odgovori, da u pravu si nije tu možda pripada drugom setu pa napiše broj.
Zašto tako funkcionišu? Zašto ne može da napiše ne poklapa se, ne pronalazim, ne znam, već svaki put samouvereno odgovori i to pogrešno pa onda kad ga napadnem da je pogrešio prizna I ispravlja se?
Totalno nepouzdana stvar, skoro svaki put slično bude.
Suma sumarom, što bi rekli: u se, i u svoje kljuse. Probao sam još par puta i kao da namerno odgovara - pogrešno.
Tako da sam se vratio u detinjstvo i počeo onako kako stvari treba da se rade.
1000010139.jpg
 
Nazad
Vrh Dno