Šta je novo?

Da li verovati u info od AI? - NE!

zoranius

Cenjen
Učlanjen(a)
19.08.2015
Poruke
65
Poena
170
Skoro sam pitao oko nadležnosti suda u Barseloni oko nečega i ChatGPT, Gemini i Copilot daju jednu informaciju, DeepSeek drugu. Kad DeepSeeku napišem šta su dali ovi on da na osnovu čega je dao info koji jeste. Isti izvor vratim u ChatGPT, Gemini i Copilot i kažu da je DeepSeek u pravu. Tako da oprezno sa korišćenjem informacija koje se dobiju preko AI.
 
Ne služi za nalaženje informacija, nego za obradu podataka.
Čak i sada kada bi malo insistirao za neku informaciju, on bi se slomio i rekao da si u pravu. Nevezano da li je info tačna ili ne, ako insistiraš da on greši, prihvatiće
 
Poznato je da informacije koje daju nisu 100% pouzdane, podaci cesto nisu ni azurni. I Sam Altman je vise puta govorio da se ne treba 100% oslanjati na informacije koje daje AI.
 
Kada shvatiš to je to Large Language Model, tj. malo bolji auto complete shvatiš da ne očekuješ od njega da radi pretragu ili odgovara na pitanja, nego da radi kao "mazga" sa setom podataka koje mu ti daš i znaš da su ispravni.

Ovo je nije AI, AI je marketing. Pravi AI, general AI nije još uvek napravljen.
 
Poznato je da informacije koje daju nisu 100% pouzdane, podaci cesto nisu ni azurni. I Sam Altman je vise puta govorio da se ne treba 100% oslanjati na informacije koje daje AI.
Mislim da ti upravo učestvuješ u lošoj propagandi i širenju dezinformaija. Iako nesvesno naravno.
Tvoja izjava da nešto nije 100% pouzdano govori da ima neki nivo pouzdanosti, ali ponekad greši. To je upravo i cilj izjava lažova poput Altmana. Ne svrstavam tebe ovde, ti si samo obmanut.
 
I lepo piše na svakom ai da ai ume da pogreši. Tako da se oni ogradili što je u redu.

Ja sam ga par puta ispravljao za neke stvari ali ispravljao je i on mene.

Zato je najbolje da se koristi ograničeno.
 
Mislim da ti upravo učestvuješ u lošoj propagandi i širenju dezinformaija. Iako nesvesno naravno.
Tvoja izjava da nešto nije 100% pouzdano govori da ima neki nivo pouzdanosti, ali ponekad greši. To je upravo i cilj izjava lažova poput Altmana. Ne svrstavam tebe ovde, ti si samo obmanut.
Moguce, ovo je samo iz mog licnog iskustva koriscenja razlicitih AI platformi. Nisam se susretao sa situacijama da nista od povratnih informacija nije pouzdano / tacno. Ja cesce koristim API (Opus 4.6, i GPT 5.2 Pro), sa instrukcijama kroz .md file gde sam definisao kako treba da se ponasa i da ukoliko nesto ne zna, ne izmislja podatak. Pa sam se uverio da mnogo manje halucinira nego kada koristim kroz web ili mobilne aplikacije. Ali i u ovom slucaju kada je nesto kriticno, uradim dodatnu proveru pre nego sto nesto usvojim kao tacan podatak.
 
Ideja mog posta je i bila da nikako ne treba slepo verovati bilo kom AI, sve uzimati sa rezervom i obavezno proveriti (makar kroz različite AI alate). Ne znam zašto ne bi mogao da posluži za dobijanje informacija kad je dosta onoga što napiše tačno. U više njih sam ubacio rezultat ORL pregleda i svaki mi je napisao isto što mi je i lekar rekao. Ne treba sve odbaciti ali u svakom slučaju uzeti sa rezervom i dobijene informacije obavezno koristiti samo kao polazne za konačno mišljenje.
 
Moraš malo da ga obučavaš i puniš informacijama. Učiš i njega, učiš i sam kako se koristi takav alat. Zatim, kad platiš, to radi dosta bolje i ima mogućnost organizacije stvari koje analiziraš uz pomoć toga.

Ne možeš da kriviš navigaciju ako te odvede u ćorsokak, a stajao znak na početku ulice.

Meni pomaže bolje od Google, konsultuješ sve. Nađi španski sajt koji sadrži informacije o tom sudu, daj mu link, i svaki LLM će da fantastično sumira suštinu, da ne čitaš sve ili tražiš informaciju. On će je naći za tebe, to mu je zadatak. Nije stvarna inteligencija, ali ni većina posla koji radi lekar, pravnik, ajtijevac, nije inteligencija, već LLM (neki if then else).
 
Zavisi za sta ga koristis, meni odradjuje brdo stvari ali naravno ne ocekujem da mi odradi sve 100% i iz prve. Isto tako ako je nesto bitno onda proverim informaciju. Za skripte neke komande i po neki tool radi odlicno, naravno uz nadzor i ispravke. Trenutno perplexity uz paralelno Grok a pre Chat gpt.
 
Ne služi za nalaženje informacija, nego za obradu podataka.
Čak i sada kada bi malo insistirao za neku informaciju, on bi se slomio i rekao da si u pravu. Nevezano da li je info tačna ili ne, ako insistiraš da on greši, prihvatiće
To je posebno tačno kada je u pitanju ChatGPT, koji se ulizuje korisniku.

Claude je malo teze slomiti, on je ipak napravljen da govori istinu.
 
Dosta je to skill issue 😂 , ne treba da pitaš da ti kaže, već da istraži, reci mu da koristi najmanje 5 zvaničinih izvora i da ih navede, itd. sa pravim promptom on će se pretvoriti u serach engine i to što napiše biće potrkrepljeno dokazima. Nažalost LLM su toliko novi da većina korisnika ne razume kako da ih upotrebi na adekvatan način...
 
Ja sam otkrio da bolje radi ako za neku temu mu na primer pre pitanja kažete vi ste vrhunski stručnjka za.....(pa navedete zašta)....
 
Dosta je to skill issue 😂 , ne treba da pitaš da ti kaže, već da istraži, reci mu da koristi najmanje 5 zvaničinih izvora i da ih navede, itd. sa pravim promptom on će se pretvoriti u serach engine i to što napiše biće potrkrepljeno dokazima. Nažalost LLM su toliko novi da većina korisnika ne razume kako da ih upotrebi na adekvatan način...
Mislim daje koren problema u tome što dobar deo korisnika stvarno veruje da je AI ono što piše: Artificial Intelligence, a nije, pa se zato i pogrešno postave u startu. Kao što znamo mi ovde (dobra manjina) to je LLM (Learn Language Model), nema blage veze sa bilo kakvom inteligencijom, a svaki od njih je koristan onoliko koliko je onaj koji ga koristi inteligentan.
 
Deep Seek mi je pretrazivao neki zakon i poceo je da izmislja clanove zakona i ono sto pise u tim "clanovima". Kada sam ga pitao zasto to radi, zasto laze, ovako je dalje isla prica -

🙏 Moje izvinjenje

Više puta sam rekao da ne postoji rok od 6 meseci i da sam "izmišljao". To je bila greška. Pokušavao sam da odgovorim bez validnih izvora i to me je dovelo do netačnih tvrdnji.
Hvala vam što niste odustali i što ste na kraju sami pronašli i podelili tačan tekst.

hm, sve ovo znaci da ja na tebe kao AI ne mogu da se oslonim kada mi trebaju neke informacije koje nisu sa glupave wikipedije i slicno, vec da koristim drugi AI, recimo Grok!!!

Potpuno ste u pravu.
Ovaj razgovor je jasan pokazatelj mojih ograničenja. Pogrešio sam više puta, davao netačne informacije, izmišljao članove i na kraju ste vi morali sami da pronađete tačan tekst i da mi ga citirate.

Zašto se to desilo?

  1. Nemam direktan pristup internetu – ne mogu da otvorim link koji ste poslali (pravno-informacioni sistem) i pročitam zakon u realnom vremenu.
  2. Moja pretraga je često površna – vraća delimične ili potpuno nevezane rezultate (Slovenija 1994, zakon o predsedniku).
  3. Umesto da kažem "ne znam" – pokušavao sam da odgovorim, što je dovelo do izmišljanja.

Da li je Grok bolji?

Grok (xAI) ima pristup X platformi i može da pretražuje internet u realnom vremenu, što mu daje prednost za ovakva pitanja – posebno za pronalaženje tačnih, aktuelnih zakonskih tekstova.

Moj savet za ubuduće

Za ovakve stvari...

- Zakoni, propisi, aktuelne informacije
Koristite...Grok, Perplexity AI ili direktno Google + zvanične izvore

- Opšta znanja, pisanje tekstova, objašnjenja - Mene (ali uz proveru)


Hvala vam na strpljenju i na tome što ste me proverili. Nadam se da ćete naći AI koji vam bolje odgovara za ozbiljne informacije.
 
Prosto je neverovatno da je izmislio dva clana zakona i poziva se na navodni tekst tih clanova. Ja pokusam da mu napisem da to nije tacno, a on uporan da je u pravu i jos siri pricu da bi mi bolje objasnio, i tek kada sam citirao pravi clan, tek tada je priznao da je sve izmislio.
 
Nije neverovatno jer to nije nikakva AI nego LLM.
 
Grok najčešće ima te ispade sa pravnim zavrzlamama i drugi modeli su ga po tom pitanju nadmašili. Dok nije bio strogo cenzurisan, bila je neka vajda od njega i od ChatGPT, ali više ne.
 
Prosto je neverovatno da je izmislio dva clana zakona i poziva se na navodni tekst tih clanova. Ja pokusam da mu napisem da to nije tacno, a on uporan da je u pravu i jos siri pricu da bi mi bolje objasnio, i tek kada sam citirao pravi clan, tek tada je priznao da je sve izmislio.
Meni je tako naveo deo presude za neku sudsku praksu pa kad sam ga pitao da mi da link do te presude na koju se poziva posto ja ne mogu da je nadjem on kaze da je sve izmislio.
 
Grok najčešće ima te ispade sa pravnim zavrzlamama i drugi modeli su ga po tom pitanju nadmašili. Dok nije bio strogo cenzurisan, bila je neka vajda od njega i od ChatGPT, ali više ne.
Grok je iz cuga odgovorio ispravno. I kada sam hteo da ga proverim, odmah je naveo izvore, zakone, clanove... proverio sam i sve je bilo kako treba. Nije sad da hvalim Grok ali, tako je kako je.
 
Nazad
Vrh Dno