Šta je novo?

OpenAI ChatGPT

meni se sve čini da jednog dana kada postanemo zavisni od njih, da će sve da ode u k. krasni
tipa izmisle hakerske udare, te ne rade ili počnu da se sprdaju s ljudima itd.

btw u beta test fazi, pa je džaba
našao sam na redditu, kada se preuzme i registruje beta nalog, radi claude 3.7 deepseek r1 i sl. vrv preko api ima i podešavanje temperature.
za par sati nisam dostigao ograničenje.
inače na claude zvaničnom sajtu 5-6 poruka pa čekaj
dok radi radi, plaćati im neću :D
 
Da li neko ima iskustva sa custom AI-em? Radim u firmi koja je lokalni partner za jedan global ERP Software, mali smo tim a ima klijenata koji svakodnevno postavljaju iznova trivijalna pitanja. Ideja je da istreniramo AI chatbot i da klijente preusmjeravano na naš website gdje bi mogli da dobiju AI podršku čime bi smanjili naše angažovanje. E sad, ovo na šta nalazim je preskupo, premalo promptova... Da li ima neko nekih preporuka?
 
Možete Gitbook da istenirate na vašoj dokumentaciji i onda da ih preusmerite na vaš docs, gde mogu da postavljaju pitanja "semantički". Mintlify je odličan, ali je skuplji.
 
A Google DialogFlow?
 
Da li neko ima preporuku za neki speech to text AI, Idealno za medicinksu terminologiju?
Aws ima neki, al je dosta skup, 15 minuta $4.5, sto je dosta skupo za nase potrebe.
 
Otkrio sam super ekstenziju za browser "ChatGPT - Sažeci veb stranica i YouTube videa" koja radi sa ChatGPT. I osim što na klik može da rezimira sadržaj svakog sajta, može da rezimira i sadržaj Youtube videa. Sama skonta transkript i iz njega prema predefinisanom upustvu odmah sažme sadržaj i umesto da se sluša 5 ili 30 min, može da se pričita ukratko brzo za pola min poruka videa i to na srpskom bez obzira na kom jeziku je video ili sajt sa tekstom.
 
meni se sve čini da jednog dana kada postanemo zavisni od njih, da će sve da ode u k. krasni
tipa izmisle hakerske udare, te ne rade ili počnu da se sprdaju s ljudima itd.

btw u beta test fazi, pa je džaba
našao sam na redditu, kada se preuzme i registruje beta nalog, radi claude 3.7 deepseek r1 i sl. vrv preko api ima i podešavanje temperature.
za par sati nisam dostigao ograničenje.
inače na claude zvaničnom sajtu 5-6 poruka pa čekaj
dok radi radi, plaćati im neću :D
20 dana testiram bez greške.
nije potreban nikakav feedback developerima, samo instaliraj i koristi.
potrebna je registracija, džaba je, može i sa temp mail nalogom
https://expanse.com/
trenutna verzija direktan link: installer

uglavnom u expanse aplikaciji po logovanju blokirati pristup internetu (firewall), dozvoliti microsoftedgewebview2 pristup internetu da bi radilo.
jedan dan sam ga baš bombardovao porukama ali bukvalno preko hiljadu poruka sam poslao modelu Sonnet 3.7 pa mi je prikazao da je potrošio 10$ api koji su limitirali u test verziji. Ostali modeli poput 03mini i deepseek r1 su radili i dalje. Posle 10-12sati resetovan je limit za klaude. Ovo mi se desilo samo jednom do sada, ali realno sam ceo dan bio za kompom i kucao mu brdo poruka i attachmenta.
Dok je u beta fazi maltene svi modeli su dostupni i temperatura može da se bira.


Dok ne naplaćuju i ne unosi se kartica dobro je.

Inače, šuška se po redditu da će google izbaciti Pro thinking model i/li i nov flash thinking/pro. Videćemo.
 
Poslednja izmena:
20 dana testiram bez greške.
nije potreban nikakav feedback developerima, samo instaliraj i koristi.
potrebna je registracija, džaba je, može i sa temp mail nalogom
https://expanse.com/
trenutna verzija direktan link: installer

uglavnom u expanse aplikaciji po logovanju blokirati pristup internetu (firewall), dozvoliti microsoftedgewebview2 pristup internetu da bi radilo.
jedan dan sam ga baš bombardovao porukama ali bukvalno preko hiljadu poruka sam poslao modelu Sonnet 3.7 pa mi je prikazao da je potrošio 10$ api koji su limitirali u test verziji. Ostali modeli poput 03mini i deepseek r1 su radili i dalje. Posle 10-12sati resetovan je limit za klaude. Ovo mi se desilo samo jednom do sada, ali realno sam ceo dan bio za kompom i kucao mu brdo poruka i attachmenta.
Dok je u beta fazi maltene svi modeli su dostupni i temperatura može da se bira.


Dok ne naplaćuju i ne unosi se kartica dobro je.

Inače, šuška se po redditu da će google izbaciti Pro thinking model i/li i nov flash thinking/pro. Videćemo.
Ako nije open source taj fajl, ne preporucujem nikome da ga startuje :)
 
Razlozi?
Naveo sam primer da se blokira firewallom jer generalno svemu zabranim konekcije koje nisu neophodne.
Naravno da je cs, gde dobijes maltene neogranicen sonnet 3.7 o3 mini high deepseek r1 itd.

Ako hoces opensource nabavi ultrajak gpu ili rig i koristi deepseek.
Imas opensource sve ujednom ali tu moras za svaki da unosis api key koji placas.
Ovo je dzabe ali sigurno samo u test fazi.
Nema virus detekcija.
WEbview je neophodan pristup netu zbog apija samih gpteva koji oni placaju u test fazi. Ja sam glavni exe blokirao jos da se ne apdejtuje automatski. Konekciju trosi u bajtovima maltene. Ja se ne opterecujem.
Dok radi radi, kad ne bude radilo brisem.
Imam premium grok ali sam zadovoljniji sonnetom.
 
Poslednja izmena:
Izvinjavam se moderatorima zbog posta za redom.
Google je dodao nov model.
:)
 

Prilozi

  • gemini 2.5 Pro.jpeg
    gemini 2.5 Pro.jpeg
    114.9 KB · Pregleda: 74
Gemini 2.0 Pro Experimental - sta je sa ovim, jesu li ga izbacili (nema ga u AI Studio)?
 
Tražim starijeg zidara, sede, proređene kose. Dobijam ovo.

a0e605f0-7d7e-4d18-b10d-ed19c6309dfc.png

Svaki put ista douchebag frizura, instagramuša. Zatrovali smo ove modele Instagramom.
 
ChatGPT danas kao retardiran. Otvoreno me zeza ceo dan. Dam mu da mi napravi jedan spisak od 174 stavke, on stavi 4 i kaze gotovo je. Pitam, gde je ostatak, u fajlu. Daj mi fajl, mozes da vidis i da ekranu. Vidim samo 4 od 174, aha, sad cu da izbacim ceo spisak. Izbaci mi samo 8 i kaze, eto svih 174. Gde su mi stavke, pa tu u fajlu. Pa daj mi fajl, eto ga spisak. Pa na spisku je samo 8 od 174, aha, sad cu da proverim.
Ceo dan nista nije uradio. Ne vredi ni dinar danas.
 
To je meni radio prije koju sedmicu, ja mu dao da mi prevede nekoliko poglavlja i ubaci u word, i on kaže evo radim, i nikako, ja pitam kako ide a on kaže "hoću da ti to dobro uradim pa mi treba vremena, ali ide fino, napredujem", i tako nekoliko DANA. Samo sam pustio da vidim šta će napraviti na kraju, pa sam ga povremeno pitao kako ide, i on uvijek tako neki fin i isti odgovor "radim, hoću da to fino uradim pa zato traje, ali napredujem", i kad me pita da li da mi da ono što je do tada uradio tada vidim da je preveo samo početak svakog poglavlja :) ja mu kažem da to nije sve a on kaže "ah da, evo sad ću spremiti novi fajl", i ono fajl isti, opet nedostaje puno toga :)
Na kraju ništa nije ni uradio, sredio sam to drugačije.

Radi bolje ako mu se ne da tako više posla odjednom, nego recimo poglavlje po poglavlje. Ne znam da li bi isto tako zezao da sam na plaćenoj verziji.
 
Ovo je bilo ukratko. Prvo mi je dao spisak 10 random itema sa izmisljenim ciframa kao primer da li mi se svidja. Onda je krenuo da me drnda kao vola i ja namerno zajunio da vidim koliko moze. 2x sam istrosio sve promptove i nije nista uradio. DeepSeek uradi iz prve i cao. I ChatGPT mi ove stvari obicno uradi odmah, stvarno nije apsolutno nista komplikovano. Danas je full retarded ili full troll, zavisi kako gledas :ROFLMAO:
 
Trebalo bi da ubace Veo 2 video generaciju u Google AI Studio. Neki korisnici na redditu javljaju da imaju već pristup dok drugi ne. Izgleda da nije razlog USA region, već postepeno proširuju kapacitet.
 

Prilozi

  • veo-2-available-in-ai-studio-free-v0-ourkawdyowte1.jpg
    veo-2-available-in-ai-studio-free-v0-ourkawdyowte1.jpg
    145.7 KB · Pregleda: 36
Ma sta prosiruju kad je juce opet retardiran bio do te mere da sam prezupcio. Zavrsim sav posao sta sam imao i ubacim fajl samo da proverim da nisam preskocio nesto, pitam koliko stavki ima na fakturi, kaze 63. 63 + rezervni delovi ili? Aha, 48+15. Inace ima 82 stavke. Kazem mu, napisi mi koliko ima stavki po svakoj strani i on nalupa neke brojeve da se saberu do 63.
I aj sad mrzi me da se peglam za sve, pitam ga koliko stavki ima na poslednjoj strani, kaze 4. Kako 4 kad ima 11? Da, ima 11. (pritom ima 13 ali nije bitno). Kazem mu, proveri opet fajl koliko ima stavki na poslednjoj strani, on napise 22. Ja vec ludim. Napisem, poredjaj mi po rednom broju sve stavke sa poslenje strane. On uredno napise i poredja svih 13 stavki i kaze da ih ima 13. Pitam, zasto si mi rekao da ima 4, pa 11, pa 22 ako ima 13. Upravu si, ima 14 stavki i ponovo mi izbaci spisak svih 13.
A to sam zalepio skroz.
Lupa random brojeve kao odgovore i nema nameru da proveri fajl koji sam mu dao. Kada mu zadas nesto konkretno da uradi to ce da uradi ok ali je toliko nepouzdan da ludim, bukvalno se prebacu u full retarted mode. S kinezom nemam tih problema.
 
Zadnje vreme kreiram neke složenije python skripte za automatizaciju. Google-ov 2.5 Pro experimentalni model u startu nije pravio problem za odgovor koji piše duže od 600 sekundi (otprilike 3500-4000 linija koda).
kako je prešao u preview varijantu počeo je da prekida izvršavanje na 600s tačno.
Ako može preporuka za isti model i alternativni sajt sa podešavanjem temperature koja nema ili ima manje limite?
 
Kad vec spomenu temperaturu, koliko i na sta zaista ima uticaj ta skala, sto se tiče koda konkretno?
I jel imas mozda neku generalnu preporuku sta je neka zlatna sredina ili je default ok?
 
Gotovo uvek koristim u rasponu od 0.0 do 0.5.
Da ne kuckam mnogo, ovako otprilike izgleda (prevod sa jednog sajta).

Temperatura je fundamentalni parametar kod velikih jezičkih modela (LLM) koji služi za kontrolu nivoa nasumičnosti i kreativnosti u generisanom tekstu.
Ovaj parametar direktno utiče na proces kojim model bira sledeću reč, odnosno token, u sekvenci koju generiše.
Podešavanjem temperature na niske vrednosti (obično ispod 1.0), izlaz modela postaje predvidljiviji, fokusiraniji i često konzistentniji ili čak repetitivan.
Suprotno tome, visoke vrednosti temperature (iznad 1.0) podstiču model da proizvodi raznovrsnije, neočekivanije i kreativnije odgovore, dajući veću šansu i manje verovatnim tokenima.
Za programere, temperatura je jedan od najvažnijih alata za fino podešavanje, omogućavajući im da prilagode ponašanje LLM-a specifičnim zahtevima aplikacije, bilo da je potrebna stroga doslednost ili veća inovativnost.
Modeli rade tako što iterativno generišu tokene, a pre svakog koraka, različitim mogućim sledećim tokenima dodeljuju se određene verovatnoće (likelihoods).
Temperatura interveniše u ovom procesu tako što modifikuje te dodeljene verovatnoće pre nego što model donese konačnu odluku o sledećem tokenu.
Tehnički, ovo se postiže uticajem na SoftMax funkciju, koja pretvara sirove rezultate modela (logite) u distribuciju verovatnoća za moguće sledeće tokene.
Niska temperatura "oštri" ovu distribuciju, snažnije favorizujući najverovatnije tokene, dok je visoka temperatura "izravnava", čineći manje verovatne tokene relativno izglednijim.
Većina LLM API-ja (kao što su OpenAI, Anthropic, Gemini) podržava podešavanje temperature, obično u opsegu od 0.0 do 1.0 ili 2.0, sa podrazumevanom vrednošću često postavljenom na 1.0.
Iako temperatura od 0.0 teoretski teži potpunoj predvidljivosti (determinizmu) birajući uvek najverovatniji token, u praksi se zbog faktora poput paralelnog izvršavanja postiže samo skoro-determinističko ponašanje.
Temperatura se razlikuje od alternativnih metoda kontrole kao što su Top P (filtriranje po kumulativnoj verovatnoći) i Top K (filtriranje po broju najverovatnijih tokena), jer ona menja same verovatnoće umesto da samo bira podskup tokena.

Uticaj Temperature na Generisanje Koda (Raspon 0.0 - 2.0- Gemini AI Studio)

Princip ostaje isti: temperatura kontroliše balans između predvidljivosti/konzistentnosti i kreativnosti/raznovrsnosti u generisanom kodu.


1. Niska Temperatura (npr. 0.0 - 0.5)

  • Uticaj:
    • Generiše kod koji je vrlo standardan, predvidljiv i konzistentan.
    • Čvrsto se drži najčešćih sintaksnih obrazaca, standardnih biblioteka i statistički najverovatnijih rešenja.
    • Minimalna varijacija između pokretanja za isti upit.
  • Dobro za:
    • Pisanje boilerplate koda (ponavljajući delovi).
    • Dovršavanje koda gde je kontekst jasan i nedvosmislen.
    • Ispravljanje očiglednih sintaksnih grešaka.
    • Generisanje koda po veoma striktnim uputstvima ili poznatim, jednostavnim algoritmima.
    • Osiguravanje maksimalne konzistentnosti stila kodiranja.
  • Rizik:
    • Može biti previše rigidan, neće ponuditi alternativna ili inovativna rešenja.
    • Može ponavljati iste (potencijalno neoptimalne ili pogrešne) obrasce ako su oni statistički najverovatniji.
    • Može se "zaglaviti" na jednom putu rešavanja.

2. Srednja Temperatura (npr. 0.6 - 1.1)

  • Uticaj:
    • Nudi balans između predvidljivosti i korisne varijacije.
    • Kod će uglavnom biti ispravan i slediti uobičajene prakse, ali sa dozom fleksibilnosti.
    • Može koristiti malo drugačije nazive promenljivih, blago drugačiju strukturu ili pristup, ali teži ka funkcionalnom rešenju.
    • Vrednost 1.0 je često podrazumevana (default) i predstavlja referentnu tačku za "prosečnu" nasumičnost.
  • Dobro za:
    • Opšte zadatke kodiranja gde želite funkcionalno rešenje bez prevelike rigidnosti.
    • Generisanje primera ili početnih verzija funkcija/klasa.
    • Dobijanje nekoliko razumnih, ali blago različitih predloga za isti problem.
    • Refaktorisanje koda uz zadržavanje funkcionalnosti.
  • Rizik:
    • Povremeno može generisati manje optimalan ili blago nekonvencionalan kod.
    • Rezultati mogu biti manje konzistentni između pokretanja nego kod niskih temperatura.

3. Visoka Temperatura (npr. 1.2 - 2.0)

  • Uticaj:
    • Generiše znatno raznovrsniji, kreativniji, ali i mnogo manje predvidljiv i često nestabilan kod.
    • Model će češće birati manje verovatne tokene, što može dovesti do neočekivanih rezultata.
    • Povećava šansu za korišćenje neobičnih ili manje poznatih biblioteka/funkcija.
    • Može predložiti alternativne, ponekad čudne ili veoma inovativne algoritamske pristupe.
    • Značajno veća šansa za sintaksne greške, logičke propuste i "halucinacije" koda.
  • Dobro za:
    • Brainstorming potpuno različitih pristupa rešavanju problema (rezultate obavezno pažljivo proveriti!).
    • Generisanje kreativnih ili umetničkih primera koda.
    • Istraživanje manje očiglednih ili eksperimentalnih mogućnosti.
    • Dobijanje velikog broja veoma različitih varijacija (od kojih će mnoge biti neupotrebljive).
  • Rizik:
    • Visoka verovatnoća da generisani kod neće biti direktno upotrebljiv, da će biti neispravan, neefikasan ili nesiguran.
    • Zahteva pažljivu ljudsku proveru, testiranje i često značajne izmene.
    • Rezultati su veoma nekonzistentni.

Preporuka za "Zlatnu Sredinu" i Default:

  • Default (često 1.0) je razumna polazna tačka za eksperimentisanje kod opštih zadataka.
  • Za pouzdanije i konzistentnije generisanje funkcionalnog koda, često je bolje koristiti nižu srednju temperaturu (npr. 0.5 - 0.8). Ovaj opseg nudi dobar balans, zadržavajući fleksibilnost uz smanjenje rizika od grešaka.
  • Ako vam je potrebna maksimalna predvidljivost i striktno praćenje šablona (npr. automatsko generisanje), koristite nisku temperaturu (npr. 0.2 - 0.4).

Zaključak:

Ne postoji jedna univerzalna "najbolja" temperatura za kodiranje. Izbor zavisi od vašeg cilja:

  • Tačnost i Konzistentnost: Idite ka nižim vrednostima (0.0 - 0.5).
  • Balans Funkcionalnosti i Fleksibilnosti: Ciljajte niže srednje vrednosti (0.5 - 0.8).
  • Kreativnost i Istraživanje (uz rizik): Eksperimentišite sa višim vrednostima (1.2+), ali budite spremni na proveru i ispravke.
Počnite sa vrednošću oko 0.7 ili default vrednošću (npr. 1.0) i prilagođavajte: smanjite ako su rezultati previše nasumični ili netačni; povećajte ako su previše rigidni ili jednolični.


Evo tri liste sa po 10 čestih primena LLM-a, grupisane po zahtevanom nivou tačnosti/kreativnosti i sa preporučenim rasponom temperature (0.0 - 2.0):

1. Primene koje zahtevaju Visoku Tačnost i Konzistentnost (Niže Temperature)

Primena (Aplikacija)Preporučena Temperatura (0.0 - 2.0)
1. Ekstrakcija Podataka0.0 - 0.3
2. Odgovaranje na Činjenična Pitanja0.1 - 0.4
3. Klasifikacija Teksta0.1 - 0.4
4. Analiza Sentimenta0.1 - 0.5
5. Generisanje Koda (Precizno)0.2 - 0.5
6. Debugiranje/Objašnjenje Koda0.1 - 0.4
7. Validacija Podataka/Formata0.0 - 0.3
8. Pisanje Tehničke Dokumentacije0.2 - 0.5
9. Generisanje SQL Upita (po spec.)0.1 - 0.4
10. Provera Gramatike i Pravopisa0.1 - 0.4
2. Primene koje Balansiraju Tačnost i Kreativnost (Srednje Temperature)

Primena (Aplikacija)Preporučena Temperatura (0.0 - 2.0)
1. Sažimanje Teksta0.5 - 0.8
2. Prepričavanje/Parafraziranje0.6 - 1.0
3. Pisanje Formalnih Emailova0.5 - 0.8
4. Objašnjavanje Kompleksnih Koncepata0.6 - 1.0
5. Generisanje Opisa Proizvoda0.7 - 1.1
6. Chatbot za Korisničku Podršku0.5 - 0.9
7. Prevođenje (sa stilom)0.5 - 0.9
8. Pisanje Blog Postova/Članaka0.7 - 1.1
9. Generisanje Izveštaja (sa narativom)0.6 - 0.9
10. Pomoć pri Učenju/Tutorstvo0.6 - 1.0
3. Primene koje Zahtevaju Visoku Kreativnost i Raznovrsnost (Više Temperature)

Primena (Aplikacija)Preporučena Temperatura (0.0 - 2.0)
1. Brainstorming Ideja0.9 - 1.4
2. Kreativno Pisanje (Priče, Pesme)1.0 - 1.6
3. Pisanje Marketing Slogana0.8 - 1.3
4. Role-Playing / Generisanje Likova1.0 - 1.7
5. Generisanje Šala/Dosetki1.0 - 1.5
6. Neformalan Razgovor0.8 - 1.3
7. Generisanje Umetničkih Opisa1.0 - 1.6
8. Pisanje Govora (kreativni deo)0.9 - 1.4
9. Generisanje Scenarija/Dijaloga1.0 - 1.5
10. Stvaranje Novih Koncepata/Imena1.1 - 1.8
 
^^
Primetio sam :ROFLMAO:
Prvo smo imali ozbiljnu diskusiju gde sam iznosio neke stavove koji jesu realni za pohvalu, ali kada sam počeo u drugom razgovoru da lupam nešto jednostavno a on to hvalio kao nešto grandiozno bi mi sve jasno :sleep:
 
Nazad
Vrh Dno