Tehno Novo

Tag: AI

  • Novi test za laboratorije veštačke inteligencije: Da li uopšte pokušavate da zaradite novac?

    Nalazimo se u jedinstvenom trenutku za kompanije koje se bave veštačkom inteligencijom i grade sopstveni temeljni model.

    Prvo, postoji čitava generacija veterana industrije koji su stekli ime u velikim tehnološkim kompanijama, a sada počinju da posluju samostalno. Takođe imate legendarne istraživače sa ogromnim iskustvom, ali dvosmislenim komercijalnim aspiracijama. Postoji jasna šansa da će barem neke od ovih novih laboratorija postati giganti veličine OpenAI-a, ali postoji i prostor za njih da se bave zanimljivim istraživanjima bez previše brige o komercijalizaciji.

    Krajnji rezultat? Sve je teže reći ko zapravo pokušava da zaradi novac.

    Da bih stvari pojednostavio, predlažem neku vrstu klizne skale za svaku kompaniju koja pravi temeljni model. To je skala od pet nivoa gde nije važno da li zaista zarađujete novac – samo ako pokušavate. Ideja je da se meri ambicija, a ne uspeh.

    Razmislite o tome na ovaj način:

    Nivo 5: Već zarađujemo milione dolara svakog dana, hvala vam puno.

    Nivo 4: Imamo detaljan višestepeni plan da postanemo najbogatija ljudska bića na Zemlji. Nivo 3: Imamo mnogo obećavajućih ideja za proizvode, koje će biti otkrivene u dogledno vreme. Nivo 2: Imamo obrise koncepta plana. Nivo 1: Pravo bogatstvo je kada volite sebe.

    Velika imena su sva na Nivou 5: OpenAI, Anthropic, Gemini i tako dalje. Skala postaje zanimljivija sa novom generacijom laboratorija koje se sada pokreću, sa velikim snovima, ali ambicijama koje je teže pročitati.

    Ključno je da ljudi uključeni u ove laboratorije generalno mogu da izaberu koji god nivo žele. Trenutno ima toliko novca u veštačkoj inteligenciji da ih niko neće ispitivati za poslovni plan. Čak i ako je laboratorija samo istraživački projekat, investitori će se smatrati srećnim što su uključeni. Ako niste posebno motivisani da postanete milijarder, verovatno ćete živeti srećniji život na nivou 2 nego na nivou 5.

    Problemi nastaju zato što nije uvek jasno gde se laboratorija za veštačku inteligenciju nalazi na skali — i veliki deo trenutne drame industrije veštačke inteligencije potiče iz te konfuzije. Veliki deo zabrinutosti zbog konverzije OpenAI-a iz neprofitne organizacije nastao je zato što je laboratorija godinama bila na nivou 1, a zatim je skoro preko noći skočila na nivo 5. S druge strane, mogli biste tvrditi da je Meta-ovo rano istraživanje veštačke inteligencije bilo čvrsto na nivou 2, kada je ono što je kompanija zaista želela bio nivo 4.

    Imajući to u vidu, evo kratkog pregleda četiri najveće savremene laboratorije za veštačku inteligenciju i kako se one mere na skali.

    Ljudi i su bili velika vest o veštačkoj inteligenciji ove nedelje i deo inspiracije za stvaranje cele ove skale. Osnivači imaju ubedljivu ideju za sledeću generaciju modela veštačke inteligencije, gde zakoni skaliranja ustupaju mesto naglasku na alatima za komunikaciju i koordinaciju.

    Ali uprkos svim oduševljenim komentarima u štampi, Humans& je bio uzdržan u vezi sa tim kako bi se to pretvorilo u stvarne monetizujuće proizvode. Izgleda da žele da prave proizvode; tim jednostavno neće da se obaveže ni na šta konkretno. Najviše što su rekli je da će napraviti neku vrstu veštačke inteligencije za radno mesto, zamenjujući proizvode poput Slack-a, Jira-e i Google Docs-a, ali i redefinišući način rada ovih drugih alata na fundamentalnom nivou. Softver za radno mesto za post-softversko radno mesto!

    Moj je posao da znam šta ovo znači, i još uvek sam prilično zbunjen oko ovog poslednjeg dela. Ali je dovoljno specifično da mislim da ih možemo svrstati na nivo 3.

    Laboratorija „Thinking Machines“

    Ovo je veoma teško oceniti! Generalno, ako imate bivšeg tehničkog direktora i rukovodioca projekta za ChatGPT koji prikuplja 2 milijarde dolara početnog kapitala, morate pretpostaviti da postoji prilično specifičan plan. Mira Murati mi ne deluje kao neko ko uskače bez plana, tako da bih se u 2026. godini osećao dobro stavljajući TML na nivo 4.

    Ali onda su se dogodile poslednje dve nedelje. Odlazak tehničkog direktora i suosnivača Bareta Zofa dospeo je na većinu naslova, delimično zbog posebnih okolnosti. Ali najmanje petoro drugih zaposlenih je otišlo sa Zofom, mnogi navodeći zabrinutost zbog pravca kompanije. Samo godinu dana kasnije, skoro polovina rukovodilaca osnivačkog tima TML-a više ne radi tamo. Jedan od načina da se protumače događaji je da su mislili da imaju solidan plan da postanu svetska klasa laboratorija za veštačku inteligenciju, samo da bi otkrili da plan nije bio tako solidan kao što su mislili. Ili, što se tiče obima, želeli su laboratoriju nivoa 4, ali su shvatili da su na nivou 2 ili 3.

    Još uvek nema dovoljno dokaza da se opravda snižavanje ocene, ali je blizu.
    Svetske laboratorije

    Fej-Fej Li je jedno od najcenjenijih imena u istraživanju veštačke inteligencije, najpoznatija po osnivanju izazova ImageNet koji je pokrenuo savremene tehnike dubokog učenja. Trenutno drži katedru koju je dodelila Sekvoja na Stanfordu, gde je ko-rukovodilac dve različite laboratorije za veštačku inteligenciju. Neću vas dosađivati nabrajajući sva različita priznanja i pozicije u akademiji, ali dovoljno je reći da bi, ako bi želela, mogla da provede ostatak života samo primajući nagrade i slušajući koliko je sjajna. Njena knjiga je takođe prilično dobra!

    Dakle, 2024. godine, kada je Li objavila da je prikupila 230 miliona dolara za kompaniju za prostornu veštačku inteligenciju pod nazivom Svetske laboratorije, mogli biste pomisliti da poslujemo na nivou 2 ili nižem.

    Ali to je bilo pre više od godinu dana, što je dugo vreme u svetu veštačke inteligencije. Od tada, World Labs je isporučio i kompletan model generisanja sveta i komercijalizovani proizvod izgrađen na njemu. U istom periodu, videli smo stvarne znake potražnje za modeliranjem sveta, kako iz industrije video igara, tako i iz industrije specijalnih efekata — i nijedna od velikih laboratorija nije napravila ništa što može da se takmiči. Rezultat jako liči na kompaniju nivoa 4, koja će možda uskoro preći na nivo 5.

    Bezbedna superinteligencija (SSI)

    Osnovana od strane bivšeg glavnog naučnika OpenAI-a, Ilje Suckevera, Bezbedna superinteligencija (ili SSI) deluje kao klasičan primer startapa nivoa 1. Suckever se mnogo trudio da SSI izoluje od komercijalnih pritisaka, do te mere da je odbio pokušaj akvizicije od Mete. Nema ciklusa proizvoda i, osim još uvek razvijenog modela superinteligentne osnove, čini se da uopšte nema proizvoda. Ovom prezentacijom je prikupio 3 milijarde dolara! Suckever je oduvek bio više zainteresovan za nauku o veštačkoj inteligenciji nego za posao, i sve ukazuje na to da je ovo u srži istinski naučni projekat.

    Uz to rečeno, svet veštačke inteligencije se brzo kreće — i bilo bi glupo potpuno isključiti SSI iz komercijalne sfere. U svom nedavnom pojavljivanju na Dwarkesh-u, Suckever je naveo dva razloga zašto bi SSI mogao da se promeni, bilo „ako se vremenski rokovi ispostave dugim, što bi mogli biti“ ili zato što „postoji velika vrednost u tome da najbolja i najmoćnija veštačka inteligencija utiče na svet“. Drugim rečima, ako istraživanje bude išlo veoma dobro ili veoma loše, mogli bismo videti kako SSI brzo skače za nekoliko nivoa

  • Direktori tehnoloških kompanija se hvale i prepiru oko veštačke inteligencije u Davosu

    Bilo je trenutaka na ovogodišnjem sastanku Svetskog ekonomskog foruma kada se činilo da se Davos transformisao u moćnu tehnološku konferenciju, sa pojavljivanjem na sceni izvršnog direktora Tesle, Jensena Huanga, Darija Amodeija, izvršnog direktora Antropika, Satje Nadele, izvršnog direktora Majkrosofta, i još više rukovodilaca iz industrije.

    Glavna tema, nije iznenađujuće, bila je veštačka inteligencija, gde su izvršni direktori izneli viziju transformativnog potencijala tehnologije, a istovremeno priznali stalnu zabrinutost da naduvaju ogroman balon. Usred svih tih prognoza velikih slika, našli su vremena i da kritikuju svoje konkurente, pa čak i svoje navodne partnere.

    U najnovijoj epizodi podkasta „Equity“ na TechCrunch-u, razgovarao sam o svemu što se tiče Davosa sa Kirsten Korosec i Šonom O’Kejnom iz TechCrunch-a.

    Kirsten je primetila da se konferencija činila transformisanom u odnosu na prethodne godine, sa tehnološkim kompanijama poput Mete i Sejlsforsa koje su preuzele glavnu šetalište, dok važne teme poput klimatskih promena nisu privukle publiku. A Šon je rekao da čak i ako rukovodioci veštačke inteligencije nisu baš „prosili za korišćenje i više kupaca“, ponekad bi se to moglo tako osećati.

    Pročitajte pregled našeg celog razgovora, izmenjenog radi dužine i jasnoće, ispod.

    Kirsten: Neke od diskusija o, recimo, klimatskim promenama ili siromaštvu i velikim globalnim problemima, [ne] baš privlače publiku. U međuvremenu, na glavnoj promenadi u Davosu, u Švajcarskoj, neke od najvećih prodavnica su preuređene i preuzele su ih kompanije poput Mete i Sejlsforsa, Tate, takođe i mnoge zemlje Bliskog istoka. I mislim da je najveća bila Kuća SAD, koju su sponzorisali MekKinzi i Majkrosoft. Zaista se vizuelno osećalo drugačije.

    A onda je Ilon Mask bio tamo — Šone, ti i ja smo to slušali. Nije bilo mnogo toga tamo, ali reći ću da je bilo zanimljivo što se pojavio, jer je u prošlosti izbegavao Davos.

    Entoni: Pokušavali smo da izvučemo tehnološki sadržaj Davosa, [i] postoje stvari koje apsolutno vredi istaći ovde, ali je takođe zapanjujuće kako, posebno sada kada je veštačka inteligencija postala tako velika poslovna priča, teško je potpuno odvojiti to od svih ostalih tema koje se dešavaju u smislu većih pitanja o međunarodnoj trgovini, o svetskoj politici.

    Jedan od velikih naslova koji je izašao [iz Davosa], barem za nas, bile su izjave izvršnog direktora kompanije Anthropic, gde je on u osnovi napao ovu odluku Trampove administracije da dozvoli Nvidiji da šalje čipove Kini. To je priča koja je tehnološka priča, ali je takođe i trgovinska priča, to je politička priča.

    Mislim da što se tiče suštine onoga što je rekao, meni je delovalo dosledno u smislu da se generalno oseća prijatno dok lažno priča, a takođe i da je to ova zanimljiva rečenica [u diskursu o veštačkoj inteligenciji] gde postoji element kritike, ali se takođe povezuje sa ovom zaista intenzivnom hajpom oko veštačke inteligencije. Jedna od fraza koju je koristio bila je da je centar podataka o veštačkoj inteligenciji kao zemlja puna genija. Imam pitanja o tome — ali on kaže: „Kako bismo uopšte mogli da pošaljemo sve ove čipove u Kinu ako smo zabrinuti za Kinu? Zato što u suštini šaljemo zemlju punu genija u Kinu i dozvoljavamo im da je kontrolišu.“

    Šon: Verovatno biste mogli da napunite svesku svim različitim čudnim frazama koje ovi generalni direktori koriste ove nedelje. Druga koja mi je ostala u sećanju je da je Satja Nadela stalno nazivao data centre fabrikama tokena, što je divna apstrakcija onoga za šta on misli da su tamo.

    Znate, dve stvari su mi zaista zapale za oko u vezi sa svim različitim stvarima koje su ovi generalni direktori rekli u različitim delovima nedelje. Jedna je da se oni definitivno svi međusobno vređaju — ne samo Antropik sa Nvidijom, što je samo po sebi zanimljivo, jer je Antropik veliki Nvidijin kupac i koristi Nvidijine grafičke procesore, i tu postoji zanimljiva tenzija. Ali i samo videti ih kako sede jedan pored drugog i zaista se malo više povlače, znate, stavljaju noževe malo više nego što smo navikli.

    Znamo da se svi bore da budu vodeći i da takođe pokušavaju da zadrže talente, a da se pritom ne preterano troše. I ovo je bio jedan od prvih puta kada se zaista osetila ta tenzija i da su bili prisutni zbog nje. Te dve stvari često nisu tačne u isto vreme.

    Druga stvar, u vezi sa vašom poentom o velikoj meri geopolitike i poslovanja – ovo je bilo najočiglednije što smo, po mom mišljenju, dali ovim izvršnim direktorima do znanja šta misle da im je potrebno da bi nastavili da uspevaju.

    Satja Nadela — mislim da biste to mogli nepovoljno pročitati na ovaj način, ali ne mislim da je toliko nepovoljno — manje-više je bilo kao: „Više ljudi treba da koristi ovo ili će biti balon, i to puknut balon.“ On je zauzeo mnogo drugačiji stav u nekim aspektima od Darija Amadeija iz Anthropic-a, jer je Nadelin fokus zapravo na pokušaju da se što više iskoristi [i] kako da se uverimo da je veštačka inteligencija ravnopravna u svim ovim različitim zajednicama i širom sveta, umesto da se koncentriše na jednom mestu, kao što su samo bogata mesta, što sam smatrao zanimljivom tenzijom. Ali postoji element da on odaje igru ne baš prosjačenja za korišćenje i više kupaca… ali otprilike.

    I do tada je Jensen Huang iz Nvidia-e uradio nešto slično, gde je manje-više rekao: „Ne ulažemo dovoljno u ovo i potrebna su nam veća ulaganja da bismo ovo mogli da funkcioniše.“

    Kirsten: Jensenovi komentari su bili zanimljivi jer je zaista govorio o tome u smislu stvaranja radnih mesta, i moglo bi se reći da će doći do trenutka kada će se izgradnja usporiti, ali niko o tome trenutno zapravo ne govori.

    Druga stvar, mislim, bila je dobra poenta koju ste izneli, a to je da ih nikada nismo videli sve zajedno u prostoriji kako se međusobno prepiru. Često ćete imati, na primer, Sema Altmana na konferenciji ili Satju [Nadelu], ali evo ih svih zajedno. Dakle, čujete to u realnom vremenu.

  • Generacija veštačke inteligencije na vašem Raspberry Pi-ju: Praktični pregled Raspberry Pi AI HAT+ 2

    Od radnih opterećenja računarskog vida do velikih jezičkih modela (LLM), najnoviji akcelerator Hailo-10H kompanije Raspberry Pi nudi 40 TOPS INT4 izračunavanja.

    Raspberry Pi se ponovo vraća na poleđinu veštačke inteligencije (AI), najavljujući najnoviji unos u svoju porodicu akceleratora za Raspberry Pi 5 — i ovog puta se fokusira na generativnu AI, posebno na velike jezičke modele (LLM).

    Raspberry PI AI HAT+ 2 je izgrađen oko koprocesora Hailo-10H, pružajući navodnih 40 teraoperacija u sekundi (TOPS) izračunavanja sa smanjenom INT4 preciznošću. Takođe mu se prvi put pridružilo 8 GB namenske LPDDR4 RAM memorije, što mu daje snagu potrebnu za pokretanje LLM-ova sa do 1,5 milijardi parametara.

    Da li je ovo način od 130 dolara da se uđe u vrata buma generativne AI, ili samo još više vrućeg vazduha koji naduvava AI mehur? Hajde da saznamo.

    Hardver

    Form faktor: Hardver pričvršćen na vrhu plus (HAT+)
    NPU: Hailo-10H akcelerator, navodno 40 TOPS (INT4 preciznost)
    Memorija: 8GB LPDDR4 (modeli od 4GB, 2GB nagovešteni, ali još nisu lansirani)
    Kompatibilnost: Samo Raspberry Pi 5
    Interfejs: PCI Express preko Raspberry Pi 5 standarda FFC, 40-pinski opšti ulazno/izlazni konektor (GPIO)
    Potrošnja energije: tipično 2,5W
    Sadržaj kutije: AI HAT+ 2, hladnjak sa nosačima za puš-pinove, produženi GPIO konektor, stubovi za montažu i zavrtnji, kartica sa uputstvima za instalaciju hladnjaka
    Cena: 130 dolara

    Raspberry Pi AI HAT+ 2 je, neće vas uopšte iznenaditi, nastavak ranijeg Raspberry Pi AI HAT+, koji gotovo savršeno odgovara form faktoru svog prethodnika, ali zamenjuje Hailo-8 ili Hailo-8L koprocesor novijim Hailo-10H. U sirovim brojkama, to znači povećanje navedenih računarskih performansi sa 13 ili 26 tera-operacija u sekundi (TOPS) na impresivnih 40 za istu potrošnju energije — ali stvari nisu baš tako jednostavne.

    Porodica Hailo-8 koprocesora usmerenih na veštačku inteligenciju, korišćenih u originalnoj AI HAT+ seriji, radila je sa preciznošću INT8, ali Hailo-10H radi sa INT4. Smanjenje preciznosti znači da modeli mogu da ugrade manje RAM-a i da rade sa poboljšanim performansama na kompatibilnom hardveru — ali proces smanjenja preciznosti modela, poznat kao „kvantizacija“, može imati merljiv uticaj na tačnost odgovora modela.

    Postoji još jedna promena u dizajnu novog akceleratora: dodavanje namenske RAM memorije. Originalni AI HAT+ je koristio sopstvenu sistemsku memoriju Raspberry Pi-ja za čuvanje modela i podataka na kojima je radio; AI HAT+ 2 se udaljava od ovog objedinjenog modela memorije sa 8 GB ugrađene RAM memorije, nevidljive za Raspberry Pi, koju može koristiti samo sam Hailo koprocesor.

    To pokreće crvenu zastavicu u pogledu budućih cena. Poslednjih meseci cena RAM komponenti je naglo porasla, zahvaljujući – ironično – nezasitnoj potražnji zbog buma veštačke inteligencije. Raspberry Pi je već bio primoran da poveća cenu svojih proizvoda sa jednom pločom, a verovatno će uslediti još veća povećanja cena; sada stavlja 8 GB sve skuplje LPDDR4 memorije na AI HAT+ 2 i nada se da njegova tražena cena od 130 dolara nudi dovoljnu marginu da se zaštiti od daljeg povećanja troškova komponenti.

    Međutim, postoje dokazi da Raspberry Pi ovde osigurava svoje opklade: jedini model AI HAT+ 2 dostupan pri lansiranju ima 8 GB RAM-a, ali sitoštampanje za otpornike na ploči otkriva da su nenajavljene varijante od 4 GB i 2 GB, barem, pomenute kao mogućnost. Ukoliko cene komponenti nastave da rastu, što će gotovo sigurno biti slučaj, ovo daje Raspberry Pi-ju prostor da poveća cenu vodećeg modela od 8 GB i da lansira jeftinije verzije kako bi ublažio udarac — pristup koji je već primenjen sa porodicom Raspberry Pi 5 jednopločnih računara.

    U kombinaciji, 8 GB namenske RAM memorije i prelazak na hardver koji podržava INT4 pružaju jednu stvar posebno: podršku za generativne AI modele, posebno modele velikih jezika (LLM).

    Instalacija

    Instaliranje Raspberry Pi AI HAT+ 2 je jednostavno kao i kod njegovog prethodnika: nalazi se iznad tela Raspberry Pi 5 — raniji modeli nisu kompatibilni zbog nedostatka PCI Express linije izložene korisniku, a ni Raspberry Pi 500 i Pi 500+ klinasti računari niti Raspberry Pi Compute Module 5 osim ako nisu instalirani na nosaču Raspberry Pi 5 formata — na ugrađenim postoljima, što obezbeđuje prostor za aktivni hladnjak ispod.

    Unapred ugrađeno ravno fleksibilno kolo (FFC) povezuje ploču sa PCI Express linijom na Raspberry Pi 5, jednostavnim slučajem podizanja poklopca konektora i ponovnog guranja kabla i poklopca nazad, dok se zaglavlje povezuje sa 40-pinskim GPIO (opštim ulazno/izlaznim) pinovima Raspberry Pi-ja. Iako je ovo, tehnički, prolazno ako se koristi sa dovoljno dugim GPIO produžetkom, ugrađeni hardver za montažu ne otkriva nijedan pin — tako da ne možete koristiti AI HAT+ 2 sa bilo kojim drugim GPIO povezanim hardverom.

    Završna faza je instaliranje hladnjaka, što je pomalo komplikovano iskustvo. Iako nije obavezno, njegova upotreba se preporučuje — a instalacija zahteva da pažljivo skinete zaštitnu plastiku sa prethodno instaliranih termalnih jastučića, a zatim umetnete dva veoma čvrsta plastična klina tipa krila kroz rupe za montažu na vrhu ploče. Ovo zahteva više sile nego što biste očekivali i potrebna je pažnja da se ne zgnječi nijedan deo na ploči.

    Softverska strana stvari je malo komplikovanija — mada kritike ovde treba čitati uz razumevanje da je ova recenzija napravljena pre javnog lansiranja koristeći preliminarni softver, tako da su poboljšanja na ovom frontu, nadamo se, već na mestu. Hailo-10 ima drugačiju arhitekturu od Hailo-8, što znači da moraju biti instalirani posebni drajveri; zatim morate instalirati softver koji vam omogućava da zapravo koristite akcelerator: Hailov LLM model zoo vrt.

    U vreme recenzije postojala su dva načina da se to uradi. Prvi je da se registrujete na Hailo — besplatno je — i preuzmete .deb paket iz kompanijske „Zone za programere“. Pre ažuriranja objavljenog 8. januara, ovo je funkcionisalo dobro; međutim, ažuriranje je prekinulo kompatibilnost sa Raspberry Pi OS-om. Drugi način je da klonirate GitHub repozitorijum kompanije i sami ga kompajlirate — prilično brz proces na Raspberry Pi 5, ali za koji su zvanična uputstva ponekad netačna ili nepotpuna, što ga čini težim nego što je potrebno.

    Postoji i drugi repozitorijum, odvojen od Model Zoo-a i nudi širi spektar primernih aplikacija ne samo za generativna AI opterećenja već i za računarski vid. Ovaj metod instalacije je samo jedan: klonirajte repozitorijum i pokrenite uključenu shell skriptu sa root dozvolama, koja preuzima preduslove i kompajlira potreban izvorni kod. Za razliku od Model Zoo-a, ovo je nešto zahtevnija stvar — i pokušaji instaliranja softvera na Raspberry Pi 5 2GB doveli su do toga da „ubica“ zbog nedostatka memorije prekine proces pre završetka. Prelazak na vrhunski Raspberry Pi 5 16GB je, naravno, rešio ovaj problem.
    Pričaj sa mnom

    Hailov zoološki vrt modela dolazi sa pet velikih jezičkih modela koje možete preuzeti, kompatibilnih sa Hailo-10H: qwen2:1.5b, qwen2.5:1.5b, qwen2.5-coder:1.5b, llama3.2:1b i deepseek_r1:1.5b — svaki u rasponu od jedne do 1,5 milijardi parametara, što je oko gornje granice gde vas 8 GB RAM-a može dovesti. Njima upravlja port ollama koji je kompatibilan sa veb interfejsom Open WebUI — mada ga morate instalirati u Doker kontejner, jer ne radi sa verzijom Pajtona koja se trenutno isporučuje u Raspberry Pi OS-u „Trixie“.

    Moguće je interakcija sa bilo kojim od pet LLM-ova, koji se moraju pojedinačno preuzeti, a svaki zauzima nekoliko gigabajta prostora za skladištenje, bez Open WebUI-ja, ali to uključuje nespretne HTTP POST zahteve koji vraćaju teško čitljive JSON objekte. Otvoreni VebUI pruža elegantan veb interfejs, otkrivajući da pokrenuti LLM radi kao četbot poput komercijalne usluge, pa čak i uključujući mogućnost korišćenja prepoznavanja glasa i pretvaranja teksta u govor za upite uživo u razgovoru — iako su to pregledači blokirali tokom testiranja, iz razloga koji će postati jasni.

    Nažalost, Open WebUI je ogromna bezbednosna rupa, čak i ako se uzme u obzir njegova nedavno ispravljena ranjivost za daljinsko izvršavanje koda. Jednom instaliran, vezuje se za sve mrežne interfejse, omogućavajući potpun pristup sa bilo kog drugog uređaja na mreži. Prvi korisnik koji mu pristupi u pregledaču biće zamoljen da kreira „administratorski“ nalog zaštićen lozinkom, ali ovi akreditivi – i sve ostalo, uključujući vaše upite i odgovore – šalju se putem nešifrovane HTTP veze.

    Za one koji žele da pokrenu lokalni LLM server kod kuće, stvari postaju još gore: svi upiti poslati hailo-ollama veb API-ju, bilo sa Open WebUI-ja, drugih kompatibilnih klijenata ili ručnih HTTP zahteva, šalju se terminalu koji je pokrenuo hailo-ollama server – zajedno sa LLM-ovim odgovorom. Za deljenu upotrebu, to je noćna mora za privatnost.

    Ostavljajući to po strani, Open WebUI radi prilično dobro. Nažalost, isto se ne može reći za modele. Iako dele imena sa popularnim modelima velikih jezika, znatno su smanjeni u broju parametara i kvantizovani na INT4 preciznost – i to se vidi. Svi testirani modeli nisu prošli „test jagode“, gde se LLM pita koliko puta se slovo R pojavljuje u reči „jagoda“, a qwen2:1.5b je otišao toliko daleko da je odgovorio da „ne postoji tako nešto kao ‘jagoda’“ nakon što je prvobitno izbacio da ima ili 72 Rs ili 16 dolara.

    Ovo je, naravno, ključni problem sa LLM-ovima: oni ne „misle“ niti „rasuđuju“ — iako će deepseek_r1:1.5b proći kroz stotine reči igrajući uloge pre nego što vam da odgovor u obliku odgovora — i rade samo na statističkom nastavku toka tokena. Što je veći broj parametara, to je odgovor bolji, a milijardu parametara nije ni blizu dovoljno da se model koristi kao nešto više od novine.
    Lokalni LLM-ovi za lokalno stanovništvo

    Nema načina da se to zaobiđe: LLM koji radi na Raspberry PI sa AI HAT+ 2 nikada se neće približiti komercijalnim servisima poput OpenAI-jevog ChatGPT-a ili Google-ovog Gemini-ja. To ne znači da su ti komercijalni servisi sa stotinama milijardi parametara dobri, jer nisu, ali da su modeli koje AI HAT+ 2 može da pokrene objektivno užasni.

    Ipak, postoje prednosti: Hailo-10H je ocenjen na potrošnju energije od 2,5 W tokom aktivnog zaključivanja, što je delić stotina vati koliko je akceleratoru zasnovanom na GPU-u potrebno za isto radno opterećenje. U testiranju, ovo je značilo povećanje potrošnje energije sa 3,4 W u stanju mirovanja celog sistema na 5,2 W dok je LLM odgovarao u Open WebUI-ju — impresivan podvig. Ukupna potrošnja energije se smanjuje rasterećivanjem akceleratora nakon kratkog perioda čekanja, što znači kašnjenje od 25-40 sekundi pre nego što LLM počne da odgovara na početni upit.

    Još jedna prednost je što se svi vaši podaci obrađuju lokalno: ništa što unesete u upit za unos LLM-a ne ide na bilo koji klaud server, a ako ga koristite lokalno na samom Raspberry Pi-ju, nikada čak ni ne dospeva do vaše lokalne mreže. To bi bila velika prednost za privatnost, ako bi modeli bili od koristi za upite osetljive na privatnost — ali, nažalost, nisu.

    Kompromis za sve ovo je što modeli nisu samo „gluplji“ od svojih komercijalnih ekvivalenata, već su i manje sposobni. Otvoreni WebUI vam omogućava da otpremate slike, dokumente i video zapise, ali nijedan od modela uključenih u Hailov zoološki vrt modela ne može ništa da uradi sa unosima koji nisu zasnovani na tekstu. Nijedan od modela nema način da traži više informacija ili ažurira podatke izvan svojih datuma „graničnog znanja“, i izolovani su od veba — iako će vam neki dati primer termina za pretragu koji biste mogli sami da kopirate i nalepite u pretraživač. Njihovi kontekstni prozori su takođe veoma uski, što znači da ne mogu da rade sa dugim tekstualnim unosima.

    Izvan zoološkog vrta modela, spremište primera aplikacije uključuje demonstraciju multimodalnog modela: ovo se može uneti uživo iz modula kamere Raspberry Pi, a zatim mu se mogu dati glasovni ili tekstualni upiti. Kao i kod modela zoološkog LLM-a, njegovi odgovori su obično veoma lošeg kvaliteta.

    Bolji rezultati dolaze iz tradicionalnih primera projekata računarskog vida uključenih u repozitorijum, uključujući procenu položaja, procenu dubine i detekciju objekata. Oni dobro rade na Raspberry Pi AI HAT+ 2, sa unapred snimljenim ili živim videom — ali su takođe radili sasvim dobro na originalnom Raspberry Pi AI HAT+ i ranijem Raspberry Pi AI Kit-u, pa čak i na sve-u-jednom Raspberry Pi AI Camera Module-u gde se zaključivanje odvija na kameri.

    Zaključak

    Teško je doći do zaključka da se isplati kupiti Raspberry Pi AI HAT+ 2. Brži je od Raspberry Pi AI HAT+, svakako, ali samo padom preciznosti sa INT8 na INT4. Za zadatke računarskog vida, Raspberry Pi AI HAT+ ili Raspberry PI AI Kit će ponuditi uporedive performanse po nižoj ceni, a generativni AI zadaci koje novi AI HAT+ 2 može da obradi su univerzalno užasni.

    Ni nema mnogo prostora za rast. Najveći deo povećanja mogućnosti kod najsavremenijih LLM modela dolazi od povećanja broja parametara u modelu, a 8GB je već nekoliko redova veličine premalo za pokretanje, na primer, DeepSeek-R1 sa punim kapacitetom — koji aktivira 37 milijardi od ukupno 671 milijarde parametara, u poređenju sa destilovanom verzijom od 1,5 milijardi parametara koju možete pokrenuti na AI HAT+ 2.

    Za one koji rade na projektima računarskog vida, Raspberry Pi AI Camera Module je bolji izbor: jeftiniji je, 70 dolara umesto 130 dolara plus cena modula kamere koji nije AI, i ostavlja PCIe liniju Raspberry Pi 5 slobodnom za brzo skladištenje Non-Volatile Memory Express (NVMe) kako bi se obezbedilo veliko povećanje ukupnih performansi sistema.

    Za one koji očajnički žele energetski efikasan lokalno hostovan LLM, koji su spremni da previde ogromne računarske i ekološke resurse koji se troše za obuku takvog LLM-a i etičke probleme oko načina na koji se prikupljaju podaci za obuku, i kojima ne smeta činjenica da će izbaciti objekte u obliku odgovora koji nemaju smisla i objekte u obliku koda koji se ne pokreću, na horizontu je konkurentska opcija: Hailo je takođe sklopio partnerstvo sa ASUS-om kako bi isti Hailo-10H koprocesor i 8GB RAM-a stavio u USB adapter.

    Predstavljen na Sajmu potrošačke elektronike (CES) u Las Vegasu prošle nedelje, ASUS-ov UGen300 USB AI akcelerator nudi potpuno istu funkcionalnost kao Raspberry Pi AI HAT+, ali se može pohvaliti kompatibilnošću sa svim 64-bitnim modelima Raspberry Pi-ja, a ne samo sa Raspberry Pi 5 porodicom, kao i sa drugim jednopločnim računarima zasnovanim na Arm i AMD64, mejnstrim desktop računarima, laptopovima, serverima, tabletima, pa čak i Android pametnim telefonima. Iako u vreme pisanja ovog teksta nije objavljena cena, ako se i približi ceni od 130 dolara koliko košta Raspberry Pi AI HAT+ 2, to će biti mnogo fleksibilnija opcija — i neće vam zauzeti jedinu PCIe liniju.

    Kao poslednja demonstracija ograničenja Raspberry Pi AI HAT+ 2, korisnik deepseek_r1:1.5b je dobio zahtev da sumira ovu recenziju: „Kontekst razgovora je pun. Moguće je obrisati kontekst jer je dostignuta veličina keša“ bio je jedini odgovor.

    Raspberry Pi AI HAT+ 2 je dostupan za naručivanje od preprodavaca Raspberry Pi-ja danas za 130 dolara.

  • Problem sa veštačkom inteligencijom u igrama koji računari nikada nisu napravljeni da reše

    Zašto se velike strateške igre opiru gruboj sili veštačke inteligencije

    Šah je pao u ruke računara 1997. godine. Go, za koji se dugo smatralo da je van domašaja silicijuma, predao se 2016. godine. Pa ipak, Civilizacija, igra koja se pokreće u realnom vremenu na jednom laptopu, ostaje tvrdoglavo otporna na savladavanje veštačke inteligencije. To nije zato što je izazov teži u bilo kom apstraktnom smislu. To je zato što strateške igre poput Civilizacije funkcionišu na potpuno drugačijim principima od igara sa savršenim informacijama gde možete izračunati ishode.

    U šahu ili Gou, osnovni problem je procena. Možete unapred gledati desetine poteza kroz stablo igre, izračunati koje terminalne pozicije favorizuju kog igrača i raditi unazad da biste identifikovali najbolji potez. Stablo igre raste eksponencijalno, ali to je vid rasta koji se može kontrolisati. Civilizacija ruši ovaj model. Igra se proteže kroz 500 poteza. Istovremeno upravljate vojnim snagama, kulturnim proizvodom, naučnim istraživanjima, ekonomskim resursima i diplomatskim odnosima. Postoje stotine održivih strategija, svaka interno koherentna, ali fundamentalno neuporediva sa ostalima. Kulturna pobeda i vojno osvajanje se ne mogu svesti na jedan rezultat koji vam omogućava da kažete „ovaj je 8% bolji“. To su različiti narativi o tome kakvu civilizaciju gradite.

    Zato su tradicionalni pristupi veštačkoj inteligenciji imali problema. Minimaks pretraga zahteva pozicije koje se mogu proceniti. Monte Karlo pretraga stabla zahteva stabla igre koja se granaju upravljiv broj puta. Učenje sa pojačanjem zahteva jasne signale nagrade koji se generalizuju u svim državama. Civilizacija ne nudi ništa od ovoga pouzdano. Prostor mogućih igara je toliko veliki, a horizont toliko dugačak, da algoritmi dizajnirani za istraživanje i procenu grana nailaze na zid.

    Ono što Civilizacija zapravo zahteva je nešto drugačije: održavanje dugoročne strateške koherentnosti. Ljudski igrač uspeva tako što formira narativ („Idem na kulturnu pobedu“), a zatim razmišlja unazad od tog cilja. Svaki politički izbor, svaka izgrađena jedinica, svaka diplomatska uvertira služi tom narativu. Ljudi ne koriste grubu silu stablo igre. Oni se obavezuju na strategiju i ostaju koherentni.
    Uvid koji menja sve

    Ovde se pojavljuje fundamentalno saznanje: Modeli velikih jezika su užasni u onome u čemu su računari dobri (izračunavanje, iscrpna pretraga, matematička optimizacija) i izuzetni upravo u onome što Civilizacija zahteva.

    Materijali velikog jezika (LLM) su mehanizmi za uparivanje obrazaca obučeni na ogromnim količinama strateškog rezonovanja na prirodnom jeziku. Apsorbovali su hiljade članaka, knjiga i dokumenata o istoriji, ekonomiji, vojnoj strategiji i ljudskom donošenju odluka. Ne mogu pouzdano da reše kvadratnu jednačinu, ali se od njih traži da artikulišu strategiju u tri poteza koja balansira vojnu snagu sa kulturnim uticajem, i oni proizvode koherentno, razumljivo rezonovanje. Oni održavaju narativnu konzistentnost kroz stotine tokena na način na koji je ljudi održavaju kroz stotine poteza.

    Ovo menja uobičajeni okvir „možemo li koristiti LLM-ove za igranje igara?“ Pitanje nije bilo da li su LLM-ovi dobri u igrama uprkos tome što su spori i skupi. Pitanje je da li specifične mogućnosti koje ih čine sporim i skupim zapravo rešavaju pravi problem za Civilizaciju.

    Većina rada veštačke inteligencije na igrama fokusira se na taktičko izvršenje: koje jedinice treba da se kreću gde da bi se optimizovala pozicija, koji je pohlepni algoritam za raspodelu resursa, kako pronalazite lokalno optimalna poboljšanja? Ovo su teški problemi sa računskog stanovišta, ali zapravo nisu usko grlo u Civilizaciji. Ljudi mogu da napišu razumne pohlepne algoritme za kretanje jedinica. Usko grlo je u sloju iznad: odlučivanje šta pokušavate da postignete, održavanje koherentnosti tokom 500 poteza, merenje konkurentskih ciljeva kada nijedna metrika ne obuhvata sve njih.

    Spoznaja koja je motivisala ovaj rad bila je jednostavna: šta ako koristimo LLM-ove za ono u čemu su zapravo dobri i sve ostalo delegiramo sistemima dizajniranim za te zadatke?
    Izgradnja hibridne arhitekture

    Arhitektura koja proizilazi iz ovog uvida deli rad između dva sloja. Gornji sloj, pokretan LLM-om, bavi se makrostrateškim rezonovanjem. Ovde LLM deluje: odlučujući da civilizacija treba da teži teritorijalnoj ekspanziji na zapadu, da se okrene ka kulturnom razvoju, da pregovara sa određenom susednom silom ili da raspodeli resurse ka naučnom prodoru. Ove odluke proizilaze iz rezonovanja na prirodnom jeziku o apstraktnim kompromisima i dugoročnim ciljevima.

    Donji sloj se sastoji od specijalizovanih podsistema, najmanje algoritamske veštačke inteligencije, potencijalno proširene na učenje sa pojačanjem u budućem radu. Ovi sistemi primaju stratešku nameru od LLM-a i prevode je u konkretnu akciju. Kada LLM odluči da se „proširi na zapad“, taktički sloj utvrđuje koje se jedinice kreću gde, kojim redosledom, da bi se postigao taj cilj. Kada LLM alocira resurse ka nauci, taktički sloj generiše specifičan red za izgradnju gradova.

    Ova podela ima tri neposredne prednosti. Prvo, omogućava LLM-u da radi na pravom nivou apstrakcije. LLM ne mora da generiše niz od 50 komandi za mikromenadžment. On rasuđuje o strategiji i prepušta detalje. Drugo, efikasan je. LLM-ovi su spori generatori tokena po token, ali su vam potrebni samo da proizvedu nekoliko odluka visokog nivoa po potezu. Algoritmi mogu da izvrše hiljade taktičkih odluka u sekundi. Treće, jeftin je. Jedan LLM poziv po potezu košta dramatično manje od pozivanja LLM-a stotine puta.

    Granica apstrakcije je važna. LLM izdaje stratešku nameru na prirodnom jeziku, kao tekst koji opisuje šta želi da postigne. Ispod te granice, sistemi kojima je stalo do efikasnosti i brzine prevode tu nameru u akcije. Ovo nije hakovanje. To je principijelna podela rada: rasuđivanje tamo gde je teško, izvršenje tamo gde nije.

    Ova arhitektura odražava širi obrazac koji se pojavljuje u istraživanju agentske veštačke inteligencije. Jezički modeli sve više služe kao slojevi rasuđivanja i planiranja pored specijalizovanih alata i podsistema. Rad na planiranju zasnovanom na LLM-u u robotici i autonomnim sistemima prati isti princip: jezički model rasuđuje o ciljevima i strategijama, podsistemi izvršavaju konkretne akcije. Vox Deorum primenjuje taj obrazac na domen koji deluje udaljeno od robotike, ali deli isti strukturni izazov: dugoročno rasuđivanje kombinovano sa izvršenjem u realnom vremenu.
    Testiranje u velikim razmerama

    Da li ova arhitektura zaista funkcioniše? Istraživači su se bavili ovim pitanjem pokretanjem 2.327 kompletnih igara, varirajući korišćeni LLM i upoređujući rezultate sa ugrađenom veštačkom inteligencijom Civilization V sa Vox Populi modom, dobro cenjenim poboljšanjem koje igru čini znatno težom za ljudske igrače.

    Obim ove evaluacije je važan. Ovo nije dokaz koncepta sa deset igara. To je rigorozna empirijska studija koja omogućava da se pojave obrasci i da slučajnosti postanu vidljive. Kroz preko dve hiljade igara, istraživači bi mogli da se pitaju: da li LLM-ovi održavaju stratešku koherentnost tokom 500 poteza? Da li proizvode razumljive odluke? Kako se porede sa jakom osnovnom linijom? Koliki je stvarni trošak računanja?

    Najosnovnije pitanje je da li bi LLM-ovi uopšte mogli da održe koherentnost tokom tako dugog horizonta. U teoriji, LLM-ovi ne bi trebalo da budu u stanju da „sete“ odluke donete pre 400 poteza ili da održe konzistentnu stratešku viziju toliko dugo. U praksi, mogli bi, pod uslovom da je zadatak strukturirao tako da im pomogne. Samo ovo je zanimljivo jer sugeriše da su LLM-ovi sposobniji za održivo razmišljanje nego što im se često pripisuje.

    Što se tiče stope pobeda protiv Vox Populi, LLM-ovi su postigli takmičarsku igru bez potpune dominacije. Nisu bili očigledno superiorni, ali nisu bili ni očigledno inferiorni. Ovo je važno jer sugeriše da je pristup održiv, a da nije čarobni štapić. Sistem veštačke inteligencije koji igra takmičarski dok pokazuje interpretativno, ljudsko razmišljanje je vredniji od onog koji konstantno pobeđuje, ali proizvodi nerazumljive odluke.

    Stilovi igre kao strateški potpisi

    Ovde rezultati postaju iznenađujući na zanimljiviji način. Dva različita testirana LLM-a nisu se samo nasumično razlikovala. Razvili su koherentne, divergentne strategije koje otkrivaju nešto o tome kako jezički modeli razmišljaju o složenim problemima.

    Jedan model bi mogao da igra agresivno, posvećujući se vojnoj dominaciji i dosledno sledeći tu naraciju. Drugi bi mogao da razvije diplomatsku strategiju, dajući prioritet savezništvu i trgovini. Treći bi se mogao fokusirati na kulturni razvoj, obrazlažući da kulturne pobede zahtevaju kontinuirana ulaganja u specifičnu infrastrukturu. To nisu bile slučajne fluktuacije. To su bile stabilne strategije koje su opstale kroz stotine poteza i kroz više igara.

    Ovo je važno iz nekoliko razloga. Prvo, za dizajn igre: to znači da bi se LLM-ovi mogli koristiti za stvaranje raznolikosti kod protivnika sa veštačkom inteligencijom. Umesto da se čvrsto kodiraju različiti nivoi težine ili arhetipovi ličnosti, mogli biste koristiti LLM-ove za prirodno generisanje različitih stilova igre. Drugo, za razumevanje LLM-ova: doslednost ovih strategija sugeriše da jezički modeli kodiraju koherentne stilove rezonovanja. Oni ne samo emuliraju obrasce površinskog nivoa. Treće, za interakciju između čoveka i veštačke inteligencije: LLM-ovi bi mogli da objasne svoje strateško rezonovanje prirodnim jezikom, čineći donošenje odluka veštačke inteligencije transparentnim na načine na koje tradicionalni algoritmi ne mogu.

    Stilovi igre su ostali interpretabilni tokom celog procesa. Kada je LLM odlučio da napadne susednu civilizaciju, mogao je da artikuliše zašto. Kada se prebacio ka mirnoj ekspanziji, rezonovanje je imalo smisla u okviru njegovog ukupnog strateškog narativa. Ovo se kvalitativno razlikuje od gledanja algoritma kako pravi poteze koji optimizuju neku funkciju nagrađivanja, ali ne proizvode razumljivo objašnjenje.

    Šta ovo otvara

    Ovaj rad utvrđuje da je hibridna arhitektura koja uparuje LLM-ove za strateško rezonovanje sa specijalizovanim podsistemima za taktičko izvršenje održiva u komercijalnom okruženju igre. To je konkretan tehnički doprinos. Ali širi značaj rada leži u onome što on sledeće omogućava.

    Za dizajn igara, ovaj pristup stvara nove mogućnosti. Saradnja između čoveka i veštačke inteligencije postaje prirodna kada veštačka inteligencija može da objasni svoje rezonovanje. Pregovaranje postaje moguće kada i čovek i veštačka inteligencija mogu da artikulišu stratešku nameru prirodnim jezikom. Arhitektura se skalira na druge strateške igre: društvene igre, vojne simulacije, igre poslovnog menadžmenta. Bilo koja oblast gde je strategija važnija od proračuna mogla bi imati koristi od ovog pristupa.

    Za istraživanje agentske veštačke inteligencije, obrazac ovde se proteže izvan igara. Uvid da LLM-ovi treba da se bave rezonovanjem na visokom nivou dok delegiraju izvršenje je prenosiv. Ovo se povezuje sa širim radom na agentima i sistemima planiranja zasnovanim na LLM-u, gde jezički modeli služe kao slojevi rezonovanja za utemeljeno donošenje odluka. Slični principi se javljaju u istraživanju robotike i autonomnih sistema, gde LLM-ovi rasuđuju o ciljevima i strategiji, dok specijalizovani podsistemi obrađuju kontrolu u realnom vremenu. Voks Deorum pruža dobro sažetu studiju slučaja tog principa koji funkcioniše u velikim razmerama.

    Nekoliko pitanja ostaje otvoreno. Kako sprečiti da LLM-ovi skrenu u lokalno optimalnu igru kada im nedostaje predviđanje da vide daleko unapred? Da li ova arhitektura može da podnese istinsko višeagentsko rezonovanje, gde su pregovori i obmana važni? Koliko performanse zavise od pažljivog brzog inženjeringa u odnosu na mogućnosti osnovnog modela? Koliko visoko ide plafon? Da li pristup funkcioniše za još složenije igre poput Evropa Universalis, gde prostor stanja i složenost pravila prevazilaze čak i Civilizaciju?

    Ova pitanja nisu slabosti rada. Ona su pozivi. Rad utvrđuje da hibridne arhitekture funkcionišu i otvara pravac istraživanja. Sledeći koraci uključuju razumevanje ograničenja, skaliranje na složenije domene i istraživanje šta se dešava kada više agenata zasnovanih na LLM-u interaguje sa pravom agencijom i suprotstavljenim ciljevima. Tu počinje da se pojavljuje prava dubina agentske veštačke inteligencije.

  • Tesla pokreće vožnje robotaksijem u Ostinu bez ljudskog vozača za bezbednost

    Tesla nudi putnicima vožnje robotaksijem u Ostinu bez ljudskog vozača na prednjem sedištu.

    Izvršni direktor Ilon Mask je u četvrtak objavio na X, svojoj platformi društvenih medija: „Upravo smo počeli da vozimo Tesla Robotaksi u Ostinu bez bezbednosnog monitora u automobilu. Čestitam Teslinom AI timu!“

    Zatim je napravio poziv za regrutovanje inženjera zainteresovanih za „rešavanje veštačke inteligencije u stvarnom svetu“, što će, kako kaže, „verovatno dovesti do opšteg umešanog inženjerstva“ da se pridruže Teslinom AI timu.

    Proizvođač automobila je pokrenuo svoj robotaksi u tom gradu u Teksasu prošlog juna u ograničenom raspoređivanju sa bezbednosnim operaterom na suvozačevom sedištu. Tesla je prvobitno ponudila te prve vožnje influenserima i pažljivo odabranim kupcima. U decembru je Tesla počela da testira svoj robotaksi u Ostinu bez bezbednosnog vozača na prednjem sedištu – mera predostrožnosti u slučaju da vozilu bude potreban čovek da preuzme kontrolu.

    Neće sva Teslina flota u Ostinu biti potpuno bez vozača. Prema rečima Ašoka Elusvamija, vođe veštačke inteligencije u Tesli, kompanija će „početi sa nekoliko vozila bez nadzora pomešanih sa širom flotom robotaksija sa bezbednosnim monitorima, a odnos će se vremenom povećavati“.

    Tesla naplaćuje vožnje, prema rečima jednog vozača koji je objavio na X. Čini se da postoji i automobil koji prati vozila bez vozača.

    Neki od Teslinih rivala, poput Zuksa i Vejma, nisu odmah naplaćivali vožnje bez vozača prilikom početnog postavljanja.

    TehKranč je pokušao da kontaktira Teslu radi pojašnjenja.

    Članak je ažuriran kako bi odražavao nove informacije, uključujući i da Tesla naplaćuje vožnje.