Tehno Novo

Author: orocn

  • Najnovija funkcija Google Photos vam omogućava da se memujete

    Google Photos će vam sada omogućiti da pravite memove sa sopstvenim slikama. U četvrtak je Google predstavio novu generativnu funkciju zasnovanu na veštačkoj inteligenciji pod nazivom „Me Meme“, koja će vam omogućiti da kombinujete šablon fotografije i sliku sebe kako biste generisali sliku mema.

    Nova funkcija, koja će prvobitno biti dostupna korisnicima iz SAD, prvobitno je primećena u razvoju prošlog oktobra od strane bloga Android Authority. Google ju je zvanično najavio preko svoje stranice Photos Community u četvrtak.

    Prema Google-u, funkcija je eksperimentalna, tako da generisane slike „možda neće savršeno odgovarati originalnoj fotografiji“. Predlaže se otpremanje dobro osvetljenih, fokusiranih i fotografija okrenutih napred kako bi se postigli najbolji rezultati.

    Dodatak je zamišljen kao zabavan način da istražite svoje fotografije i eksperimentišete sa Google-ovom Gemini AI tehnologijom, a posebno Nano Banana. Google-ov popularni AI model slike pokreće druge AI funkcije u aplikaciji Google Photos, poput mogućnosti rekreiranja slika u novim stilovima, kao što su crtani filmovi ili slike.

    Iako je prilično neozbiljan dodatak, sve u svemu, ove vrste funkcija podsećaju korisnike da se vrate aplikaciji Fotografije kad god žele da se igraju sa veštačkom inteligencijom, umesto da koriste proizvod konkurencije.

    Pored toga, korisnici imaju tendenciju da se okreću funkcijama koje se pokazuju u veštačkoj inteligenciji, kao što je OpenAI otkrio sa svojim uspešnim lansiranjem aplikacije Sora, koja vam omogućava da pravite veštačke video zapise koji mogu uključivati vas i vaše prijatelje.

    „Me Meme“ nije u potpunosti implementiran, tako da ga možda još nećete videti u svojoj ažuriranoj aplikaciji Google Fotografije. Kada bude dostupan, pojaviće se pod karticom „Kreiraj“, kaže Google. Predstavnik Google-a je rekao za TechCrunch da će funkcija stići do američkih iOS i Android korisnika tokom „narednih nedelja“.

    Da biste koristili funkciju, izabrati ćete šablon ili otpremiti svoj, a zatim dodirnuti „dodaj fotografiju“ i „Generiši“. Google napominje da se vremenom dodaje još šablona. Nakon što veštačka inteligencija kreira sliku, možete sačuvati fotografiju, deliti je na drugim platformama ili dodirnuti „regeneriši“ da bi ponovo zamislila sliku.

  • Skandal sa korporativnim špijuniranjem Riplinga/Dila možda je dobio još jedan divlji obrt

    Ministarstvo pravde je navodno pokrenulo krivičnu istragu protiv startapa za ljudske resurse i obračun zarada kompanije Deel zbog navoda da je angažovala korporativnog špijuna da curi informacije o svom najvećem rivalu, Rippling-u, izveštava The Wall Street Journal.

    U izjavi poslatoj imejlom TechCrunch-u, Deel kaže da „nije upoznat sa bilo kakvom istragom. Uvek ćemo sarađivati sa nadležnim organima i pružiti sve potrebne informacije kao odgovor na valjane upite“.

    U izjavi kompanije Deel zatim iznosi sopstvene optužbe protiv Rippling-a. Ukazuje na sopstvenu tužbu u kojoj se tvrdi da je njihov rival vodio „kampanju blaćenja“, tvrdeći da pobeđuju konkurenta na tržištu i dodajući da će „istina pobediti na sudu“. Rippling je odbio da komentariše.

    Ovo je verovatno najveća drama između dva HR startapa ikada.

    Da rezimiramo, Rippling je tužio Deel u maju, a tužbu je revidirao u junu, tvrdeći da je njihov rival podmetnuo korporativnog špijuna. Zaposleni u Rippling-u je uhvaćen u operaciji i priznao je da je bio plaćeni špijun za Deel na irskom sudu putem pisane izjave pod zakletvom koja zvuči kao holivudski film. Zaposleni je svedočio da je uzeo Riplingove prodajne kontakte, planove proizvoda, informacije o nalozima kupaca, imena superzvezdanih zaposlenih, sve što je traženo, i predao to rukovodiocima Dila.

    Riplingova tužba, koja je u toku, optužila je njegovog rivala za kršenje federalnog zakona o reketiranju (poznatog kao RICO statut i obično se koristi protiv organizovanog kriminala) između ostalih zakona koje je naveo. Ali uprkos korišćenju fraza poput „kriminalni sindikat“, ovo je bila građanska tužba, a ne krivično gonjenje.

    Dil je podneo kontratužbu protiv Riplinga, takođe tvrdeći da je špijunirao lažno se predstavljajući kao kupac, između ostalog.

    Špijun je živeo u strahu

    Čovek koji je priznao špijunažu pristao je da svedoči u Riplingovom slučaju, a Ripling je pristao da mu plati sudske i putne troškove, prema sporazumu o saradnji čoveka objavljenom kao sudski dokument i koji je video TechCrunch. Dil sada naziva čoveka Riplingovim „plaćenim svedokom“.

    Ali čovek se takođe vratio na sud tvrdeći da njegova porodica živi u strahu jer je verovao da ga ljudi iz Dila prate. Dilov advokat je u početku to negirao, ali je kasnije otkrio da je Dil angažovao nadzor.
    Isplata špijunu

    Ripling je postigao najnoviju pobedu krajem novembra, kada je dobio bankovne zapise. Zapisi su ukazivali da je Dil prebacio sredstva na račun koji je držala supruga Dilovog operativnog direktora, a 56 sekundi kasnije taj račun je prebacio isti iznos na račun koji je držao priznati špijun.

    U međuvremenu, drugi sudski dokument pokazuje da je osnivač i izvršni direktor Dila, Aleksandar Buaziz, koji je nazvan „mozgom“ špijunske zavere u Riplingovoj tužbi, angažovao moćnog advokata Vilijama Frencena da ga zastupa. Frencen je partner u Morison Foersterovoj grupi za odbranu „belih okovratnika“ i ranije je bio šef jedinice za korporativne prevare i prevare sa hartijama od vrednosti u Kancelariji američkog tužioca za Severni okrug Kalifornije.

    Riplingov advokat je niko drugi do Aleks Spiro iz advokatske firme „Kvin Emanuel“, poznate po svojoj jakoj ličnosti i dugoj listi klijenata među poznatim ličnostima, od Ilona Maska do Džej Zija.

    Dakle, sve zvuči kao zaplet iz romana Džona Grišama, sa dodatkom serije „Suits“.

    Ništa od ovoga nije sprečilo investitore da podrže Dila ili Riplinga. U oktobru je Dil objavio da je dostigao vrednost od 17,3 milijarde dolara nakon što je prikupio 300 miliona dolara, predvođenih Ribit Kapitalom i Andresen Horovicem. Ripling je dostigao vrednost od 16,8 milijardi dolara u maju nakon što je prikupio 450 miliona dolara od investitora poput Elada Gila, Goldman Saks Alternatives i Y Kombinatora.

  • Šta treba znati o Netfliksovoj značajnoj akviziciji kompanije Vorner Bros.

    Ako ste mislili da 2025. godina ne može biti luđa, svet strimovanja je imao još jedno iznenađenje u rukavu pre kraja godine.

    Netfliks, već najveća striming platforma sa preko 325 miliona pretplatnika, napravio je hrabar korak akvizicijom filmskih i televizijskih studija Vorner Brosa, kao i HBO-a, HBO Maksa i drugih kompanija. Sporazum, objavljen početkom decembra, okupiće neke od najlegendarnijih franšiza, kao što su Igra prestola, Hari Poter i DC Komiksi, između ostalog, sve pod jednim krovom.

    Obim ovog mega posla zapanjio je posmatrače industrije. Ne samo da je istorijski po svojoj veličini, već se predviđa i da će poremetiti Holivud kakav poznajemo.

    Ovde smo da analiziramo šta se tačno dešava sa sporazumom Netfliksa i VBD-a, uključujući najnovija dešavanja, šta je na kocki i šta bi moglo da se desi.

    Šta se do sada dogodilo?

    Sve je počelo u oktobru kada je Warner Bros. Discovery (WBD) otkrio da istražuje potencijalnu prodaju nakon što je dobio neželjeno interesovanje od nekoliko velikih igrača u industriji.

    Godinama se WBD bori sa teretom milijardi dolara duga, što je pogoršano opadanjem gledanosti kablovske televizije i žestokom konkurencijom striming platformi. Ovi finansijski pritisci primorali su kompaniju da razmotri velike strateške promene, uključujući prodaju svoje imovine u sektoru zabave jednom od svojih rivala.

    Proces nadmetanja brzo je postao konkurentan. Nekoliko velikih igrača videlo je potencijal u akviziciji medijskog giganta. Paramount i Comcast pojavili su se kao ozbiljni kandidati, a Paramount je u početku smatran vodećim kandidatom.

    Ali na kraju, upravni odbor Vorner Brosa (WBD) je utvrdio da je Netfliksova ponuda bila najprivlačnija, uprkos tome što je Paramaunt ponudio približno 108 milijardi dolara u gotovini. Paramauntova ponuda je imala za cilj da kupi celu kompaniju, dok se Netfliksova ponuda posebno fokusirala na filmsku, televizijsku i striming imovinu.

    Pored toga, Netfliks je nedavno izmenio svoj sporazum na ponudu u gotovini po ceni od 27,75 dolara po akciji Vordner Brosa, dodatno uveravajući investitore i otvarajući put za nastavak transakcije. Vrednost transakcije je približno 82,7 milijardi dolara.

    Žestoka borba za nadmetanje

    Čak i nakon što se Netfliks pojavio kao preferirani kupac, tenzije sa Paramauntom su ostale visoke, jer je rivalska kompanija nastavila da se bavi imovinom Vorner Brosa.

    Paramaunt je nekoliko meseci istrajavao u pokušajima da kupi Vordner Brosa. Ipak, upravni odbor je više puta odbijao njihove ponude, navodeći zabrinutost zbog velikog duga Paramaunta i povećanog rizika povezanog sa njihovim predlogom. Upravni odbor je primetio da bi Paramauntova ponuda ostavila objedinjenu kompaniju opterećenu sa 87 milijardi dolara duga, rizik koji nisu bili spremni da preuzmu.

    Prošle nedelje, Paramaunt je podneo tužbu tražeći više informacija o sporazumu sa Netfliksom. Kompanija i dalje tvrdi da je njihova ponuda daleko bolja.
    Regulatorne prepreke
    slika kupole američkog Kapitola na crvenoj pozadini
    Izvori slika: Brajs Darbin/TechCrunch

    S obzirom na neviđeni obim i uticaj sporazuma na tržište, regulatorna kontrola je intenzivna i ostaje značajna prepreka za zaključivanje transakcije. Ranije ove nedelje objavljeno je da će ko-izvršni direktor Netfliksa Ted Sarandos svedočiti pred odborom Senata SAD o sporazumu, što ističe koliko ozbiljno zakonodavci shvataju ove zabrinutosti.

    U novembru, istaknuti zakonodavci – senatori Elizabet Voren, Berni Sanders i Ričard Blumental – izrazili su svoju zabrinutost Odeljenju za antimonopolsku zaštitu Ministarstva pravde, upozoravajući da bi tako masovno spajanje moglo imati ozbiljne posledice po potrošače i industriju u celini. Senatori tvrde da bi spajanje moglo dati novom medijskom gigantu prekomernu tržišnu moć, omogućavajući mu da podigne cene za potrošače i uguši konkurenciju.

    Ukoliko regulatori blokiraju akviziciju, Netfliks bi bio obavezan da plati naknadu za razdvajanje od 5,8 milijardi dolara. Ostaje nejasno da li bi Vorner Bros. ostao nezavisna kompanija ili bi ponovo razmotrio prethodne predloge za akviziciju.

    Zabrinutost unutar industrije

    Reakcije industrije zabave bile su uglavnom negativne. Američko udruženje pisaca je među najglasnijim kritičarima, zahtevajući da se spajanje blokira iz antimonopolskih razloga.

    Pored toga, insajderi se brinu da će akvizicija izbaciti nezavisne kreatore i raznovrsne glasove iz pažnje, što će na kraju suziti spektar priča koje se pričaju. Postoji i široko rasprostranjena zabrinutost zbog potencijalnog gubitka radnih mesta i nižih plata.

    Za kreatore i bioskope, neizvesnost ostaje oko rokova za prikazivanje. Ko-izvršni direktor Netfliksa, Ted Sarandos, izjavio je da će se svi filmovi planirani za bioskopsko prikazivanje preko Vorner Brosa nastaviti po planu. Međutim, on je takođe nagovestio da bi se vremenom rokovi za prikazivanje mogli skratiti, a filmovi bi stigli na striming platforme ranije nego ranije.

    Šta bi pretplatnici trebalo da znaju?

    Šta sve ovo znači ako ste pretplatnik na Netflix ili HBO Max?

    Rukovodioci Netflix-a su uverili gledaoce da će poslovanje HBO-a ostati uglavnom nepromenjeno u bliskoj budućnosti. U ovoj fazi, kompanija kaže da je prerano za bilo kakve definitivne najave o potencijalnim paketima ili integraciji aplikacija.

    Što se tiče cena, Sarandos je izjavila da neće doći do neposrednih promena tokom perioda regulatornog odobrenja. Međutim, pretplatnici treba da budu svesni da je Netflix istorijski redovno povećavao cene pretplata, tako da su povećanja cena moguća nakon što se akvizicija finalizuje. Netflix ima tendenciju da povećava svoje cene svake godine ili dve.
    Kada se očekuje da će se posao zaključiti?

    Sporazum Netflix-WBD još uvek nije konačan.

    Glasanje akcionara WBD-a očekuje se oko aprila, a očekuje se da će se posao zaključiti 12 do 18 meseci nakon tog glasanja. Međutim, regulatorna odobrenja su još uvek u toku, a ispitivanje bi moglo da oblikuje konačni ishod.

    Pratite nas…

  • Generacija veštačke inteligencije na vašem Raspberry Pi-ju: Praktični pregled Raspberry Pi AI HAT+ 2

    Od radnih opterećenja računarskog vida do velikih jezičkih modela (LLM), najnoviji akcelerator Hailo-10H kompanije Raspberry Pi nudi 40 TOPS INT4 izračunavanja.

    Raspberry Pi se ponovo vraća na poleđinu veštačke inteligencije (AI), najavljujući najnoviji unos u svoju porodicu akceleratora za Raspberry Pi 5 — i ovog puta se fokusira na generativnu AI, posebno na velike jezičke modele (LLM).

    Raspberry PI AI HAT+ 2 je izgrađen oko koprocesora Hailo-10H, pružajući navodnih 40 teraoperacija u sekundi (TOPS) izračunavanja sa smanjenom INT4 preciznošću. Takođe mu se prvi put pridružilo 8 GB namenske LPDDR4 RAM memorije, što mu daje snagu potrebnu za pokretanje LLM-ova sa do 1,5 milijardi parametara.

    Da li je ovo način od 130 dolara da se uđe u vrata buma generativne AI, ili samo još više vrućeg vazduha koji naduvava AI mehur? Hajde da saznamo.

    Hardver

    Form faktor: Hardver pričvršćen na vrhu plus (HAT+)
    NPU: Hailo-10H akcelerator, navodno 40 TOPS (INT4 preciznost)
    Memorija: 8GB LPDDR4 (modeli od 4GB, 2GB nagovešteni, ali još nisu lansirani)
    Kompatibilnost: Samo Raspberry Pi 5
    Interfejs: PCI Express preko Raspberry Pi 5 standarda FFC, 40-pinski opšti ulazno/izlazni konektor (GPIO)
    Potrošnja energije: tipično 2,5W
    Sadržaj kutije: AI HAT+ 2, hladnjak sa nosačima za puš-pinove, produženi GPIO konektor, stubovi za montažu i zavrtnji, kartica sa uputstvima za instalaciju hladnjaka
    Cena: 130 dolara

    Raspberry Pi AI HAT+ 2 je, neće vas uopšte iznenaditi, nastavak ranijeg Raspberry Pi AI HAT+, koji gotovo savršeno odgovara form faktoru svog prethodnika, ali zamenjuje Hailo-8 ili Hailo-8L koprocesor novijim Hailo-10H. U sirovim brojkama, to znači povećanje navedenih računarskih performansi sa 13 ili 26 tera-operacija u sekundi (TOPS) na impresivnih 40 za istu potrošnju energije — ali stvari nisu baš tako jednostavne.

    Porodica Hailo-8 koprocesora usmerenih na veštačku inteligenciju, korišćenih u originalnoj AI HAT+ seriji, radila je sa preciznošću INT8, ali Hailo-10H radi sa INT4. Smanjenje preciznosti znači da modeli mogu da ugrade manje RAM-a i da rade sa poboljšanim performansama na kompatibilnom hardveru — ali proces smanjenja preciznosti modela, poznat kao „kvantizacija“, može imati merljiv uticaj na tačnost odgovora modela.

    Postoji još jedna promena u dizajnu novog akceleratora: dodavanje namenske RAM memorije. Originalni AI HAT+ je koristio sopstvenu sistemsku memoriju Raspberry Pi-ja za čuvanje modela i podataka na kojima je radio; AI HAT+ 2 se udaljava od ovog objedinjenog modela memorije sa 8 GB ugrađene RAM memorije, nevidljive za Raspberry Pi, koju može koristiti samo sam Hailo koprocesor.

    To pokreće crvenu zastavicu u pogledu budućih cena. Poslednjih meseci cena RAM komponenti je naglo porasla, zahvaljujući – ironično – nezasitnoj potražnji zbog buma veštačke inteligencije. Raspberry Pi je već bio primoran da poveća cenu svojih proizvoda sa jednom pločom, a verovatno će uslediti još veća povećanja cena; sada stavlja 8 GB sve skuplje LPDDR4 memorije na AI HAT+ 2 i nada se da njegova tražena cena od 130 dolara nudi dovoljnu marginu da se zaštiti od daljeg povećanja troškova komponenti.

    Međutim, postoje dokazi da Raspberry Pi ovde osigurava svoje opklade: jedini model AI HAT+ 2 dostupan pri lansiranju ima 8 GB RAM-a, ali sitoštampanje za otpornike na ploči otkriva da su nenajavljene varijante od 4 GB i 2 GB, barem, pomenute kao mogućnost. Ukoliko cene komponenti nastave da rastu, što će gotovo sigurno biti slučaj, ovo daje Raspberry Pi-ju prostor da poveća cenu vodećeg modela od 8 GB i da lansira jeftinije verzije kako bi ublažio udarac — pristup koji je već primenjen sa porodicom Raspberry Pi 5 jednopločnih računara.

    U kombinaciji, 8 GB namenske RAM memorije i prelazak na hardver koji podržava INT4 pružaju jednu stvar posebno: podršku za generativne AI modele, posebno modele velikih jezika (LLM).

    Instalacija

    Instaliranje Raspberry Pi AI HAT+ 2 je jednostavno kao i kod njegovog prethodnika: nalazi se iznad tela Raspberry Pi 5 — raniji modeli nisu kompatibilni zbog nedostatka PCI Express linije izložene korisniku, a ni Raspberry Pi 500 i Pi 500+ klinasti računari niti Raspberry Pi Compute Module 5 osim ako nisu instalirani na nosaču Raspberry Pi 5 formata — na ugrađenim postoljima, što obezbeđuje prostor za aktivni hladnjak ispod.

    Unapred ugrađeno ravno fleksibilno kolo (FFC) povezuje ploču sa PCI Express linijom na Raspberry Pi 5, jednostavnim slučajem podizanja poklopca konektora i ponovnog guranja kabla i poklopca nazad, dok se zaglavlje povezuje sa 40-pinskim GPIO (opštim ulazno/izlaznim) pinovima Raspberry Pi-ja. Iako je ovo, tehnički, prolazno ako se koristi sa dovoljno dugim GPIO produžetkom, ugrađeni hardver za montažu ne otkriva nijedan pin — tako da ne možete koristiti AI HAT+ 2 sa bilo kojim drugim GPIO povezanim hardverom.

    Završna faza je instaliranje hladnjaka, što je pomalo komplikovano iskustvo. Iako nije obavezno, njegova upotreba se preporučuje — a instalacija zahteva da pažljivo skinete zaštitnu plastiku sa prethodno instaliranih termalnih jastučića, a zatim umetnete dva veoma čvrsta plastična klina tipa krila kroz rupe za montažu na vrhu ploče. Ovo zahteva više sile nego što biste očekivali i potrebna je pažnja da se ne zgnječi nijedan deo na ploči.

    Softverska strana stvari je malo komplikovanija — mada kritike ovde treba čitati uz razumevanje da je ova recenzija napravljena pre javnog lansiranja koristeći preliminarni softver, tako da su poboljšanja na ovom frontu, nadamo se, već na mestu. Hailo-10 ima drugačiju arhitekturu od Hailo-8, što znači da moraju biti instalirani posebni drajveri; zatim morate instalirati softver koji vam omogućava da zapravo koristite akcelerator: Hailov LLM model zoo vrt.

    U vreme recenzije postojala su dva načina da se to uradi. Prvi je da se registrujete na Hailo — besplatno je — i preuzmete .deb paket iz kompanijske „Zone za programere“. Pre ažuriranja objavljenog 8. januara, ovo je funkcionisalo dobro; međutim, ažuriranje je prekinulo kompatibilnost sa Raspberry Pi OS-om. Drugi način je da klonirate GitHub repozitorijum kompanije i sami ga kompajlirate — prilično brz proces na Raspberry Pi 5, ali za koji su zvanična uputstva ponekad netačna ili nepotpuna, što ga čini težim nego što je potrebno.

    Postoji i drugi repozitorijum, odvojen od Model Zoo-a i nudi širi spektar primernih aplikacija ne samo za generativna AI opterećenja već i za računarski vid. Ovaj metod instalacije je samo jedan: klonirajte repozitorijum i pokrenite uključenu shell skriptu sa root dozvolama, koja preuzima preduslove i kompajlira potreban izvorni kod. Za razliku od Model Zoo-a, ovo je nešto zahtevnija stvar — i pokušaji instaliranja softvera na Raspberry Pi 5 2GB doveli su do toga da „ubica“ zbog nedostatka memorije prekine proces pre završetka. Prelazak na vrhunski Raspberry Pi 5 16GB je, naravno, rešio ovaj problem.
    Pričaj sa mnom

    Hailov zoološki vrt modela dolazi sa pet velikih jezičkih modela koje možete preuzeti, kompatibilnih sa Hailo-10H: qwen2:1.5b, qwen2.5:1.5b, qwen2.5-coder:1.5b, llama3.2:1b i deepseek_r1:1.5b — svaki u rasponu od jedne do 1,5 milijardi parametara, što je oko gornje granice gde vas 8 GB RAM-a može dovesti. Njima upravlja port ollama koji je kompatibilan sa veb interfejsom Open WebUI — mada ga morate instalirati u Doker kontejner, jer ne radi sa verzijom Pajtona koja se trenutno isporučuje u Raspberry Pi OS-u „Trixie“.

    Moguće je interakcija sa bilo kojim od pet LLM-ova, koji se moraju pojedinačno preuzeti, a svaki zauzima nekoliko gigabajta prostora za skladištenje, bez Open WebUI-ja, ali to uključuje nespretne HTTP POST zahteve koji vraćaju teško čitljive JSON objekte. Otvoreni VebUI pruža elegantan veb interfejs, otkrivajući da pokrenuti LLM radi kao četbot poput komercijalne usluge, pa čak i uključujući mogućnost korišćenja prepoznavanja glasa i pretvaranja teksta u govor za upite uživo u razgovoru — iako su to pregledači blokirali tokom testiranja, iz razloga koji će postati jasni.

    Nažalost, Open WebUI je ogromna bezbednosna rupa, čak i ako se uzme u obzir njegova nedavno ispravljena ranjivost za daljinsko izvršavanje koda. Jednom instaliran, vezuje se za sve mrežne interfejse, omogućavajući potpun pristup sa bilo kog drugog uređaja na mreži. Prvi korisnik koji mu pristupi u pregledaču biće zamoljen da kreira „administratorski“ nalog zaštićen lozinkom, ali ovi akreditivi – i sve ostalo, uključujući vaše upite i odgovore – šalju se putem nešifrovane HTTP veze.

    Za one koji žele da pokrenu lokalni LLM server kod kuće, stvari postaju još gore: svi upiti poslati hailo-ollama veb API-ju, bilo sa Open WebUI-ja, drugih kompatibilnih klijenata ili ručnih HTTP zahteva, šalju se terminalu koji je pokrenuo hailo-ollama server – zajedno sa LLM-ovim odgovorom. Za deljenu upotrebu, to je noćna mora za privatnost.

    Ostavljajući to po strani, Open WebUI radi prilično dobro. Nažalost, isto se ne može reći za modele. Iako dele imena sa popularnim modelima velikih jezika, znatno su smanjeni u broju parametara i kvantizovani na INT4 preciznost – i to se vidi. Svi testirani modeli nisu prošli „test jagode“, gde se LLM pita koliko puta se slovo R pojavljuje u reči „jagoda“, a qwen2:1.5b je otišao toliko daleko da je odgovorio da „ne postoji tako nešto kao ‘jagoda’“ nakon što je prvobitno izbacio da ima ili 72 Rs ili 16 dolara.

    Ovo je, naravno, ključni problem sa LLM-ovima: oni ne „misle“ niti „rasuđuju“ — iako će deepseek_r1:1.5b proći kroz stotine reči igrajući uloge pre nego što vam da odgovor u obliku odgovora — i rade samo na statističkom nastavku toka tokena. Što je veći broj parametara, to je odgovor bolji, a milijardu parametara nije ni blizu dovoljno da se model koristi kao nešto više od novine.
    Lokalni LLM-ovi za lokalno stanovništvo

    Nema načina da se to zaobiđe: LLM koji radi na Raspberry PI sa AI HAT+ 2 nikada se neće približiti komercijalnim servisima poput OpenAI-jevog ChatGPT-a ili Google-ovog Gemini-ja. To ne znači da su ti komercijalni servisi sa stotinama milijardi parametara dobri, jer nisu, ali da su modeli koje AI HAT+ 2 može da pokrene objektivno užasni.

    Ipak, postoje prednosti: Hailo-10H je ocenjen na potrošnju energije od 2,5 W tokom aktivnog zaključivanja, što je delić stotina vati koliko je akceleratoru zasnovanom na GPU-u potrebno za isto radno opterećenje. U testiranju, ovo je značilo povećanje potrošnje energije sa 3,4 W u stanju mirovanja celog sistema na 5,2 W dok je LLM odgovarao u Open WebUI-ju — impresivan podvig. Ukupna potrošnja energije se smanjuje rasterećivanjem akceleratora nakon kratkog perioda čekanja, što znači kašnjenje od 25-40 sekundi pre nego što LLM počne da odgovara na početni upit.

    Još jedna prednost je što se svi vaši podaci obrađuju lokalno: ništa što unesete u upit za unos LLM-a ne ide na bilo koji klaud server, a ako ga koristite lokalno na samom Raspberry Pi-ju, nikada čak ni ne dospeva do vaše lokalne mreže. To bi bila velika prednost za privatnost, ako bi modeli bili od koristi za upite osetljive na privatnost — ali, nažalost, nisu.

    Kompromis za sve ovo je što modeli nisu samo „gluplji“ od svojih komercijalnih ekvivalenata, već su i manje sposobni. Otvoreni WebUI vam omogućava da otpremate slike, dokumente i video zapise, ali nijedan od modela uključenih u Hailov zoološki vrt modela ne može ništa da uradi sa unosima koji nisu zasnovani na tekstu. Nijedan od modela nema način da traži više informacija ili ažurira podatke izvan svojih datuma „graničnog znanja“, i izolovani su od veba — iako će vam neki dati primer termina za pretragu koji biste mogli sami da kopirate i nalepite u pretraživač. Njihovi kontekstni prozori su takođe veoma uski, što znači da ne mogu da rade sa dugim tekstualnim unosima.

    Izvan zoološkog vrta modela, spremište primera aplikacije uključuje demonstraciju multimodalnog modela: ovo se može uneti uživo iz modula kamere Raspberry Pi, a zatim mu se mogu dati glasovni ili tekstualni upiti. Kao i kod modela zoološkog LLM-a, njegovi odgovori su obično veoma lošeg kvaliteta.

    Bolji rezultati dolaze iz tradicionalnih primera projekata računarskog vida uključenih u repozitorijum, uključujući procenu položaja, procenu dubine i detekciju objekata. Oni dobro rade na Raspberry Pi AI HAT+ 2, sa unapred snimljenim ili živim videom — ali su takođe radili sasvim dobro na originalnom Raspberry Pi AI HAT+ i ranijem Raspberry Pi AI Kit-u, pa čak i na sve-u-jednom Raspberry Pi AI Camera Module-u gde se zaključivanje odvija na kameri.

    Zaključak

    Teško je doći do zaključka da se isplati kupiti Raspberry Pi AI HAT+ 2. Brži je od Raspberry Pi AI HAT+, svakako, ali samo padom preciznosti sa INT8 na INT4. Za zadatke računarskog vida, Raspberry Pi AI HAT+ ili Raspberry PI AI Kit će ponuditi uporedive performanse po nižoj ceni, a generativni AI zadaci koje novi AI HAT+ 2 može da obradi su univerzalno užasni.

    Ni nema mnogo prostora za rast. Najveći deo povećanja mogućnosti kod najsavremenijih LLM modela dolazi od povećanja broja parametara u modelu, a 8GB je već nekoliko redova veličine premalo za pokretanje, na primer, DeepSeek-R1 sa punim kapacitetom — koji aktivira 37 milijardi od ukupno 671 milijarde parametara, u poređenju sa destilovanom verzijom od 1,5 milijardi parametara koju možete pokrenuti na AI HAT+ 2.

    Za one koji rade na projektima računarskog vida, Raspberry Pi AI Camera Module je bolji izbor: jeftiniji je, 70 dolara umesto 130 dolara plus cena modula kamere koji nije AI, i ostavlja PCIe liniju Raspberry Pi 5 slobodnom za brzo skladištenje Non-Volatile Memory Express (NVMe) kako bi se obezbedilo veliko povećanje ukupnih performansi sistema.

    Za one koji očajnički žele energetski efikasan lokalno hostovan LLM, koji su spremni da previde ogromne računarske i ekološke resurse koji se troše za obuku takvog LLM-a i etičke probleme oko načina na koji se prikupljaju podaci za obuku, i kojima ne smeta činjenica da će izbaciti objekte u obliku odgovora koji nemaju smisla i objekte u obliku koda koji se ne pokreću, na horizontu je konkurentska opcija: Hailo je takođe sklopio partnerstvo sa ASUS-om kako bi isti Hailo-10H koprocesor i 8GB RAM-a stavio u USB adapter.

    Predstavljen na Sajmu potrošačke elektronike (CES) u Las Vegasu prošle nedelje, ASUS-ov UGen300 USB AI akcelerator nudi potpuno istu funkcionalnost kao Raspberry Pi AI HAT+, ali se može pohvaliti kompatibilnošću sa svim 64-bitnim modelima Raspberry Pi-ja, a ne samo sa Raspberry Pi 5 porodicom, kao i sa drugim jednopločnim računarima zasnovanim na Arm i AMD64, mejnstrim desktop računarima, laptopovima, serverima, tabletima, pa čak i Android pametnim telefonima. Iako u vreme pisanja ovog teksta nije objavljena cena, ako se i približi ceni od 130 dolara koliko košta Raspberry Pi AI HAT+ 2, to će biti mnogo fleksibilnija opcija — i neće vam zauzeti jedinu PCIe liniju.

    Kao poslednja demonstracija ograničenja Raspberry Pi AI HAT+ 2, korisnik deepseek_r1:1.5b je dobio zahtev da sumira ovu recenziju: „Kontekst razgovora je pun. Moguće je obrisati kontekst jer je dostignuta veličina keša“ bio je jedini odgovor.

    Raspberry Pi AI HAT+ 2 je dostupan za naručivanje od preprodavaca Raspberry Pi-ja danas za 130 dolara.

  • Problem sa veštačkom inteligencijom u igrama koji računari nikada nisu napravljeni da reše

    Zašto se velike strateške igre opiru gruboj sili veštačke inteligencije

    Šah je pao u ruke računara 1997. godine. Go, za koji se dugo smatralo da je van domašaja silicijuma, predao se 2016. godine. Pa ipak, Civilizacija, igra koja se pokreće u realnom vremenu na jednom laptopu, ostaje tvrdoglavo otporna na savladavanje veštačke inteligencije. To nije zato što je izazov teži u bilo kom apstraktnom smislu. To je zato što strateške igre poput Civilizacije funkcionišu na potpuno drugačijim principima od igara sa savršenim informacijama gde možete izračunati ishode.

    U šahu ili Gou, osnovni problem je procena. Možete unapred gledati desetine poteza kroz stablo igre, izračunati koje terminalne pozicije favorizuju kog igrača i raditi unazad da biste identifikovali najbolji potez. Stablo igre raste eksponencijalno, ali to je vid rasta koji se može kontrolisati. Civilizacija ruši ovaj model. Igra se proteže kroz 500 poteza. Istovremeno upravljate vojnim snagama, kulturnim proizvodom, naučnim istraživanjima, ekonomskim resursima i diplomatskim odnosima. Postoje stotine održivih strategija, svaka interno koherentna, ali fundamentalno neuporediva sa ostalima. Kulturna pobeda i vojno osvajanje se ne mogu svesti na jedan rezultat koji vam omogućava da kažete „ovaj je 8% bolji“. To su različiti narativi o tome kakvu civilizaciju gradite.

    Zato su tradicionalni pristupi veštačkoj inteligenciji imali problema. Minimaks pretraga zahteva pozicije koje se mogu proceniti. Monte Karlo pretraga stabla zahteva stabla igre koja se granaju upravljiv broj puta. Učenje sa pojačanjem zahteva jasne signale nagrade koji se generalizuju u svim državama. Civilizacija ne nudi ništa od ovoga pouzdano. Prostor mogućih igara je toliko veliki, a horizont toliko dugačak, da algoritmi dizajnirani za istraživanje i procenu grana nailaze na zid.

    Ono što Civilizacija zapravo zahteva je nešto drugačije: održavanje dugoročne strateške koherentnosti. Ljudski igrač uspeva tako što formira narativ („Idem na kulturnu pobedu“), a zatim razmišlja unazad od tog cilja. Svaki politički izbor, svaka izgrađena jedinica, svaka diplomatska uvertira služi tom narativu. Ljudi ne koriste grubu silu stablo igre. Oni se obavezuju na strategiju i ostaju koherentni.
    Uvid koji menja sve

    Ovde se pojavljuje fundamentalno saznanje: Modeli velikih jezika su užasni u onome u čemu su računari dobri (izračunavanje, iscrpna pretraga, matematička optimizacija) i izuzetni upravo u onome što Civilizacija zahteva.

    Materijali velikog jezika (LLM) su mehanizmi za uparivanje obrazaca obučeni na ogromnim količinama strateškog rezonovanja na prirodnom jeziku. Apsorbovali su hiljade članaka, knjiga i dokumenata o istoriji, ekonomiji, vojnoj strategiji i ljudskom donošenju odluka. Ne mogu pouzdano da reše kvadratnu jednačinu, ali se od njih traži da artikulišu strategiju u tri poteza koja balansira vojnu snagu sa kulturnim uticajem, i oni proizvode koherentno, razumljivo rezonovanje. Oni održavaju narativnu konzistentnost kroz stotine tokena na način na koji je ljudi održavaju kroz stotine poteza.

    Ovo menja uobičajeni okvir „možemo li koristiti LLM-ove za igranje igara?“ Pitanje nije bilo da li su LLM-ovi dobri u igrama uprkos tome što su spori i skupi. Pitanje je da li specifične mogućnosti koje ih čine sporim i skupim zapravo rešavaju pravi problem za Civilizaciju.

    Većina rada veštačke inteligencije na igrama fokusira se na taktičko izvršenje: koje jedinice treba da se kreću gde da bi se optimizovala pozicija, koji je pohlepni algoritam za raspodelu resursa, kako pronalazite lokalno optimalna poboljšanja? Ovo su teški problemi sa računskog stanovišta, ali zapravo nisu usko grlo u Civilizaciji. Ljudi mogu da napišu razumne pohlepne algoritme za kretanje jedinica. Usko grlo je u sloju iznad: odlučivanje šta pokušavate da postignete, održavanje koherentnosti tokom 500 poteza, merenje konkurentskih ciljeva kada nijedna metrika ne obuhvata sve njih.

    Spoznaja koja je motivisala ovaj rad bila je jednostavna: šta ako koristimo LLM-ove za ono u čemu su zapravo dobri i sve ostalo delegiramo sistemima dizajniranim za te zadatke?
    Izgradnja hibridne arhitekture

    Arhitektura koja proizilazi iz ovog uvida deli rad između dva sloja. Gornji sloj, pokretan LLM-om, bavi se makrostrateškim rezonovanjem. Ovde LLM deluje: odlučujući da civilizacija treba da teži teritorijalnoj ekspanziji na zapadu, da se okrene ka kulturnom razvoju, da pregovara sa određenom susednom silom ili da raspodeli resurse ka naučnom prodoru. Ove odluke proizilaze iz rezonovanja na prirodnom jeziku o apstraktnim kompromisima i dugoročnim ciljevima.

    Donji sloj se sastoji od specijalizovanih podsistema, najmanje algoritamske veštačke inteligencije, potencijalno proširene na učenje sa pojačanjem u budućem radu. Ovi sistemi primaju stratešku nameru od LLM-a i prevode je u konkretnu akciju. Kada LLM odluči da se „proširi na zapad“, taktički sloj utvrđuje koje se jedinice kreću gde, kojim redosledom, da bi se postigao taj cilj. Kada LLM alocira resurse ka nauci, taktički sloj generiše specifičan red za izgradnju gradova.

    Ova podela ima tri neposredne prednosti. Prvo, omogućava LLM-u da radi na pravom nivou apstrakcije. LLM ne mora da generiše niz od 50 komandi za mikromenadžment. On rasuđuje o strategiji i prepušta detalje. Drugo, efikasan je. LLM-ovi su spori generatori tokena po token, ali su vam potrebni samo da proizvedu nekoliko odluka visokog nivoa po potezu. Algoritmi mogu da izvrše hiljade taktičkih odluka u sekundi. Treće, jeftin je. Jedan LLM poziv po potezu košta dramatično manje od pozivanja LLM-a stotine puta.

    Granica apstrakcije je važna. LLM izdaje stratešku nameru na prirodnom jeziku, kao tekst koji opisuje šta želi da postigne. Ispod te granice, sistemi kojima je stalo do efikasnosti i brzine prevode tu nameru u akcije. Ovo nije hakovanje. To je principijelna podela rada: rasuđivanje tamo gde je teško, izvršenje tamo gde nije.

    Ova arhitektura odražava širi obrazac koji se pojavljuje u istraživanju agentske veštačke inteligencije. Jezički modeli sve više služe kao slojevi rasuđivanja i planiranja pored specijalizovanih alata i podsistema. Rad na planiranju zasnovanom na LLM-u u robotici i autonomnim sistemima prati isti princip: jezički model rasuđuje o ciljevima i strategijama, podsistemi izvršavaju konkretne akcije. Vox Deorum primenjuje taj obrazac na domen koji deluje udaljeno od robotike, ali deli isti strukturni izazov: dugoročno rasuđivanje kombinovano sa izvršenjem u realnom vremenu.
    Testiranje u velikim razmerama

    Da li ova arhitektura zaista funkcioniše? Istraživači su se bavili ovim pitanjem pokretanjem 2.327 kompletnih igara, varirajući korišćeni LLM i upoređujući rezultate sa ugrađenom veštačkom inteligencijom Civilization V sa Vox Populi modom, dobro cenjenim poboljšanjem koje igru čini znatno težom za ljudske igrače.

    Obim ove evaluacije je važan. Ovo nije dokaz koncepta sa deset igara. To je rigorozna empirijska studija koja omogućava da se pojave obrasci i da slučajnosti postanu vidljive. Kroz preko dve hiljade igara, istraživači bi mogli da se pitaju: da li LLM-ovi održavaju stratešku koherentnost tokom 500 poteza? Da li proizvode razumljive odluke? Kako se porede sa jakom osnovnom linijom? Koliki je stvarni trošak računanja?

    Najosnovnije pitanje je da li bi LLM-ovi uopšte mogli da održe koherentnost tokom tako dugog horizonta. U teoriji, LLM-ovi ne bi trebalo da budu u stanju da „sete“ odluke donete pre 400 poteza ili da održe konzistentnu stratešku viziju toliko dugo. U praksi, mogli bi, pod uslovom da je zadatak strukturirao tako da im pomogne. Samo ovo je zanimljivo jer sugeriše da su LLM-ovi sposobniji za održivo razmišljanje nego što im se često pripisuje.

    Što se tiče stope pobeda protiv Vox Populi, LLM-ovi su postigli takmičarsku igru bez potpune dominacije. Nisu bili očigledno superiorni, ali nisu bili ni očigledno inferiorni. Ovo je važno jer sugeriše da je pristup održiv, a da nije čarobni štapić. Sistem veštačke inteligencije koji igra takmičarski dok pokazuje interpretativno, ljudsko razmišljanje je vredniji od onog koji konstantno pobeđuje, ali proizvodi nerazumljive odluke.

    Stilovi igre kao strateški potpisi

    Ovde rezultati postaju iznenađujući na zanimljiviji način. Dva različita testirana LLM-a nisu se samo nasumično razlikovala. Razvili su koherentne, divergentne strategije koje otkrivaju nešto o tome kako jezički modeli razmišljaju o složenim problemima.

    Jedan model bi mogao da igra agresivno, posvećujući se vojnoj dominaciji i dosledno sledeći tu naraciju. Drugi bi mogao da razvije diplomatsku strategiju, dajući prioritet savezništvu i trgovini. Treći bi se mogao fokusirati na kulturni razvoj, obrazlažući da kulturne pobede zahtevaju kontinuirana ulaganja u specifičnu infrastrukturu. To nisu bile slučajne fluktuacije. To su bile stabilne strategije koje su opstale kroz stotine poteza i kroz više igara.

    Ovo je važno iz nekoliko razloga. Prvo, za dizajn igre: to znači da bi se LLM-ovi mogli koristiti za stvaranje raznolikosti kod protivnika sa veštačkom inteligencijom. Umesto da se čvrsto kodiraju različiti nivoi težine ili arhetipovi ličnosti, mogli biste koristiti LLM-ove za prirodno generisanje različitih stilova igre. Drugo, za razumevanje LLM-ova: doslednost ovih strategija sugeriše da jezički modeli kodiraju koherentne stilove rezonovanja. Oni ne samo emuliraju obrasce površinskog nivoa. Treće, za interakciju između čoveka i veštačke inteligencije: LLM-ovi bi mogli da objasne svoje strateško rezonovanje prirodnim jezikom, čineći donošenje odluka veštačke inteligencije transparentnim na načine na koje tradicionalni algoritmi ne mogu.

    Stilovi igre su ostali interpretabilni tokom celog procesa. Kada je LLM odlučio da napadne susednu civilizaciju, mogao je da artikuliše zašto. Kada se prebacio ka mirnoj ekspanziji, rezonovanje je imalo smisla u okviru njegovog ukupnog strateškog narativa. Ovo se kvalitativno razlikuje od gledanja algoritma kako pravi poteze koji optimizuju neku funkciju nagrađivanja, ali ne proizvode razumljivo objašnjenje.

    Šta ovo otvara

    Ovaj rad utvrđuje da je hibridna arhitektura koja uparuje LLM-ove za strateško rezonovanje sa specijalizovanim podsistemima za taktičko izvršenje održiva u komercijalnom okruženju igre. To je konkretan tehnički doprinos. Ali širi značaj rada leži u onome što on sledeće omogućava.

    Za dizajn igara, ovaj pristup stvara nove mogućnosti. Saradnja između čoveka i veštačke inteligencije postaje prirodna kada veštačka inteligencija može da objasni svoje rezonovanje. Pregovaranje postaje moguće kada i čovek i veštačka inteligencija mogu da artikulišu stratešku nameru prirodnim jezikom. Arhitektura se skalira na druge strateške igre: društvene igre, vojne simulacije, igre poslovnog menadžmenta. Bilo koja oblast gde je strategija važnija od proračuna mogla bi imati koristi od ovog pristupa.

    Za istraživanje agentske veštačke inteligencije, obrazac ovde se proteže izvan igara. Uvid da LLM-ovi treba da se bave rezonovanjem na visokom nivou dok delegiraju izvršenje je prenosiv. Ovo se povezuje sa širim radom na agentima i sistemima planiranja zasnovanim na LLM-u, gde jezički modeli služe kao slojevi rezonovanja za utemeljeno donošenje odluka. Slični principi se javljaju u istraživanju robotike i autonomnih sistema, gde LLM-ovi rasuđuju o ciljevima i strategiji, dok specijalizovani podsistemi obrađuju kontrolu u realnom vremenu. Voks Deorum pruža dobro sažetu studiju slučaja tog principa koji funkcioniše u velikim razmerama.

    Nekoliko pitanja ostaje otvoreno. Kako sprečiti da LLM-ovi skrenu u lokalno optimalnu igru kada im nedostaje predviđanje da vide daleko unapred? Da li ova arhitektura može da podnese istinsko višeagentsko rezonovanje, gde su pregovori i obmana važni? Koliko performanse zavise od pažljivog brzog inženjeringa u odnosu na mogućnosti osnovnog modela? Koliko visoko ide plafon? Da li pristup funkcioniše za još složenije igre poput Evropa Universalis, gde prostor stanja i složenost pravila prevazilaze čak i Civilizaciju?

    Ova pitanja nisu slabosti rada. Ona su pozivi. Rad utvrđuje da hibridne arhitekture funkcionišu i otvara pravac istraživanja. Sledeći koraci uključuju razumevanje ograničenja, skaliranje na složenije domene i istraživanje šta se dešava kada više agenata zasnovanih na LLM-u interaguje sa pravom agencijom i suprotstavljenim ciljevima. Tu počinje da se pojavljuje prava dubina agentske veštačke inteligencije.