Pozdravljeni!

Hitre povezave
Moje naročnineNaročila
PREMIUM   D+   |   Znanoteh

Poslovni model ameriških informacijskih velikanov na tnalu

Pretres, ki ga je povzročil kitajski jezikovni model, v resnici ne bi smel biti presenetljiv.
Predpostavka, da več podatkov na večjih nevronskih mrežah pomeni boljši algoritem, ne drži povsem. FOTO: Shutterstock
Predpostavka, da več podatkov na večjih nevronskih mrežah pomeni boljši algoritem, ne drži povsem. FOTO: Shutterstock
10. 2. 2025 | 09:00
10:31

V nadaljevanju preberite: 

Da bi lažje razumeli, kako so Kitajci lahko zamajali ameriško algoritemsko hegemonijo že samo s tem, da so r1 napravili dosti ceneje, moramo najprej podrobneje pogledati ekonomski model ameriških podjetij, ki v zadnjih letih obvladujejo področje strojnega učenja. Odkar je jeseni leta 2022 udaril pogovorni bot chatgpt in pognal najnovejšo norijo nad umetno inteligenco, pod tem izrazom razumemo predvsem velike jezikovne modele, ki so podlaga za na videz realistične računalniške sogovornike, pa poleg tega denimo še generatorje slik, ki iz tekstovnega ukaza ustvarijo umetno podobo. V obeh primerih je razvojna mantra zelo podobna: zmogljivejše verzije takšnih algoritmov se išče na način, da se vse večje nevronske mreže uči na vse večjih količinah podatkov. Po tej strategiji naj bi torej strojni sogovornik postajal »pametnejši«, če ima preprosto večje »možgane«, ki so videli več preteklih pogovorov. Ne le to, zagovorniki takšnega pristopa celo trdijo, da bomo tako že v razmeroma kratkem obdobju prišli do strojne inteligence, primerljive s človeško (AGI – artificial general intelligence).

Celoten članek je na voljo le naročnikom.

Aktualne in poglobljene vsebine, ki vam pomagajo razumeti svet – za 14,99 EUR na mesec!
NAROČITE  

Obstoječi naročnik?Prijavite se

Sorodni članki

Komentarji

VEČ NOVIC
Predstavitvene vsebine