![Predpostavka, da več podatkov na večjih nevronskih mrežah pomeni boljši algoritem, ne drži povsem. FOTO: Shutterstock](https://www.delo.si/media/images/20250210/1984963.width-660.jpg?rev=1)
Neomejen dostop | že od 14,99€
Da bi lažje razumeli, kako so Kitajci lahko zamajali ameriško algoritemsko hegemonijo že samo s tem, da so r1 napravili dosti ceneje, moramo najprej podrobneje pogledati ekonomski model ameriških podjetij, ki v zadnjih letih obvladujejo področje strojnega učenja. Odkar je jeseni leta 2022 udaril pogovorni bot chatgpt in pognal najnovejšo norijo nad umetno inteligenco, pod tem izrazom razumemo predvsem velike jezikovne modele, ki so podlaga za na videz realistične računalniške sogovornike, pa poleg tega denimo še generatorje slik, ki iz tekstovnega ukaza ustvarijo umetno podobo. V obeh primerih je razvojna mantra zelo podobna: zmogljivejše verzije takšnih algoritmov se išče na način, da se vse večje nevronske mreže uči na vse večjih količinah podatkov. Po tej strategiji naj bi torej strojni sogovornik postajal »pametnejši«, če ima preprosto večje »možgane«, ki so videli več preteklih pogovorov. Ne le to, zagovorniki takšnega pristopa celo trdijo, da bomo tako že v razmeroma kratkem obdobju prišli do strojne inteligence, primerljive s človeško (AGI – artificial general intelligence).
Celoten članek je na voljo le naročnikom.
Obstoječi naročnik?Prijavite se
Komentarji