Neomejen dostop | že od 9,99€
Pred dvema tednoma je raziskovalna skupina na Univerzi v Chicagu predstavila tehniko nightshade, način za »zastrupljanje« podatkov, na katerih se učijo algoritmi za ustvarjanje slik. Umetna inteligenca, ki se uči na tako onesnaženih zbirkah podob, ne zna več pravilno narisati tistega, kar od nje pričakujemo.
Tehnika nightshade v slike doda šum, ki algoritme za ustvarjanje podob iz tekstovnih navodil, kot so dall-e, midjourney in stable diffusion, močno zmede. Ko jih kasneje poprosimo, da nam recimo izrišejo psa s klobukom, nam namesto tega izvržejo kravo na kolesu (oziroma v praksi še večkrat kakšno razmazano, groteskno podobo). Prefinjenost načina je v tem, da je s prostim očesom praktično nemogoče opaziti, da so »zastrupljene« podobe kakorkoli drugačne od običajnih, s katerimi se tovrstne algoritme uči. To spominja na primere »sovražnih vzorcev« (adversarial patterns), s katerimi strokovnjaki lahko zmedejo algoritme za prepoznavo vizualnih podob. Na prometni znak so denimo nalepili na videz zelo majhen moteč vzorec, ki bi ga človeški voznik komaj opazil, toda sistem za samodejno vožnjo je povsem spravil iz tira in ta pomena cestnih oznak ni več prepoznal.
Celoten članek je na voljo le naročnikom.
Vsebine, vredne vašega časa, za ceno ene kave na teden.
NAROČITEObstoječi naročnik?Prijavite se
Komentarji