Neomejen dostop | že od 9,99€
Obstaja širši razkol med dvema tipoma strokovnjakov, ki opozarjajo na slabosti strojnega učenja. Na eni strani so tisti, ki jih zanima etika UI, na drugi tisti, ki jih zanima varnost (AI safety). Med prvimi gre pretežno za ženske in pripadnike rasnih manjšin, ki se redno srečujejo z diskriminacijo na podlagi spola, barve kože ali verske pripadnosti. Takšna diskriminacija je že od vsega začetka eden temeljnih problemov strojnega učenja, ker izvira iz pomanjkljivega oblikovanja zbirk podatkov, na katerih se algoritmi učijo. Ker so družbeno marginalizirane skupine slabše zastopane v učnih podatkih, jih algoritmi obravnavajo manj zanesljivo. Ali po domače povedano: ker se algoritem uči na zbirkah obrazov, v katerih prevladujejo belopolti ljudje, se rad zmoti pri prepoznavi temnopoltih.
Pri raziskovalcih varnosti UI prevladujejo tisti, ki jih bolj zanima vprašanje, kdaj bodo stroji pridobili tolikšne sposobnosti, da bi lahko postali splošna nevarnost za človeštvo. Ali, če smo malce filmsko slikoviti, kdaj bo iz nedrij laboratorijev vzniknil skynet in nas zbombardiral z jedrskim orožjem.
Celoten članek je na voljo le naročnikom.
Vsebine, vredne vašega časa, za ceno ene kave na teden.
NAROČITEObstoječi naročnik?Prijavite se
Komentarji