Pravica do zasebnosti in višji cilji družbe: Apple bo pregledoval fotografije z namenom odkrivati primere otroške pornografije.
Galerija
Prek posebnega orodja bo Apple fotografije preverjal. V resnici jih nihče ne bo gledal, dokler ne bo sistem nekajkrat zaznal sporne vsebine in bo o tem obvestil človeške moderatorje. FOTO: Brian Snyder/Reuters
V nadaljevanju preberite:
Podjetje Apple je napovedalo, da bo v prihodnjih tednih začelo pregledovati fotografije, ki jih uporabniki naložijo v njihovo oblačno shrambo iCloud. To bodo počeli tako, da bo naša naprava fotografije z orodjem NeuralHash najprej pretvorila v tako imenovano hash kodo oziroma zgoščen zapis CSAM (Child Sexual Abuse Material), to pa nato primerjala s kodami CSAM, ki so v bazi do sedaj znanih slik otroške pornografije. Pomeni, da v resnici nihče ne bo gledal naših fotografij vse do trenutka, ko bo sistem nekajkrat zaznal ujemanje zgoščenih zapisov in bo o tem obvestil človeške moderatorje. Ti bodo nato stvar preverili in po potrebi obvestili organe pregona.
Zakaj je to sporno?
Celoten članek je na voljo le naročnikom.
Vsebine, vredne vašega časa, za ceno ene kave na teden.
NAROČITE Obstoječi naročnik?Prijavite se
Komentarji