Pravica do zasebnosti in višji cilji družbe: Apple bo pregledoval fotografije z namenom odkrivati primere otroške pornografije.

Galerija
Prek posebnega orodja bo Apple fotografije preverjal. V resnici jih nihče ne bo gledal, dokler ne bo sistem nekajkrat zaznal sporne vsebine in bo o tem obvestil človeške moderatorje. FOTO: Brian Snyder/Reuters
V nadaljevanju preberite:
Podjetje Apple je napovedalo, da bo v prihodnjih tednih začelo pregledovati fotografije, ki jih uporabniki naložijo v njihovo oblačno shrambo iCloud. To bodo počeli tako, da bo naša naprava fotografije z orodjem NeuralHash najprej pretvorila v tako imenovano hash kodo oziroma zgoščen zapis CSAM (Child Sexual Abuse Material), to pa nato primerjala s kodami CSAM, ki so v bazi do sedaj znanih slik otroške pornografije. Pomeni, da v resnici nihče ne bo gledal naših fotografij vse do trenutka, ko bo sistem nekajkrat zaznal ujemanje zgoščenih zapisov in bo o tem obvestil človeške moderatorje. Ti bodo nato stvar preverili in po potrebi obvestili organe pregona.
Zakaj je to sporno?
Komentarji