Pozdravljeni!

Hitre povezave
Moje naročnineNaročila
PREMIUM   D+   |   Znanoteh

Usodni korak v zasebnost?

Pravica do zasebnosti in višji cilji družbe: Apple bo pregledoval fotografije z namenom odkrivati primere otroške pornografije.
Prek posebnega orodja bo Apple fotografije preverjal. V resnici jih nihče ne bo gledal, dokler ne bo sistem nekajkrat zaznal sporne vsebine in bo o tem obvestil človeške moderatorje. FOTO: Brian Snyder/Reuters
Prek posebnega orodja bo Apple fotografije preverjal. V resnici jih nihče ne bo gledal, dokler ne bo sistem nekajkrat zaznal sporne vsebine in bo o tem obvestil človeške moderatorje. FOTO: Brian Snyder/Reuters
15. 8. 2021 | 06:00
8:13

V nadaljevanju preberite:


Podjetje Apple je napovedalo, da bo v prihodnjih tednih začelo pregledovati fotografije, ki jih uporabniki naložijo v njihovo oblačno shrambo iCloud. To bodo počeli tako, da bo naša naprava fotografije z orodjem NeuralHash najprej pretvorila v tako imenovano hash kodo oziroma zgoščen zapis CSAM (Child Sexual Abuse Material), to pa nato primerjala s kodami CSAM, ki so v bazi do sedaj znanih slik otroške pornografije. Pomeni, da v resnici nihče ne bo gledal naših fotografij vse do trenutka, ko bo sistem nekajkrat zaznal ujemanje zgoščenih zapisov in bo o tem obvestil človeške moderatorje. Ti bodo nato stvar preverili in po potrebi obvestili organe pregona.

Zakaj je to sporno? 

Celoten članek je na voljo le naročnikom.

Berite Delo 3 mesece za ceno enega.

NAROČITE  

Obstoječi naročnik?Prijavite se

Sorodni članki

Komentarji

VEČ NOVIC
Predstavitvene vsebine