Dobro jutro!

Hitre povezave
Moje naročnineNaročila
PREMIUM   D+   |   Znanoteh

Usodni korak v zasebnost?

Pravica do zasebnosti in višji cilji družbe: Apple bo pregledoval fotografije z namenom odkrivati primere otroške pornografije.
Prek posebnega orodja bo Apple fotografije preverjal. V resnici jih nihče ne bo gledal, dokler ne bo sistem nekajkrat zaznal sporne vsebine in bo o tem obvestil človeške moderatorje. FOTO: Brian Snyder/Reuters
Prek posebnega orodja bo Apple fotografije preverjal. V resnici jih nihče ne bo gledal, dokler ne bo sistem nekajkrat zaznal sporne vsebine in bo o tem obvestil človeške moderatorje. FOTO: Brian Snyder/Reuters
15. 8. 2021 | 06:00
8:13

V nadaljevanju preberite:


Podjetje Apple je napovedalo, da bo v prihodnjih tednih začelo pregledovati fotografije, ki jih uporabniki naložijo v njihovo oblačno shrambo iCloud. To bodo počeli tako, da bo naša naprava fotografije z orodjem NeuralHash najprej pretvorila v tako imenovano hash kodo oziroma zgoščen zapis CSAM (Child Sexual Abuse Material), to pa nato primerjala s kodami CSAM, ki so v bazi do sedaj znanih slik otroške pornografije. Pomeni, da v resnici nihče ne bo gledal naših fotografij vse do trenutka, ko bo sistem nekajkrat zaznal ujemanje zgoščenih zapisov in bo o tem obvestil človeške moderatorje. Ti bodo nato stvar preverili in po potrebi obvestili organe pregona.

Zakaj je to sporno? 

Celoten članek je na voljo le naročnikom.

Vsebine, vredne vašega časa, za ceno ene kave na teden.

NAROČITE  

Obstoječi naročnik?Prijavite se

Sorodni članki

Komentarji

VEČ NOVIC
Predstavitvene vsebine