Pozdravljeni!

Hitre povezave
Moje naročnineNaročila
Razno

Bo samovozeče vozilo raje povozilo otroka ali nosečnico?

Filozof in ekonomist Luciano Floridi se v svojih raziskavah osredotoča predvsem na digitalno etiko ter filozofijo informacij in tehnologije. Je avtor več kot 150 člankov, ki so prevedeni v številne jezike.
Ne kupim ideje, da mladi danes nimajo zasebnosti, in v svoje stališče sem prepričan. Ta ideja je smešna. In ni resnična. Imajo pa drugačno dojemanje zasebnosti, je prepričan Luciano Floridi. Foto: Pixabay
Ne kupim ideje, da mladi danes nimajo zasebnosti, in v svoje stališče sem prepričan. Ta ideja je smešna. In ni resnična. Imajo pa drugačno dojemanje zasebnosti, je prepričan Luciano Floridi. Foto: Pixabay
31. 5. 2019 | 06:05
3. 6. 2019 | 16:10
17:38
Je profesor filozofije in etike informacijske družbe na Univerzi v Oxfordu. Je tudi direktor laboratorija za digitalno etiko internetnega inštituta na omenjeni univerzi. Sodeluje tudi na Nacionalnem inštitutu za podatkovno znanost, kjer med drugim predseduje skupini za podatkovno etiko.
Je znanstveni sodelavec Centra za praktično etiko Uehiro in znanstveni sodelavec za informacijsko politiko oddelka za računalništvo, pa tudi profesor na oddelku za ekonomijo Ameriške univerze v Washingtonu ter Univerze v Exetru. Med njegova najnovejša dela sodijo Četrta revolucija: Kako infosfera preoblikuje človeško resničnost, Etika informacij in Filozofija informacij.

Floridi zagovarja tezo, da je znanje oblikovanje in da je filozofija končna oblika tega konceptualnega oblikovanja. Filozofija kot konceptualni inženiring je oblikovanje pravih idej, interpretacij in konceptualnih modelov, ki skupaj – kot sestavine v mehanizmu – razlagajo resničnost, v kateri živimo, in naše življenje v njej.
V Slovenijo je prišel v času Microsoftove konference, največjega tehnološko poslovnega dogodka pri nas, kjer je v petih predavanjih za različno občinstvo razlagal, česa naj nas bo v prihodnosti zares strah.


Ste gledali serijo Black Mirror?

Ja. Nekaj delov, ne preveč. To je premočno za moj želodec.


Verjetno vas je odvrnil prvi del prve sezone, kjer izsiljevalci prisilijo britanskega premierja javno občevati s prašičem?

Ta del je grozljiv.


Kaj pa ostale karikature, ki jih slikata ustvarjalca serije, lahko postanejo realnost? To sprašujem zato, ker je revija Wired ravno v majski številki našla kar nekaj primerov razvoja tehnologije v realnosti, ki jih je serija prikazovala. So to stvari, katerih nas je lahko strah?



To je izvlečeno iz konteksta, gre za posamezne primere razvoja tehnologije. V realnosti pa jih ne uporabljamo tako, kot to prikazuje serija. Ta je zasnovana kot miselni eksperiment. Gre za »predstavljamo si, kaj če«. A v resnici se svet in zgodovina ne razvijata in ne spreminjata tako hitro. V Veliki Britaniji – verjamem pa, da tudi drugje – za pošiljanje dokumentov še marsikje uporabljajo telefaks. Poleg tega uporabljajo tudi elektronsko pošto, 5G, umetno inteligenco in drugo. Tehnologije in inovacije se v resnici zelo počasi razvijajo. Trik serije Black Mirror je v tem, da prikazuje, kaj se zgodi, če neka tehnologija nenadoma pride v družbo in se zaradi nje spremeni popolnoma vse. V resničnem življenju lahko vidimo, kot na primeru zgoraj omenjenega telefaksa, da nove tehnologije ne nadomestijo starih, ampak so jim v večini primerov komplementarne. Zakaj vedno govorimo le o primeru, kako je avto zamenjal kočijo? Kaj pa električni brivniki? Res ne uporabljamo več običajnih britvic in ne hodimo k brivcu? Smo res nehali pisati na roko in brati knjige v fizični obliki? Če damo vse na kup in pogledamo, kako zelo počasi se v različnih kontekstih dogaja razvoj in kako komplementarne so inovacije med seboj, potem Black Mirror ni nič več kot dobra znanstvena fantastika. Kar naenkrat se vse spremeni in zamenja vse, kar je bilo v preteklosti. To ne deluje tako. Iztrebljevalec je veliko boljši primer.


Kaj vas glede umetne inteligence in tehnološke prihodnosti torej najbolj straši?

Način, kako bo človek uporabljal tehnologijo. Ta ima izjemno moč, od nas ljudi pa je odvisno, kako previdno in s kakšnim namenom jo bomo uporabljali. To me skrbi. Imamo avtonomno orožje, ki je dostopno že danes. To ni znanstvena fantastika. Tehnologije prepoznavanja obrazov se že množično uporabljajo na Kitajskem in v ZDA. Najbolj me torej straši zloraba umetne inteligence s strani človeka, nikakor pa ne sama tehnologija.

Luciano Floridi je profesor na Oksfordu in direktor Digital Ethics lab- a. FOTO Mavric
Luciano Floridi je profesor na Oksfordu in direktor Digital Ethics lab- a. FOTO Mavric


Kakšne so zlovešče strani prepoznavanja obrazov?

Nadzor, ki ga omogoča. Zaradi dejstva, da smo opazovani in prepoznani, se spreminja naše obnašanje, sčasoma pa tudi narava. S tem postavljamo pod vprašaj razvoj individuuma in spontano vedenje. Čeprav sem po rodu Italijan, vozim zelo previdno in po predpisih. Ko se zraven mene vozi policijsko vozilo, postanem rahlo živčen, takoj pomislim, da sem nekaj storil narobe. V primeru prepoznavanja obrazov, če bomo torej stalno nadzorovani, bo to vplivalo na človeka in njegovo obnašanje, na koncu bo spremenilo njega kot živo bitje. Stalen občutek »previdno, opazujemo vas« bo imel posledice. Kot otrokom so nam vedno govorili, da nas Bog gleda, zato nas je bilo strah, če smo kaj ušpičili. To funkcijo danes prevzema tehnologija prepoznavanja obrazov.


Ali ni to dobro za družbo, saj bomo preprečili dodatne prometne nesreče in kriminal? Pravijo tudi – če sem ironična –, da tistih, ki nimajo nič skrivati, nadzor ne bi smel skrbeti.



Naše življenje ni črno in belo, dobro in slabo. Je mešanica obojega. Predstavljajte si, da kuhate. Včasih dodate več soli, včasih manj, a je vseeno dobro. Kuhanje vašega življenja je enako, v njem imate tudi nekaj majhnih napak, včasih ste zelo delovni, včasih se več zabavate. Še vedno ste dobra oseba, ki živi dobro življenje. Sem na dolgi poti, vozim zbrano, a na neki točki se zamislim nad nečim in vozim pet kilometrov prehitro. Naprava me fotografira in mi pošlje položnico, v sistemu pa sem zaveden kot prekrškar. Pa sem res? Je prav, da imamo tak sistem, ki pozna le dobro in slabo? Policist bi mi tako vožnjo oprostil, ker bi videl, da sem zbran, da vozim umirjeno. Računalnik pa tega ne zmore, zato mi pošlje položnico ter me kaznuje in me vnese v sistem.

Dobro moralno življenje je vsakodnevno življenje, ko dobiš več kot izgubiš. To je dobro življenje. Ampak vedno zgolj zmagovati in niti enkrat izgubiti? To je nemogoče, nismo svetniki. Tehnologija prepoznavanja obrazov pa te umesti na eno ali drugo stran in ne dovoljuje prostora za eksperimentiranje. Nekaj majhnih napak v resnici ne odloča o ničemer in te ne naredi nemoralnega človeka. Če se torej vrnem k vprašanju, kaj me skrbi. Če bomo s tehnologijami nadzorovali takšne zadeve in umeščali ljudi na eno ali drugo stran, torej ali vam ni treba skrbeti za nič ali pa vas za nekaj skrbi, bomo s tem kršili človeško naravo. Ker je nemogoče biti le na eni strani. Vedno me kaj skrbi, pa sem vseeno dober človek.


Luciano Floridi je profesor na Oksfordu in direktor Digital Ethics lab- a. FOTO Mavric
Luciano Floridi je profesor na Oksfordu in direktor Digital Ethics lab- a. FOTO Mavric


Menite, da se spreminja morala ljudi in s tem skozi čas tudi morala družbe ter ali je v določenem času in kontekstu enako število ljudi moralnih?

Morala se spreminja zato, ker se spreminja objekt moraliziranja. Spreminja se to, kako občutljivi smo glede določenih problemov. Še dve ali tri generacije nazaj pravice živali, žensk in okolja niso bile prisotne. Ljudje o tem sploh niso razmišljali. Preprosto niso bili občutljivi za ta vprašanja. Rad si domišljam, da človek postaja vedno bolj senzibilen. Vsaj glede tega, kako razume, kaj je dobro in slabo. Obnašanje in dejanja so nekaj drugega. Razumemo, da je treba okolje zaščititi, da je nujno zagotoviti uravnoteženost med spoloma, da je nasilje nad otroki nesprejemljivo itd. Upam, da se to danes spreminja. Ali smo bolj moralni kot generacije pred nami? Ne vem. Po mojem mnenju delamo le drugačne napake. V 90-ih letih se je dozdevalo, da bo svet s prihodom interneta postal brezplačen, zaradi česar pomislekov o spletnem piratstvu ni bilo. Kopiralo se je filme, glasbo, knjige, ne da bi kdorkoli pomislil, da bi bilo to lahko sporno.
Zato ne moremo reči, da so ljudje, ki so pred 20 leti pretakali spletne kopije, kradljivci in nemoralneži. Ko smo začeli kot družba razumeti, kaj so intelektualne pravice drugih, se je odnos do piratstva spremenil. Vsaka generacija dela drugačne napake. Vprašanja, za katera menimo, da smo jih že rešili, recimo zasebnost, spet prihajajo v ospredje.


Je vprašanje zasebnosti na spletu napaka naše generacije?

Ne kupim ideje, da mladi danes nimajo zasebnosti, in v svoje stališče sem prepričan. Ta ideja je smešna. In ni resnična. Imajo pa drugačno dojemanje zasebnosti. V primerjavi z mojo babico, za katero je bilo vprašanje zasebnosti povezano s tem, ali se poljublja na ulici ali ne, mladi danes živijo v čisto drugem vesolju. Predstava o zasebnosti je popolnoma drugačna. Zato ne moremo govoriti o tem, da so imeli v preteklosti deset točk zasebnosti, danes pa jo imajo nič točk. Danes je nekdo glede zasebnosti veliko bolj pozoren in zaskrbljen, ker uporablja Facebook, Snapchat, Google, ker imajo kamere v šoli in podobno. Na takšne dogodke moramo vedno gledati z razdalje, ne pa iz centra. Pravo vprašanje je, kaj počnemo s tehnologijo.



Leta 2016 je FBI zahteval od Appla, da odklene telefon terorističnega napadalca, ki je v San Bernardinu ubil 14 ljudi in jih 22 ranil. Apple je zahtevi nasprotoval z argumentom, češ da bi s tem kršili prvi amandma, ki govori o pravici do svobode govora, saj bi bila računalniška koda, ki bi jo morali spremeniti, jezik. Toda ali lahko računalniško kodo res razumemo kot jezik in s tem kot pravico do govora?

Apple je v tej zadevi situacijo izkoristil za oglaševanje svojih izdelkov, ki naj bi bili tako močno zaščiteni, da nihče ne more priti do vsebine, ki jo hranite na telefonu. Menim pa, da v demokracijah – vsaj v spodobnih demokracijah, posebej evropski – skrbno ščitimo skoraj vse človekove pravice. Poudarjam, skoraj vse. Ne delamo izjem pri mučenju, delamo pa izjeme pri svobodi govora. Zakaj? Ker se kot družba strinjamo, da v določenih okoliščinah ne moremo govoriti čisto o vsem. Ko je recimo vojna, novinarji ne morejo poročati o načrtu vojaškega napada in podobno, saj gre za vprašanje nacionalne varnosti in varnosti prebivalcev. Mislim, da je bil tak tudi Applov primer. Kljub temu, da je programska koda dejansko programski jezik, iz tega ne moremo potegniti sklepa, da je lahko zaščiten, kot je zaščitena svoboda govora človeka. Da je torej nedotakljiv. V tem specifičnem primeru bi moralo biti jasno vsem, da FBI mora dobiti dostop do vsebine, ki jo ščiti programski jezik. Kaj pa če bi se v tem telefonu skrival načrt jedrske bombe, ki naj bi eksplodirala v New Yorku? Bomo rekli ne, to je svoboda govora, ne smete pogledati?


Programskim jezikom podeljujemo vedno več odgovornosti. Ko se bo avtonomno vozilo v izjemnih in redkih primerih moralo odločiti, ali bo povozilo starejšo žensko ali nosečnico, kaj bi moralo po vašem mnenju storiti? Kaj je v tem primeru bolj moralno?


Luciano Floridi je profesor na Oksfordu in direktor Digital Ethics lab- a. FOTO Mavric
Luciano Floridi je profesor na Oksfordu in direktor Digital Ethics lab- a. FOTO Mavric

Za ta problem ni rešitve. Nič od tega ni moralno. Je kot vprašati nekoga, ali bi raje umrl zaprt v peči ali v savni. Kaj je bolj vroče? Kaj je bolj moralno? Kje človek manj trpi? Če sta to edini dve alternativi, edina izbira, potem ni važno, koga zbije. Oboje je grozno. Vrzimo kovanec, saj ni važno. Okoliščine so takšne, da nimaš izbire, da bi bil lahko moralen. Gre za tramvajsko dilemo (angl. trolley problem). Edina dobra stran takšnih dilem je, da se ljudje zavedajo, da moramo tehnologijo zasnovati na tak način, da se ne bomo nikoli znašli pred tovrstnimi izbirami. Če je zasnovana tako, da vas pripelje pred odločitev o smrti v vsakem primeru, je to slaba tehnologija. Na tej točki je igre konec, nič ne moreš storiti. O problemu, ki ste ga omenili, sem se pogovarjal z izvršnim direktorjem enega izmed največjih avtomobilskih proizvajalcev in tudi njemu sem dejal enako. Rešitev problema je samo ena. Poskrbi, da nikoli ne prideš do te situacije, ko se boš moral odločiti za eno izmed možnosti. Ste si ogledali film Sophijina odločitev? Ste lahko v takšnem primeru moralno odgovorni? Celo življenje boš živel s krivdo za svojo odločitev, pa karkoli izbereš. Ni važno. Scenarij ti vzame pravico do izbire moralno prave odločitve. Ni važno, ali izbiramo med ubojem otroka ali psa, starejše osebe ali nosečnice, nosečnice ali otroka. Čeprav se zdi, da imaš izbiro, to ni izbira. Naučiti se moramo, da tehnologija, ki jo ustvarjamo, nikoli ne sme pripeljati do takšnih okoliščin.


Kakšen vpliv bo imela umetna inteligenca, ko bo zares prisotna v naših življenjih in se bomo zanašali na njene odgovore, nasvete in znanja, na sposobnost mišljenja?

Zagotovo bomo izgubili nekaj veščin, kot je recimo iskanje najcenejše karte na spletu ali najcenejšega soka v trgovini. Ampak dobili bomo druge, tako kot smo jih v preteklosti. Družba napreduje v razvoju. Nove tehnologije ne uničijo nečesa, kar je v preteklosti dobro delovalo, ampak ustvarjajo rešitve za nove izzive. Današnje tehnologije določeno skupino posameznikov delajo apatične, lene, saj zgolj klikajo in nekritično sprejemajo vse, kar jim je dano, ampak drugo skupino pa ravno tehnologije delajo še bolj kritično in dojemljivo.


Torej je kritika, da tehnologija še bolj polarizira družbo, upravičena?

Tehnologije bodo v primeru intelektualnih sposobnosti še naprej polarizirale. Pri otrocih že danes vidimo velike razlike pri uporabi spletnih iskalnikov. Otrok, ki ima enostaven način razmišljanja, ne najde ničesar, tisti z bolj razvitim razmišljanjem pa zna primerjati zadetke, pozna relevantne vire in tako najde, kar potrebuje, in še kaj več. To so veščine. Ko nekdo išče najboljšo restavracijo v mestu, bo šel v prvo, ki jo najde med zadetki, čeprav je to navadno oglas, drugi pa bo preveril Googlove in Tripadvisorjeve ocene ter še pogledal, kako stare so te ocene. Pametno obnašanje je nekaj, kar ni odvisno od tega, katero tehnologijo uporabljamo, moramo pa si z izobraževanjem prizadevati, da je pametnega obnašanja v družbi čim več. Obenem moramo biti tudi realistični. Ko govorimo o mentalnih sposobnostih in inteligenci, kot družba seveda ne želimo nikogar pustiti za seboj, a žal se bo to zgodilo, nekateri bodo ostali zadaj. Ampak če pogledamo situacijo že danes: kdo danes obvlada višjo matematiko ali kdo igra kak inštrument? Večina ne, nekateri pa vendarle. In kaj lahko naredimo glede tega? Čisto nič. Tako kot igranje nogometa ali pisanje pesmi: nekateri ju zmorejo, drugi pač ne. Nekdo zna vzgojiti lepe cvetlice, jaz ne. Sposobnosti ljudi so vedno bolj raznolike, moramo pa zagotoviti njihovo nego in njihov razvoj za vsakega posameznika. Prenehati moramo z razmišljanjem, da je le en paket veščin tisti pravi, ki ga bodo vsi potrebovali.

Luciano Floridi je profesor na Oksfordu in direktor Digital Ethics lab- a. FOTO Mavric
Luciano Floridi je profesor na Oksfordu in direktor Digital Ethics lab- a. FOTO Mavric


Zakaj, če pa nas bodo – če verjamemo zagovornikom teorije singularnosti – prej ali slej nadomestili stroji?

To je popolnoma zgrešena in nesmiselna teorija, ki jo je razširila holivudska propaganda. Teorija singularnosti temelji ne nekaj preprostih, večinoma napačnih domnevah. Na primer na tej, da se moč računalnikov eksponentno povečuje. Torej se bo nekega dne zgodilo kaj? Se bo tisti dan moč računalnikov povečala čez sposobnost inteligence? Bo postala neodvisna? Čeprav bo večino stvari, ki jih danes počne človek, mogoče narediti z računalnikom, to še ne pomeni, da bodo programi to počeli skupaj. Moj pomivalec za posodo ne opere tudi mojih oblačil. In moj robot za pomivanje tal ne more pokositi trave, kaj šele skuhati kave. In tega tudi ne bo nikoli znal. Gre za idejo zombi filmov. Če se s tal povzpnete na vrh drevesa, to ni korak bliže luni, ampak je to vaš zadnji in najvišji cilj, kamor lahko pridete. Više od vrha drevesa ne morete. V prihodnosti bomo videli veliko aplikacij, ki bodo priplezale na vrh posameznih dreves. To pa ne pomeni, da bo eno drevo splezalo na drugega in potem bosta oba splezala na tretjega. Tega ne bomo doživeli. Moč računalnikov, robotov in umetne inteligence ne bo delovala na ta način. Ne deluje to tako. Ne vem, kako bi bilo mogoče, da bi en robot istočasno pomil posodo in še zlikal majico. To so fantazijski prizori, primerni za filme. Ljudje transformiramo svet, kjer imajo stroji določeno moč, ne obratno.
Pixabay
Pixabay

Hvala, ker berete Delo že 65 let.

Vsebine, vredne vašega časa, za ceno ene kave na teden.

NAROČITE  

Obstoječi naročnik?Prijavite se

Komentarji

VEČ NOVIC
Predstavitvene vsebine