Prvi mož Googla
Sundar Pichai je podal obljubo: njihova umetna inteligenca (AI) ne bo zlobna.
Umetne inteligence ne bodo uporabljali za razvoj orožja, nadzornih sistemov, ki so v nasprotju z mednarodnimi normami, ali drugih sistemov, ki bi kakorkoli posegali v človekove pravice. Obljuba, ki jo je na
Googlovem blogu spisal Pichai, sovpada z nedavno potrditvijo, da spletni gigant ne bo podaljšal pogodbe z ameriško vojsko, ki bi AI med drugim uporabila za analizo zračnih posnetkov, verjetno pa še za marsikaj drugega. A to kljub temu ni konec Googlovega sodelovanja z vojaškimi organizacijami …
AI, katere se bojijo tudi številni znani obrazi in opozarjajo, da mora človek čim prej najti način, kako jo bo lahko ohranjal v vajetih, sicer se nam ne obeta nič dobrega, bo v rokah Googla namenjena le »družbenemu dobrobitu in napredku«.
»V bitu je AI računalniški program, ki se uči in prilagaja. Ne more rešiti vsakega problema, a ima potencial, da nam zelo izboljša življenja. Pri Googlu AI uporabljamo, da bi bili produkti bolj uporabni, da bi bila elektronska pošta brez spama, da bi sporočilo lažje spisali, da bi digitalni asistent govoril bolj naravno, da bi uživali ob pogledih na fotografije, ki vam jih prikažemo,« je uvodoma poudaril Pichai. Nadaljeval je, da uporabo prelomne tehnologije omogočajo tudi raziskovalcem in znanstvenikom, ki delajo v dobro ljudi.
»Prepoznali pa smo, da je tako močna tehnologija sprožila enako močna vprašanja o njeni uporabi. Kako razvijamo AI in kako jo bomo uporabili, bo imel znaten vpliv na družbo v prihodnjih letih. Kot vodilni na tem področju, čutimo globoko odgovornost, da stvari naredimo prav,« je poudaril ob objavi sedmih načel, ki jih vodijo pri delu.
Umetna inteligenca mora biti po Googlu:
1. Družbeno koristna. »Nove tehnologije bodo vplivale na družbo kot celoto, vplivale bodo na zdravstveni sistem, varnost, transport, proizvodnjo in zabavo, tako mora razvoj zajemati širok nabor faktorjev.«
2. Izogibati se mora ustvarjanju ali krepitvi neenakosti, še posebej na podlagi spola, rase, nacionalnosti …
3. Varnostno testirana. »Nadaljevali bomo z vdelavo močnih varnostnih sistemov, da bi se izognili neupravičeni rabi.«
4. Odgovorna ljudem. »Naše AI tehnologije bodo pod vodstvom in nadzorom ljudi.«
5. Mora ščiti zasebnost.
6. Mora imeti visoke standarde znanstvene odličnosti. »AI ima potencial, da odpre nova raziskovalna področja in znanja v biologiji, kemiji, medicini in okoljski znanosti.«
7. Dostopna za uporabo v skladu s temi načeli. »Številne tehnologije imajo več možnosti uporabe. Omejili bomo potencialno škodljive aplikacije naše AI.«
Sodelovanje z vojsko se kljub temu nadaljuje
Google bo kljub temu nadaljeval s sodelovanjem z vladami in vojsko pri razvoju civilnih aplikacij, denimo za zdravstveno oskrbo ali reševalne in iskalne akcije, je na blogu še poudaril Pichai.
Predsednik uprave Googla Sundar Pichai FOTO: Eric Risberg/AP
Dokument, kot navaja
AP, je tudi podlaga za zagon sistem Duplex, ki so ga predstavili na Googlovi razvojni konferenci maja letos. Gre za digitalnega upravitelja, ki je slišati kot človek in lahko nadomesti tajnika pri sprejemanju rezervacij. Takrat so kritiki opozorili, da bi lahko sogovorniki padli na Turingovem testu in robota zamenjali za človeka. Google je pojasnil, da se bo robot predstavil, tako da do takšnih napak ne bo prihajalo.
Tudi številna druga podjetja na tem področju se soočajo z etničnimi vprašanji okoli AI, tako so se podjetja Apple, Amazon, Facebook, IBM in Microsoft povezala z Googlom v partnerstvo. Pomembno je, da je vključena tudi javnost, je poudarila
Terah Lyons, direktorica partnerstva.
Googlov projekt Maven, ki poteka v sodelovanju z ameriškim obrambnim ministrstvom, se je znašel pod plazom kritik, ki so jih sprožili zaskrbljeni zaposleni, v katero smer vodi projekt. Šefi Googla so tako ta teden potrdili, da pogodbe ne bodo obnovili, ko bo potekla leta 2019. Google naj bi se v prihodnjih tednih srečal s Pentagonom, da bi našli skupne besede, kako izpolniti pogodbene obveznosti, ne da bi kršili nova pravila spletnega giganta.
Podpredsednik mednarodnega komiteja za nadzor oboroževanja robotov
Peter Asaro je ta teden komentiral, da je slednja novica dobra, saj upočasnjuje potencial AI za oboroževalno tekmo z avtonomnim orožje. Odpoved pogodbe po njegovem mnenju sovpada tudi z Googlovim poslovnim modelom, ki temelji na masovnem zbiranju podatkov. »Gre za podjetje, ki se zelo zaveda pomena dobre podobe, ki jo kaže javnosti. Za podjetje je nujno, da mu javnost zaupa, saj mu tako zaupa tudi svoje podatke,« je poudaril.
Googlove omejitve, kot navaja Washington Post, bodo verjetno le malo upočasnile načrte Pentagona pri tehnološkem razvoju, saj mu lahko na pomoč priskočijo druga podjetja.
Komentarji