Robotiem ir jābūt mūsu kalpiem (9)

Annija Vīnkalna
, Ārvalstu ziņu redaktore
CopyLinkedIn Draugiem X
Foto: Pixabay

Mākslīgais intelekts ir tikai rīks, un visu, ko tas dara, ir ieprogrammējis kāds cilvēks. Par mākslīgo intelektu nevajadzētu domāt kā par kaut ko cilvēcīgu, norāda ētikas un tehnoloģiju profesore "Hertie" Pārvaldības augstskolā Džoana Braisone, ar kuru TVNET marta sākumā tikās NATO Stratēģiskās komunikācijas izcilības centra ("StratCom") konferencē.

- Jūsu darbs saistīts ar to, kādās kategorijās mums vajadzētu domāt un diskutēt par mākslīgo intelektu. Vai varat paskaidrot galveno atšķirību starp dabisko un mākslīgo intelektu?

- Mākslīgais intelekts ir tas, ko uzbūvējuši cilvēki un par kuru viņi ir atbildīgi. Tā arī ir atšķirība. No tā izriet vairākas lietas. Bioloģiskais intelekts ir attīstījies evolūcijas ceļā un tiecas uz sevis atražošanu.

Džoana Braisone
Džoana Braisone Foto: Linda Curika/Stratcom

Savukārt mākslīgo intelektu kāds ir izveidojis, lai tas pildītu noteiktu funkciju. Tas pilda izveidotāja noteiktos uzdevumus. Dažkārt rodas neparedzētas sekas – tāpat kā tas mēdz notikt ar dabisko intelektu –, taču tikai dabiskajam intelektam ir raksturīga tieksme pēc sociālās dominances vai mūžīgas pastāvēšanas. Tās ir evolūcijas sekas. Tas nenotiek tāpat vien, ja vien nerunājam, piemēram, par prāta augšupielādēšanu, kas, manuprāt, diez vai kādreiz būs tehnoloģiski iespējams. Izņēmums varētu būt tāds mākslīgais intelekts, kurā ieprogrammēti gana daudz cilvēka domāšanai raksturīgu mehānismu, tad varbūt varētu nonākt pie tamlīdzīgas uzvedības, taču tā nebūtu ētiska programmēšana. Nevienai komerciālai sistēmai, kas veidota kā pārdodams produkts, jūs neredzēsiet šādas cilvēkiem raksturīgas iezīmes.

- Tātad mākslīgais intelekts ir tikai rīks vai “vergs”, kā jūs to nosaucāt savā esejā “Robotiem ir jābūt vergiem”?

- Kad es to rakstīju, pieņēmu kā pašu par sevi saprotamu, ka mums nevar piederēt citi cilvēki. Es centos norādīt, ka par mākslīgo intelektu nevajag domāt kā par kaut ko cilvēcīgu. Mēģināju pateikt: tas būtu amorāli, ja mēs uzbūvētu cilvēcīgu mākslīgo intelektu un tad to pirktu un pārdotu. Tāpēc nevajag veidot cilvēkam līdzīgu mākslīgo intelektu. Es runāju nevis par to, kas ir vai nav iespējams, bet gan par to, kas ir morāli pieņemami.

Bet daudzi – tie, kuri izlasīja tikai virsrakstu, – to pārprata. Esmu par to atvainojusies, jo rakstot pieņēmu, ka iespējams izdarīt nošķīrumu starp vergu un cilvēku, ko datorzinātnieki un inženieri dara nepārtraukti. Taču daudziem cilvēkiem verdzība ir daļa no viņu vēsturiskās realitātes, piemēram, viņu senči bija vergi vai arī dažviet joprojām pastāv pagaidu verdzība.

No otras puses, šis raksts panāca vēlamo efektu. Pirms tam biju uzrakstījusi divus citus rakstus par cilvēku tieksmi pārmērīgi identificēties ar mākslīgo intelektu, bet neviens tos nelasīja. Bet, kad tika publicēts šis raksts, visi piepeši pievērsa uzmanību – pat tad, ja tikai izlasīja virsrakstu.

Sofija
Sofija Foto: kadrs no video

- Pirms kāda laika pa dažādiem pasākumiem tika vadāts cilvēkveidīgais robots Sofija, kam Saūda Arābija piešķīra goda pilsonību, bet ANO Attīstības programma – “Inovāciju čempiona” titulu.

- Tas bija publicitātes triks. Par Saūda Arābijas pilsoņiem var kļūt vienīgi musulmaņi, tāpēc piešķirts tika vien goda pilsoņa nosaukums. Bet ko tas vispār nozīmē, ja jums ir pilsonis, kuru var pirkt, pārdot un masveidā saražot? Tas ir pretrunā ar pilsonības jēdzienu kā tādu. Protams, roboti nav pilsoņi – tas bija tikai triks uzmanības pievēršanai.

- Vai mēs esam pārāk naski uz mākslīgā intelekta cilvēciskošanu?

- Jā, pavisam noteikti. Es darbojos apdrošināšanas kompānijas “Axa” finansētā pētījumā par cilvēku uzvedību, saskaroties ar cilvēkveidīgajiem robotiem. Daļa mākslīgā intelekta ētikas pētnieku iebilst pat pret dabiskās valodas lietošanu, kaut arī cilvēkiem patīk sarunāties ar savu viedtālruni, virtuālo asistentu “Alexa” un tamlīdzīgi. Taču daži pētnieki apgalvo, ka tam esot negatīvs iespaids uz cilvēku kopienām, mājsaimniecībām un to, kā mēs izmantojam valodu. Es ceru, ka, jo zinošāki mēs kļūsim, jo grūtāk būs mūs ietekmēt. Ka mēs labāk pratīsim nošķirt, ka mākslīgais intelekts nav daļa no ģimenes, bet gan produkts, kuram dota pieeja mūsu datiem.

Tomēr zinātnē tas joprojām ir atvērts jautājums, vai tas vispār ir iespējams – necilvēciskot mākslīgo intelektu. Mēs esam “ieprogrammēti” izmantot citu cilvēku intelektu, un tas ietekmē mūsu uztveri. Man pašai mājās ir virtuālais asistents, taču neesmu to iestatījusi tā, lai tas runātu. Es parunātos ar Sofiju, taču es negribētu neko tādu savā telefonā vai dzīvesvietā.

- Kādi, jūsuprāt, pašlaik ir lielākie izaicinājumi mākslīgā intelekta jomā?

- Manuprāt, tehnoloģiski vissvarīgāk ir labāk apgūt sistēmu tīkla inženieriju. Domāju, ka mašīnmācīšanās jomā esam sasnieguši griestus, lai gan, protams, joprojām tiek izgudrotas jaunas, interesantas lietas. Taču, lai izveidotu labākas un noderīgākas sistēmas, mums ir jāiemācās to visu labāk kombinēt. Līdzīgi kā dažādām smadzeņu daļām ir atšķirīga uzbūve un specializācija. 

Otrs – laba dokumentācija. Jāpanāk, lai valdības spēj efektīvi uzraudzīt šo sektoru. Nedrīkst pieļaut, ka tajā izveidojas negatīva sāncensība. Mēs visi zinām, ka daži spēlētāji nodarbojas ar sliktām lietām, piemēram, tirgo personīgos datus. Daudzi cilvēki tehnoloģiju jomā nemaz nav iedomājušies par valdību kā par resursu. Viņi prāto, kā “uzlauzt” konkurentus. Lūdzu, nedariet to! Ja ir pierādījumi, ka kāds spēlētājs jūsu sektorā dara ko nelikumīgu, nododiet šo informāciju tiesībsargājošajām iestādēm. Tā jūs palīdzēsiet valdībai saprast, kā izmeklēt un izvērtēt šādus gadījumus. Nepieciešams caurspīdīgums saistībā ar industrijas praksēm un produktu dokumentāciju, jo tas palīdz valdībām izvērtēt, vai lēmumu pieņēmēji ir rīkojušies atbilstoši, vai ir veikuši nepieciešamās pārbaudes. Un noteikt, vai nelikumīgā rīcība ir kļūdas, ārēju uzbrucēju vai apzinātas darbības rezultāts. Jāprot nošķirt apzinātu rīcību no kļūdām, un to var izdarīt tikai ar labāku industrijas regulējumu.

Taču ar to būs līdzīgi kā ar Vispārīgo datu aizsardzības regulu (GDPR). Sākumā visi no tās baidījās. Tomēr lielākā daļa uzņēmumu atklāja, ka papildus izmaksas, ko sagādāja pieskaņošanās regulas prasībām, bija tā vērta, jo sniedza pieeju lielam tirgum – Eiropas Savienībai. Ka tas patiesībā palīdz viņu biznesam. ES cenšas atvieglot uzņēmējdarbību, vienlaikus arī gādājot, lai sabiedrība ir stabilāka un pārticīgāka, vienlīdzīgāka. Jāsaprot, ka pārvaldības uzlabošana var padarīt tavu uzņēmumu spēcīgāku un brīvāku, jo tad tam nav jāpakļaujas muļķīgiem noteikumiem. Laba pārvaldība izlīdzina spēles laukumu. Pastāvot labām attiecībām ar valdību, ir vairāk skaidrības.

- Kāda veida regulējums šobrīd ir visakūtāk nepieciešams?

- Kā jau  minēju, nepieciešami nevis jauni likumi, bet gan jāstiprina uzraudzības iestādes. Dažās valstīs tas jau notiek, piemēram, Somijā, Vācijā un Lielbritānijā. Tur iestādes jau ir nodibinātas, tiek nokomplektēts personāls.

- "Google" jūs bija uzaicinājis piedalīties augsto tehnoloģiju ārējā padomē, kam viena no funkcijām bija ētikas jautājumi. Taču jau pēc nedēļas šī padome beidza pastāvēšanu. Kā jūs domājat, vai lielās tehnoloģiju kompānijas ētikas jautājumus uztver gana nopietni?

- Ideja bija tāda, ka ļoti dažādi cilvēki sanāks kopā un domās tādos veidos, kā "Google" nedomā, lai dotu savu pienesumu "Google" ētikas politikai. Nebija paredzēts, ka mums būs izpildfunkcijas vai ka mēs tiešā veidā strādāsim pie ētikas politikas; mūsu uzdevums bija jautāt - vai jūs domājat pareizajās kategorijās, veidojot savu augsto tehnoloģiju politiku? Jā, es biju daļa no šī neveiksmīgā un nepietiekami aizstāvētā projekta.

"Google" ētikas jautājumus uztvēra nopietni, taču darīja to neefektīvā veidā. "Facebook" cenšas laboties, un to mēs vēl redzēsim, vai tas izdosies. Viņi izmēģina pilnīgi jaunu stratēģiju. 

Komentāri (9)CopyLinkedIn Draugiem X
Aktuālais šodien
Svarīgākais
Uz augšu