Nevēlamā satura dzēšana "Facebook": vai tā uzskatāma par cenzūru? (1)

TVNET | FINANCENET
CopyLinkedIn Draugiem X
Foto: Reuters / Scanpix

Šogad sociālais tīkls “Facebook” bieži ir paziņojis par nevēlama satura cenzēšanu, un to pamanījuši arī lietotāji, jo dažādi ieraksti ir dzēsti. Iemesli ierakstu dzēšanai ir bijuši dažādi, bet biežākie – klajas dezinformācijas un sazvērestību teoriju izplatīšana par koronavīrusu un citām aktualitātēm. “Forbes” skaidro, kas pašlaik notiek ar sociālo tīklu, ko aktīvi izmanto trīs miljardi cilvēku visā pasaulē.

Oktobrī “Facebook” paziņoja, ka  notiks informācijas kampaņa par gripas un Covid-19 vakcīnām, tāpat izskanējušas ziņas, ka tiks aizliegtas reklāmas ar aicinājumiem atteikties no vakcinācijas. Vai tas nozīmē, ka “Facebook” ir sākusi pilnvērtīgu cenzūru, vai arī, ka “Facebook” ieņem kādu konkrētu pozīciju, aizmirstot par agrāko neitralitāti?

Pats “Facebook” dibinātājs Marks Zakerbergs uz jautājumu, vai “Facebook” izmanto algoritmus, kas cenzē saturu, norāda, ka “diez vai to, ko dara “Facebook”, var saukt par cenzūru”.

“Facebook” politika

Zakerbergs ASV Kongresa sēdē 2018. gadā paziņoja: “Katru reizi, kad man jautā, vai mēs atbildam par saturu, ko cilvēki publicē mūsu platformā, es uz šo jautājumu atbildu apstiprinoši. Ir skaidrs, ka salīdzināt sociālo tīklu ar masu medijiem nav korekti – sociālajam tīklam nav nekādas redakcionālās politikas vai plāna, kā arī nav redakcijas, kas šo saturu “filtrētu”.”

Platformā ir sava cilvēku kopiena, kā arī savas prasības, tāpat kā katrā valstī, kā organizēt cilvēku dzīvi digitālajā vidē, to vidū – noteikt arī uzvedības noteikumus un pieļaujamā robežas.

Šāda sociālā sistēma strādā pēc modeļa “viss, kas nav aizliegts, ir atļauts”. Tas nozīmē, ka dažādi noteikumi ierobežo cilvēku iespējas.

Piemēram, “Facebook” ierobežo cilvēka iespējas izmantot melus sabiedriskā viedokļa ietekmēšanai un manipulācijai, ierobežo iespējas izplatīt vardarbību atbalstošas reklāmas vai naida kurināšanu. Starp citu, naida kurināšana ir jēdziens, kas faktiski dzimis un ļoti labi darbojas tieši digitālajā vidē.

Līdz ar satura filtrēšanu var secināt, ka “Facebook” vienīgais mērķis nav peļņas gūšana. Kompānijā ir atbildības sajūta par to, kas notiek platformā. Ja sociālais tīkls spēj atstāt ļoti ievērojamu iespaidu uz trīs miljardu pasaules iedzīvotāju apziņu, kā arī nereti pat zina par cilvēkiem vairāk nekā viņi paši, tad šāda satura politika var radīt zināmas sociālas un politiskas problēmas visā pasaulē.

Klusi šīs problēmas neizdosies atrisināt, jo, liekot cilvēkiem domāt, ko viņi drīkst publicēt, bet ko nedrīkst, faktiski tiek formēts konkrēts sabiedrības domāšanas virziens.

Vārda brīvība

Kā noteikt to, kas ir atbilstošs publicēšanai, bet kas ne? Ļoti labs piemērs tiek izskatīts “Radiolab” podkāstā. Agrāk “Facebook” satura filtrēšanas politika bija rakstāma uz pāris lappusēm. Īsumā sakot: kailfoto, citu personu aizskaršana, aicinājumi uz vardarbību – nekavējoties tiek bloķēts lietotājs! Līdz ar to aizliegtas tika arī jebkāda veida fotogrāfijas, kurās redzama māte, kas bērnu baro ar krūti.

2008. gadā sievietes no “Facebook” domubiedru grupas, kurās runāts par bērnu barošanu, ar protestu vērsās pie sociālā tīkla vadības, norādot, ka “sievietes, kas baro ar krūti, nav nekas pārdabisks vai slikts”. “Facebook” un vispār digitālajā vidē sākās vārda brīvības pārskatīšana, kas nav noslēgusies vēl šodien.

2018. gadā “Facebook” satura politika bija rakstāma jau uz 50 lappusēm, un mākslīgais intelekts un algoritmi bija iemācīti atšķirt mācību materiālu ar sievieti, kas ar krūti baro bērnu, no erotiska rakstura fotogrāfijām.

No vienas puses šis uzdevums var šķist triviāls, bet no otras puses ir dažādas nianses, par ko tika diskutēts, – kura krūts daļa var tikt parādīta? Vai var būt atkailināta viena krūts, vai varbūt abas? Ar ko vispār var saprast barošanu? Ja bērns vienkārši guļ un sievietei ir atkailināta krūts – vai to var uzskatīt par barošanu? Kāds bērna vecums vispār ir pieņemams barošanai ar krūti? Un ja tas nav bērns, bet pieaudzis vīrietis? Vai mums ir jāvērtē fotogrāfijas konteksts, vai arī tikai tas, kas attēlots?

Šie ir tikai daži no jautājumiem, par ko “Facebook” satura politikas veidotājiem nācās lauzīt galvu un diskutēt neskaitāmas stundas.

Un jāņem vērā, ka tas ir tikai viens neliels cilvēka dzīves aspekts.

Ir jāsaprot, ka “Facebook” ir neiedomājami milzīgs datu apjoms, kuru katru dienu palielina trešā daļa planētas iedzīvotāju. Nav iespējams pareģot, kāds fantāzijas lidojums būs lietotājiem, kādas kultūras normas ir lietotājiem un kādi notikumi norisinās visā pasaulē.

Nav iespējams pareģot, kādi dzīves notikumi būs aktuāli trim miljardiem cilvēku visā pasaulē. Kā ir iespējams izveidot vienotus noteikumus trešajai daļai planētas iedzīvotāju tā, lai tie būtu ļoti vienkārši un saprotami?

Kompānijas “Facebook” salīdzināšana ar masu medijiem raisa virkni ētisku jautājumu – vai kompānijai tiešām ir jālūkojas mediju virzienā un jānosaka konkrētāki satura ierobežojumi un aizliegumi? Bet ja paši mediji noklusē problēmas, par ko grib izteikties sociālā tīkla lietotāji, – ko tad darīt “Facebook”?

Uz visiem šiem jautājumiem ir grūti atbildēt tā, lai visiem šīs atbildes šķistu pietiekami patīkamas un pieņemamas. “Facebook” nekoncentrējas uz “pilnībā ideālas” politikas veidošanu, bet gan uz to, ka “kaut kas nostrādās, kaut kas ne”. Šī politika netiek formēta ar loģiku “to aizliegsim, to bloķēsim, bet te nav skaidrs – tātad to arī bloķēsim un aizliegsim!”

Noteikumi mainās katru dienu, tāpat mainās arī izņēmumi atsevišķām prasībām un to ievērošanai.

Dzīvais filtrs

Ziņas par vakcīnu kaitīgumu tika bloķētas tādēļ, ka tām nav zinātniska pamatojuma un tās nonāk pretrunā ar cilvēces interesēm. Ja kāds saturs tiek publicēts ar teroristisku raksturu, pēc Zakerberga vārdiem, “algoritmi šāda veida ierakstus nosaka ar 100% precizitāti”.

Kamēr “Facebook” satura politika tiks pabeigta un arī sistēma tiks pietiekami labā līmenī “apmācīta” automātiski noteikt nepiemērotu saturu, paies vēl aptuveni 10 gadi. Pagaidām nav algoritma, kas spētu viennozīmīgi un objektīvi šķirot saturu. Tam ir nepieciešamas cilvēka smadzenes – atpazīt un izšķirt, kas ir humors, kas ir sarkasms, bet kas varbūt ir saistāms ar neveikliem izteicieniem. Tieši tāpēc saturs iziet cauri “dzīvajam filtram”, respektīvi – vairāk nekā 35 000 cilvēku, kas kompānijā strādā pie tā, lai satura politika tiktu ievērota, nevis vērsta plašumā.

Cilvēki, kas izskata “Facebook” saturu un pieņem lēmumus par bloķēšanu, strādā valstīs ar zemām darbaspēka izmaksām, piemēram, Filipīnās, kur ir izplatīti ļoti konservatīvi uzskati. Kāpēc tam ir nozīme? Tāpēc, ka šiem cilvēkiem nereti rodas psihiskas traumas no tā, ko viņi ik dienas redz savā darbā, jo nereti šis bloķējamais saturs ir īpaši nežēlīgs.

Tas vistiešākajā veidā ietekmē bloķēšanas politiku, ko šie cilvēki piekopj. “Dzīvo filtru” centru pārcelšana uz citām pasaules vietām neko nemainīs, jo katrā vietā būs savas “nacionālās īpatnības”.

Skaidrs, ka “filtrētāju” pilnvaras faktiski ir ierobežotas ar “jā” vai “nē” pogu spiešanu, taču ar to arī ir pietiekami, lai cilvēki visā pasaulē sūdzētos par “Facebook” piekopto cenzūru un vārda brīvības ierobežošanu.

Spriedze nav tādēļ, ka “Facebook” būtu cenzūra. Atsevišķa satura cenzūra ir pastāvējusi vienmēr. Problēma ir tajā, ka satura cenzūra “Facebook” nav vienlīdzīga visiem lietotājiem, jo lēmumu par satura dzēšanu pieņem nevis viens Zakerbergs, bet gan kāds no “dzīvā filtra” komandas.

Respektīvi, daudziem cilvēkiem pasaulē ir neapmierinātība par to, ka konkrētai cilvēku grupai ir tādas iespējas, kādas nav citiem pasaulē. Tādai komerckompānijai kā “Facebook” tas tika piedots 2010. gadā. Taču 2020. gada realitātē cilvēkiem tas vairs nešķiet pieņemami.

Komentāri (1)CopyLinkedIn Draugiem X
Svarīgākais
Uz augšu