Nav iespējams pareģot, kādi dzīves notikumi būs aktuāli trim miljardiem cilvēku visā pasaulē. Kā ir iespējams izveidot vienotus noteikumus trešajai daļai planētas iedzīvotāju tā, lai tie būtu ļoti vienkārši un saprotami?
Kompānijas “Facebook” salīdzināšana ar masu medijiem raisa virkni ētisku jautājumu – vai kompānijai tiešām ir jālūkojas mediju virzienā un jānosaka konkrētāki satura ierobežojumi un aizliegumi? Bet ja paši mediji noklusē problēmas, par ko grib izteikties sociālā tīkla lietotāji, – ko tad darīt “Facebook”?
Uz visiem šiem jautājumiem ir grūti atbildēt tā, lai visiem šīs atbildes šķistu pietiekami patīkamas un pieņemamas. “Facebook” nekoncentrējas uz “pilnībā ideālas” politikas veidošanu, bet gan uz to, ka “kaut kas nostrādās, kaut kas ne”. Šī politika netiek formēta ar loģiku “to aizliegsim, to bloķēsim, bet te nav skaidrs – tātad to arī bloķēsim un aizliegsim!”
Noteikumi mainās katru dienu, tāpat mainās arī izņēmumi atsevišķām prasībām un to ievērošanai.
Ziņas par vakcīnu kaitīgumu tika bloķētas tādēļ, ka tām nav zinātniska pamatojuma un tās nonāk pretrunā ar cilvēces interesēm. Ja kāds saturs tiek publicēts ar teroristisku raksturu, pēc Zakerberga vārdiem, “algoritmi šāda veida ierakstus nosaka ar 100% precizitāti”.
Kamēr “Facebook” satura politika tiks pabeigta un arī sistēma tiks pietiekami labā līmenī “apmācīta” automātiski noteikt nepiemērotu saturu, paies vēl aptuveni 10 gadi. Pagaidām nav algoritma, kas spētu viennozīmīgi un objektīvi šķirot saturu. Tam ir nepieciešamas cilvēka smadzenes – atpazīt un izšķirt, kas ir humors, kas ir sarkasms, bet kas varbūt ir saistāms ar neveikliem izteicieniem. Tieši tāpēc saturs iziet cauri “dzīvajam filtram”, respektīvi – vairāk nekā 35 000 cilvēku, kas kompānijā strādā pie tā, lai satura politika tiktu ievērota, nevis vērsta plašumā.
Cilvēki, kas izskata “Facebook” saturu un pieņem lēmumus par bloķēšanu, strādā valstīs ar zemām darbaspēka izmaksām, piemēram, Filipīnās, kur ir izplatīti ļoti konservatīvi uzskati. Kāpēc tam ir nozīme? Tāpēc, ka šiem cilvēkiem nereti rodas psihiskas traumas no tā, ko viņi ik dienas redz savā darbā, jo nereti šis bloķējamais saturs ir īpaši nežēlīgs.
Tas vistiešākajā veidā ietekmē bloķēšanas politiku, ko šie cilvēki piekopj. “Dzīvo filtru” centru pārcelšana uz citām pasaules vietām neko nemainīs, jo katrā vietā būs savas “nacionālās īpatnības”.
Skaidrs, ka “filtrētāju” pilnvaras faktiski ir ierobežotas ar “jā” vai “nē” pogu spiešanu, taču ar to arī ir pietiekami, lai cilvēki visā pasaulē sūdzētos par “Facebook” piekopto cenzūru un vārda brīvības ierobežošanu.
Spriedze nav tādēļ, ka “Facebook” būtu cenzūra. Atsevišķa satura cenzūra ir pastāvējusi vienmēr. Problēma ir tajā, ka satura cenzūra “Facebook” nav vienlīdzīga visiem lietotājiem, jo lēmumu par satura dzēšanu pieņem nevis viens Zakerbergs, bet gan kāds no “dzīvā filtra” komandas.
Respektīvi, daudziem cilvēkiem pasaulē ir neapmierinātība par to, ka konkrētai cilvēku grupai ir tādas iespējas, kādas nav citiem pasaulē. Tādai komerckompānijai kā “Facebook” tas tika piedots 2010. gadā. Taču 2020. gada realitātē cilvēkiem tas vairs nešķiet pieņemami.