在《互聯(lián)網(wǎng)秘密規(guī)則:言論自由背后的內(nèi)容管制(上)》中我們談到,在面對自由與管制的問題上,主流社交平臺的內(nèi)容過濾機制時常處于企業(yè)利益、社交責任、基本人權(quán)等問題之間權(quán)衡的迷之困惑當中。事實上,我們所迷戀的西方言論自由,背后有我們看不見的機制。 而
在《互聯(lián)網(wǎng)秘密規(guī)則:言論自由背后的內(nèi)容管制(上)》中我們談到,在面對自由與管制的問題上,主流社交平臺的內(nèi)容過濾機制——時常處于企業(yè)利益、社交責任、基本人權(quán)等問題之間權(quán)衡的迷之困惑當中。事實上,我們所迷戀的西方言論自由,背后有我們看不見的機制。
而即使在法律監(jiān)管下,所有用來監(jiān)管傳統(tǒng)媒體的三權(quán)分立制衡體系將不再適用,它們也無需承受誹謗的風險,一切,實際上并沒有規(guī)則。
像軍隊那樣地隱蔽,帶來的后果就是所施行的指令更加不透明——由一波風險投資家 、CEO、政策、社區(qū)、隱私信譽和安全經(jīng)理、律師、工程師在數(shù)千里之外共同定制。加拿大韋仕敦大學信息和媒體研究助理教授Sarah T. Roberts,以及即將出版的《屏幕的背后:社交媒體暗影世界中的數(shù)字化勞動》的作者表示,商業(yè)內(nèi)容管制不是一個有凝聚力的系統(tǒng),而是一個隨著需求不斷發(fā)展的實踐,受制于不同**的不同法律,而且長期無法充分應對當前的任務(wù)。這些實踐經(jīng)常在挑戰(zhàn)的重壓和復雜性下分崩瓦解——雖然內(nèi)容審核者讓這種實踐成為更深刻的法律和人權(quán)問題。
再回顧阿拉伯世界的革命浪潮“阿拉伯之春”,當時西方媒體認為這個“阿拉伯之春”屬于“諳熟互聯(lián)網(wǎng)、要求和世界其它大部分地區(qū)一樣享有基本民主權(quán)利的年輕一代”。然而各穆斯林**的命運并不相同,使得這場跨及多國的民主化運動蒙上陰影。當時的在線內(nèi)容無論是幸存還是被消除,它都能夠推動這次革命和行動的進行,并掃除所產(chǎn)生的政策改革和文化轉(zhuǎn)移。
上個月,一篇題目《社交媒體的陰暗面:是Facebook讓你抑郁的嗎?》的文章指出,研究抑郁癥的認知科學家Charlotte Blease表示,她認為社會地位是社交媒體抑郁癥的根源。在現(xiàn)代的環(huán)境下,當我們感到我們被那些高社會地位或高聲望的人超過時,就會觸發(fā)這種機制。 那么,誰來主導這一切?據(jù)悉,三分之一的Facebook員工屬于內(nèi)容審核者。
在Facebook、Pinterest和YouTube等行業(yè)巨頭當中,內(nèi)容審核進程正在大幅度提高;而其他一些平臺可能還處于2006年時的情況。他們之間審查系統(tǒng)的聯(lián)手構(gòu)建還處于早期階段,因此公司的之間的審查是相互獨立的。所以,這些不同的內(nèi)容審查政策,反映出各平臺用戶和創(chuàng)始人的內(nèi)在價值觀。
以綜合型討論區(qū)4chan為例,4chan網(wǎng)站熱衷于發(fā)布一些粗俗和帶有仇恨性質(zhì)的內(nèi)容,幾乎可以是自由發(fā)布任何內(nèi)容——只要是董事會所定義的。據(jù)該網(wǎng)站創(chuàng)始人Hiroyuki Nishimura所說,4chan仍然嚴重依賴志愿者體系作為用戶的“看門人”。“他們無法決定的問我,我不懂的問律師。”即使是十年過去了,4chan仍然是一個充滿騷擾和威脅的網(wǎng)站。上面的內(nèi)容包括從國際色情、迷因,到種族主義和威脅到用戶個人的信息。“無論是YouTube、Facebook、Twitter,還是4chan,想利用社交平臺做壞事的人,他們走到哪都會出現(xiàn)。如果有什么方式可以制止他們,我愿意那樣做。”
然而,一旦說到內(nèi)容審核的細節(jié),公眾便不會得知它們的真面目,
石家莊網(wǎng)絡(luò)優(yōu)化獲悉在企業(yè)的內(nèi)部,他們對于用戶和公眾來說就是一種秘密規(guī)則。盡管社會不斷呼吁要求公開透明,社交媒體公司從來不會對外披露它們過去或者現(xiàn)在的內(nèi)容審核標準,至今都沒有,包括Facebook、Twitter、Reddit、Pinterest。當被問及 Twitter 的信任與安全部門的操作,他們的發(fā)言人只寫了以下這些話:
“我們設(shè)定的規(guī)則是為了讓我們的用戶能夠在一個安全的環(huán)境下創(chuàng)建和分享各種各樣內(nèi)容。當用戶發(fā)布的內(nèi)容違反了我們的規(guī)則時,我們將暫停他的賬戶,違規(guī)的內(nèi)容包括暴力威脅和有特定的虐待行為。我們基于用戶上傳的內(nèi)容評估和不斷完善我們的政策,同時還與其他安全組織合作以保證我們能夠?qū)嵺`這個行業(yè)的**做法。”
對于他們可以保密的動機,F(xiàn)acebook互聯(lián)網(wǎng)公司的內(nèi)容審核者 Crawford、Willner表示:一方面,高管們想保護這方面的技術(shù)專利,同時避免被卷入某些責任當中;另一方面,他們希望在如今快速變化的情況下贏得足夠大的周旋空間,以及讓員工免于接受公眾的監(jiān)督和威脅。很明顯,由于保密和監(jiān)管這個準政府職能而付出的成本,在互聯(lián)網(wǎng)公司的眼中不值一提。
Dave Willner在 2008 年至2013年間擔任Facebook 內(nèi)容政策主管。Facebook **個用于內(nèi)容審查的“標準”創(chuàng)建于2009年,包含了 15000 個單詞。Dave Willner 說:“當時這份‘標準’的企圖是無所不包的。”公眾成員,也急速用戶對此一無所知,只能依靠猜測:完全有機器人來執(zhí)行;依據(jù)法律來執(zhí)行;或者說由內(nèi)容主管來對每篇文章進行評定。Williner 指出:
“這些標準都是錯的,他們忽略了一點——在這體系當中,用戶自身才是至關(guān)重要的角色。”
總的來說,用戶認為自己是消費者或者是客戶。但平臺卻需要依靠他們來改變線性關(guān)系:首先,用戶產(chǎn)生內(nèi)容——故事、照片、視頻、評論以及互動;第二,用戶的行為——分析、包裝和重新包裝——都是廣告營收的來源;第三,由于幾乎所有的內(nèi)容審核系統(tǒng)都取決于用戶標記的內(nèi)容和提交的投訴,以及幫助形成一個平臺的品牌特征的內(nèi)容,所以用戶本身才是內(nèi)容審核過程中至關(guān)重要的角色。
校園社交工具 iCanHelpline創(chuàng)始人Anne Collier表示,用戶還沒有意識到他們擁有解決他們在社交媒體上創(chuàng)造的危害。“他們被稱為‘用戶’是有原因的,以及思想和行為都是被動的。通過模糊他們的角色,企業(yè)成功阻滯了他們的力量。”
互聯(lián)網(wǎng)的早期階段里,業(yè)內(nèi)提出“信息想要實現(xiàn)免費”這個崇高的目標?;ヂ?lián)網(wǎng)被給予了激發(fā)人們積極性、創(chuàng)造性潛能的厚望,而不是成為虐待狂、猥褻兒童者、強奸犯、或極端種族主義者宣泄個人情緒的陣地。但完全免費的互聯(lián)網(wǎng)卻迅速成為一些令人發(fā)指的內(nèi)容散布的地方,而這些內(nèi)容的發(fā)布者和支持者仿佛在互聯(lián)網(wǎng)找到了美好歸宿。
這個早期階段——從上世紀 60 年代持續(xù)到 2000 年,哈佛大學伯克曼互聯(lián)網(wǎng)與社會中心前執(zhí)行董事 J.G.Palfrey 稱之為“開放的互聯(lián)網(wǎng)”。1996 年通過的《通信內(nèi)容端正法案》( Communications Decency Act)的 第 230(c) 節(jié)規(guī)定,免除了提供內(nèi)容共享服務(wù)的公司對用戶發(fā)布內(nèi)容的責任。這個法案也被稱為“《善良的撒瑪利亞人法》(the Good Samaritan Act:是關(guān)于在緊急狀態(tài)下,施救者因其無償?shù)木戎袨?,給被救助者造成某種損害時免除責任的法律條文。)”。
230節(jié)被認為是“互聯(lián)網(wǎng)*重要的法律”,它具體是這么說的:“所有交互式計算機服務(wù)中的供應方和使用者,都不應該被視作任何其他內(nèi)容發(fā)布者所發(fā)布信息的發(fā)言者和發(fā)表者。”這項26個字的條款意味著:將言論自由的決定權(quán)交回到個人手中,有效地免除了平臺所有非法內(nèi)容的法律責任,比如兒童色情。所有用來監(jiān)管傳統(tǒng)媒體的三權(quán)分立制衡體系將不再適用,它們也無需承受誹謗的風險,一切,實際上并沒有規(guī)則。