全球社交媒體大轉(zhuǎn)型
現(xiàn)在幾乎每一個人都有一個社交媒體賬號,我們每時每刻能能從上面獲得海量的信息。但是這些信息不僅僅只有正面的,還有許多負(fù)面的、虛假的,即使是成年人也難以判別真?zhèn)巍R虼?,很多社交媒體把重心轉(zhuǎn)向了內(nèi)容治理。本文作者對此展開分析,希望對你有幫助。
一場全球社交媒體大轉(zhuǎn)型運(yùn)動,正在進(jìn)行。
這場轉(zhuǎn)型運(yùn)動的核心關(guān)乎平臺內(nèi)容治理,始自2018年。悉數(shù)這一年的代表性事件,“劍橋分析”無法避開。
2018年3月,F(xiàn)acebook承認(rèn),英國數(shù)據(jù)分析公司劍橋分析在2016年美國總統(tǒng)大選前違規(guī)獲得五千萬用戶信息。而后Facebook因未能妥善保護(hù)用戶個人敏感信息等被集體訴訟,同時,美國聯(lián)邦貿(mào)易(FTC)也對Facebook展開調(diào)查。而馬克·扎克伯克本人,也因劍橋分析事件出席美參議院委員會聽證會,接受議員問詢。
無論“劍橋分析”是不是導(dǎo)火索,但從2018年起,治理內(nèi)容生態(tài),就開始成為大部分社交媒體的核心工作。
社交媒體上的有害內(nèi)容一般包括不實(shí)信息、仇恨言論和兒童色情等。在這場轉(zhuǎn)型運(yùn)動中,F(xiàn)acebook、Instagram等社交媒體,增設(shè)了多種功能以提升內(nèi)容治理能力、對抗有害內(nèi)容。這既是平臺承擔(dān)社會責(zé)任的體現(xiàn),某種程度上,也是對監(jiān)管力量和輿論質(zhì)疑的回應(yīng)。
一、對抗不實(shí)消息
“全球變暖只是謊言”“新冠病毒是人造的”……對于這類社交媒體上的不實(shí)信息,多數(shù)人已經(jīng)司空見慣。
除了傳統(tǒng)的憑空捏造或以訛傳訛的虛假信息(misinformation),如今社交媒體上還涌現(xiàn)出大量的誤導(dǎo)性信息(disinformation)。這類不實(shí)信息往往基于政治或商業(yè)目的,摻雜某些真實(shí)的信息,從而實(shí)現(xiàn)更強(qiáng)的迷惑性,無論是平臺算法,還是普通用戶,都更難鑒別。
作為應(yīng)對,全球最大的社交媒體Facebook自2016年發(fā)起事實(shí)核查計劃,至今已與全球范圍內(nèi)的80多家獨(dú)立第三方核查機(jī)構(gòu)合作。每當(dāng)事實(shí)核查機(jī)構(gòu)將平臺上的一條內(nèi)容評定為“虛假”時,F(xiàn)acebook會大幅減少該內(nèi)容的傳播,以降低其曝光率。
2021年5月,F(xiàn)acebook進(jìn)一步推出系列措施以治理不實(shí)信息。此前,當(dāng)事實(shí)核查機(jī)構(gòu)認(rèn)為某條帖子是不實(shí)信息后,轉(zhuǎn)發(fā)過的用戶將會收到提醒,F(xiàn)acebook優(yōu)化了這一機(jī)制。如今,用戶可以查看事實(shí)核查機(jī)構(gòu)評估該信息失實(shí)的理由,已經(jīng)轉(zhuǎn)發(fā)的不實(shí)信息也會被加上標(biāo)簽,提醒其他用戶這是不實(shí)信息。Facebook還會警告用戶,如果多次散播不實(shí)信息,他們的帖子將會更少地出現(xiàn)在其他用戶的信息流中。
許多用戶在Facebook上獲取新聞資訊并進(jìn)行討論,但有一些用戶會重新分享過去的新聞信息或帖子,并將其作為新的信息,而這可能會傳播錯誤信息,或者讓人對新近發(fā)生的事實(shí)產(chǎn)生誤解。針對這一問題,F(xiàn)acebook增設(shè)了一個警告的彈窗,當(dāng)用戶想要分享的內(nèi)容的發(fā)布時間超過90天時,就會收到提醒。
此外,有許多用戶往往并沒有閱讀文章內(nèi)容,而是在看到某個文章的標(biāo)題后就轉(zhuǎn)發(fā)。這可能散播不實(shí)信息,并且僅僅依據(jù)標(biāo)題就與他人展開討論,可能沒有什么意義。為了讓用戶更加負(fù)責(zé)任地轉(zhuǎn)發(fā)信息,F(xiàn)acebook會提醒那些沒點(diǎn)開鏈接就按下“轉(zhuǎn)發(fā)”按鈕的用戶:你將要分享你沒有閱讀的文章,這可能意味著在關(guān)鍵事實(shí)上犯錯。
實(shí)際上,早在2020年6月,Twitter就在其安卓客戶端試行了這一功能。Twitter產(chǎn)品總監(jiān)Kayvon Beykpour表示[1]:
“在Twitter上,鏈接或者文章很容易被瘋轉(zhuǎn),這可能產(chǎn)生強(qiáng)大的影響,但有時這是危險的,特別是當(dāng)用戶沒有閱讀他們所傳播的內(nèi)容時。這項(xiàng)功能鼓勵用戶在轉(zhuǎn)發(fā)之前點(diǎn)擊鏈接并閱讀文章?!?/p>
試行三個月后,Twitter表示,用戶在看到提示后打開文章的次數(shù)增加了40%,在轉(zhuǎn)發(fā)前打開文章的次數(shù)增加了33%。有些用戶在打開文章后最終沒有轉(zhuǎn)發(fā),說明閱讀文章的確能讓用戶更謹(jǐn)慎地決定要不要轉(zhuǎn)發(fā)。
疫情背景下,社交媒體上涌現(xiàn)了大量與疫情相關(guān)的不實(shí)信息,造成惡劣影響,比如宣稱接種疫苗會得癌癥的“反疫苗運(yùn)動”。早在2020年2月,世界衛(wèi)生組織在新冠肺炎疫情報告中就特別提到,疫情的暴發(fā)會引發(fā)一場大規(guī)模的“信息流行?。↖nformation epidemic)”,即在一些事實(shí)中混入恐懼、猜測和流言,這些不實(shí)信息可能會在世界范圍內(nèi)迅速傳播,影響全球經(jīng)濟(jì)、政治與安全。
Facebook也針對疫情相關(guān)的不實(shí)信息推出了治理措施。在用戶準(zhǔn)備分享疫情相關(guān)鏈接時,將會跳出一個通知,這一通知會展示相關(guān)內(nèi)容的發(fā)布時間和來源,并附有Facebook的“COVID-19信息中心”鏈接,讓用戶能夠更方便地獲取權(quán)威的關(guān)于疫情的可靠信息。不過,用戶在轉(zhuǎn)發(fā)政府衛(wèi)生部門和全球衛(wèi)生組織(如世界衛(wèi)生組織)發(fā)布的內(nèi)容時將不會出現(xiàn)這個通知,以避免減緩可信的衛(wèi)生部門的信息傳播速度。
此外,F(xiàn)acebook的算法系統(tǒng)將會刪除被醫(yī)療專家標(biāo)記為失實(shí)的疫情相關(guān)信息,從疫情暴發(fā)到2021年4月,F(xiàn)acebook就刪除超過1200萬條和新冠疫情或疫苗相關(guān)的不實(shí)信息。[2]
二、治理仇恨言論
除了虛假信息,如何治理仇恨言論,也是社交媒體平臺面臨的一個棘手問題。根據(jù)Meta(Facebook于2021年改名為Meta,旗下包括Facebook和Instagram等產(chǎn)品)的定義,仇恨言論包括暴力或非人性(dehumanizing)的言論、低劣的聲明、呼吁基于某些特征而排斥他人,這些特征包括種族、宗教信仰、性取向、性別和疾病等。[3]
Instagram在2021年增設(shè)了一系列功能以治理仇恨言論。其中有一個功能被命名為“l(fā)imits”,當(dāng)用戶啟用后,系統(tǒng)會自動隱藏來自不關(guān)注你的人,或最近才關(guān)注你的人的評論和私信請求。
根據(jù)Instagram的說法,開發(fā)這個功能是因?yàn)閯?chuàng)作者和公眾人物會收到大量來自他們不認(rèn)識的人的評論和私信,其中可能含有大量的垃圾或謾罵信息。但是許多用戶又不想完全關(guān)閉評論和私信功能,仍然希望與粉絲互動聯(lián)系,因此可以限制那些不是粉絲或最近才成為粉絲的人發(fā)布評論和私信。
當(dāng)有用戶試圖發(fā)表攻擊性評論時,Instagram也會顯示警告提醒:如果他們堅持發(fā)布,他們的評論可能會被刪除或者隱藏。Instagram發(fā)現(xiàn)這些警告的確能夠阻止用戶發(fā)布攻擊性言論。根據(jù)統(tǒng)計,在一周的時間內(nèi),Instagram平均每天顯示約一百萬次警告,在大約50%的時間里,用戶根據(jù)這些警告重新編輯或刪除了評論。
網(wǎng)絡(luò)暴力行為的產(chǎn)生,多是由于情緒驅(qū)動的“一時之快”,盡管一個警告提示并不能真正阻止用戶發(fā)布惡意言論,但它讓發(fā)表評論多了一個步驟,減少了因沖動而言語攻擊他人的可能。
此外,Instagram還推出了一個叫“Hidden Words”的功能,開啟這一功能后,系統(tǒng)可以自動過濾攻擊性詞語和emoji,并將其收集到隱藏文件夾中,用戶可以自己選擇是否要查看這一文件夾。這一功能也可以幫助用戶過濾那些可能是垃圾郵件或低質(zhì)量的私信請求。Instagram表示,將持續(xù)更新擴(kuò)大自動過濾的攻擊性言論、主題標(biāo)簽(hashtag)和emoji的清單。
三、內(nèi)容治理的難度
內(nèi)容治理已經(jīng)成為全球共識,無論是各國政府、公眾抑或是社交媒體本身,都認(rèn)為有必要處理平臺上的假新聞和仇恨言論等有害信息。
但是,處理有害信息之前,首先需要確定哪些信息屬于有害信息。這并非易事,有時還存在巨大爭議。
例如,諷刺性的信息和攻擊謾罵的區(qū)別是什么?名人轉(zhuǎn)發(fā)假新聞和普通人轉(zhuǎn)發(fā)假新聞是否需要區(qū)別對待?這些問題相當(dāng)棘手。即便是兒童色情這種全球公認(rèn)要審核刪除的信息,也存在模糊地帶。
2016年,挪威作家Tom Egeland在Facebook上傳了一張經(jīng)典的越南戰(zhàn)爭照片,照片中一個赤身裸體的女童在哭著逃難,F(xiàn)acebook隨后刪除了這張照片,引起軒然大波。在強(qiáng)烈的公眾呼吁之下,F(xiàn)acebook后來又恢復(fù)了這張照片。
2020年,F(xiàn)acebook成立了一個監(jiān)督委員會(Oversight Board),這一委員會將獨(dú)立審理具有代表性的平臺內(nèi)容審核案例,決定哪些信息是違規(guī)需要刪除處理的,哪些信息又是可以公開傳播的。
這一監(jiān)督委員會的成員背景多元,包括來自多個國家的法學(xué)教授和政府高官等。用戶可以直接向這個監(jiān)督委員會投訴,F(xiàn)acebook也可以直接向委員會提交具體案件。該委員會審理的最著名的案件,莫過于特朗普賬號被封禁一案。
盡管歐美輿論對Facebook等社交媒體口誅筆伐,但這些社交媒體已經(jīng)在歐美地區(qū)提供了遠(yuǎn)優(yōu)于其他地區(qū)的服務(wù)。西方的社交媒體在非洲、中東和南亞等地區(qū)雖然有大量的用戶,但并沒有實(shí)現(xiàn)與歐美地區(qū)同等質(zhì)量的監(jiān)管力度。
2021年,F(xiàn)acebook前數(shù)據(jù)科學(xué)家弗朗西斯·霍根(Frances Haugen),向美國證券交易委員會和《華爾街日報》披露上萬份Facebook內(nèi)部文件。文件顯示,F(xiàn)acebook已經(jīng)意識到自身在全球許多較為落后的國家沒有承擔(dān)足夠的責(zé)任。
美國以外的用戶占Facebook總用戶數(shù)的90%以上,但負(fù)責(zé)內(nèi)容治理的工作人員,只有13%的時間花在這些地區(qū)上。Facebook服務(wù)于全球160多種語言的使用者,但其僅研發(fā)了針對英語等歐美主流語言的內(nèi)容審核系統(tǒng),這意味著其余很多語言的違規(guī)內(nèi)容難以被系統(tǒng)識別和刪除。
例如在2020年底,F(xiàn)acebook的一份內(nèi)部報告顯示,Instagram上只有6%的阿拉伯語仇恨內(nèi)容能夠被系統(tǒng)試別;另一份報告則顯示,30天內(nèi)在阿富汗發(fā)布的仇恨言論中,僅有0.23%被Facebook的系統(tǒng)自動刪除[4]。
為了應(yīng)對歐美政府和媒體施加的壓力,F(xiàn)acebook等社交媒體持續(xù)推出各項(xiàng)內(nèi)容治理措施,但這些措施也是地區(qū)性的。Facebook內(nèi)部清楚知曉自己的產(chǎn)品在非洲和中東等地被用于傳播極端言論、人口販賣、種族清洗等,但并沒有付出相對應(yīng)的治理力度。
不過,僅憑Facebook等社交媒體自身的努力,的確也難以應(yīng)對全球涉及如此之多語言、民族和宗教的問題。
技術(shù)發(fā)展給內(nèi)容治理帶來了更大的挑戰(zhàn)。實(shí)際上,即便對有害信息存在明確的標(biāo)準(zhǔn),即使平臺有著強(qiáng)烈的治理決心,通過人工或技術(shù)手段甄別有害信息的難度也不低。
如今社交媒體上的許多內(nèi)容,并不是真實(shí)的用戶創(chuàng)造發(fā)布的,而是由虛假賬號批量制造生產(chǎn)。這些虛假賬號又被稱為社交機(jī)器人(social bots),它們可以通過算法自動發(fā)布內(nèi)容并與其他賬號互動。這意味著,有些賬號雖然沒有散播不實(shí)信息,但因?yàn)檫@些賬號本身是虛假的,是被用來從事宣傳的,也需要被處理。
有研究發(fā)現(xiàn),2016年美國大選第二場辯論中,Twitter上親特朗普的2400萬多條推文有三分之一由社交機(jī)器人發(fā)出,支持希拉里的72000條推文中,社交機(jī)器人生產(chǎn)的內(nèi)容占四分之一。[5]
社交機(jī)器人還會隨著社交媒體上的重大事件更替,刪除其先前的推文、改變顯示用戶名后以新面目出現(xiàn)。盡管Twitter和Facebook大力打擊虛假賬號,但虛假賬號依然泛濫。在近來伊隆·馬斯克暫停收購Twitter事件中,虛假賬號數(shù)量就成為了焦點(diǎn)。
在內(nèi)容治理方面,社交媒體也不斷面臨新的問題。比如在虛假賬號之外,深度偽造等技術(shù)給內(nèi)容治理帶來更大的挑戰(zhàn)。這意味著,大量的有害信息有著以假亂真的效果,并且這些有害信息的生產(chǎn)者不是用戶,勸阻用戶的舉措僅僅能起到減緩有害信息傳播的作用。提升內(nèi)容治理水平,需要社交媒體開發(fā)更先進(jìn)的技術(shù),魔高一尺,更需道高一丈。
四、無法退回的昨日世界
Facebook于2004年上線,至今仍然未滿20年。在這十?dāng)?shù)年間,社交媒體讓地球村成為了現(xiàn)實(shí),讓人們得以與在現(xiàn)實(shí)中永遠(yuǎn)不會相識的陌生人交流。
社交媒體發(fā)展初期,人們歡呼于社交媒體如何降低公共領(lǐng)域的表達(dá)門檻,人人都有麥克風(fēng)。但近年來,無論是關(guān)于仇恨言論、虛假信息泛濫的擔(dān)憂,還是針對信息繭房、群體極化的警惕,都體現(xiàn)了人們逐漸發(fā)現(xiàn)并試圖理解社交媒體的負(fù)面效應(yīng)。
內(nèi)容治理已經(jīng)成為社交媒體不得不直面的問題。回頭看,這場全球社交媒體的轉(zhuǎn)型運(yùn)動,就始于對這種壓力的回應(yīng)。
顯然,我們永遠(yuǎn)無法退回沒有社交媒體的世界。如果未來不存在社交媒體,那也只可能是出現(xiàn)一種更有吸引力的替代品。如今我們只能著眼于最小化社交媒體的負(fù)面影響,探討如何在技術(shù)和產(chǎn)品層面改進(jìn)社交媒體,如何明晰內(nèi)容治理的邊界,這將是一個漫長的過程,更需要像此前高速發(fā)展期去研究用戶需求一樣,不斷改善社交媒體的功能與用戶體驗(yàn),創(chuàng)造更友善的社交媒體環(huán)境?;蛟S這才是這場“轉(zhuǎn)型運(yùn)動”的最大意義。
引用/注釋:
[1]https://twitter.com/kayvz/status/1270788548002631681
[2]https://www.facebook.com/business/news/how-facebook-addresses-covid-19-misinformation
[3]https://transparency.fb.com/data/community-standards-enforcement/hate-speech/facebook/
[4]https://www.theatlantic.com/ideas/archive/2021/10/facebook-failed-the-world/620479/
[5]Stieglitz, S., Brachten, F., Berthelé, D., Schlaus, M., Venetopoulou, C., & Veutgen, D. (2017). Do Social Bots (Still) Act Different to Humans? – Comparing Metrics of Social Bots with Those of Humans. HCI.
作者:梁曉健 王健飛,編輯:王煥超,來源公眾號:波動刻度
原文鏈接:https://mp.weixin.qq.com/s/KxbFfsiRdjqwJ4AdxBryXw
本文由@波動刻度 授權(quán)發(fā)布于人人都是產(chǎn)品經(jīng)理,未經(jīng)許可,禁止轉(zhuǎn)載。
題圖來自Unsplash,基于CC0協(xié)議
該文觀點(diǎn)僅代表作者本人,人人都是產(chǎn)品經(jīng)理平臺僅提供信息存儲空間服務(wù)
負(fù)面的、虛假的社交信息,即使是成年人也難以判別真?zhèn)巍?/p>
就比如一些無良媒體,為了吸人眼球,捏造事實(shí),誤導(dǎo)聽眾