算法驅(qū)動(dòng)的資訊類(lèi)平臺(tái)為什么讓人討厭?

2 評(píng)論 5277 瀏覽 25 收藏 10 分鐘

我越了解算法,就越不懂人性。

人民日?qǐng)?bào)在三評(píng)王者榮耀后,最近今日頭條也遭到了點(diǎn)名。批評(píng)的重點(diǎn)是以今日頭條為代表的的算法推薦資訊平臺(tái),還提出了價(jià)值觀(guān)缺失、制造信息繭房、競(jìng)爭(zhēng)手段無(wú)底線(xiàn)的“三宗罪”。

總的來(lái)說(shuō),人民日?qǐng)?bào)提出的這些問(wèn)題還是非??陀^(guān)的。此前也有不少新聞業(yè)內(nèi)人士反映過(guò),低俗的信息會(huì)刺激人性中的陰暗面,吸引點(diǎn)擊量,在推薦算法的加持下,不知不覺(jué)我們的信息流上就全是婆婆小三、艷情野史。而得出的結(jié)論卻是,不是資訊平臺(tái)低俗,而是算法覺(jué)得你低俗。

同樣的情況也曾經(jīng)在快手上出現(xiàn)過(guò),當(dāng)我們抱怨快手上全是鞭炮炸褲襠、老太嚼燈泡時(shí),得到的答復(fù)是,中國(guó)的大多數(shù)就是這個(gè)樣子。

多數(shù)人的暴政

這種情況被稱(chēng)為“多數(shù)人的暴政”。

大多數(shù)人忍不住會(huì)被低俗內(nèi)容吸引,所以創(chuàng)作者會(huì)創(chuàng)作更多的低俗內(nèi)容,去除人工編輯把控的中間環(huán)節(jié),算法只會(huì)根據(jù)你有意無(wú)意的點(diǎn)擊把那些低俗的內(nèi)容推上信息流。

這樣的多數(shù)人的暴政,不僅僅出現(xiàn)在中國(guó),此前Facebook也深受各種驚悚標(biāo)題黨的困擾。不過(guò)外國(guó)人的腦回路是很清奇的,F(xiàn)acebook推出了一項(xiàng)用戶(hù)決策機(jī)制,如果讀過(guò)之后感覺(jué)內(nèi)容和標(biāo)題嚴(yán)重不符,可以將其標(biāo)注為假新聞,這樣就會(huì)降低這條消息的推薦權(quán)重。

尷尬的是,很多用戶(hù)會(huì)依照個(gè)人喜好隨意標(biāo)注,甚至?xí)蛘蝺A向?qū)δ骋慌蓜e的新聞進(jìn)行惡意標(biāo)注。最后Facebook不得已還是采用了算法進(jìn)行判斷——用機(jī)器學(xué)習(xí)對(duì)以往的標(biāo)題黨標(biāo)題進(jìn)行總結(jié),對(duì)相似標(biāo)題的文章進(jìn)行降權(quán)。就是喂給算法一批諸如《震驚了!……》、《……真相是這樣!刪前速看!》的標(biāo)題,算法學(xué)會(huì)后,就會(huì)對(duì)“震驚派”的文章進(jìn)行降權(quán)。

實(shí)際上“夸張的標(biāo)題”、“假新聞”、“低俗內(nèi)容”之間往往只有一線(xiàn)之隔,把決策權(quán)交給用戶(hù)是一項(xiàng)非常冒險(xiǎn)的行為。不管是算法還是用戶(hù)投票,只要是在去編輯體制的平臺(tái)上,多數(shù)人的暴政都會(huì)出現(xiàn)。

完全依賴(lài)用戶(hù)抉擇,平臺(tái)會(huì)被視作沒(méi)有責(zé)任感、不作為;可如果平臺(tái)參與決策,又很可能破壞“算法推薦”這一原有的特色。這樣的矛盾,不管是Facebook還是今日頭條都在經(jīng)歷,但對(duì)于國(guó)內(nèi)用戶(hù)來(lái)說(shuō),不適感來(lái)的要更強(qiáng)烈一些。

在App冷啟動(dòng)時(shí),用戶(hù)都會(huì)選擇好自己的興趣標(biāo)簽??纱蜷_(kāi)信息流,還是會(huì)有一些低俗夸張的內(nèi)容出現(xiàn),甚至在選擇了“不感興趣”后,劃過(guò)幾屏,類(lèi)似的信息還是會(huì)出現(xiàn)。要不就像新聞中說(shuō)的那樣,隨手點(diǎn)開(kāi)了一條低俗信息,立刻有大量類(lèi)似的信息涌入。

雖然幾乎沒(méi)有公開(kāi)談過(guò)其推薦算法都取決于哪些權(quán)值,但我們可以從目前主流的推薦算法中看看,今日頭條們可能錯(cuò)在了哪里。

如果你的信息流不對(duì)勁,可能是因?yàn)椤?/h2>

在推薦算法中,最常見(jiàn)的就是協(xié)同過(guò)濾算法。資訊類(lèi)產(chǎn)品常常會(huì)使用基于用戶(hù)的協(xié)同過(guò)濾算法,即利用K鄰近算法,找到和你興趣相近的用戶(hù),并把對(duì)方的喜好推薦給你。比如A、B兩個(gè)用戶(hù)都對(duì)時(shí)政、軍事類(lèi)的資訊感興趣,而A用戶(hù)也對(duì)歷史類(lèi)資訊感興趣,那么系統(tǒng)就會(huì)給B用戶(hù)推薦歷史類(lèi)資訊。

這種基于用戶(hù)行為的推薦機(jī)制,在豆瓣一類(lèi)更個(gè)性化的、社交屬性更強(qiáng)的平臺(tái)的中更為精準(zhǔn)??山袢疹^條這類(lèi)資訊平臺(tái)中,用戶(hù)群體更加繁雜,用戶(hù)行為往往也都是無(wú)目的性的——在豆瓣中標(biāo)記某一部電影可能是為了告訴大家“我是看這種電影的人”,而在今日頭條中點(diǎn)擊一條新聞往往只是因?yàn)椤跋肟纯础薄?/p>

這無(wú)疑給基于用戶(hù)的協(xié)同過(guò)濾算法的精確度帶來(lái)很大挑戰(zhàn),用戶(hù)本身的屬性就是模糊的,又如何如果你的信息流中不斷出現(xiàn)一些你不感興趣的東西,很有可能是平臺(tái)利用了這種算法,為你推薦了相似用戶(hù)的喜好

不過(guò)資訊類(lèi)平臺(tái)利用的更多的還是基于內(nèi)容的推薦算法。如果說(shuō)用戶(hù)協(xié)同算法關(guān)注的是人與人之間的相似度,那基于內(nèi)容的推薦算法關(guān)注的則是內(nèi)容本身。

還是以電影為例,一部電影可以細(xì)分出影片類(lèi)型、年代、演員、導(dǎo)演等等多種元素。用戶(hù)標(biāo)注了某一部電影,算法就會(huì)為他推薦同一導(dǎo)演的作品。這樣的推薦模式大多被適用于識(shí)別結(jié)構(gòu)化數(shù)據(jù)——算法并不知道文章、影片中到底說(shuō)了什么,只能根據(jù)結(jié)構(gòu)化數(shù)據(jù)標(biāo)注判斷。

這就是為什么大多數(shù)資訊類(lèi)平臺(tái)都存在標(biāo)簽和關(guān)鍵詞機(jī)制,算法要通過(guò)這些結(jié)構(gòu)化標(biāo)注對(duì)內(nèi)容進(jìn)行判斷,再推薦給用戶(hù)。

這其中最大的問(wèn)題,就是關(guān)鍵詞機(jī)制的不準(zhǔn)確。我曾經(jīng)在某平臺(tái)上標(biāo)注了興趣“寵物”,本意是希望看到一些可愛(ài)的貓貓狗狗,然而某一天該平臺(tái)居然給我推薦了一段斗狗視頻,視頻下面居然也有寵物的標(biāo)注。

資訊類(lèi)平臺(tái)中的內(nèi)容越來(lái)越豐富,短消息、圖文、問(wèn)答都有。而關(guān)鍵詞標(biāo)注只能對(duì)內(nèi)容進(jìn)行浮于表面的理解,而內(nèi)容中暗含的情緒往往會(huì)冒犯到用戶(hù)。而在流量的誘惑下,很多創(chuàng)作者會(huì)更傾向于生產(chǎn)具有刺激性情緒的內(nèi)容。

斗狗、職場(chǎng)性騷擾、歷史艷情,這些內(nèi)容本身似乎也是合規(guī)的,但其中暗藏的暴力、歧視、色情等等情緒,被掩蓋在寵物、職場(chǎng)、歷史等等標(biāo)簽下,堂而皇之的污染著我們的信息流。

那么出路在哪?

我們想知道的是,除了加強(qiáng)平臺(tái)對(duì)低俗內(nèi)容的監(jiān)管,是否還能從技術(shù)方面解決當(dāng)前的問(wèn)題?

其實(shí)相關(guān)的研究結(jié)果已經(jīng)很多,比如谷歌推出的云端自然語(yǔ)言分類(lèi)功能,可以通過(guò)語(yǔ)言分析情緒。據(jù)稱(chēng)這項(xiàng)功能在分析了報(bào)紙的某一版面后,自動(dòng)將其中一篇菜譜歸入了美食欄目,還添加了具體的標(biāo)簽。而且谷歌云的自然語(yǔ)言API還可以識(shí)別情緒,了解文章內(nèi)容是積極的還是消極的。

更詳細(xì)的分類(lèi)和情緒識(shí)別,可以很好的解決上文提到的關(guān)鍵詞機(jī)制不精準(zhǔn)問(wèn)題。而人民日?qǐng)?bào)在文章中提到的,用戶(hù)興趣變化問(wèn)題業(yè)內(nèi)也有過(guò)相關(guān)討論。有人提出過(guò)將用戶(hù)停留時(shí)間和內(nèi)容相似度兩種數(shù)據(jù)權(quán)重加入到協(xié)同過(guò)濾算法中,以用戶(hù)在不同內(nèi)容上停留的不同時(shí)間來(lái)判斷用戶(hù)的興趣是否發(fā)生了變化,從而確定推薦內(nèi)容的權(quán)重。

其實(shí)不管是谷歌NLP這種高成本的解決方式,還是調(diào)整原有算法這種更簡(jiǎn)單易行的方式。用技術(shù)解決推薦算法的局限沒(méi)有想象中那么難,甚至對(duì)于低俗的內(nèi)容,都已經(jīng)出現(xiàn)了“人工智能鑒黃”這種神器。

推薦算法是一種歷史悠久的技術(shù),發(fā)展到今天,電商、廣告的推薦越來(lái)越精準(zhǔn),資訊的推薦算法卻惹得天怒人怨,要是把鍋甩到算法上,恐怕有些不公。

有人說(shuō)算法呈現(xiàn)出的結(jié)果是人性本質(zhì)的體現(xiàn),可從當(dāng)下看來(lái),算法呈現(xiàn)出的更多是平臺(tái)、內(nèi)容創(chuàng)作者這些利益既得者的人性。

作為一個(gè)天天研究算法的普通內(nèi)容消費(fèi)者,我倒是覺(jué)得,越了解算法,就越不懂人性。

 

作者: 我堂堂一個(gè)熊貓

來(lái)源:微信公眾號(hào):腦極體(unity007)

本文由 @腦極體 授權(quán)發(fā)布于人人都是產(chǎn)品經(jīng)理。未經(jīng)作者許可,禁止轉(zhuǎn)載。

題圖來(lái)自PEXELS,基于CC0協(xié)議

更多精彩內(nèi)容,請(qǐng)關(guān)注人人都是產(chǎn)品經(jīng)理微信公眾號(hào)或下載App
評(píng)論
評(píng)論請(qǐng)登錄
  1. 噗哈哈哈 最后的觀(guān)點(diǎn)很隱晦 ??

    來(lái)自廣東 回復(fù)