男性和女性的評論區(qū)不一樣,算法連這也不放過了?
自從頭條、抖音等靠著推薦算法成功的產(chǎn)品興起,“信息繭房”這個詞就一直被大家提及。原本是一個小眾的研究越來越被人們所熟知。前幾天熱搜上因為短視頻產(chǎn)品的評論區(qū)不一樣的話題,又將這個詞代入大眾的認(rèn)知里。是否真的是信息繭房?我們來看看作者的分析。
前兩天,一個老生常談的話題引爆了互聯(lián)網(wǎng),連續(xù)兩天上了微博熱搜。
它叫「信息繭房」。
不少人之前就聽過這詞,也了解過它,但這次大家反應(yīng)這么大,是因為這是他們第一次,如此直觀地面對信息繭房。
事情是這樣的。
有網(wǎng)友發(fā)現(xiàn),在一個內(nèi)容關(guān)于情侶吵架的視頻下方,不同賬號看到的評論區(qū)是不一樣的。
他的賬號看到的評論區(qū),靠前的評論都出自于男性網(wǎng)友,立場也都是從男性出發(fā);女朋友賬號看到的評論區(qū),則恰恰相反。
左男右女 ▼
在這條微博下面,有很多網(wǎng)友質(zhì)疑,這無形中會不會影響我們判斷。
第二天,有位博主看到這視頻后,決定做個測試。
她注冊了一個新抖音號,關(guān)注了一笑傾城,不斷給老年人視頻點贊,在網(wǎng)絡(luò)世界里喬裝成中老年人。
如此操作一個小時后,她發(fā)現(xiàn)自己進入了一個新世界。
在線 PK 的不再是年輕的主播,而是幾位毛發(fā)稀疏、頭頂锃亮的大爺;線上連麥的網(wǎng)友,也是差不多歲數(shù)的阿姨。
在一個大爺品茶的視頻下方,排在前列的評論,都來自于真實的中老年人。
但當(dāng)博主切回自己的賬號,找到這條品茶視頻時,評論區(qū)的第一條卻是一個從未見過的評論。
這意味著,不一樣的年齡看到的評論區(qū)也不一樣。
事情發(fā)酵后,立馬引來了眾多網(wǎng)友的質(zhì)疑。
除了轉(zhuǎn)發(fā)和評論,他們還紛紛跑到原視頻評論區(qū)下,做起了測試。
有人問,能看到他評論的網(wǎng)友,是男是女;
有人貼出自己的評論區(qū)截圖,讓其他人看看是否一樣;
還有不少人聯(lián)想到之前的經(jīng)歷,認(rèn)定「 算法確實在定制評論區(qū)」。
比如一位四川 IP 的網(wǎng)友說,每次刷到第一條評論都是吃個四川人。
也有一堆人表示難怪每次刷評論,發(fā)現(xiàn)別人都在虛空對線,合著評論區(qū)就不是一個版本唄。
甚至還有更「陰謀論」的說法,認(rèn)為這是短視頻平臺通過算法,故意挑起男女對立。
其實在聽說這事后,差評君也拿了三個同事( 1 男 2 女)的手機做了測試。
但我們發(fā)現(xiàn),在原視頻下方,除了個別評論的順序稍有不同,評論區(qū)整體來說是一樣的。
為了排除同 IP 的情況,我也找了幾十公里開外的朋友測試,情況也是如此。
可能我們來遲了,或者還在灰度?
后來我也另外翻看了幾個博主,分別是美女主播、男科大夫、彩禮話題的律師。
這些主題相對容易引起性別對立,我想看看他們的評論區(qū)是否有網(wǎng)友說的「性別定制」。
結(jié)果在最后一位律師的評論區(qū),我們才遇到靠前評論差別較大的情況,至于其他兩位,完全一致。
基于此和以往經(jīng)驗,我不能說短視頻平臺的評論排序是在故意推動什么,但我可以說:
它絕非是完全按照熱度&時間的維度排序。
以往我們打開一些社交平臺的評論區(qū),會看到這樣兩個選項:熱度&時間。
但是在短視頻平臺,用戶卻沒有選擇評論排序的權(quán)利。
比如抖音上熱度低的評論有時會在熱度高的前面;
類似情況也出現(xiàn)在快手。
我們是沒法判斷短視頻評論區(qū)是否接入了算法,但,要是連評論排序都不給用戶自主選擇的權(quán)利,這無疑也會加重信息繭房,進而帶偏大家的三觀。
首先要弄清楚的是,「信息繭房」不是算法時代的產(chǎn)物,它源自于桑斯坦2006年的書《信息烏托邦》,講的是一個現(xiàn)象:
公眾只會注意自己選擇的東西和使自己愉悅的領(lǐng)域,久而久之,會將自身桎梏于像蠶繭一般的“繭房”中。
而算法的出現(xiàn),會加劇「信息繭房」形成。
因為我們不斷被投喂自己喜歡看的,想要看的東西。信息輸入一旦單一化,我們看事情的維度也會變得單一,思維就會狹隘。
德國電影學(xué)家 Siegfried Kracauer 寫過一本書《電影的本性》,當(dāng)中講到一個故事。
有導(dǎo)演拍了部城市小短片,放給從沒接觸電影的非洲土著居民觀看。
影片里展示的是燈紅酒綠,高樓大廈,結(jié)果看完后觀眾對這些毫無反應(yīng),只熱烈討論短片中短暫出現(xiàn)的一只雞。
導(dǎo)演自己都不知道短片里會有一只雞,后來發(fā)現(xiàn)在某 1 秒鏡頭的角落晃過一只雞。
為啥土著人關(guān)注到了雞?因為他們只認(rèn)識雞,所以雞成了主角,不認(rèn)識的高樓大廈變成了背景。
后來電影學(xué)中就有這么一句話:你是否看見了一只雞。
意思是每個人在閱讀一部作品時,我們看到的,只是我們眼中的那只雞,它取決于我們所接收過的信息。
就好比讓大伙兒說一部自己最喜歡的電影,你也許會選《奧本海默》,你的朋友可能會選《芭比》,你的表舅可能選《戰(zhàn)狼》。
但不管是誰選,他的答案一定局限在「他所看過的電影」。
決定答案的,是經(jīng)歷,是認(rèn)知,是輸入進腦里的信息。一旦算法讓你接收到的信息變得單一,你看待和分析事情就會變得片面。
片面是其一,其二,變得極端。
因為我們只能聽到自己認(rèn)同的看法,在不斷重復(fù)不斷加深后,我們思維就會固化,排除異己,最終出現(xiàn)回音室效應(yīng),觀點在腦子里放大,膨脹,變得極端。
在網(wǎng)絡(luò)上我們經(jīng)常會看到,持不同意見的人吵得不可開交。
因為在他們目光所及的世界里,他們都覺得自己是正確的,是大多數(shù),和自己不一樣的人簡直不可理喻。
但真實復(fù)雜,包羅萬象的世界,事情并不是非黑即白的。
不知道大家有沒有同感,即使是在評論按熱度排序的年代,很多帖子里,也經(jīng)常出現(xiàn)整個樓層的三觀被高贊評論帶偏的情況,持相反意見的人排在很后面才能被看到。
因為人都有從眾心理,相對于宣揚自己的判斷,人們更傾向于不孤立自己。自己的想法,有時還要看到風(fēng)向才能確定。
那如果評論區(qū)再干脆不按熱度排序,交由算法統(tǒng)治了,又會是什么樣子呢?
這會導(dǎo)致有共同的標(biāo)簽(性別、愛好)的人,被拉在同一個群體評論區(qū),會導(dǎo)致一些本該被你掃到一眼的相反意見完全消失。
人們更容易趨于一致,也更容易極端化,和別的群體會更割裂。
你可以想象一下,如果男女真的分開上網(wǎng),雙方完全聽不見對方的想法,性別對立是會減小還是大大加深呢?
當(dāng)然,以上種種,對于大部分人來說,不過只是一種隱憂。
真正信息繭房的形成,條件比較苛刻。
清華大學(xué)和中國傳媒大學(xué)兩位學(xué)者曾發(fā)表一篇文章,提到「信息繭房」是個似是而非的概念,沒有有力的研究能證實它的存在,造成「信息繭房」的環(huán)境很難出現(xiàn)。
諸如 2019 年第 3 季度,抖音用戶數(shù) 6.06 億,快手用戶數(shù) 4.14 億,這些用戶重合率達到 36.4%,這意味著人們一般不大可能處在一個能形成信息繭房的「單一信息環(huán)境」里。
畢竟,我們平時接受信息的方式有很多,各種社交媒體平臺、朋友圈等等,這些都可以幫助我們?nèi)フJ(rèn)知世界。
真正值得擔(dān)心的,則是一部分被忽略的群體,比如:中老年人。
他們往往處在低頻、單線程的社交環(huán)境中,他們認(rèn)識互聯(lián)網(wǎng)世界的方式,除了微信可能只有某個短視頻平臺。對于他們來說,長期只獲取自己「應(yīng)該」獲取的信息,真的沒問題嗎?
不過,即便信息繭房形成條件苛刻,也并不妨礙大家關(guān)注和警惕它。
今日頭條是最早一批用算法機制的新聞 App ,推出僅四年,日活超 6000萬,用戶平均使用時長 76 分鐘。
這就是個性化推薦的魔力,吸引用戶,留存用戶。
在當(dāng)時,我們并沒有覺得這件事有啥不對勁,只覺得很新鮮,甚至有點沉迷。
之后這些年,越來越多 App 接入算法系統(tǒng)。從以「關(guān)注體系」為生的微博,到以專業(yè)戰(zhàn)報起家的懂球帝,再到以傳統(tǒng)論壇獲得網(wǎng)友們喜愛的虎撲,紛紛改版。
無數(shù) App 寧可拋棄自己的傳統(tǒng)和基因,也一定要壯士斷腕般地投身算法。
雖然用戶一開始有些不適應(yīng),但日活和數(shù)據(jù)卻呈現(xiàn)出兩個字:真香。
久而久之,用戶也覺得可以接受,不過是內(nèi)容變多變雜了嘛。
直到這次事件曝光后,大家才開始覺得不對勁了。
因為,它終于觸碰了觀眾的蛋糕。
眾所周知,視頻制作者和評論區(qū)發(fā)言者的話語權(quán)是不對等的。視頻中輸出觀點的影響力,評論區(qū)則需要一萬個持相同觀點的人才可以相提并論。
大家害怕算法剝奪自己聚起來發(fā)生的權(quán)利。
況且,算法沒有給你推薦的內(nèi)容,你還可以搜索到。
但算法沒有給你推薦的評論,你很難再精準(zhǔn)定位到它們。
它們沉底在幾千幾萬條的評論區(qū),甚至可能被完全隱藏,在你的互聯(lián)網(wǎng)里銷聲匿跡。
我明白,算法是當(dāng)前信息過載的時代,簡化人們接受信息的必然產(chǎn)物,也是很多平臺為了拉長用戶留存時間,早晚都會使用的技術(shù)手段。
但算法值得大家警惕,它像一個暗自入侵的機器人,從給你投喂視頻,到在潛移默化中影響甚至塑造我們的人格。
其實它無非就是一個數(shù)學(xué)模型,是可以調(diào)整和優(yōu)化的,是能避免我們處在過于單一的信息環(huán)境中,只不過決定權(quán)在于它們背后的大腦罷了。
早之前,江湖上就流傳著一個段子:
互聯(lián)網(wǎng)的作用,原本是讓井底之蛙開一開眼界,認(rèn)識一下井口以外的世界??蓪嶋H情況是成千上萬只井底之蛙通過互聯(lián)網(wǎng)互相認(rèn)識,互相認(rèn)同和肯定,并經(jīng)過長久的交流之后達成共識:世界確實只有井口這么大。
詼諧的背后,是沉重的事實。
但如今看來,算法似乎讓它變得,更沉重了。
圖片、資料來源:
微博@顧扯淡、@_一條更新、@梁州Zz
《傳播與版權(quán)》 2021 年第 7 期:信息繭房對大學(xué)生的影響及破繭路徑研究
“信息繭房”在西方:似是而非的概念與算法的“破繭”求解丨陳昌鳳仇筠茜
中國智媒體實踐與發(fā)展研究丨蔣曉麗李連杰王博楊釗
極端的人群:群體行為的心理學(xué)
何微新聞獎優(yōu)秀文選(第三輯):新聞算法推薦中的技術(shù)、倫理和科學(xué)之爭
用戶 5.5 億,估值 600億,今日頭條如何實現(xiàn)爆發(fā)式增長?
撰文:刺猬&莽山烙鐵頭,編輯:莽山烙鐵頭&面線
來源公眾號:差評(ID:chaping321),Debug the World。
本文由人人都是產(chǎn)品經(jīng)理合作媒體 @差評 授權(quán)發(fā)布,未經(jīng)許可,禁止轉(zhuǎn)載。
題圖來自 Unsplash,基于 CC0 協(xié)議。
該文觀點僅代表作者本人,人人都是產(chǎn)品經(jīng)理平臺僅提供信息存儲空間服務(wù)
作者的文章讓我也有一番思考,作者的文筆讓人欽佩。
我想除了用算法控制我們的瀏覽內(nèi)容以便于增加用戶粘性外,也有避免一些對立性比較強的話題的過分討論吧,尤其是涉及到男女對立的話題,一旦產(chǎn)生矛盾可能就會形成多人的對罵,不管是對于作者作品還是用戶的情緒都有很大的負面影響。
可是這其實很可怕哎,不斷給我看投我所好的卻不管會不會有我不喜歡但對我有用的東西讓我看到,比如說一個很突出的社會矛盾,重男輕女,他們的生活中都覺得是正常的,然后信息繭房給他看到的就也是,啊這樣子很正常啊,他永遠意識不到這樣的認(rèn)知是否合理,因為他接受的認(rèn)知里都是他想要的,反而會不利于自己通過輿論認(rèn)清自己或者聽到不同的聲音,千人千面,各人觀點本就是不同的,為了迎合用戶審美中的美創(chuàng)造一片夢中桃花源本就是脫離現(xiàn)實需要的,我想要清醒,不想要醉死夢里。
看完這篇文章,突然明白了,為什么這段時間會加大微信讀書和頭條APP的使用和閱讀量:對抗“信息繭房”,對抗“熵增”
非常有深度的一篇文章,文章表達的思想值得我們深思,希望看到的朋友,靜下心來,多進行思考。