你知道“momo”是誰嗎?
近兩年來,互聯(lián)網(wǎng)上不知不覺涌現(xiàn)了一批“momo大軍”,他們用著同一個昵稱,頂著一模一樣的頭像,混跡于微信、豆瓣、小紅書、微博等各大社交平臺。
這是許多年輕人用以隱藏身份的“馬甲”。是的,曾經(jīng)以彰顯個性、特立獨行為傲的那批人,現(xiàn)在更在意的是怎樣隱匿自己在網(wǎng)絡(luò)上的言行,只為了逃脫“算法圍城”。
——他們不希望“信息繭房”成為自己的“人生第一套房”,不想自己在社交媒體的分享成為被大數(shù)據(jù)窺探的窗,不愿意自己付出時間和健康的代價,卻被困在一個看不見的牢籠。
但他們又何嘗不知道,數(shù)字生存如飛鴻踏雪,數(shù)字互聯(lián)時代,想要雁過無痕,談何容易?
硬剛算法的年輕人
不管承不承認,我們每個人都活在算法圍城之中。
同一份外賣,老顧客要比新會員多付十幾元;同一時間的相同路程,不同手機型號的用戶單價不一;當你拿起另一半的手機,在短視頻平臺看到的熱搜評論都不盡相同……
面對算法圍城,普通人有普通人的痛楚,名人有名人的煩惱。
近一年以來,中國內(nèi)地“首富”、農(nóng)夫山泉創(chuàng)始人鐘睒睒本人以及農(nóng)夫山泉頻上“熱搜”:從產(chǎn)品、環(huán)保議題到個人家事,不僅農(nóng)夫山泉的股價應聲滑落,鐘睒睒個人也遭受了前所未有的流量“集火”。忍無可忍的鐘睒睒在一場交流活動上隔空喊話字節(jié)跳動創(chuàng)始人張一鳴,直言“有人利用算法制造單一敘事和惡意對立”,并稱這種“利用科技手段、技術(shù)能力造成的惡”比普通人造成的惡要大,“是大惡”。
“他們用算法放大情緒,把復雜的問題簡單化,把不同的聲音屏蔽掉。”鐘睒睒說,這種行為不僅破壞了公平的輿論環(huán)境,也讓公眾陷入片面認知,而受害者往往都是底層民眾。
在“網(wǎng)暴”面前,絕大部分人不是鐘睒睒。面對各種算法織就的網(wǎng),鐘睒睒可以“隔空喊話”,普通人卻只能套上“馬甲”。
于是,越來越多的年輕人決定主動出擊,試圖“反向訓練算法”,和平臺正面硬剛。
他們中有人“賽博哭窮”:“機票太貴了我不去了”“買不起,不買了”“9毛9,我喝得起的咖啡”;有人“喊話威脅”,給某軟件留言:“竟然殺熟,太過分了,我要卸載”;有人則是行動派,移除軟件后故意過上一段日子再重新下載,以期再次享受大額優(yōu)惠;還有人利用軟件生成的虛擬手機號頻繁注冊平臺軟件新號,“薅新人羊毛”。
有網(wǎng)友表示,有些“偏方”好像真的管用,發(fā)牢騷、抱怨價格、卸載重裝,一套流程走完能省下不小的一筆錢;在某書,隨處可見許多諸如“罵機票專用帖”等熱門經(jīng)驗分享。也有人覺得這一切都是徒勞,到頭來還是被平臺用算法“收割”。但不管怎樣,他們樂此不疲,并美其名曰:“反向馴化大數(shù)據(jù)”“用算法打敗算法”。
“反向馴化”其實見效甚微
“反向訓練算法”有沒有用?《中國科學報》就此咨詢了算法專家。得到的答案,恐怕要給大家澆一盆冷水。
“‘反向馴化大數(shù)據(jù)’這類做法可能僅僅對一些簡單的(算法)有點效果,對稍微復雜一點的,恐怕沒什么太大作用。”中國科學院自動化所副研究員、武漢人工智能研究院算法總監(jiān)吳凌翔告訴記者,平臺會根據(jù)用戶大量的歷史信息、IP地址、社會關(guān)系、手機型號等做算法推薦,如果用戶不了解算法機制,很難“反向訓練”。
中國傳媒大學媒體融合與傳播國家重點實驗室媒體大數(shù)據(jù)中心首席科學家沈浩則認為,用戶通過主動關(guān)閉定位、禁止后臺調(diào)取通訊錄等方式尚能起到一定的屏蔽作用,但如果試圖通過調(diào)整標簽、更換人設(shè)來“迷惑”算法,可能會適得其反:新的“人設(shè)”還會出現(xiàn)新的“信息繭房”。
事實上,許多軟件都給了用戶選擇取消“個性化推薦”的功能,但由于這項功能于平臺而言太過重要,因此往往隱藏較深。
而在沈浩看來,取消個性化推薦也不能根治“信息繭房”。
“不推薦、表達‘不感興趣’也是一種推薦。”沈浩告訴記者,算法是基于用戶數(shù)據(jù)驅(qū)動的,每個人都或多或少被“困”在信息繭房里,只不過感知程度不同。
北京航空航天大學計算機學院教授王靜遠直言,自己雖然沒有專門研究過用戶“對抗”算法推薦的做法,但他對出現(xiàn)這種現(xiàn)象不感到意外。
“這反映了一些算法對用戶信息的收集和利用有些過分。”王靜遠對《中國科學報》說,當平臺逼得用戶連頭像、昵稱這些基礎(chǔ)信息都要隱藏,說明用戶的一切痕跡都有可能被用來作為特征被提取,“給用到極致了”。
《中國科學報》在走訪中,不止一次聽到“算法中立論”,認為算法無罪,罪在利益相關(guān)方。但是,當每一次點擊、每一句評論、甚至每多停留一秒鐘,這些痕跡都成了平臺訓練算法的“養(yǎng)料”;當外賣、網(wǎng)約車等平臺被大數(shù)據(jù)操縱,吃什么、去哪里都被“讀心術(shù)”安排得明明白白;那么在被浪費的時間、被挑撥的情緒、被掏走的“冤枉錢”面前,用戶眼中的算法就不再是“中立”的,而是越來越大的“牢籠”。
“當一切痕跡都在利益的驅(qū)使下過度商業(yè)化了,這個時候自然會有反抗。”王靜遠說。
“舊病未愈,又添新疾”
一邊是平臺利用算法精準織網(wǎng),一邊是越來越多的人開始覺醒與反抗,野蠻生長的算法亂象,正被社會全方位地審視。
近日,中央網(wǎng)信辦、工信部、公安部、市場監(jiān)管總局四部門聯(lián)合部署開展“清朗·網(wǎng)絡(luò)平臺算法典型問題治理”專項行動,矛頭直指“信息繭房”、操縱榜單、利益侵害、大數(shù)據(jù)“殺熟”、算法推薦等典型問題。
但如果溯回到大數(shù)據(jù)興起之時,“算法治亂”并非新鮮事。
早在2018年,美國臉書首席執(zhí)行官馬克·扎克伯格就在美國國會上就數(shù)據(jù)隱私、虛假信息、監(jiān)管等數(shù)個議題接受訊問。當時人們已經(jīng)意識到,當用戶獲得免費或者極低費用的服務時,消費者將被要求提供更多的個人數(shù)據(jù),而這些數(shù)據(jù)被濫用的可能性也會顯著增大。
我國也早在2021年就出臺了《關(guān)于加強互聯(lián)網(wǎng)信息服務算法綜合治理的指導意見》《互聯(lián)網(wǎng)信息服務算法推薦管理規(guī)定》等規(guī)定,明確算法治理的必要性和具體要求。而此次“清朗·網(wǎng)絡(luò)平臺算法典型問題治理”專項行動,力度更大、問題更加聚焦。
曾幾何時,互聯(lián)網(wǎng)努力為不同人群、不同議題提供平等的交流平臺,打造自由對話的多元空間;但隨著“流量至上”成了各大平臺目標,它們開始藉由算法之手不擇手段,用戶隱私信息得不到保護的問題浮出水面。
而隨著大語言模型技術(shù)的進步,生成式人工智能服務興起。但人工智能(AI)技術(shù)不加規(guī)范的濫用,也帶來許多未曾預見的新問題:AI換臉詐騙、AI造謠、AI偏見歧視、AI語言暴力等等讓許多人真假難辨、不堪其擾。
尤其是,當生成式人工智能服務的對象是未成年人和老年人時,更大的風險接踵而至。據(jù)外媒報道,創(chuàng)辦于2021年的Character.AI平臺近期就因其開發(fā)的“情感陪伴聊天機器人”官司纏身:今年10月,Character.AI在佛羅里達州一名青少年自殺事件中“扮演了某種角色”;12月,美國得克薩斯州一對父母決定起訴它“教唆未成年人殺害家長”,他們稱機器人聊天工具讓未滿18歲的青少年“過度接觸了色情、血腥暴力等不良內(nèi)容”。
能否打破算法“黑箱”?
面對算法“作惡”,鐘睒睒呼吁“算法應該明白無誤地公布于眾”。他認為,沒有一種標準是不可以公布的,應該公開公布并讓所有使用者來評價其意義。
但公開算法,就能打開“黑箱”、制止亂象嗎?未必。
吳凌翔告訴《中國科學報》,算法并不像外界理解的那樣是徹底不透明的,一般都會通過發(fā)表論文、學術(shù)會議分享、公開課等公開原理。但是,即便是常見的推薦系統(tǒng),背后的算法機制也非常復雜,常常“不是一兩個部門的事”,即便是開發(fā)者也未必能全部搞清楚。反倒是人工智能檢索增強生成的內(nèi)容,現(xiàn)在的技術(shù)手段可以溯源——通過關(guān)聯(lián)標記能夠獲取它是基于哪些數(shù)據(jù)和信息“習得”的。
王靜遠也同意,算法機制問題并不如想象般簡單。“比如深度學習本身就是一個‘黑箱’,即便開發(fā)者也不清楚其中原理。”
事實上,對于算法工程師而言,真正的“黑箱”不在算法原理之中,而在數(shù)據(jù)與平臺機制設(shè)置之中——當用戶量增大、數(shù)據(jù)變多、平臺機制逐漸向利益“妥協(xié)”,久而久之便產(chǎn)生了“算法亂象”。
“算法始終是算法設(shè)計者意志的反應,是平臺意志的反應。”北京大學數(shù)字治理研究中心主任邱澤奇在接受《中國科學報》采訪時說。言外之意,復雜的算法問題背后潛藏的是平臺“無形的手”。
就如鐘睒睒所遭遇的那樣:“當你打開這些平臺,看到的總是同樣的內(nèi)容”“很多惡是人為造成的”。
不得不提的是,許多平臺型軟件在誕生之初,都懷抱著改造社會的使命。比如某音的初心是“記錄美好生活”、某團致力于打造“美好生活小幫手”、某滴提出的愿景“讓出行更美好”、某程希望提供“放心的服務,放心的價格”……不可否認,這些軟件已經(jīng)成為人們數(shù)字生活中的基礎(chǔ)設(shè)施,但在巨大的發(fā)展慣性下,平臺自發(fā)性地選擇了阻力最小、收益最高的方向,輕視乃至忽略了社會價值。在這種嬗變之中,算法的用途逐漸跑偏。
“在算法訓練中,目標導向是關(guān)鍵因素。”王靜遠告訴記者,人工智能算法在設(shè)計時,會要求開發(fā)者設(shè)置一個目標函數(shù),訓練算法時會盡最大可能優(yōu)化這個目標函數(shù)。如果算法以提高調(diào)度效率為目標,在模型優(yōu)化過程中就會犧牲其他因素來追求高效;如果以精準的個性化推薦為目標,就不可避免地出現(xiàn)過度收集和利用信息的問題。
信息大爆炸時代,算法的篩選和過濾無疑迎合了為大腦“降本增效”的剛需。然而,當精準“捕捉”用戶已無法滿足平臺的胃口,“殺熟”成了平臺“向前一步”的試水。王靜遠提到,平臺通過“精準營銷”為不同消費水平的顧客推薦不同價位的產(chǎn)品尚情有可原,但通過分析用戶經(jīng)濟能力進行“個性化定價”的歧視行為就令人難以接受了,這個在技術(shù)上“能夠也亟需”加以規(guī)避。
走向共同治理
在訪談中,幾位受訪對象不約而同地談到,除了人為濫用算法制造矛盾對立外,算法更多是在復刻社會的現(xiàn)實問題。
“坦率地講,算法就是幫你算個數(shù)。你寫了一套程序,它幫你把一些說不清、道不明的規(guī)律從數(shù)據(jù)里‘扒’出來。我的觀點是,算法自己不會作惡。”邱澤奇說,問題的關(guān)鍵是數(shù)據(jù)和算法的匹配以及算法的調(diào)試,“說到底,都是人在忙乎”。
他提出,不同的人雖然在使用同一個軟件平臺,但大家對數(shù)據(jù)的貢獻、得到的反饋在量和質(zhì)上都有差異;而當算法應用數(shù)據(jù)時,便會復刻現(xiàn)實社會的結(jié)構(gòu),甚至放大現(xiàn)實社會的問題。
基于此,他認為有兩條路可以嘗試解決算法問題:一是對真實數(shù)據(jù)進行權(quán)重配置,二是調(diào)試算法進行糾偏。
“算法是人寫的,是可以調(diào)整的。在方法意義上,算法是工具。”邱澤奇認為,工具是否適用是可以做交叉檢驗的,在技術(shù)上并不難實現(xiàn)。
有研究指出,算法黑箱、算法權(quán)力、算法陷阱等亂象很可能會成為數(shù)智經(jīng)濟負外部性的深層來源。當失速的算法濫用終于撞上負外部性的“南墻”,“算法向善”成了全社會的共同呼喚。
在邱澤奇看來,“算法向善”包括四個關(guān)鍵概念:首先是改進,這是平臺承擔社會責任和社會價值的必然要求;其次是普惠,沒有利益相關(guān)者的收益提高,平臺經(jīng)營就是竭澤而漁;第三是包容,關(guān)注數(shù)智弱勢群體,不只是平臺的社會責任,也是人類價值的體現(xiàn);最后是誠信,這是數(shù)智社會的底線規(guī)則,沒有人類之間的誠信,算法只會成為人類自我欺詐的武器。
他也坦承,通往“算法向善”的道路曲折而遙遠,需要多方的共同努力。
“首先需要解決平臺和算法設(shè)計者的認知問題。”邱澤奇提出,前提是要著眼于保護各方的利益:在平臺內(nèi)部,建立平臺業(yè)務的社會后果評估機制,不限于經(jīng)濟產(chǎn)出評估;在平臺與社會之間,建立與利益相關(guān)者的協(xié)商溝通機制;在平臺外部,建立平臺社會評價機制等等。
吳凌翔提出了類似建議,她認為算法治理需要搭建一個用戶、平臺、專家共同參與、共商機制的平臺,促進通過對話達成共識。此外她也認可用戶反饋機制和參與機制非常重要,這是社會治理的一種體現(xiàn)。
技術(shù)層面也有施展空間。以推薦算法為例,吳凌翔說,不僅要提升數(shù)據(jù)的多樣性和豐富度,還可以對算法進行公平性約束、增加敏感性分析,以及通過評估監(jiān)測推薦系統(tǒng)內(nèi)的不同環(huán)節(jié),增加敏感性分析等方式,從技術(shù)角度對算法糾偏。
應對生成式內(nèi)容帶來的合規(guī)需求,王靜遠提到,現(xiàn)階段重要的議題之一是要發(fā)展負責任的人工智能相關(guān)研究,其中既包括人工智能可解釋性、公平性、泛化性的研究,也涵蓋了安全可控方面的議題。但目前該領(lǐng)域面臨著社會關(guān)注度不高、投入較少的尷尬局面。
“只有把蛋糕做大,才能有蛋糕可分。”邱澤奇認為,治理與發(fā)展本就是一場拉鋸賽,當前應在促進創(chuàng)新的前提下,通過“問責制”調(diào)整利益分配的邏輯和份額,考慮分配的公平性問題,在鼓勵創(chuàng)新與促進平等之間尋求平衡。
“對于新生事物,制度建設(shè)不宜超前。”邱澤奇強調(diào),新發(fā)展也會帶來新問題,算法治理無法一蹴而就。
“一個簡潔的警惕和預防是明示對傷害的問責。”他強調(diào):隨著人工智能的深入發(fā)展,算法自身的邏輯網(wǎng)絡(luò)會越來越復雜,試圖就具體問題進行預防是沒有止境的。
本文鏈接:2024年,年輕人在數(shù)字空間隱姓埋名http://www.lensthegame.com/show-11-15670-0.html
聲明:本網(wǎng)頁內(nèi)容由互聯(lián)網(wǎng)博主自發(fā)貢獻,不代表本站觀點,本站不承擔任何法律責任。天上不會到餡餅,請大家謹防詐騙!若有侵權(quán)等問題請及時與本網(wǎng)聯(lián)系,我們將在第一時間刪除處理。
上一篇: “遠洋捕撈”一詞適合作比喻嗎?
下一篇: 算法的一些“偏見”可能是固有的