訂閱
糾錯
加入自媒體

算法極權背后,利益市場為王

2021-12-02 09:33
陳述根本
關注

文/陳根

2021年的今天,算法正以越來越激進的方式影響著我們的生活。

隨著移動互聯網的廣泛普及與智能手機功能的深度開發,以人工編輯為核心的傳統分發模式逐漸衰落,以算法為核心的智能分發模式興盛崛起!八惴ㄐ汀狈职l模式的出現和普遍應用,意味著人類開始運用人工智能大規模地解決信息分發問題,人類社會信息分發也從“人找信息”轉向“信息找人”。

但主體的讓渡也導致了越來越多問題的出現。要知道,“算法型”信息分發更多地建立在對于人們的直接興趣和“無意注意”的信息需求的挖掘上,它帶來的直接后果是:忽略人們必需的那些非直接興趣和需要“有意注意”的信息,導致“信息繭房”、算法偏見、假新聞泛濫等問題的出現。

更重要的是,算法并非是單純中立的。受到商業偏好的影響,在價值和利益的天平上,所謂的算法更容易成為利益的砝碼。當我們今天接收的信息都是基于算法,甚至信息的產生也是基于算法所得出的結論,我們看似民主、自由的社會與思想,其實在根本上已經被算法“專制”所統治。當“算法為王”的價值觀念已成為平臺的增長極之時,對算法的導向糾偏也迫在眉睫。

陳根:算法極權背后,利益市場為王

被算法控制的信息世界

算法以大數據為基礎,經由智能媒體對信息進行傳播,算法傳播顛覆了傳統的傳播規則和傳播邊界,使得服務用戶成為傳播的根本動因。在注意力經濟的驅使下,它逐漸成為受商業利益和政治目的驅動的自動化過程。

基于算法的傳播呈現出可計算的特質,后臺將每個用戶內容消費的行為數據,比如用戶瀏覽時長、轉發、評論等,個體屬性數據以及社交關系數據進行大數據的統計和分析,進而挖掘用戶的愛好習慣和社交興趣網絡,最終生成精準的用戶畫像,像用戶推送最具個性化需求的信息。

算法推薦讓編輯篩選模式下的“人找信息”變為 “信息找人”,用戶成為了算法架構或程序編碼的價值落點。資訊分發的價值判斷機制則從由編輯判斷轉變為由機器來決定,由此把信息內容的推送交給了“算法把關”。

算法推薦的優勢顯而易見。一方面,算法推薦在互聯網時代高效對接了受眾需求和信息。算法通過對社交推薦機制進行二次過濾,優化推薦結果,從而提升了互聯網內容推送的精準度。例如,各類平臺都可以根據用戶的社交行為、地理位置、職業、年齡等推斷出用戶的興趣點,并判斷這些興趣的重要程度或者先后順序進行推送,從而實現個性化信息推送。

另一方面,個性化推送下,通過對數據的挖掘,原來被忽視的大量長尾信息得以被挖掘。這些非主流、個性化的產品需求,經過散落在社會各個角落中的用戶的積累,能夠更好地適配不同的長尾信息。這使得信息價值不再有統一的標準,不再有重要性的絕對的高低之分。

算法讓信息和人能夠精準和高效地匹配,這也成為互聯網信息流動的核心邏輯。甚至可以說,機器算法在一定程度上決定著信息的意義、信息的流向以及受眾對信息感知的方式。雖然算法掀起了傳播領域的一場革命,但隨著算法日漸接管了人們的信息來源,算法背后存在的隱患也逐漸凸顯。

比如,算法通過精確的個性化描述打造了個性化的社區,形成了新的人際交往形式——“圈群文化”。隨著圈子的粘性增強,圈子不可避免地會出現排他性。因此,社交媒體在運營的后期往往會出現“文化邊界”。于是,人們在自己選擇的圈子里活動,久而久之終于形成了“信息繭房”。

很大程度上,這是一種“自我”設限——用戶就像蠶一樣被自己吐的絲禁錮在自己制造的“信息繭房”里。長期生活在“信息繭房”之中,無疑會令用戶越來越沉溺于自己的回音,在信息繭房中越陷越深!皵祿钡娜藢φ麄社會的理解與全局批判的能力,甚至會造成群體“極化”現象。

再比如,算法在描繪社會現實的同時也體現出現實中的偏見,算法依賴于大數據。顯然,大數據并非中立。于是,它們可能有利于白人男性,而不利于女性、老年人、單親父母、有色人種、非英語居民等。

事實證明,新生的人工智能推特機器人可以在幾個小時內成為白人至上主義者,自動生成的標簽將非裔美國人的照片標記為大猩猩。在亞馬遜公司開發的一款用于篩選簡歷的算法中,也曾意外“培養”出歧視女性應聘者的偏好。顯然,算法從受相同偏見影響的內容中學習到更多偏見,這些認知偏見經網上廣泛傳播后導致更為廣泛的社會沖突。

當然,不論是信息繭房,還是技術偏見,都是我們能看到的最直接的算法帶來的社會問題。除此之外,更重要的是受到商業偏好的影響,控制著算法的利益市場,使得算法日益淪為利益的砝碼,造成幾千年來人類社會所追求與構建的民主、自由的社會受到挑戰和損傷。

陳根:算法極權背后,利益市場為王

算法背后的利益市場

當前,隨著算法在信息的管理與分發領域占據了支配地位,并逐漸在把關機制中代替了傳統媒體把關人的角色,開始發揮主導作用。

然而,算法由各個互聯網平臺組織設計,我們將信息的把關交給算法時,也就意味著交給了算法背后的利益市場。在完全自由的信息市場中,算法作為一種壟斷性技術,通過技術的方式,實現對信息產品生產和消費的控制。

傳統媒體時代,人們能夠主動選擇信息;而在算法時代里,信息的選擇則由算法進行分配,將所有信息“對號入座”,根據用戶需求的數據決定把關的強弱,即用戶需求越多,就給予越多的信息資源。這種把關機制的運行導致信息成為一味迎合用戶市場的純粹的消費品,失去其本身的價值意義。

事實上,在互聯網剛出現之時,人們也曾憧憬過:網絡空間代替城市空間接管公共領域,創造前所未有的理想公共領域的可能。所謂公共領域,用德國著名哲學家哈貝馬斯的話說,就是指“政治權力之外,作為民主政治基本條件的公民自由討論公共事務、參與政治的活動空間”。

畢竟那個時候,人們所看到的,都是算法運用的無可比擬的優勢——立足于大數據之上,算法通過對海量數據樣本的全盤分析可能得以窺探事物的全貌,避免人類因有限的觀察體驗而產生的局限性,可以更為準確地反映客觀世界,并盡力排除人的主觀因素的影響,由此作出更為科學的判斷。

人們渴望通過公共領域,得以展現自我,用社會的規則知識填補先驗知識的缺陷,并與他人建立現實的聯系。然而,雖然互聯網極大地促進了公共討論的發展,看似具備公共領域的基本特征,但顯然這只是表象——它不是公共領域,政治權力與大企業完全有能力迫使互聯網按照自己的意愿發展。

所謂的算法權力,正是指其背后潛藏著的控制算法設計和研發過程的資本的權力,技術權力只是表征而已。資本驅動下的算法權力倘若缺少必要的規制,勢必傾向于將利益置于人的價值的之上。早在2015年,Facebook就因其人工智能推薦內容存在政治偏見,飽受用戶對的指責。

2018年3月,Facebook更是爆發了轟動全球的“Facebook數據門”事件,8700萬Facebook用戶的個人數據被出賣給一家叫做“劍橋分析”的公司。這家公司操縱這些數據,最終成功地通過選舉程序,使得英國脫歐、特朗普上臺。從本質上看,正是Facebook為了自己的利益而不正當使用了算法。

更值得注意的是,算法決策在公權力領域的運用還表明,算法權力嵌入了傳統公權力的運行,這可能使技術和權力產生合謀而存在權力濫用的風險。并且,算法權力可能會使既有的權力制約機制在一定程度上失靈。

在公共權力的長期運作過程中,算法的“技術合理性”又使其蒙上了可以巧妙避開民主監督的面紗。算法對公權力領域的介入挑戰了傳統的權力專屬原則和正當程序原則,難以對其實施有效的權力控制,而失范的權力最終必將導致個體權利的減損。

算法的背后是誰?算法到底代表著誰的思想與目的?可能是控制新聞輿論的政黨,可能是控制著互聯網平臺的決策者,也可能是構建算法的工程師在構建過程中加入了自己想實現的一種“統治”思想。

因此,當前我們人類所面臨的挑戰,尤其是在人工智能時代,在算法統治的時代,我們的信息或許越來越便利的同時,我們人類幾千年所在追尋的民主、獨立、左右將會在算法“統治”下,而這種“統治”的背后,則是控制算法的利益市場。

陳根:算法極權背后,利益市場為王

算法的統治

專制主義是一種平等的結構,除了統治者,其他人都是平等的,因為他們沒有實質的政治權力。統治者的權力不受法律的制約——中國古代的封建王朝,太陽王路易十四治下的法國波旁王朝,是典型的專制主義政體——盡管律令具有一定的權威性,但皇權掌握著最高司法解釋權與裁判權。

極權主義相反,雖然蔑視成文法,但它比任何政府形式都更服從法律的力量。與常識不同,它沒有使權力從屬于某個人的利益,而是隨時準備犧牲每一個人的利益,來執行它認定的歷史法則和自然法則。阿倫特把極權主義的本質概括為反文明的、反制度的、反功利的與反責任的,而這些特點,正在算法時代里上演。

極權主義是反文明的。極權主義的野蠻行徑,體現在其運用恐怖進行統治的方面?植啦皇呛唵蔚谋┝,不完全依賴于低效的肉體消滅,它是一種肉體與精神層面的全面摧毀和控制。通過恐怖,宣告個人因為不符合歷史需要被剔除;通過恐怖,使人整齊劃一,失去個性與獨立性。

極權主義是反制度的,它是一種“為擴張而擴張”運動。極權主義的興起與民族國家的衰落是同一過程,為了使運動進行下去,需要模糊國家疆域的邊界,樹立一批又一批敵人,將聚焦于內部的矛盾轉移到外部。

極權主義是反功利的,它用意識形態代替功利計算。這種意識形態聲稱能夠解釋一切,提供一整套關于自然與歷史的邏輯,從而建立統治的合法性。

極權主義還是反責任的,它是一種宿命論。這種宿命論以理性主義為基石,聲稱發現了自然與歷史規律,以“民族復興”等現代神話取代傳統宗教,用歷史進步的目的代替個人的道德觀念。

阿倫特對極權主義的思考,不只是為了挖掘出構成極權主義意識形態與政治制度的因素,更是要提出重建現代性的可能方案。她的第一本著作《極權主義的起源》,正是以政治哲學這個視角審視極權主義興起過程的:現代反猶主義表現了公共領域的變質,西歐民族國家的帝國主義政策使公共領域瓦解,納粹德國和斯大林時期蘇聯的極權主義政治意味著了公共領域的最終崩潰。

今天由算法支配的市場,呈現出來的正是這樣的邏輯。雖然極權主義作為一種政體已經終結,但是公共領域被破壞的陰影猶在——資本的商品交換邏輯滲透到了公共領域,大眾傳媒的商業化制造了虛假的公共性,審美的庸俗化和娛樂化則消解了社會的批判意識。

消費、技術與知識崇拜席卷一切,一方面,我們越來越重視商品的符號性,通過消費獲得身份認同;另一方面,我們把技術、知識這種間接經驗看作認識世界、了解世界的主要方式。

我們認可的價值與觀念越來越多地來自算法的信息分發而非自我實踐,我們也越來越多地放棄了自發的、具有想象力的,能夠體現人類尊嚴和自由的行動,取而代之的是被設計好的、批量生產的、可預期與控制的行為,包括人生價值和意義。

當前,算法的興起和異化顯然已經折射出技術存在的風險與非理性,而目前規制算法的具體法律規則付之闕如,放任算法的發展很可能將人類社會導向令人惴惴不安的境地。好在雖然算法有著人類無法想象的計算能力和速度,但這并不意味著算法超出人類的理解范疇,更不意味著人類對此沒有充分的規制能力。

柏拉圖提出過一個著名的“洞穴隱喻”:洞穴中的囚徒們頭只能看見火光投射到洞壁上的陰影,因而將洞壁上的陰影當作現實本身。當其中一個囚徒被解除了桎梏,走到太陽下,他會因為光線的強烈刺激感受到劇烈的痛苦,但他終究能夠看到太陽本身。正是人的獨特的價值指引著人們去追尋真善美的生活,人類文明才能夠雋永地存在和發展。

聲明: 本文由入駐維科號的作者撰寫,觀點僅代表作者本人,不代表OFweek立場。如有侵權或其他問題,請聯系舉報。

發表評論

0條評論,0人參與

請輸入評論內容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續

暫無評論

暫無評論

人工智能 獵頭職位 更多
文章糾錯
x
*文字標題:
*糾錯內容:
聯系郵箱:
*驗 證 碼:

粵公網安備 44030502002758號

漂亮少妇被修空调侵犯在线