演算法的一百道陰影:從Facebook到Google,假新聞與過濾泡泡,完整說明解析、影響、形塑我們的演算法 (電子書)

演算法的一百道陰影:從Facebook到Google,假新聞與過濾泡泡,完整說明解析、影響、形塑我們的演算法 (電子書) pdf epub mobi txt 电子书 下载 2025

桑普特
图书标签:
  • 演算法
  • 假新聞
  • 過濾泡泡
  • 社交媒體
  • 資訊操弄
  • 科技倫理
  • 網路安全
  • 數據分析
  • Facebook
  • Google
想要找书就要到 小特书站
立刻按 ctrl+D收藏本页
你会得到大惊喜!!

具体描述

應用數學權威理性解析演算法與社會,讓我們對演算法不再害怕的第一本書

資訊社會學專家曹家榮(世新大學社會心理學系助理教授)專文導讀

 

從選餐廳到選總統,演算法正全面影響我們的生活?

Facebook和劍橋分析公司分享用戶個資,讓演算法操弄人心?

Google的搜尋演算法暗藏性別與種族歧視?

 

讓應用數學權威帶我們一一解答以上的問題。

 

  我們對科技與網路的仰賴有如開了一扇窗,讓數學家和資料研究者得以窺探我們的生活。他們不斷蒐集資料,了解我們去哪裡旅行、上哪裡購物、買些什麼、對什麼感興趣,進而預測我們的生活習慣。有些人甚至宣稱,這些資料就足以操弄人心、改變國家輿論。但這些資料到底多可靠?唯有了解數學做得到和做不到什麼,才能明白演算法正如何改變我們的生活。

 

演算法到底能多了解我們?

2018年Facebook爆出與劍橋分析公司分享用戶個資的事件。劍橋分析公司宣稱,他們能從資料中分析出個人的政治傾向,以針對這些人投放量身打造的競選宣傳。然而這些劍橋分析公司取得的資料,真的能讓他們做成一個完整的「人格分析」演算法嗎?另外,Google引以為傲的搜尋演算規則,是否會擴大我們的偏見,讓我們「學會」歧視?

 

了解演算法,不必再對科技擔心受怕

  演算法和操弄人心的恐慌正在蔓延,而本書作者帶領我們遍觀各種演算法,看見數學不為人知的一面。藉由訪問走在演算法研究最前端的科學家並自己做數學實驗分析佐證,作者除了解釋數學與統計如何運用於現實生活,也說明了現今社群演算法的能力與極限,讓我們更了解現今的網路服務是如何影響我們。

重量推薦
王宏恩/內華達大學拉斯維加斯分校政治系助理教授

何飛鵬/城邦出版集團首席執行長

陳穎青/《老貓學出版》作者

黃貞祥/清華大學生命科學系助理教授

好的,这是一份关于《演算法的另一面:數位時代的權力、透明度與人權》的图书简介,该书探讨了在信息技术飞速发展、算法日益渗透到社会各个角落的今天,算法的运作机制、其对社会结构的影响,以及我们应如何应对其带来的挑战。 --- 《演算法的另一面:數位時代的權力、透明度與人權》 深入剖析塑造你我世界的無形力量 在二十一世紀,演算法已不再是僅僅存在於計算機科學實驗室中的抽象概念。它們是我們日常生活的基礎架構——從我們接收到的新聞,到我們獲得的貸款批准,乃至於司法判決的依據,都日益依賴複雜的自動化決策系統。然而,這些強大的工具是如何被設計、訓練和部署的?它們如何體現和固化了人類社會既有的偏見?當決策權逐漸轉移到這些「黑箱」系統手中時,我們作為公民的權利和自由又將面臨哪些全新的考驗? 本書旨在揭開當前主流演算法系統的運作邏輯、倫理困境與社會衝擊,提供一個全面且批判性的視角,探討技術發展與人文關懷之間的張力。我們不側重於探討特定科技巨頭的商業策略,而是聚焦於演算法設計的核心原理、潛在的系統性風險以及全球監管的迫切需求。 第一部:演算法的基礎與進化——從模型到現實的橋樑 本部分將追溯現代機器學習與人工智慧模型的演化歷程,但重點不在於介紹最新的深度學習架構,而在於闡釋支撐這些架構的基本數學與統計學原理,以及這些原理在現實世界中如何被轉化為決策工具。 模型的本質與限制: 我們將探討決策樹、線性模型到神經網路的發展軌跡,強調任何模型都是對現實世界的簡化與近似。理解模型的「局限性」比讚揚其「準確性」更為重要。當模型在訓練數據上表現出色時,它是否真的理解了它所模擬的現象? 數據的「毒性」與偏見的輸入: 數據是演算法的血液,但血液往往帶有宿主(社會)的病徵。本章將深入分析,當訓練數據帶有歷史性的種族、性別或經濟不平等時,演算法如何系統性地將這些偏見編碼進其決策規則中,從而導致「自動化的歧視」。 優化目標的陷阱: 演算法總是為了解決一個被定義的「目標函數」而存在。本書將探討如何設定這些目標函數——例如,最大化點擊率、最小化風險評級——以及當這些目標與更廣泛的社會價值(如公平、正義)發生衝突時,技術人員在多大程度上意識到他們的數學選擇所帶來的社會後果。 第二部:社會結構的重塑——權力、監管與問責制 演算法不僅反映了社會,它更在主動地重塑社會互動和權力分配。本部分將聚焦於演算法決策在關鍵社會領域的實際應用,並探討現有法律與倫理框架如何難以跟上技術的腳步。 勞動力市場的「智慧」管理: 從零工經濟的派遣系統到白領階層的績效評估,演算法正在以前所未有的精度監控和管理人類勞動。我們將分析這些系統如何使勞工處於持續的、隱形的壓力之下,並探討在這種超效率驅動的環境中,工人如何保有協商的空間和尊嚴。 金融普惠性與信用評分: 探討演算法在信貸審批、保險定價中的角色。當傳統的信用體系被「替代性數據」(如社交媒體活動、網購習慣)所驅動時,那些在數位世界中較不活躍或擁有「異常」數據模式的群體,是否正被排斥在主流經濟體系之外?這引發了數位公民權的討論。 透明度與可解釋性的法律困境(XAI): 隨著系統變得越來越複雜(例如深度學習的「黑箱」特性),要求系統解釋其決策的權利變得至關重要。本書將梳理「解釋權」在不同司法管轄區的發展,並探討在追求模型效能與提供清晰、可理解的解釋之間,應如何取得平衡。真正的透明度是否意味著公開原始碼,還是只需提供決策的路徑追溯? 第三部:公共領域的保護與未來治理的展望 技術的發展是不可逆的,但技術的應用方向卻是可塑的。本書的最後一部分將轉向規範與人文干預,探討技術社群、政策制定者和公民社會可以採取哪些具體行動,以確保演算法服務於公共利益,而非僅僅是少數既得利益者的工具。 倫理審查與系統驗證: 探討建立獨立的演算法倫理委員會和強制性的影響評估(AIA)的必要性。這類審查應超越傳統的技術測試,納入社會學、心理學和法律專家的多維視角。 數據主權與數位權利法案的構建: 討論如何重塑個體對自身數據的控制權,以及如何從根本上設計「隱私優先」(Privacy by Design)和「公平優先」(Fairness by Design)的系統架構。這不僅關乎數據的採集,更關乎數據在模型生命週期中的去識別化、保留與銷毀的規範。 培養數位素養與批判性思維: 最終的防線在於公民自身。本書呼籲教育體系應將演算法的批判性解讀能力納入核心課程。認識到每一項服務的背後都有權衡取捨,了解潛在的風險,是我們在數位時代行使主權的基礎。 《演算法的另一面》不是一本反技術的宣言,而是對技術潛能與風險的清醒審視。它旨在啟發工程師、政策制定者、法學專業人士以及關心社會公正的每一位讀者,共同參與到這場定義未來社會治理模式的關鍵對話中。我們必須學會在享受技術帶來便利的同時,堅守人類社會的價值底線。

著者信息

作者簡介

桑普特David Sumpter
  現任瑞典烏普薩拉大學應用數學系教授。於英國倫敦出生,蘇格蘭長大,在曼徹斯特大學取得數學博士學位,曾於牛津大學擔任皇家學院訪問學者,後至瑞典任教,研究領域包括魚群及蟻群的運作機制、足球隊的傳球路線分析、社會隔離、機器學習及人工智慧等等。
  除了為《經濟學人》、《電訊報》、《當代生物學》期刊、《今日數學》等雜誌撰寫文章,桑普特也獲得數學暨數學應用學院(IMA)的凱薩琳.理查茲獎,獎勵他向大眾推廣數學的貢獻。Soccermatics是他的第一本書。

譯者簡介

賴盈滿
  英國倫敦政經學院科學史及科學哲學碩士,吳大猷科普翻譯金籤獎、銀籤獎得主,譯有《資訊》、《十種物質改變世界》、《改變人類醫療史的海拉》等書。

图书目录

第一部:分析我們
 第一章:尋找班克斯(Banksy)
 第二章:來點噪音
 第三章:友誼的成分
 第四章:一百個維度的你
 第五章:劍橋牛皮公司
 第六章:不可能的無偏見
 第七章:資料煉金師
第二部:影響我們
 第八章:席佛和芸芸眾生
 第九章:我們「也喜歡」網路
 第十章:人氣競賽
 第十一章:泡影世界
 第十二章:足球很重要
 第十三章:誰看假新聞?
第三部:成為我們
 第十四章:學會性別歧視
 第十五章:小數間的唯一想法
 第十六章:玩《太空侵略者》電爆你
 第十七章:細菌腦
 第十八章:回到現實

图书序言

  • ISBN:9789862624128
  • 規格:普通級
  • 出版地:台灣
  • 適讀年齡:0歲~99歲
  • 檔案格式:EPUB流動版型
  • 建議閱讀裝置:手機、平板
  • TTS語音朗讀功能:無
  • 檔案大小:4.0MB

图书试读

唯有理解才能開啟自由的關係 

曹家榮/世新大學社會心理學系助理教授

         加拿大傳播學者,同時也是媒介理論宗師的麥克魯漢曾說過,在判斷各種科技帶來的轉變與影響之前,我們需要先就其本身進行理解。唯有如此,我們才可能避免如白日夢遊般,被科技炫目的表象所惑。在面對今天經常被稱為「黑箱」的演算法時,這半世紀前的箴言仍十分受用。

        本書的作者大衛.桑普特可以說正是在類似的動機下,企圖帶領讀者更清楚地理解究竟演算法做了什麼?在桑普特看來,老是要把演算法想成「黑箱」,或是比做生人勿近的武器,也許能提醒我們小心演算法的危害,但卻無法讓我們「理解」得更多。但唯有透過理解演算法,我們才可能避免成為演算法的俘虜。中譯本將本書中的Outnumbered譯為「數俘」,讀來因此也深具意味。

      本書由三個部分組成,第一個部分討論演算法如何分析我們,第二個部分討論演算法如何影響我們,最後第三個部分則問,以演算法為基礎的AI是否將成為我們?三個部分分別探討了這幾年相當重要的幾個議題:劍橋分析事件、Facebook的情緒實驗、為什麼川普會跌破眾人眼鏡當選、Facebook是造就同溫層現象的罪魁禍首嗎、AI有性別歧視嗎、AI是否將成為人?正閱讀著本文的你,也許會問:「這很多人談過了不是?」不,這本書也許跟你想的不一樣。我誠摯地建議你,跟我一起看下去。

 

演算法真的懂我嗎?

 

        你大概曾經跟我有相似的經驗,上一秒正在跟朋友聊著假期該去哪裡玩,下一秒打開Facebook就發現相關旅遊去處的廣告。這時候我們通常會有兩種反應,一種是開心地想「哇!Facebook真懂我!」,另一種則是「哇!Facebook是不是在偷聽我說話!」。前者大概可以說是一種天真的樂觀主義者,後者則很像是某種科技恐懼的症狀。但Facebook到底是真的懂我,還是偷偷竊聽我的壞蛋呢?桑普特指出,其實都不是。

        Facebook到底做了什麼?回到對於Facebook推薦廣告演算法的剖析,桑普特說明了這背後其實就是以所謂「主成分分析」方法運算出的結果。也就是說,Facebook的演算法透過收集使用者所有的「按讚」之後,便可以建構出用以描繪使用者的數百個不同的維度,藉此來「了解」使用者。

        這聽起來是不是相當神奇,所以Facebook真的懂我嗎?這個問題很重要,特別是如果你聽過「劍橋分析」這家公司的話。2018年3月,一家名為「劍橋分析」的數據分析公司因不當取得大量Facebook用戶資料而登上新聞版面。但在此之前,這家公司可是因為宣稱川普的勝選都歸功於他們而聲名大噪。在2016年的一場會議演講上,劍橋分析公司的執行長亞歷山大.尼克斯說,他們有辦法能夠「預測美國每一位成年人的人格」,進而針對不同人格特質的人投放不同的競選廣告。亞歷山大.尼克斯暗示,這就是川普勝選的秘密武器。

        但是,Facebook的演算法真的懂它的使用者,甚至還可以預測其人格特質嗎?藉由拆解劍橋分析公司的演算法,桑普特給出了否定的答案。其中討論的細節我想留給各位去閱讀,但我確實挺同意作者有點揶揄地將劍橋分析改名為「劍橋牛皮」(Cambridge Hyperbolytica)公司。如果稍微「劇透」一點的話,關鍵大概就在於:我們多大程度能將有某程度機率上的相關,看作是可預測的因果關係?

        演算法是否真的能用來分析、弄懂一個人,還涉及另一個重要的議題,也就是:它是否能公平地評斷每一個人——特別是在一些攸關個人生存與生活處境的問題上?桑普特在此探討的案例,也是過去批評演算法的許多書裡曾討論過的,犯罪風險評估模型。但有別於僅是批評透過演算法來評估犯罪風險會有所偏誤,他更進一步說明了,其實關鍵在於,當我們要用演算法評估生存處境、條件、背景總是有差異的人群時,偏誤是不可能消除的。換言之,我們不應抱持的是,「演算法必然公平」這種幻想。甚至,也許該反過來思考,如果演算法能夠更精準地判斷某一弱勢群體的風險狀態,即便犧牲一點對優勢群體判斷的準確性,這是否會是一種值得嘗試的作法?

 

Facebook能操弄我?

 

        劍橋公司是吹牛皮的,但Google、Amazon、Facebook這類平台可以透過演算法來影響、甚至操弄我們,總是真的了吧?近幾年,從川普勝選、英國脫歐等重大事件,甚至台灣社會過去經歷的幾次大選、公投,我們都看到了網路的過濾氣泡與同溫層效應如何導致嚴重的後果。然而,桑普特依然不輕率地如此認為,一切還得待我們理解其中的演算法後再下評判。

        例如,大概很多人都曾聽過那惡名昭彰的「Facebook情緒實驗」。不少人可能還可以說上兩句:Facebook的資料科學家違反研究倫理,在未經用戶同意下進行動態消息的訊息操弄,進而影響了使用者。若先擱置研究倫理的問題,桑普特指出,當我們實際去看這篇論文便會發現,其實這個實驗結果顯示的是:操弄動態消息對用戶的情緒「幾乎沒有影響」。換言之,這又是另一個吹牛皮的實驗,這篇論文以〈經由社群網路進行大規模情緒感染的實驗證據〉這樣聳動的標題誤導了讀者。

        談到這裡,你心中可能會想,所以這傢伙是要說演算法根本沒那麼厲害?或甚至覺得,他根本是在想方設法替演算法「脫罪」吧。不,雖然我也不見得全然同意作者的觀點,但回到作者撰寫本書的初衷,我相信重點是,如何透過理解演算法進而讓自己免於成為「數字的俘虜」。這裡所謂數字的俘虜,其實更廣義地說便是,不加反思地接受了演算法或隱或顯地餵給我們的資訊。

        譬如說,大概比較「無關痛癢」的像是,你在網路書店上買了本書,然後就看到網頁下方顯示「其他買了這本書的人也買了……」,於是你又買了更多的書。我必須承認,對我而言有時這確實挺方便的。我想要找某個主題的書,與其大海撈針地從搜尋結果裡一本一本看,這種「推薦」可以讓我很快地知道其他人也買了哪些同一主題的書。桑普特把產生這類效果的演算法稱為「也喜歡」。他在書中建構了一套簡化版本的「也喜歡」演算法模型,並藉此說明這類演算法的問題。問題在於,我以為其他人也跟我一樣仔細檢視後才買下某一主題的幾本「好書」,但實際上,「也喜歡」演算法的運算基礎根本不是「作品好壞」。更常見的情況反而是,某些書在一開始或隨機或因某些行銷手法被購買了,它就越可能成為被推薦的書籍,進而形成一種失控的回饋。於是,若我不檢視便購買了那些書,就等於讓自己成了桑普特所說的,掉進了演算法的「數俘」之中。

        買錯書頂多是浪費錢,但如果接收到「錯誤資訊」呢?桑普特在書中也討論了近年來演算法操弄導致的「過濾泡泡」現象。今天,我們多半會認為Facebook這類社群媒體的演算法會導致過濾泡泡,進而形成今日人們憂心的同溫層現象。但情況真的有如此嚴重嗎?桑普特一方面透過自己建構模型,另一方面也訪談了許多相關問題的研究者,得出的結論大略是這樣的:首先,Facebook的演算法從簡化的模型來看,確實會形成過濾泡泡。但由於真實世界中使用者的「好友」實際上歧異性更大,因此過濾效應雖存在但並無想像中的嚴重。最後,也是我認為桑普特的討論中最重要的一點是,如果你讓自己的生活完全「鎖」在社群媒體的泡泡中,而不再從傳統或其他媒體接收資訊,那麼,你就真的越可能被演算法的過濾泡泡所「數俘」。

 

AI將要成為人?

 

        在本書的最後一部分,問題也來到了近年來眾人矚目的焦點:以演算法為基礎的「人工智慧」(AI)是否將要成為人,甚或取代人?你現在大概猜得到桑普特的答案應該是否定的。他甚至主張,現今人工智慧的發展程度若與各種生物相比,大概只能說接近「肚子裡的壞菌」的層次而已。且不論這種比較是否令人信服,重點是,為什麼?AI到底現在能做什麼、又做不到什麼?

        桑普特的討論中有幾個對我而言特別有意義的例子。像是,AI到底會不會有「性別歧視」這個問題。一方面,去年你可能跟我一樣也注意到一個新聞,微軟開發了一個聊天機器人,結果它竟然十足是個性別歧視者與種族主義者。另一方面,也有太多研究指出,像是Google搜尋有性別歧視、Amazon透過AI檢視應徵者履歷時也有性別歧視。這到底是怎麼回事?按理來說,演算法不就「只是」數學運算嗎?為什麼會「像人一樣」不斷引發這類爭議?

        桑普特的解釋簡單來說是這樣:與性別歧視相似的問題背後涉及了自然語言處理的演算法。他以史丹佛自然語言處理團隊開發的GloVe演算法為例說明運作過程。GloVe在處理資料時,會將每個語詞置放在數百個維度空間的一個點上,藉此,每個語詞之間就會形成不同遠近距離的相對關係。換言之,我們要注意到,演算法不是真的「懂」語言,而只是在測量位於多維度空間中不同位置上的詞語之間的距離而已。

        在訪談英國巴斯大學資訊科學家裘安娜時,桑普特總結的一句話我認為最具啟發性,他說:「演算法只是將我們的文化如何使用語詞量化而已」。這句話的意思是:有性別、種族以及各種歧視問題的,其實是我們人類自身。因為這類自然語言處理的演算法,往往是透過所謂「非監督式學習」來進行訓練。也就是說,演算法在學習的過程中,不會有人去確認它學了些什麼並給予回饋。因此,只要我們的文化無法去除各種歧視,那麼演算法永遠都只能透過內嵌著歧視的文本資料進行學習,然後再複製整個歧視的結構。

        這種只能「學習」資料內嵌的文化模式、價值與知識的演算法,恐怕很難說是「有智慧」的。桑普特接著也以文本創作、打電動為例繼續說明:演算法也許真的能展現出令人驚豔的能力,像是可以「寫小說」、可以打敗世界棋王等等,但是要說演算法已經「像人」一樣會做這些事,恐怕還言之過早。一個關鍵的問題在於,桑普特主張,不管是由上而下設計的演算法,還是由下而上設計的演算法,只要演算法還無法像一般動物那樣,將自身已有的知識外推到其他現象上,那麼AI要成為人就還有一大段路要走。

        最後,要說我最認同桑普特這本書的一個觀點是什麼,那絕對是他引述英國萊斯特德蒙福特大學教授凱薩琳的這句話:「真正的威脅不在於電腦智能大幅提升,而是我們使用現有的工具只造福少數人,而非改善多數人的生活,只想著為超級富豪提供管家,而非解決廣大人民的問題」。作為社會學家,我深信演算法與AI不僅僅是科技議題,更是影響了我們生存與生活處境的社會議題。

用户评价

评分

坦白說,現在科技業的發展速度快到我們根本來不及反應,演算法早就滲透到生活的毛細血管裡,決定你買什麼、看什麼、甚至跟誰交朋友。這本書如果能把這種「形塑」的過程,用一種更具體、更有畫面感的方式呈現出來,我會非常欣賞。我常常在想,那些推薦給我的東西,真的是我「需要」的,還是只是系統為了讓我停留更久而設計的誘餌?這種被設計的感覺,說真的,有點像在逛一個被精心布置的展覽,每個轉角都有讓你駐足的理由,但你永遠不知道終點在哪裡,也不知道是不是真的走到了你想去的地方。特別是針對台灣這樣一個網路使用率極高的社會,我們的政治光譜、消費習慣,都在這些看不見的代碼下被微調。我希望這本書不只是批判,更重要的是能給出一些方向,讓我們知道如何跳出這個被框限的視窗,找回一點點選擇的自主權,不然我們真的就成了數據的奴隸了。

评分

說真的,當初看到「從Facebook到Google」這幾個關鍵字時,我就知道這本書鎖定的目標群體非常明確——就是那些每天把時間花在這些平台上,卻對其運作機制一知半解的廣大用戶。這本電子書的格式或許也暗示了它希望能快速、廣泛地傳播給更多年輕讀者。我個人很在意的是「完整說明解析」這部分,因為「過濾泡泡」聽起來很玄,但它對日常決策的影響卻是實實在在的。舉例來說,當你一直被推薦相似的產品或意見時,你的視野就會逐漸縮窄,這對創造力、批判性思維的養成都是一種潛移默化的傷害。我希望作者能把這種「慢性的、無痛的」影響,描繪得淋漓盡致,讓讀者意識到,我們並不是在自由瀏覽,而是在一個被優化過的迷宮裡移動。如果能深入探討這些平台如何利用心理學,設計出「令人上癮」的介面,那就更棒了,畢竟,破解成癮的關鍵,往往就是了解成癮的機制。

评分

哎哟,這本《演算法的一百道陰影》光聽書名就夠震撼了,光是想像那些在我們指尖滑動的訊息背後,有多少複雜的邏輯在運作,就讓人頭皮發麻。我最近滑臉書、看新聞的時候,越來越有感觸,好像世界被分成好幾塊,每個人看到的風景都不太一樣。想當初我們看報紙、看電視,大家接收到的資訊至少有個共同的基礎,但現在不同了,每個人都活在自己訂製的小世界裡,這種「過濾泡泡」效應真的很可怕。這本書如果能深入剖析,從Facebook到Google這些科技巨頭是怎麼編織出這些「影子」,那絕對是當代人必讀的工具書。我特別好奇它會怎麼解釋「假新聞」是如何利用演算法的漏洞擴散的,畢竟在資訊爆炸的時代,辨別真偽的成本越來越高,有時候你以為你在做功課,其實只是在重複強化你既有的偏見,這種自我滿足的陷阱,真是太讓人不安了。期待作者能把那些高深的數學模型,用我們這些凡夫俗子聽得懂的方式講出來,不然很多時候,我們對這些決定我們生活的系統,其實是一無所知的。

评分

我對這類探討科技與社會邊界的書籍一向抱持高度興趣,但很多時候,這類著作讀起來會讓人感到無力,彷彿面對一座無法撼動的鋼鐵巨塔。我比較期待的是,這本《演算法的一百道陰影》在解析完問題的嚴重性之後,能不能提供一些「反制」的思路。不是說要每個人都去學寫程式碼,而是從使用者、公民的角度,我們可以採取哪些務實的行動來抵抗這種隱形的操控?比如說,我們如何訓練自己的「演算法免疫力」?如何有意識地去追蹤那些推薦系統的「偏見」?畢竟,科技本身是中立的,但使用科技的意圖卻充滿了權力的角力。如果這本書能讓讀者在讀完後,不是單純感到恐懼,而是多了一份警覺和主動性的思考,那它就成功地完成了從「解析」到「賦權」的過渡,這對生活在數位時代的我們來說,是至關重要的。

评分

對於「演算法」這個詞,很多人可能只停留在「很複雜的數學」這個印象。但這本書的切入點顯然不只於此,它把重點放在了「陰影」和「影響」上,這就非常引人入勝了。這讓我想起以前的工業革命,機器取代了人力;現在的數位革命,似乎是在取代我們的「判斷力」。假新聞的氾濫,絕不是單純的道德問題,背後有著精準的流量計算和行為誘導。想想看,一個演算法的微小調整,可能導致整個社會對某個議題產生極端的看法,這已經不是技術問題,而是社會結構性的危機了。我希望這本書能多探討一些案例研究,而不是空泛的理論,比如某個特定選舉期間,社群媒體是如何被用來精準投放意識形態訊息的。如果作者能用生動的故事,把那些冷冰冰的數據背後的人性操控給揭露出來,那這本書的價值就不可估量了。

相关图书

本站所有内容均为互联网搜索引擎提供的公开搜索信息,本站不存储任何数据与内容,任何内容与数据均与本站无关,如有需要请联系相关搜索引擎包括但不限于百度google,bing,sogou

© 2025 ttbooks.qciss.net All Rights Reserved. 小特书站 版权所有