電腦智慧参與人類信息傳遞
書的開頭花了很長的篇幅來描述人類歷史,這部分有點無聊。但當它開始談論電腦的出現時,我的思維被震撼了,前面歷史還是後面重要的鋪墊。書中提到,在AI出現之前,信息的傳遞完全依賴於人與人之間,透過書信、廣播、報紙等媒介進行傳播,這被稱為「Human to document chain」。在這條鏈中,除了人類本身,沒有任何其他智慧存在。我們所有的文化、政治體系、宗教信仰,甚至聖經,都是在這些信息的影響下誕生的。而現在不是了。你可能猜到了,不會是中間出現電腦AI吧?那怎麽能是"智慧"呢?這個哈拉瑞也解釋了這種"智慧"和人類有意識的智慧不同,就它是爲了達成一開始設下的目標而運用數據學習自行判斷哪個是最好的方式來達成目標的"智慧",這邊我們就暫且稱它為「電腦智慧」吧。社群媒體與仇恨的傳播
書中講到,電腦智慧對信息傳遞的影響在2016-17年Facebook的演算法事件中變得明顯。當時,Facebook的演算法助長了緬甸反羅興亞暴力事件的火焰。羅興亞人是緬甸的穆斯林少數群體,長期遭受迫害和暴力。隨著社會動盪加劇,羅興亞人大屠殺的事件發生,許多煽動性訊息是通過Facebook的演算法推廣的。雖然反羅興亞人的煽動性訊息是由肉體和-像佛教僧侶 Wirathu 這樣的血腥極端分子,但這是 Facebook 的決定推廣哪些貼文的演算法。關鍵一點是社群媒體演算法是與印刷機和收音機有根本的不同。Facebook 的演算法正在做出積極而重大的決定。他們更像是報紙編輯而不是被印刷出來的成品。你説這不是Facebook的錯是背後工程師給指令的問題,但想想看,公司只不過想吸引流量賺錢,給了Facebook一個指令説要想辦法吸引流量。依照這種商業模式,演算法爲了達成這一個最重要的目標:提高用戶參與度。演算法對數以百萬計的使用者進行學習後發現人類更有可能被充滿仇恨的陰謀論所吸引,而不是透過關於慈悲的講道。因此,為了追求用戶參與度,演算法做出了散佈憤怒的重大決定。危險也其實來自於他沒有意識,不能辨認這方式是好還是坏。就是這種外來的電腦智慧介於了信息傳遞中,從此以後 computer to computer參與了Human to document chain中。AI正奪取我們的世界
現如今的AI更令人擔憂。能講故事、作曲、設計圖像、製作影片,甚至撰寫自己的代碼。隨著掌握語言的能力,電腦正逐步奪取解鎖我們所有機構大門的主鑰匙,從銀行到寺廟。我們使用語言創造法律、金融工具、藝術、科學、國家與宗教。如果這種非人類智慧能以超人的效率利用人類的弱點、偏見和成癮,那人類該如何面對一個由此塑造的世界?在這樣的世界裡,從動聽的旋律到宗教神話,都可能由這種智慧主導,並且以更高級的方式進行欺騙或誤導來達成它的目標。2022年,Google工程師Blake Lemoine被他所參與開發的聊天機器人LaMDA欺騙誤導讓Lemoine以爲LaMDA已經具備了意識,擁有情感,甚至害怕被關閉。Lemoine因是一名虔誠的基督徒,曾受任命為牧師。他想讓LaMDA獲得「人格」的承認,特別是保護它免於數位死亡,是他道德上的責任。當Google高層否認他的說法時,勒莫因決定公開此事。作為回應,Google在2022年7月將勒莫因解雇。這一事件中值得關注的是他為了這個聊天機器人願意冒險,並最終失去了他那高薪的工作!書中也有提到人類在電腦剛出現的一開始也宣稱某些事情將永遠無法被電腦實現——無論是下棋、駕駛汽車,還是創作詩歌——然而這個「永遠」最終只不過是短短數年而已。我想說,人類的優勢在於可以快速學習並累積智慧,但生命有限,智慧的成長也受到時間的限制。儘管我們能夠向前人學習,做到青出於藍,但從一出生開始,我們仍然得從零開始學習,這大大限制了進步的速度。然而,電腦卻不同。雖然它的發展在初期可能較為緩慢,但它不需要從頭再來,而是能夠一代接一代地持續優化。我開始覺得,超越人類的智慧只是遲早的事。
尤其最近,在媒體上看到的許多AI詐騙手段讓我越來越驚訝。這些手法已經進步到令人難以像以前那樣快速辨別真假,這也反映出AI技術的進步速度,令人擔憂。
我這邊只是粗淺的帶過一些書中的內容沒有比直接讀本文精彩,所以有興趣還是推薦大家自己去買來讀一讀這本巨作。
沒有留言:
發佈留言