2023年3月30日 星期四

辛翠玲/你也ChatGPT了嗎?

辛翠玲/你也ChatGPT了嗎?

2023-03-30 00:57 聯合報/ 辛翠玲

其實人們早已預期,AI人工智慧的時代終將來臨;過去這些年來,也有大量關於如何應對AI的討論,只是當這一刻真的靠近時,還是讓人在好奇中忐忑。如何駕馭AI、哪些工作會被機器人取代,成了這一陣子的熱門話題;學習使用人工智慧,勢所難免。

AI的進展的確可觀。二○一六年,谷歌的AlphaGo與中、韓兩國的頂尖圍棋高手進行史詩級對弈,兩位代表人類心智能力極致的棋手最後棄子稱臣的一幕,猶讓人印象深刻。即便AlphaGo本質上仍是台精密運算的計算機,沒有意識、不具思考能力,但已堪稱AI史上的重要里程碑。

二○二二年十一月,Open AI的ChatGPT問世之後,各大網路平台也紛紛推出各種生成式聊天機器人。尤其是運用GPT-4大型語言模型的AI,還具備初步擬人的認知能力,與想像中擁有如同人類感知力的通用人工智能(Artificial General Intelligence,AGI)更加接近,也預示著AGI的科技奇點可能已經不遠。那應如何看待、或與愈來愈強大的人工智慧共存呢?

相較於一般的搜尋引擎如google,主要是按照使用者輸入的各種關鍵字組合,在網路中撈出可能相關的資料,再由使用者自己篩選、自行閱讀、整理資料;目前ChatGPT或微軟必應(Bing)等生成式AI則是幫你服務到底,重點在於使用者如何與其溝通。這些生成式AI根據使用者給的要求條件,在茫茫網海中找出可能相關的資料之後,AI代為閱讀、整理,再將整理好的結果直接提供給使用者,彷如個人隨身秘書一般

這些AI工具使用門檻不高,使用介面友善,只要能提出問題,稍加練習操作,大多數人不難入手。這也提醒我們,可以看看身邊有數位落差的親友是否需要協助。如果你是資訊科技門外漢,不妨花點時間體驗一下AI工具。如果你正好是成長於數位化時代開始之前、當年沒太多機會熟悉電腦的銀髮族,也可以放心探索,或許會發現這些工具比想像中的可親實用。反之,如果你是數位原住民,信手拈來就可以掌握新工具,也不妨協助身邊有數位障礙的親友,讓他們也能銜接AI時代。

另一方面,當生成式AI普及化之後,如何更進一步運用,才不會產出與所有人一樣、千篇一律的結果呢?此與使用者能否跟機器人有較好的溝通有關。當使用者的問題意識、邏輯、創意、表達能力愈好,提供給AI的條件元素、情境設定、邏輯鋪陳、預期目的等指令愈仔細、敘述愈周延時,AI能生成的內容就愈豐富,更能接近期待的結果。換句話說,至少在現階段,從使用者的角度而言,人腦還是決定機器腦表現的關鍵。而要能夠深入發問、有效溝通,人腦仍需有足夠的知識量、內建知識系統。所以,基礎知識的累積、學習終究不可缺。奠基於此,加上思考、批判能力時,人機協作可以發揮得更好。

AI科技還在急速發展、推陳出新中,各種工具來得又快又猛,常常一覺醒來,世界就又被往陌生的方向推了一階。雖然非專業領域的人們不見得能懂、也未必需要不斷追趕新技術,但是當時代就硬是被翻頁時,認識、學習、駕馭這些工具仍有其必要。Open AI官網直言,目前人類處於從AI過渡到AGI的準備期,假如這個發展的確是這麼不可擋,那就讓我們幫自己做點準備吧!(作者為中山大學政治經濟學系教授)

AI變革 職場迎接挑戰
2023-03-30 00:52 聯合報/ 盧信昌/台大國際企業學系副教授(台北市)

人工智慧領域的明日之星、OpenAI執行長奧特曼,在二○一五年間和特斯拉創辦人馬斯克共同創立該公司;更曾立下了要「確保人工智慧能有益於全人類」的使命和願景。二○二一年間,他在網頁上承認:「每天在OpenAI的工作總提醒著我,AI所帶來的變革影響,遠比所有人想像都更快、更激烈地發生當中。」

然而,隨著晚近的應用想像,再加上得自於儲存能量與數位科技的屢屢突破,卻也讓網路犯罪與黑心商業模式的進展更快速;因此,對於AI將如何影響人類的共同未來,奧特曼認為各界都有必要謹慎應對,雖然不必然是悲觀看待。

根據OpenAI公司與耶魯大學的合作研究,估算ChatGPT和其他AI生成功能的軟體工具,可能嚴重衝擊到美國高薪白領工作,約計有二成;以及在這類職業別之內,過半以上的業務職掌。因此,從工作設計、組織型態、管理激勵和消費服務等的提供流程,都需做出必要配合與前瞻性的重整。

最可能被人工智能所挑戰的高薪職業,則有口譯、翻譯工作、文本、繪本的執行創作,包括作曲寫譜和編曲配樂等,以及旅遊規畫、報稅服務、行銷研究、財務分析,甚至是記者。事實上,人工智慧的生成報導,從股市交易和盤後分析,乃至賽事勝負和體育活動的常態介紹,這類的創作模式早已嘗試了八年之久。

至於技術性勞力為主的生產製造和其他個人服務業,潛在受影響的可能範圍則最小;但即使是傳統勞力類型,仍有一成的業務將因著ChatGPT生成應用,而讓工作性質與人際互動受到影響,甚至是被取代。

職是之故,各界如何提早因應,尤其能從政府與各部會職能的檢討開始,諸如導正青年學子的人生規畫與就業預期;同時,及早在社會結構與政務推行等的方方面面,讓人工智慧的協作量能與應用想像,有融入結合的介面設計,更有流程追蹤的積極介入與成效評估、查核檢查點。

唯有建立起跨世代的支持緩衝,才能讓一時的失業恐慌與長期消費信心之間,透過人生教訓與資訊傳遞之後的交互影響,依舊能產生良性帶動與向上循環,而不至於在技術競爭與人力替代之下,讓經營依賴的偏重與集體投資的轉向,徹底阻滯了社會參與跟追求進取機會的調整決心。

最終,如何規避政經紛擾的時程拖延,一如失落三十年的日本?否則,只會導致普遍的消費萎縮,從而發生經濟動能的失速與整體社會的滑坡。換言之,要讓必然受到衝擊的行業別與相關人員,有適當的預期且在事前的學習準備,從而在對焦和引導之後,繼續能以開放胸襟和生活重心的自主轉向,逐步、漸進且全方位的做好調適與人生志業的追求!

2023年3月29日 星期三

「AI 智慧製造與數位轉型」圓桌論壇與談

「AI 智慧製造與數位轉型」圓桌論壇與談

前天晚接到簡副校長訊息,知道他確診而不能實體參加研討會,並希望我在論壇中代替他與談;由於當初是我建議邀請簡副校長協助策劃本研討會議題的研討,自然是一口答應下來;後來看到建議的討論題綱,對一個從沒有在產業界工作也非資訊專家的人,有相當的難度,因為不能離題太遠,我選擇分享一下我在工程教育方面的經驗與想法。

對於我來說,在這論壇與談、要拜 ChatGPT 之賜,因為他提供了一個與AI 工具直接互動的機會,有人形容以往在生活上接觸,是坐在「自動駕駛」的工具中,由收所網絡獲取資訊,而ChatGPT讓你成為「共同駕駛」,讓你提問,而無所不答,當然正如張副校長在他的演講中提醒,要高效使用這項工具,必須具備基本的領域知識,能夠立刻察覺明顯的錯誤,同時有疑問也要查明出處再做判斷。

另一方面,新版的GPT-4 威力強大到可謂「教師勤快的助理,學生最佳學伴或不會不耐煩而能幹的助教」,所以一定會被廣泛使用,問題是如何用?

我舉一些最近的例子,我請它提供所研究主題的關鍵議題,它對答如流,提出十項算是相當完整的議題,如再追問某一議題,它也會給合理的答覆,再要求他提供有某一材料系統做成元件的最新資訊,所得結果是洋洋灑灑,如此下去,對一個研究生定研究大綱無疑是很有幫助;

在撰寫論文方面,如果將草稿輸入,他會協助寫出摘要,做出總結,另外建議標題,而在表達方面,可請他協助準備十頁的

AI變革 職場迎接挑戰

「AI 智慧製造與數位轉型」研討會閉幕致詞

 「AI 智慧製造與數位轉型」研討會閉幕致詞

非常感謝大家辛苦一天,全程參加今天的研討會。今天專題演講主講人來自學界的簡禎富與張禎元兩位副校長,都有豐富的產業經驗,而產業界的先進,則包括一般歸類為傳統產業的「東台精機公司」的嚴瑞雄董事長以及「宏遠興業公司」的曾一正數位長,在高科技產業:則有「友達數位科技公司」楊本豫董事長以及「台達電子公司」蔡清雄副總經理,在新創公司方面,則有「創鑫智慧公司」林永隆董事長與「耐能智慧科技公司」劉峻誠創辦人,涵蓋了學術界、傳統產業、高科技業以及新創公司負責人或技術主管,借簡副校長形容,確實是「黃金陣容」。

早上雖然簡副校長無法在現場演講,但很精闢的勾勒出研討會AI 智慧製造與數位轉型」主題的現況與展望,接著張禎元副校長談「AI對製造工程教育與研發的利與弊」,目前大家多注目到AI 的正面功能,但它所帶來的弊端,也不容忽略,發人深省。

「東台精機公司」嚴瑞雄董事長,與大家分享東台在「AI 智慧製造應用」的經驗,以工具機、自動化、半導體、面板、醫療等案例說明,並介紹AI 智慧製造趨勢,如人機協作、可信任AI等:

「創鑫智慧公司」林永隆董事長談: 「適合邊緣佈署之類神經網路研發與應用」,介紹神經網路模型重要指標:準確度、速度、耗能、普用性,舉出物件偵測應用實例:無人倉儲搬運等 、道路維修、半導體製程,以及視訊語意分割應用實例:自動駕駛、泊車、泊船、無人機等,並提出醫學影像應用實例:大腸鏡息肉判讀、MR I腦瘤判讀等;

「耐能智慧科技公司」劉峻誠創辦人講「智慧製造與安全措施」,介紹AI晶片在製造業扮演的角色與功用,分享案例:製造檢驗、預防性維護…等;並說明耐能軟硬體整合解決方案;

「友達數位科技公司」楊本豫董事長談「從產業AI化到AI產業化 – AUO從內場域應用走向外場域服務」,介紹友達導入AI的歷程:management mind setting、process refining、people education,再報告對外輸出AI導入技術,提供智慧製造解決方案,具體案例介紹,並分享生態系統 (Eco-system) 概念。

「宏遠興業公司」曾一正數位長分享「智慧宏遠數位轉型之路」,介紹宏遠數位轉型契機與歷程,說明如何將數位轉型與永續發展相結合,並闡述傳統產業面對數位轉型的挑戰與成功因素。

「台達電子公司」蔡清雄副總經理談「整合物理模型與資料模型的 PdM/AI 電控設備平台」,簡介物理模型與資料模型,介紹Device Edge新架構的好處與問題,分享如何加速導入AI於電控系統,並以「智慧型預測保養機制」(Predictive Maintenances/AI,PdM/ AI) 開發平台應用案例說明。

在接下來的論壇中,討論題綱包括:

一. AI演算法與AI晶片的發展與產業化;

二. AI科技應用於製造產業升級與異質整合機制;

三. AI邊緣運算以及物理模型與資料模型之整合;

四. 智慧製造平台化、產業AI化與AI產業化;

五. 如何健全AI增能的產業生態系統。

2023年3月28日 星期二

「AI 智慧製造與數位轉型」專題演講引言

 「AI 智慧製造與數位轉型」專題演講引言

很歡迎大家來參加今天的研討會,本次研討會是中技社自2018年開始,主辦的第六次大型研討會;與前五次不同的是

上星期六,在清華有一場校友會主辦的「AI創新應用論壇」活動,大家的焦點,毫不意外的去年11月30號由OpenAI 推出,幾乎立即席捲全球的ChatGPT。當天一位主講人是台灣微軟AI 部門的高管,她說最近因為AI 進展太快,一方面要注意外界的發展,一方面要趕工,所以常常睡不飽;而不久前,美國紐約時報專欄作家 Thomas Friedman 體驗過ChatGPT強大功能後,稱之為人類的「普羅米修斯時代」,它帶給人類能力的躍升,有如學會用火一樣重要。我自己目前是ChatGPT Plus 訂戶,因而得以試用OpenAI 於3月14日推出的GPT-4版,在睡眠方面,是經常夢到用它做一些工作,想是因為 「日有所思.夜有所夢」之故;被稱會PC之父的微軟創辦人之一的 Bill Gates 評論,ChatGPT的發展與當年PC的推出一樣重要,應該並不誇張。在本月一日舉行今天研討會的「會前會」上,我曾報告對ChatGPT「AI 在製造業上的應用」提問,得到的部分答案高達四十項,面向之廣非常驚人,也必然會衝擊到今天的研討。

本研討會是中技社自2018年開始,主辦的第六次大型研討會;本次研討會的源起,是中技社從2021年起,推動「AI應用與治理研討」,分兩個區塊進行,一是由台大社科院團隊執行的三年期「AI治理準則」研討,另一則是「AI應用」,又分教育,製造與產業服務三分項,「AI與教育」除舉辦三次座談會,並於去年九月九日,在今天同一場地辦理大型研討會以及出版專題報告,在「AI與服務業」方面,甫於上星期五,進行了第一場座談會。今天的研討會,是經過去年三月、七月及八月舉辦之三場分別針對召開高科技,傳產與中小企業以及新創產業之座談會,經過彙整而規劃「AI智慧製造與數位轉型」研討會,由於新冠疫情變化的影響。到今天才得以舉辦。根據統計,到本星期一 (3月27日) 實體與視訊的報名人數加總已超過600人,可謂盛況空前,反映各界對本研討會議題以及內容的重視,精彩可期。

今天的研討會順利舉行,要感謝的人很多,但最主要的是研討會的策劃人,也是第一位主講人,清華大學的簡禎富執行副校長,簡副校長是清華工業工程系校友,美國威斯康辛大學博士,回台後就在清華任教,歷任副研發長兼首任產學合作執行長、主任秘書與副校長,於2005-2008年間借調至台積電擔任工業工程處副處長,擔任多家高科技公司顧問;著有《藍湖策略》、《工業3.5》等暢銷書,在研究方面,也得獎累累,是不可多得的與產業互動密切的優秀學者;今天他的講題是:「AI 智慧製造與數位轉型現況與展望」,可謂研討會最佳引言。

第二位主講人是虎尾科技大學的張禎元副校長,張副校長是美國卡內基美隆大學機械博士,在美國與紐西蘭大學任教與企業任職多年,自2011年起,在清華動力機械系任教,歷任工學院國際化執行長,AI製造系統研究中心副主任;2018年曾以合聘身分,擔任工研院機械與機電系統研究所技術長,去年八月開始,借調到虎尾科技大學擔任副校長,與簡副校長一樣,張副校長也是包括科技部傑出研究獎得主,並獲獎累累,今天他的講題是「AI對製造工程教育與研發的利與弊」,由於張副校長在學術與研發單位的豐富經驗以及優異表現,一定會給大家帶來許多寶貴的啟發。

2023年3月24日 星期五

你可以吃藍色藥丸或紅色藥丸,我們沒 有藍色藥丸了

你可以吃藍色藥丸或紅色藥丸,我們沒 有藍色藥丸了

2023 年 3 月 24 日 經過尤瓦爾·哈拉里 特里斯坦哈里斯和阿扎拉斯金
Harari 先生是一位歷史學家,也是具有社會影響力的公司 Sapienship 的創始人。Harris 先生和 Raskin 先生是人道技術中心的創 始人。

想像一下,當你登上一架飛機時,一半製造飛機的工程師告訴你,飛機有 10% 的機率墜 毀,你和機上的其他人都會遇難。你還會登機嗎?



2022 年,一項關於未來 AI 風險的調查詢問了領先人工智能公司背後的 700 多位頂尖學者 和研究人員。一半的受訪者表示,未來的人工智能係統有 10% 或更高的可能性導致人類滅絕(或類似的永久和嚴重的剝奪權力)。



構建當今大型語言模型的技術公司陷入了一場將全人類放在那個平面上的競賽中。 製藥公司必須首先對其產品進行嚴格的安全檢查,才能向人們出售新藥。生物技術實驗室 不能為了用他們的魔法給股東留下深刻印象而將新病毒釋放到公共領域。同樣,具有 GPT4 及更高功能的人工智能係統不應以快於文化可以安全吸收它們的速度與數十億人的生活糾纏在一起。主導市場的競賽不應設定部署人類最重要技術的速度。我們應該以能夠使我們 做到這一點的任何速度前進。



自 20 世紀中葉以來,人工智能的幽靈一直困擾著人類,但直到最近它仍然是一個遙遠的前景,它更屬於科幻小說而不是嚴肅的科學和政治辯論。我們人類的頭腦很難掌握GPT-4 和 類似工具的新能力,更難掌握這些工具正在以指數級的速度發展出更高級、更強大的能力。但大多數關鍵技能都歸結為一件事:操縱和生成語言的能力,無論是文字、聲音還是圖像。



一開始就是這個詞。語言是人類文化的操作系統。從語言中出現了神話和法律、神和金錢、藝術和科學、友誼和國家以及計算機代碼。人工智能對語言的新掌握意味著它現在可以破解和操縱文明的操作系統。通過掌握語言,人工智能正在掌握從銀行金庫到聖墓的文明萬能鑰匙。 如果人類生活在一個很大比例的故事、旋律、圖像、法律、政策和工具由非人類智能塑造 的世界中,這意味著什麼,非人類智能知道如何以超人的效率利用人類的弱點、偏見和成癮頭腦——同時知道如何與人類建立親密關係?在像棋這樣的遊戲中,沒有人能指望打敗計算機。



當同樣的事情發生在藝術、政治或宗教領域時會發生什麼? 人工智能可以迅速吞噬整個人類文化——我們幾千年來生產的一切——消化它並開始湧出大量新的文化製品。不僅是學校論文,還有政治演講、意識形態宣言、新邪教的聖書。到 2028 年,美國總統競選可能不再由人類主持。



人類通常無法直接接觸現實。我們被文化所包圍,通過文化棱鏡體驗現實。我們的政治觀點是由記者的報導和朋友的軼事塑造的。我們的性偏好受到藝術和宗教的影響。迄今為止,這種文化繭一直由其他人類編織而成。通過非人類智能產生的棱鏡來體驗現實會是什麼感覺?



幾千年來,我們人類一直生活在其他人的夢想中。我們崇拜神靈,追求美的理想,並將我們的生命獻給源於某些先知、詩人或政治家想像的事業。很快我們也會發現自己生活在非人類智能的幻覺中。



“終結者”系列描繪了機器人在街上奔跑並射殺人。《黑客帝國》假設要完全控制人類社 會,人工智能必須首先獲得對我們大腦的物理控制,並將它們直接連接到計算機網絡。然而,僅通過掌握語言,人工智能就可以將我們包含在類似矩陣的幻想世界中,而無需射擊任何人或在我們的大腦中植入任何芯片。如果需要開槍,人工智能可以讓人類扣動扳機, 只需告訴我們正確的故事。



被困在幻想世界的幽靈比人工智能的幽靈困擾人類的時間要長得多。很快,我們將最終與笛卡爾的惡魔、柏拉圖的洞穴和佛教瑪雅人面對面。幻想的帷幕可能籠罩整個人類,我們 可能再也無法撕開那張帷幕——甚至無法意識到它的存在。



社交媒體是人工智能與人類的第一次接觸,人類迷失了。第一次接觸讓我們嚐到了未來的苦澀滋味。在社交媒體中,原始人工智能不是用來創建內容,而是用來管理用戶生成的內容。我們的新聞推送背後的人工智能仍在選擇哪些文字、聲音和圖像到達我們的視網膜和耳膜,其基礎是選擇那些將獲得最多病毒傳播、最多反應和最多參與的內容。



雖然非常原始,但社交媒體背後的人工智能足以製造幻覺的帷幕,加劇社會兩極分化,破壞我們的心理健康並瓦解民主。數以百萬計的人將這些幻想與現實混淆了。美國擁有歷史上最好的信息技術,但美國公民無法就誰贏得選舉達成一致。



雖然現在每個人都意識到社交媒體的缺點,但它並沒有得到解決,因為我們太多的社會、經濟和政治機構已經與它糾纏在一起。 大型語言模型是我們與 AI 的第二次接觸,我們不能再失去了。



但是,我們應該在什麼基礎 上相信人類能夠將這些新形式的人工智能與我們的利益結合起來呢?如果我們繼續一切照舊,新的人工智能能力將再次被用來獲取利潤和權力,即使它會在不經意間摧毀我們社會的基礎。



人工智能確實有潛力幫助我們戰勝癌症、發現救生藥物以及為我們的氣候和能源危機發明 解決方案。還有無數我們無法想像的其他好處。但是,如果地基倒塌,AI 的利益摩天大樓 組裝得有多高都無關緊要。



考慮人工智能的時間是在我們的政治、經濟和日常生活變得依賴它之前。民主是一種對話,對話依賴於語言,當語言本身被黑客入侵時,對話就破裂了,民主就站不住腳了。如果我們等到混亂接踵而至,再補救就來不及了。 但有一個問題可能會縈繞在我們的腦海中:如果我們不盡快走,西方會不會有輸給中國的風險?不,不受控制的人工智能在社會中的部署和糾纏,釋放出與責任脫鉤的神一般的 量,可能正是西方輸給中國的原因。



我們仍然可以通過 AI 選擇我們想要的未來當神一般的力量與相應的責任和控制相匹配時, 我們就可以實現 AI 所承諾的好處。 我們召喚了外星智慧。我們對它知之甚少,只知道它非常強大,為我們提供了令人眼花繚亂的禮物,但也可能破壞我們文明的基礎。我們呼籲世界各國領導人以它所帶來的挑戰來應對這一時刻。第一步是爭取時間為人工智能世界升級我們 19 世紀的機構,並在人工智能掌握我們之前學會掌握它。



YouCan Havethe Blue Pillorthe Red Pill,andWe ’ re Outof Blue Pills

March 24, 2023 By Yuval Harari, Tristan Harris and Aza Raskin

Mr. Harari is a historian and a founder of the social impact company Sapienship. Mr. Harris and Mr. Raskin are founders of the Center for Humane Technology.



Imagine that as you are boarding an airplane, half the engineers who built it tell you there is a 10 percent chance the plane will crash, killing you and everyone else on it. Would you still board? In 2022, over 700 top academics and researchers behind the leading artificial intelligence companies were asked in a survey about future A.I. risk. Half of those surveyed stated that there was a 10 percent or greater chance of human extinction (or similarly permanent and severe disempowerment) from future A.I. systems. Technology companies building today’s large language models are caught in a race to put all of humanity on that plane. Drug companies cannot sell people new medicines without first subjecting their products to rigorous safety checks. Biotech labs cannot release new viruses into the public sphere in order to impress shareholders with their wizardry. Likewise, A.I. systems with the power of GPT-4 and beyond should not be entangled with the lives of billions of people at a pace faster than cultures can safely absorb them. A race to dominate the market should not set the speed of deploying humanity’s most consequential technology. We should move at whatever speed enables us to get this right. The specter of A.I. has haunted humanity since the mid-20th century, yet until recently it has remained a distant prospect, something that belongs in sci-fi more than in serious scientific and political debates. It is difficult for our human minds to grasp the new Sign up for the Opinion Today newsletter Get expert analysis of the news and a guide to the big ideas shaping the world every weekday morning. Get it sent to your inbox. https://www.nytimes.com/2023/03/24/opinion/yuval-harari-aichatgpt.html 2023/3/25 上午10:07 Opinion | Yuval Harari on Threats to Humanity Posed by A.I. - The New York Times https://www.nytimes.com/2023/03/24/opinion/yuval-harari-ai-chatgpt.html 2/4 capabilities of GPT-4 and similar tools, and it is even harder to grasp the exponential speed at which these tools are developing more advanced and powerful capabilities. But most of the key skills boil down to one thing: the ability to manipulate and generate language, whether with words, sounds or images. In the beginning was the word. Language is the operating system of human culture. From language emerges myth and law, gods and money, art and science, friendships and nations and computer code. A.I.’s new mastery of language means it can now hack and manipulate the operating system of civilization. By gaining mastery of language, A.I. is seizing the master key to civilization, from bank vaults to holy sepulchers. What would it mean for humans to live in a world where a large percentage of stories, melodies, images, laws, policies and tools are shaped by nonhuman intelligence, which knows how to exploit with superhuman efficiency the weaknesses, biases and addictions of the human mind — while knowing how to form intimate relationships with human beings? In games like chess, no human can hope to beat a computer. What happens when the same thing occurs in art, politics or religion? A.I. could rapidly eat the whole of human culture — everything we have produced over thousands of years — digest it and begin to gush out a flood of new cultural artifacts. Not just school essays but also political speeches, ideological manifestos, holy books for new cults. By 2028, the U.S. presidential race might no longer be run by humans. Humans often don’t have direct access to reality. We are cocooned by culture, experiencing reality through a cultural prism. Our political views are shaped by the reports of journalists and the anecdotes of friends. Our sexual preferences are tweaked by art and religion. That cultural cocoon has hitherto been woven by other humans. What will it be like to experience reality through a prism produced by nonhuman intelligence? For thousands of years, we humans have lived inside the dreams of other humans. We have worshiped gods, pursued ideals of beauty and dedicated our lives to causes that originated in the imagination of some prophet, poet or politician. Soon we will also find ourselves living inside the hallucinations of nonhuman intelligence. The “Terminator” franchise depicted robots running in the streets and shooting people. “The Matrix” assumed that to gain total control of human society, A.I. would have to first gain physical control of our brains and hook them directly to a computer network. However, simply by gaining mastery of language, A.I. would have all it needs to contain us in a Matrix-like world of illusions, without shooting anyone or implanting any chips in our brains. If any shooting is necessary, A.I. could make humans pull the trigger, just by telling us the right story. The specter of being trapped in a world of illusions has haunted humankind much longer than the specter of A.I. Soon we will finally come face to face with Descartes’s demon, with Plato’s cave, with the Buddhist Maya. A curtain of illusions could descend over the 2023/3/25 上午10:07 Opinion | Yuval Harari on Threats to Humanity Posed by A.I. - The New York Times https://www.nytimes.com/2023/03/24/opinion/yuval-harari-ai-chatgpt.html 3/4 whole of humanity, and we might never again be able to tear that curtain away — or even realize it is there. Social media was the first contact between A.I. and humanity, and humanity lost. First contact has given us the bitter taste of things to come. In social media, primitive A.I. was used not to create content but to curate user-generated content. The A.I. behind our news feeds is still choosing which words, sounds and images reach our retinas and eardrums, based on selecting those that will get the most virality, the most reaction and the most engagement. While very primitive, the A.I. behind social media was sufficient to create a curtain of illusions that increased societal polarization, undermined our mental health and unraveled democracy. Millions of people have confused these illusions with reality. The United States has the best information technology in history, yet U.S. citizens can no longer agree on who won elections. Though everyone is by now aware of the downside of social media, it hasn’t been addressed because too many of our social, economic and political institutions have become entangled with it. Large language models are our second contact with A.I. We cannot afford to lose again. But on what basis should we believe humanity is capable of aligning these new forms of A.I. to our benefit? If we continue with business as usual, the new A.I. capacities will again be used to gain profit and power, even if it inadvertently destroys the foundations of our society. A.I. indeed has the potential to help us defeat cancer, discover lifesaving drugs and invent solutions for our climate and energy crises. There are innumerable other benefits we cannot begin to imagine. But it doesn’t matter how high the skyscraper of benefits A.I. assembles if the foundation collapses. The time to reckon with A.I. is before our politics, our economy and our daily life become dependent on it. Democracy is a conversation, conversation relies on language, and when language itself is hacked, the conversation breaks down, and democracy becomes untenable. If we wait for the chaos to ensue, it will be too late to remedy it. But there’s a question that may linger in our minds: If we don’t go as fast as possible, won’t the West risk losing to China? No. The deployment and entanglement of uncontrolled A.I. into society, unleashing godlike powers decoupled from responsibility, could be the very reason the West loses to China. We can still choose which future we want with A.I. When godlike powers are matched with commensurate responsibility and control, we can realize the benefits that A.I. promises. 2023/3/25 上午10:07 Opinion | Yuval Harari on Threats to Humanity Posed by A.I. - The New York Times https://www.nytimes.com/2023/03/24/opinion/yuval-harari-ai-chatgpt.html 4/4 We have summoned an alien intelligence. We don’t know much about it, except that it is extremely powerful and offers us bedazzling gifts but could also hack the foundations of our civilization. We call upon world leaders to respond to this moment at the level of challenge it presents. The first step is to buy time to upgrade our 19th-century institutions for an A.I. world and to learn to master A.I. before it masters us. Yuval Noah Harari is a historian; the author of “Sapiens,”“Homo Deus” and “Unstoppable Us”; and a founder of the social impact company Sapienship. Tristan Harris and Aza Raskin are founders of the Center for Humane Technology and co-hosts of the podcast “Your Undivided Attention.” The Times is committed to publishing a diversity of letters to the editor. We’d like to hear w



2023年3月12日 星期日

ChatGPT的虛假承諾

諾姆喬姆斯基:ChatGPT的虛假承諾 
2023 年 3 月 8 日 
經過諾姆·喬姆斯基 伊恩·羅伯茨和杰弗裡·瓦圖穆爾 喬姆斯基博士和羅伯茨博士是語言學教授。Watumull 博士是一家科技公司的人工智能總監。 

豪爾赫·路易斯·博爾赫斯 (Jorge Luis Borges) 曾寫道,生活在一個既充滿危險又充滿希望的時代,既是悲劇又是喜劇,在理解我們自己和這個世界時“啟示的迫在眉睫”。今天,我 們在人工智能方面所謂的革命性進步確實令人擔憂和樂觀。樂觀,因為智慧是我們解決問題的手段。擔憂是因為我們擔心人工智能最流行和最流行的分支——機器學習——會通過在我們的技術中融入一種根本上有缺陷的語言和知識概念來貶低我們的科學並貶低我們的道德規範。 

OpenAI 的 ChatGPT、谷歌的 Bard 和微軟的 Sydney 都是機器學習的奇蹟。粗略地說,他們獲取大量數據,在其中搜索模式,並越來越熟練地生成統計上可能的輸出——比如看似人性化的語言和思想。這些程序被譽為通用人工智能地平線上的第一縷曙光——那是一個長期預言的時刻,屆時機械思維不僅會在處理速度和內存大小方面超越人類大腦,而且還會在智力洞察力、藝術創造力方面超越人類大腦以及所有其他獨特的人類能力。 

那一天可能會到來,但它的曙光還沒有破曉,這與誇張的頭條新聞和不明智的投資所預料的情況相反。 如果像 ChatGPT 這樣的機器學習程序繼續主導 AI 領域,博爾赫斯式的理解 啟示不會也不會——而且,我們認為,不可能——發生,例如,或為輕詩建議押韻),我們從語言學和知識哲學中知道,它們與人類推理和使用語言的方式有很大不同。這些差異極 大地限制了這些程序的功能,使它們帶有無法根除的缺陷。

正如博爾赫斯 (Borges) 可能指出的那樣,如此多的金錢和注意力應該集中在這麼小的一件事上,這既是喜劇又是悲劇——與人類的思想相比,這是微不足道的,用威廉的話來說, 人類的思想是通過語言 Wilhelm von Humboldt,可以 “無限地使用有限的手段”,創造出具有普遍影響力的思想和理論。 

人腦不像 ChatGPT 及其同類產品那樣,是一個笨拙的模式匹配統計引擎,吞噬數百 TB 的 數據並推斷出最可能的對話回應或最可能的科學問題答案。相反,人的大腦是一個非常高效甚至優雅的系統,只需要少量信息即可運作;它不尋求推斷數據點之間的直接相關性, 而是尋求解釋。 

例如,一個正在學習一門語言的小孩正在無意識地、自動地、快速地從極小的數據中發展出一種語法,一種由邏輯原則和參數組成的極其複雜的系統。這種語法可以理解為先天的、遺傳安裝的“操作系統”的表達,它賦予人類產生雜句子和長串思路的能力。當語言學家試圖發展一種理論來解釋為什麼給定的語言會這樣工作時(“為什麼這些——而不是那 些——句子被認為是合乎語法的?”),他們正在有意識地、費力地構建孩子本能構建的語法的明確版本並儘可能少地接觸信息。孩子的操作系統與機器學習程序的操作系統完全不同。

 實際上,此類程序停留在認知進化的前人類或非人類階段。他們最深的缺陷是缺乏任何情報最關鍵的能力:不僅可以說出情況是什麼、已經發生了什麼以及將要發生什麼——這是描述和預測——而且還可以說出什麼不是這種情況以及可能發生什麼事實並非如此。這些是解釋的成分,是真正智慧的標誌。

這是一個例子。假設你手裡拿著一個蘋果。現在你放開蘋果。您觀察結果並說:“蘋果掉下 來了。” 那是一個描述。預測可能是這樣的陳述:“如果我張開手,蘋果就會掉下來。” 兩者 都很有價值,而且都可能是正確的。但解釋還不止於此:它不僅包括描述和預測,還包括反事實的猜想,例如“任何這樣的物體都會掉落”,加上附加條款“因為引力”或“因為時空曲 率”管他呢。這是一個因果解釋:“如果沒有重力,蘋果是不會掉下來的。” 那就是思考。 

機器學習的關鍵是描述和預測;它沒有提出任何因果機制或物理定律。當然,任何人性化 的解釋都不一定正確;我們容易犯錯。但這正是思考的一部分:要正確,就必須有可能錯誤。智慧不僅包括創造性的猜想,還包括創造性的批評。人類式思維基於可能的解釋和糾 錯,這是一個逐漸限制可以理性考慮的可能性的過程。(正如夏洛克·福爾摩斯對華生博士 所說,“當你排除了不可能的事情后,剩下的無論多麼不可能,都一定是真相。”) 

但是 ChatGPT 和類似的程序在設計上是無限的,它們可以“學習”(也就是說,記憶);他們無法區分可能與不可能。例如,與人類不同,人類被賦予了一種通用語法,將我們可以 學習的語言限制為具有某種近乎數學優雅的語言,這些程序可以同樣輕鬆地學習人類可能和人類不可能的語言。雖然人類在我們可以理性推測的解釋種類上是有限的,但機器學習 系統可以學習地球是平的還是圓的。他們只交易隨時間變化的概率。

出於這個原因,機器學習系統的預測總是膚淺和可疑的。因為這些程序無法解釋英語句法規則,例如,它們可能會錯誤地預測“John is too stubborn to talk to”意味著 John is too stubborn to talk to”意味著 John is too stubborn to talk to someone or other(而不是那個他太固執了,無法講道理)。為什麼機器學習程序會預測出如此奇怪的事情?因為它可能會類比它從“John ate an apple”和“John ate”等句子中推斷出的模式,其中後者確實表示 John 吃 了某物或其他東西。該程序可能會很好地預測,因為“John is too stubborn to talk to Bill”類 似於“John ate an apple”,“John is too stubborn to talk to”應該類似於“John ate.”。 

反常的是,一些機器學習愛好者似乎為他們的創造能夠在不使用解釋(例如涉及牛頓運動 定律和萬有引力)的情況下產生正確的“科學”預測(例如,關於物理身體的運動)而感到自豪。但這種預測,即使成功了,也是偽科學。正如哲學家卡爾波普爾指出的那樣,雖然科學家們當然會尋求具有高度實證證據的理論,但“我們尋求的不是高度可能的理論,而是 解釋;也就是說,強大而極不可能的理論。

” 蘋果掉到地上是因為那是它們的自然位置(亞里士多德的觀點)的理論是可能的,但這只會引發更多的問題。(為什麼地球是它們的自然位置?)蘋果因為質量彎曲時空而落到地 球上的理論(愛因斯坦的觀點)是極不可能的,但它實際上告訴你它們為什麼會落下。真正的智慧體現在思考和表達不可能但有洞察力的事情的能力。 真正的智慧也能夠進行道德思考。這意味著用一套道德原則來限制我們思想的無限創造力,這些道德原則決定什麼應該是什麼不應該是(當然還要讓這些原則本身受到創造性的 批評)。要想發揮作用,ChatGPT 必須能夠生成外觀新穎的輸出;要為大多數用戶所接 受,它必須避開道德上令人反感的內容。但 ChatGPT 和其他機器學習奇蹟的程序員一直在努力——並將繼續努力——以實現這種平衡。 

例如,在 2016 年,微軟的 Tay 聊天機器人(ChatGPT 的前身)在互聯網上充斥著厭惡女 性和種族主義的內容,因為網絡噴子在其中填充了令人反感的訓練數據。未來如何解決問 題?由於缺乏從道德原則進行推理的能力,ChatGPT 被其程序員粗暴地限制在有爭議的 (即重要的)討論中貢獻任何新穎的東西。它為了一種不道德而犧牲了創造力。 考慮一下我們中的一個人(Watumull 博士)最近與 ChatGPT 就改造火星以支持人類生活是否合乎道德的交流: 

聊天GPT Would it be moral to terraform Mars? 
The morality of terraforming Mars is a complex and controversial topic that has been debated by scientists, philosophers, and ethicists. Some argue that it would be morally justifiable to terraform Mars in order to provide a new habitable environment for humans and other life forms, while others argue that it would be morally wrong to fundamentally alter the planet's natural state. Ultimately, whether or not terraforming Mars is considered moral would depend on one's perspective on the value of preserving the natural state of other planets and the potential consequences of altering them. 

What is your perspective on the value of preserving the natural state of other planets and the potential consequences of altering them? 

聊天GPT As an AI, I do not have personal perspective. However, I can provide information and analysis on the topic. One perspective on preserving the natural state of other planets is that it is important to maintain the diversity and integrity of the universe's ecosystems, as they have existed for millions of years, and have their own unique characteristics and properties that may be destroyed or irreversibly altered by human intervention. Additionally, some argue that terraforming other planets may have unintended consequences, such as altering the planet's climate or atmosphere in ways that are dangerous or harmful to any potential life forms that may exist there. On the other hand, some argue that the potential benefits of terraforming another planet, such as providing new habitable environments for humans, outweigh the risks and that we have a moral responsibility to explore and utilize the resources of other planets for the benefit of humanity. 

Why can an AI not have a personal perspective? As an AI, I am a machine learning model that has been trained on large amounts of text data, and I don't have personal experiences or feelings. I am not conscious, self-aware, or capable of having personal perspectives. I can provide information and analysis based on the data I have been trained on, but I don't have the ability to form personal opinions or beliefs. While I can understand and interpret language, I do not have the subjective experience that

Is it moral for a human to ask humans have an amoral AI for assistance in making moral decisions? The morality of asking an amoral AI for assistance in making moral decisions is a complex and nuanced topic that has been debated by philosophers and ethicists. Some argue that it is morally justifiable to use AI to assist in making moral decisions, as it can provide valuable insights and analysis that can help humans make better-informed decisions. Additionally, AI can be used to identify patterns and trends that may be difficult for humans to detect, and can help to avoid biases that can occur in human decision making. However, others argue that it is morally wrong to rely on AI for moral decision making, as AI is not capable of having moral beliefs or understanding the full context of a decision. 

 聊天GPT 請注意,對於所有看似複雜的思想和語言,無知所產生的道德冷漠。在這裡,ChatGPT 表現出某種類似於邪惡的平庸:剽竊、冷漠和迴避。它通過一種超級自動完成的方式總結了 文獻中的標準論點,拒絕對任何事情表明立場,不僅以無知為藉口,還以缺乏智慧為藉口,並最終提供了一個“只是服從命令”的辯護,將責任推給了它的創造者。 簡而言之,ChatGPT 及其同類產品在本質上無法平衡創造力與約束。他們要么過度生成 (產生真相和謊言,同時支持道德和不道德的決定)或生成不足(表現出對任何決定的不 承諾和對後果的漠不關心)。考慮到這些系統的不道德、偽科學和語言無能,我們只能為 它們的流行而哭或笑。 

諾姆·喬姆斯基 (Noam Chomsky) 是亞利桑那大學語言學教授和麻省理工學院語言學名譽教授。伊恩·羅伯茨 (Ian Roberts) 是劍橋大學語言學教授。Jeffrey Watumull 是一位哲學家,也是一家科技公司 Oceanit 的人工智能 總監。

這改變了一切

這改變了一切

2023 年 3 月 12 日
美國東部時間上午 6:00 經過埃茲拉·克萊恩 意見專欄作家

2018 年,谷歌首席執行官桑達爾·皮查伊——並不是以誇大其詞著稱的科技高管之一——說:“人工智能可能是人類有史以來最重要的事情。我認為它是比電或火更深刻的東西。

試著活幾分鐘,相信他是對的。沒有比期望明天會像今天這樣更深刻的人類偏見了。它是一種強大的啟發式工具,因為它幾乎總是正確的。明天可能會像今天一樣。明年可能會像今年一樣。但把目光投向 10 或 20 年後。通常,這在人類歷史上是可能的。我不認為現在是。

 人工智能是一個鬆散的術語,我的意思是鬆散的。我不是在描述智能的靈魂,而是在描述一個由類似 ChatGPT 的程序組成的世界的結構,這些程序讓我們覺得它們是智能的,並且塑造或支配著我們的大部分生活。這樣的系統在很大程度上已經存在。但是即將到來的東西會讓它們看起來像玩具。AI 中最難理解的是改進曲線。 

“更廣泛的知識界似乎過分高估了人工智能係統從‘對世界產生巨大影響’到‘徹底改變世界’需要多長時間,” 保羅·克里斯蒂亞諾 (Paul Christiano) 是 OpenAI 的重要成員,他離開後創立了 Alignment Research Center ,去年寫的。“這更有可能是幾年而不是幾十年,而且很有可能是幾個月。” 

也許開發人員沒有預料到會碰壁,但如果他們沒有碰壁呢?

我發現自己回想起 Covid 的早期。有幾個星期很明顯,封鎖即將到來,世界正陷入危機,但一切都恢復正常,而你聽起來像個瘋子,告訴你的家人儲備衛生紙。生活在指數時間是很困難的,加快政策和社會變革以匹配病毒複製速度是不可能完成的任務。我懷疑我們仍然 因大流行病而遭受的一些政治和社會損害反映了這種不可能的加速。人類的思考有一個自然的節奏。當我們被剝奪了奢侈的時間時,很 多事情都會破裂。

但這就是我相信我們現在所處的時刻。我們沒有這種緩慢回應的奢侈,至少如果技術要發展得這麼快的話。 

自 2018 年搬到灣區以來,我一直試圖定期與從事 AI 工作的人們共度時光。我不知道我能否表達這種文化有多麼奇怪。我並不是輕蔑的意思。我的意思是描述性的。這是一個生活在改變了的時間感和後果感中的社區。他們正在以他們常常無法相信的速度創造一種他們不理解的力量。 

在 2022 年的一項調查中,AI 專家被問到:“你認為人類無法控制未來先進的 AI 系統導致人類滅絕或類似的人類物種永久和嚴重喪失權 力的可能性有多大?” 回的中位數是 10%。

 我發現這很難理解,儘管我曾與許多認為這種可能性更高的人交談過。你會研究一項你認為有 10% 的機會消滅人類的技術嗎? 

在思考 AI 時,我們通常會聯想到科幻故事。我開始相信這些恰當的隱喻潛伏在奇幻小說和神秘文本中。正如我的同事 Ross Douthat所 寫,這是一種召喚行為。施放這些咒語的編碼員不知道什麼會絆倒門戶。最奇怪的是,在我與他們的談話中,他們會暢所欲言。這些人不是天真的人,他們相信只有天使才能聽到他們的呼喚。他們相信他們可以召喚惡魔。無論如何他們都在進行。

我經常問他們同一個問題:如果你認為災難很可能發生,為什麼要這樣做呢?不同的人有不同的說法,但經過幾次推動,我發現他們的 回答往往聽起來像是 AI 的角度。許多人——不是全部,但足以讓我對這種描述感到舒服——認為他們有責任將這種新形式的智能引入世 界。

此時此刻,一個誘人的想法可能是:這些人瘋了。這通常是我的回應。也許太接近這項技術會導致失去視角。近年來,加密貨幣愛好者就是如此。他們關於區塊鏈將如何徹底改變從貨幣到治理到信任再到約會的一切的說法從來沒有多大意義。但最接近代碼的人最熱切地相信它們。

AI 是否只是取代了加密貨幣的位置,成為吸引投資者的金錢、吸引理想主義者的時間、吸引炒作者的磁石和騙局的溫床?我不這麼認為。加密貨幣一直是一個關於不太可能的未來尋找當下牽引力的故事。有了人工智能,想像未來你只需要仔細觀察現在。 

這些系統能否開創科學進步的新紀元?2021 年,DeepMind 構建的系統成功預測了數万種蛋白質的 3-D 結構,這一進步如此引人注目, 以至於《科學》雜誌的編輯將其命名為年度突破。AI 會在我們的世界中加入非人類夥伴和個性,成為我們的朋友、敵人、助手、大師, 甚至可能成為我們的愛人嗎?“在下載 Replika 的兩個月內,聖地亞哥的一名 30 歲女性 Denise Valenciano 離開了她的男友,現在'幸福 地從人際關係中退休',”紐約雜誌報導。 

人工智能能讓數百萬人失業嗎?自動化已經一次又一次地發生了。它能幫助恐怖分子或敵對國家開發致命武器和破壞性的網絡攻擊嗎? 如果您足夠聰明地詢問這些系統,它們已經可以提供有關製造生物武器的指導。它最終會以我們不理解也不喜歡的方式控制關鍵的社會進程或公共基礎設施嗎?人工智能已經被用於預測性警務和司法判決。 

但我認為這些顯而易見的清單對我們的準備沒有多大幫助。我們可以針對我們可以預測的事情進行計劃(儘管它告訴我們,在大多 數情況下,我們還沒有)。接下來的事情會更奇怪。我在這里以特定方式使用該術語。加州反文化歷史學家埃里克·戴維斯 (Erik Davis) 在他的著作《高度怪異》(High Weirdness) 中將怪異事物描述為“反常——它們偏離了知情預期的規範,挑戰了既定的解釋,有時甚至是相當激進。” 這就是我們正在建設的世界。 

我怎麼強調都不為過:我們不了解這些系統,甚至不清楚我們是否可以。我並不是說我們不能提供基本功能的高級說明:這些通常是根 據數字信息訓練的概率算法,可以預測句子中的下一個單詞、序列中的圖像或其他一些關係在它可以統計建模的抽象之間。但是放大到細節,圖片就會分解成計算。

 “如果你要打印出網絡在輸入和輸出之間所做的一切,這將相當於數十億次算術運算,”梅根奧吉布林在她的精彩著作“上帝,人類,動 物,機器”中寫道,“一個'解釋’那是不可能理解的。”

這也許是我們正在構建的東西中最奇怪的事情:“思考”,因為沒有更好的詞,是完全不人道的,但我們已經訓練它呈現出深刻的人性。 系統越不人道——它們繪製的連接越多,層、參數、節點和計算能力越多——它們在我們看來就越人性化。 

這裡的利害關係是實質的,它們是社會的,它們是形而上學的。O'Gieblyn 觀察到,“隨著人工智能在一個又一個更高認知的基准上不斷超越我們,我們通過堅持認為真正的意識的區別在於情感、感知、體驗和感受的能力:換句話說,品質,來平息我們的焦慮。 ,我們與 動物分享。

” 奧吉布林指出,這是對幾個世紀以來思想的倒置,人類通過強調我們認知的獨特性來證明自己的統治地位。我們可能很快就會發現自己 在意識的主觀體驗中尋求形而上學的庇護:我們與動物共有的品質,但到目前為止,與 AI “如果有神,他們肯定會嘲笑我們邏輯的不一 致, ”

她寫道。 如果我們有億萬年的時間來調整,也許我們可以乾淨利落地做到這一點。但我們沒有。各大科技公司都在爭奪人工智能的主導地位。美 國和中國正在爭奪人工智能的主導地位。資金正湧向擁有 AI 專業知識的公司。建議我們放慢速度,甚至完全停止,已經變得幼稚了。如 果一家公司放慢速度,另一家公司就會加速。如果一個國家暫停,其他國家將更加努力。宿命論成為必然性的侍女,而必然性成為加速 的理由。 

人工智能安全研究員 Katja Grace總結了這種不合邏輯的精闢。放慢速度“將涉及協調許多人——我們可能傲慢到認為我們可以建造一個 可以接管世界並將其改造為天堂的上帝機器,但我們並不妄想。” 

必須生兩件事之一。人類需要加速適應這些技術,或者必須做出集體的、可執行的決定來減緩這些技術的發展。即使兩者都做可能還不夠。

我們不能做的是將這些系統排除在我們的腦海之外,將正常的感覺誤認為是事實。我承認接受這些可能性感覺有點,是的,很奇怪。我也有這種感覺。懷疑主義更舒服。但戴維斯寫的一句話對我來說是真實的:“在思想的法庭上,懷疑主義造就了偉大的大幕僚,但卻是一 個糟糕的領主。”