2023年7月24日 星期一

6G與AI的預言 人人都是模特兒

6G與AI的預言 人人都是模特兒

2023-07-25 02:50 聯合報/ 葉堂宇/美國清華智庫董事長(美國維吉尼亞州)

6G網絡與人工智慧AI堪稱當前最熱話題,美國曾大膽預測五至十年後,醫療健保、自駕汽車、教育、服務業都將面臨被淘汰。目前4G手機能夠傳輸高質量視頻圖像以及圖像傳輸質量,5G是全球互聯互通,無人駕駛、無人機、智能家居、智慧城市等項目將提升生活品質,真正實現零距離交流。

Uber沒擁有汽車,卻能夠讓你「隨叫隨到」有車坐,現在已是全球最大的Taxi公司。Airbnb沒擁有任何旅館,但它的軟體讓你能夠住進世界各地出租房,現在已是全球最大的旅館業;Google電腦打敗全球最厲害圍棋高手,因為開發出AI的電腦,使用能自己學習的軟體,所以AI能夠達到比預期提前十年的成就。

在美國,使用IBM Watson電腦軟體,幾秒內就有九成準確性的法律顧問,比起七成準確性的人為律師既便捷又便宜;臉書有一套AI軟體可以比人類更準確辨識人臉,到二○三○年AI電腦會比任何專家還聰明;自動駕駛汽車可在公眾場所使用,你不必擁有汽車,花時間加油停車考駕照交保險費。

現在平均每十萬公里一次車禍,造成每年全球約一百廿萬人死亡。以後AI自動駕駛每一千萬公里才一次車禍,減少一百萬人死亡,因為需要保險的人極少,保險公司會面臨更多的挑戰,傳統汽車公司可能會面臨倒閉,房地產公司會遭遇極大的變化,因為可在車程中工作,距離將不是選房主要條件。

3D列印設備預計十年內會由近二萬美元減到四百美元,速度加快百倍,人類太空船也會使用這種設備。手機就會有3D掃描功能,可測量腳做個人化鞋子。預計二○二七年百分之十的產品會用3D列印設備製造。

產業機會方面,廿年內百分之七十至八十的工作會消失,溫室建築物可以有少量的水,肉可以從實驗室生產,不必養豬、雞或牛。百分之卅畜牧土地會變成其他用途,很多初創公司會供給高蛋白質昆蟲當成食品。

數位時代的錢,將是Bitcoin在智能電腦中的「數據」。百分之七十的人類會有手機,能上網接受世界級的教育,但大部分的老師會被智能電腦取代,小學生要會寫Code,如果不會就是像住在亞馬遜森林中的原住民,你的孩子準備好了嗎?

至於未來可能消失的職業,千萬不要覺得這很遙遠,上世紀已經有打字員、電話接線員等職業消失,職業變遷的速度將越來越快。未來十年百分之八十的現金使用會消失,人們選擇網銀或移動支付;未來廿年絕大多數中小銀行如果不把前台業務外包將難以生存,傳統金融業和科技業正在進行生死競速,金融領域將發生一場徹底的互聯網革命。

富士康百萬「機器人大軍」計畫公布後引起矚目。未來隨著機器人成本的下降和普及,裝配車間將不需要真人;借助電視盒,只要身處帶寬足夠的Wi-Fi環境,就可免費觀看在線視頻,有線電視終會消失,甚至電視台的構建都會被打亂。

未來沒有誰再會為矮而愁眉,高技術含量增高手術已在進行。還有,超微科技的運用使整容業更趨完美,已有人研發用電腦勘測臉部細節,量身製作完美五官。從這個意義上講,漂亮的臉蛋與高挑的身材人人都可以擁有,職業模特兒失去意義,時裝秀將從T形台走向6G AI大街。

2023年7月3日 星期一

人工智能的真正威脅

人工智能的真正威脅


經過葉夫根尼·莫羅佐夫 莫羅佐夫先生是《要拯救一切,點擊這裡:技術解決方案主義的愚蠢》一書的作者,也是即將推出的播客《聖地亞哥男孩》的 主持人。

2023 年 6 月 30 日 5 月,超過 350 名技術高管、研究人員和學者簽署了一份聲明,警告人工智能存在的危險。 簽署者警告說:“與流行病和核戰爭等其他社會規模的風險一樣,減輕人工智能帶來的滅絕 風險應該成為全球優先事項。” 在此之前,埃隆·馬斯克和蘋果聯合創始人史蒂夫·沃茲尼亞克等人簽署了另一封備受矚目的 信函,呼籲暫停先進人工智能係統的開發六個月。



與此同時,拜登政府敦促負責任的人工智能創新,並表示“為了抓住它提供的機遇”,我 們“必須首先管理它的風險”。在國會,參議員查克·舒默 (Chuck Schumer)呼籲就人工智能 的潛力和風險舉辦“同類首個”聽證會,這是來自行業高管、學者、民權活動人士和其他利 益相關者的速成課程。



人們對人工智能日益增長的焦慮並不是因為那些無聊但可靠的技術,這些技術可以自動完成我們的短信或指導機器人吸塵器躲避客廳中的障礙物。令專家們擔憂的是通用人工智能 (AGI)的崛起。 AGI 尚不存在,但一些人認為 OpenAI 的 ChatGPT 快速增長的功能表明它的出現已經不遠 了。



OpenAI 聯合創始人 Sam Altman將其描述為“通常比人類更聰明的系統”。構建這樣的 系統仍然是一項艱鉅的任務,有人說這是不可能的。但好處似乎確實很誘人。 想像一下,Roombas 不再只能用吸塵器吸地板,而是進化成多用途機器人,樂於在早上煮 咖啡或疊衣服,而無需編程來完成這些事情。 聽起來很吸引人。但如果這些 AGI Roomba 變得太強大,它們創造一塵不染的烏托邦的使 命可能會讓它們的塵土飛揚的人類主人變得混亂。至少我們跑得很好。 關於通用人工智能的討論中充斥著這樣的世界末日場景。



然而,由學者、投資者和企業家 組成的新興 AGI 遊說團體反駁說,一旦安全,AGI 將成為文明的福音。奧特曼先生是這場 競選活動的代言人,他開始了全球巡演以吸引立法者。今年早些時候,他寫道,通用人工 智能甚至可能會推動經濟發展,增加科學知識,並“通過增加豐富性來提升人類水平”。 這就是為什麼科技行業中有如此多的聰明人正在努力開發這項有爭議的技術,儘管如此令 人苦惱:不利用它來拯救世界似乎是不道德的。



他們受制於一種意識形態,認為這項新技術是不可避免的,而且在安全的情況下,是普遍有益的。它的支持者想不出更好的替代方案來修復人類並擴展其智慧。 但這種意識形態——稱之為 AGI 主義——是錯誤的。



AGI 的真正風險是政治性的,並且不會通過馴服叛逆的機器人來解決。最安全的 AGI 也無法提供其遊說團體所承諾的進步靈丹妙藥。通用人工智能主義將其出現描述為幾乎不可避免,它分散了人們對尋找增強智能的 更好方法的注意力。



AGI主義的支持者們並不知道,它只是一種更宏大意識形態的私生子,這種意識形態宣揚的 是,正如瑪格麗特·撒切爾 (Margaret Thatcher) 所說的那樣,除了市場之外別無選擇。 正如奧特曼暗示的那樣,通用人工智能——或者至少是急於建立它——更有可能為資本主義 最具破壞性的信條:新自由主義創造一個強大的(而且更時髦的)盟友,而不是像奧特曼先生暗示的那樣打破資本主義。 新自由主義的締造者著迷於私有化、競爭和自由貿易,希望通過市場和放鬆管制來激發和 改變停滯不前的、對勞動力友好的經濟。 其中一些轉變取得了成效,但也付出了巨大的代價。



多年來,新自由主義招致了許多批評者,他們將大衰退、金融危機、特朗普主義、英國脫歐等歸咎於它。 因此,拜登政府與這種意識形態保持距離也就不足為奇了,他們承認市場有時會出錯。基金會、智囊團和學術界甚至敢於想像後新自由主義的未來。 然而新自由主義還遠未消亡。更糟糕的是,它在通用人工智能主義中找到了盟友,而通用人工智能主義則強化並複制了它的主要偏見:私人行為者的表現優於公共行為者(市場偏見),適應現實勝過改變現實(適應偏見),效率勝過現實。社會問題(效率偏差)。 這些偏見完全顛覆了通用人工智能背後的誘人承諾:構建世界的追求不但不能拯救世界, 反而會讓事情變得更糟。方法如下。



AGI永遠無法克服市場對利潤的要求。 還記得優步以其低廉的價格吸引城市作為其公共交通系統嗎? 一切都開始得很順利,優步承諾提供令人難以置信的廉價乘車服務,並提供自動駕駛汽車 和最低勞動力成本的未來。財力雄厚的投資者喜歡這個願景,甚至承擔了 Uber 數十億美元 的損失。 但當現實降臨時,自動駕駛汽車仍然是一個白日夢。投資者要求回報,Uber被迫提高價格。依靠它來取代公共巴士和火車的用戶被留在人行道上。 Uber 商業模式背後的新自由主義本能是私營部門可以比公共部門做得更好——這就是市場偏見。 不僅僅是城市和公共交通。醫院、警察部門甚至五角大樓越來越依賴矽谷來完成他們的任務。



有了通用人工智能,這種依賴只會加深,尤其是因為通用人工智能的範圍和野心是無限的。任何行政或政府服務都無法免受其破壞性承諾的影響。 此外,AGI 甚至不需要存在來吸引他們。無論如何,這是 Theranos 的教訓,這家初創公司 承諾通過革命性的血液檢測技術和前寵兒“解決”醫療保健問題美國的精英。它的受害者是 真實的,即使它的技術從來都不是。 在經歷了這麼多 Uber 和 Theranos 式的創傷之後,我們已經知道 AGI 的推出會帶來什麼。



它將包括兩個階段。一是高額補貼服務的魅力攻勢。然後是醜陋的緊縮,過度依賴的用戶和機構承擔了使他們盈利的成本。 一如既往,矽谷專家淡化了市場的作用。在最近一篇題為“為什麼人工智能將拯救世界”的 文章中,著名科技投資者馬克·安德森 (Marc Andreessen) 甚至宣稱人工智能“像任何其他技術一樣,由人擁有並由人控制”。 只有風險投資家才能使用如此精緻的委婉說法。大多數現代技術都屬於公司所有。他們 ——而不是神話中的“人民”——將成為通過拯救世界賺錢的人。 他們真的在拯救它嗎?到目前為止,記錄很差。



Airbnb 和 TaskRabbit 等公司被視為陷入困境的中產階級的救世主;特斯拉的電動汽車被視為解決地球變暖的良方。代餐奶昔 Soylent 的使命是“解決”全球飢餓問題,而 Facebook 則誓言要“解決”南半球的連接問題。 這些公司都沒有拯救世界。 十年前,我將這種現象稱為“解決方案主義”,但“數字新自由主義”也同樣合適。這種世界觀 根據營利性技術解決方案重新定義了社會問題。結果,屬於公共領域的擔憂被重新想像為市場中的創業機會。



AGI 主義重新點燃了這種解決主義的熱情。去年,奧特曼先生表示,“通用人工智能可能是人類生存所必需的”,因為“我們的問題似乎太大了”,我們“如果沒有更好的工具就無法解決”。他最近斷言通用人工智能將成為人類繁榮的催化劑。 但公司需要利潤,而這種仁慈,尤其是來自燒毀投資者數十億美元的無利可圖的公司的仁慈,並不常見。



OpenAI 已從微軟接受了數十億美元的投資,並考慮再籌集 1000 億美元來 建設 AGI。這些投資需要收回——以對抗該服務驚人的隱形成本。(2 月份的一項估計顯 示,ChatGPT 的運營費用為每天 700,000 美元。) 因此,醜陋的緊縮階段,以及為了使 AGI 服務盈利而大幅提價的階段,可能會在“豐富”和“繁榮”之前到來。但到那時,有多少公共機構會將變化無常的市場誤認為是負擔得起 的技術,並開始依賴 OpenAI 昂貴的產品呢? 如果你不喜歡你的城鎮將公共交通外包給一家脆弱的初創企業,你是否希望它把福利服務、廢物管理和公共安全外包給可能更加不穩定的通用人工智能公司?



AGI 將減輕我們最棘手問題的痛苦,但不會解決它們。 新自由主義擅長利用技術來緩解社會的苦難。我記得 2017 年的一家創新科技企業承諾改善通勤者對芝加哥地鐵線路的使用。它提供獎勵來阻止地鐵乘客在高峰時段出行。它的創建者利用技術來影響需求方(乘客),認為供應方的結構性變化(例如籌集公共交通資金) 太困難了。科技將幫助芝加哥人適應城市日益惡化的基礎設施,而不是為了滿足公眾的需求而進行修復。 這就是適應偏差——希望藉助技術魔杖,我們可以對自己的困境變得麻木不仁。它是新自由主義對自力更生和韌性不懈鼓吹的產物。



信息很明確:做好準備,增強您的人力資本,並像初創企業一樣制定您的路線。AGI 主義 也呼應了這一點。比爾·蓋茨宣稱人工智能可以“幫助世界各地的人們改善生活”。 解決方案主義者的盛宴才剛剛開始:無論是對抗下一次流行病、孤獨症流行病還是通貨膨脹,人工智能已經被定位為釘住許多真實和想像的釘子的萬能錘子。然而,解決方案主義者的愚蠢行為所損失的十年揭示了此類技術修復的局限性。



可以肯定的是,矽谷的許多應用程序——用於監控我們的支出、卡路里和鍛煉製度——有時 會有所幫助。但他們大多忽視了貧困或肥胖的根本原因。如果不解決根源,我們就會陷入適應而非轉型的境地。 推動我們遵循步行習慣(有利於個人適應的解決方案)和理解為什麼我們的城鎮沒有公共空間可以行走(這是有利於集體和製度轉型的政治友好解決方案的先決條件)之間是有區別的。



但 AGI 主義與新自由主義一樣,認為公共機構缺乏想像力,而且生產力不高。他們應該適 應 AGI,至少按照 Altman 先生的說法,他最近表示,他對“我們的機構適應的速度”感到緊張——他補充說,這是“我們為什麼要開始部署這些技術”的部分原因。系統很早就開始了, 儘管它們確實很弱,這樣人們就有盡可能多的時間來做這件事。” 但機構只能適應嗎?他們不能製定自己的變革議程來提高人類的智力嗎?或者我們使用機構只是為了減輕矽谷自身技術的風險嗎?



AGI 破壞了公民道德並放大了我們已經不喜歡的趨勢。 對新自由主義的一個常見批評是,它使我們的政治生活變得扁平化,圍繞效率進行重新安排。1960 年的一篇文章《社會成本問題》已成為新自由主義經典,其中宣揚污染工廠及其 受害者不應費心將糾紛告上法庭。這樣的鬥爭是低效的——到底誰需要正義呢?——並阻礙 市場活動。相反,雙方應該私下討價還價並繼續開展業務。 這種對效率的執著正是我們通過讓最嚴重的罪犯繼續像以前一樣來“解決”氣候變化的方 式。避免監管束縛的方法是製定一項計劃(在本例中是對碳徵稅),讓污染者購買信用額 度以匹配他們排放的額外碳。 這種效率文化,其中市場衡量事物的價值並取代正義,不可避免地腐蝕公民美德。



由此產生的問題隨處可見。學者們擔心,在新自由主義下,研究和教學已經成為商品。醫生們感嘆,醫院優先考慮更有利可圖的服務,例如擇期手術,而不是緊急護理。記者們討厭他們的文章的價值是用眼球來衡量的。 現在想像一下,向這些受人尊敬的機構——大學、醫院、報紙——釋放通用人工智能,並肩 負著“修復”它們的崇高使命。他們隱含的公民使命對 AGI 來說仍然是不可見的,因為這些使命即使在他們的年度報告中也很少被量化——這些材料用於培訓 AGI 背後的模型 畢竟,誰喜歡吹噓他的文藝復興歷史課只有少數學生呢?或者她關於某個遙遠國家的腐敗問題的文章只有十幾個頁面瀏覽量?效率低下且無利可圖,即使在當前系統中,這些異常值也奇蹟般地生存了下來。



該機構的其他部門悄悄地補貼他們,優先考慮利潤驅動的“效率”之外的價值觀。 AGI 烏托邦中的情況還會如此嗎?或者通過通用人工智能來修復我們的機構是否會像將它們交給無情的顧問一樣?他們也提供數據支持的“解決方案”以最大限度地提高效率。但這些解決方案往往無法抓住機構核心的價值觀、使命和傳統之間混亂的相互作用——如果你 只觸及數據的表面,這種相互作用是很難被發現的。



事實上,類 ChatGPT 服務的卓越性能在設計上就是拒絕在數據表面之外的更深層次上把握現實。因此,儘管早期的人工智能係統依賴於明確的規則,並需要像牛頓這樣的人對重力進行理論化——詢問蘋果如何以及為何下落,但像 AGI 這樣的新系統只是通過觀察數百萬個蘋果下落到地面來學習預測重力的影響。 然而,如果 AGI 看到的只是資金短缺的機構為生存而戰,它可能永遠無法推斷出它們的真實精神。祝你好運,通過觀察已變成利潤中心的醫院來辨別希波克拉底誓言的含義。



瑪格麗特·撒切爾的另一句著名的新自由主義格言是“不存在社會這樣的東西”。 AGI 遊說團體無意中也認同這一悲觀觀點。對他們來說,值得複制的智力是個人頭腦中發生的事情的函數,而不是整個社會的函數。 但人類智力不僅是基因和個人才能的產物,也是政策和製度的產物。在國會圖書館獲得獎學金比在沒有書店甚至沒有像樣的 Wi-Fi 的地方做幾份工作要容易得多。 更多的獎學金和公共圖書館將為提高人類智力創造奇蹟,這似乎並沒有那麼有爭議。但對 於矽谷的解決方案論者來說,增強智能主要是一個技術問題——因此 AGI 令人興奮



然而,如果通用人工智能主義確實是其他意義上的新自由主義,那麼我們應該準備好看到 更少——而不是更多——支持情報的機構。畢竟,他們是那個可怕的“社會”的殘餘,對於新自由主義者來說,這個社會並不真正存在。AGI 增強智能的宏偉計劃最終可能會縮小它。 由於這種解決方案主義偏見,即使是圍繞通用人工智能的看似創新的政策想法也無法令人 興奮。以最近提出的“人工智能安全曼哈頓計劃”為例。這是基於 AGI 之外別無選擇的錯誤 想法 但是,如果政府資助曼哈頓文化和教育項目以及培育它們的機構,我們對增強智力的追求 難道不會更有效嗎?



如果沒有這樣的努力,我們現有公共機構的大量文化資源就有可能成為通用人工智能初創 企業的培訓數據集,從而強化社會不存在的謊言。 根據機器人叛亂如何(以及是否)展開,AGI 可能會或可能不會證明存在的威脅。但由於其反社會傾向和新自由主義偏見,通用人工智能主義已經是這樣的:我們不需要等待神奇的 Roomba 來質疑它的原則。





The True Threat of Artificial Intelligence https://www.nytimes.com/2023/06/30/opinion/artificial-intelligencedanger.html 2023/7/3 下午4:32 Opinion | The True Threat of Artificial Intelligence - The New York Times https://www.nytimes.com/2023/06/30/opinion/artificial-intelligence-danger.html 2/7 Discussions of A.G.I. are rife with such apocalyptic scenarios. Yet a nascent A.G.I. lobby of academics, investors and entrepreneurs counter that, once made safe, A.G.I. would be a boon to civilization. Mr. Altman, the face of this campaign, embarked on a global tour to charm lawmakers. Earlier this year he wrote that A.G.I. might even turbocharge the economy, boost scientific knowledge and “elevate humanity by increasing abundance.” This is why, for all the hand-wringing, so many smart people in the tech industry are toiling to build this controversial technology: not using it to save the world seems immoral. They are beholden to an ideology that views this new technology as inevitable and, in a safe version, as universally beneficial. Its proponents can think of no better alternatives for fixing humanity and expanding its intelligence. But this ideology — call it A.G.I.-ism — is mistaken. The real risks of A.G.I. are political and won’t be fixed by taming rebellious robots. The safest of A.G.I.s would not deliver the progressive panacea promised by its lobby. And in presenting its emergence as all but inevitable, A.G.I.-ism distracts from finding better ways to augment intelligence. Unbeknown to its proponents, A.G.I.-ism is just a bastard child of a much grander ideology, one preaching that, as Margaret Thatcher memorably put it, there is no alternative, not to the market. Rather than breaking capitalism, as Mr. Altman has hinted it could do, A.G.I. — or at least the rush to build it — is more likely to create a powerful (and much hipper) ally for capitalism’s most destructive creed: neoliberalism. Fascinated with privatization, competition and free trade, the architects of neoliberalism wanted to dynamize and transform a stagnant and labor-friendly economy through markets and deregulation. Some of these transformations worked, but they came at an immense cost. Over the years, neoliberalism drew many, many critics, who blamed it for the Great Recession and financial crisis, Trumpism, Brexit and much else. It is not surprising, then, that the Biden administration has distanced itself from the ideology, acknowledging that markets sometimes get it wrong. Foundations, think tanks and academics have even dared to imagine a post-neoliberal future. Yet neoliberalism is far from dead. Worse, it has found an ally in A.G.I.-ism, which stands to reinforce and replicate its main biases: that private actors outperform public ones (the market bias), that adapting to reality beats transforming it (the adaptation bias) and that efficiency trumps social concerns (the efficiency bias). These biases turn the alluring promise behind A.G.I. on its head: Instead of saving the world, the quest to build it will make things only worse. Here is how. 2023/7/3 下午4:32 Opinion | The True Threat of Artificial Intelligence - The New York Times https://www.nytimes.com/2023/06/30/opinion/artificial-intelligence-danger.html 3/7 A.G.I. will never overcome the market’s demands for profit. Remember when Uber, with its cheap rates, was courting cities to serve as their public transportation systems? It all began nicely, with Uber promising implausibly cheap rides, courtesy of a future with self-driving cars and minimal labor costs. Deep-pocketed investors loved this vision, even absorbing Uber’s multibillion-dollar losses. But when reality descended, the self-driving cars were still a pipe dream. The investors demanded returns and Uber was forced to raise prices. Users that relied on it to replace public buses and trains were left on the sidewalk. The neoliberal instinct behind Uber’s business model is that the private sector can do better than the public sector — the market bias. It’s not just cities and public transit. Hospitals, police departments and even the Pentagon increasingly rely on Silicon Valley to accomplish their missions. With A.G.I., this reliance will only deepen, not least because A.G.I. is unbounded in its scope and ambition. No administrative or government services would be immune to its promise of disruption. Moreover, A.G.I. doesn’t even have to exist to lure them in. This, at any rate, is the lesson of Theranos, a start-up that promised to “solve” health care through a revolutionary blood-testing technology and a former darling of America’s elites. Its victims are real, even if its technology never was. After so many Uber- and Theranos-like traumas, we already know what to expect of an A.G.I. rollout. It will consist of two phases. First, the charm offensive of heavily subsidized services. Then the ugly retrenchment, with the overdependent users and agencies shouldering the costs of making them profitable. As always, Silicon Valley mavens play down the market’s role. In a recent essay titled “Why A.I. Will Save the World,” Marc Andreessen, a prominent tech investor, even proclaims that A.I. “is owned by people and controlled by people, like any other technology.” Only a venture capitalist can traffic in such exquisite euphemisms. Most modern technologies are owned by corporations. And they — not the mythical “people” — will be the ones that will monetize saving the world. And are they really saving it? The record, so far, is poor. Companies like Airbnb and TaskRabbit were welcomed as saviors for the beleaguered middle class; Tesla’s electric cars were seen as a remedy to a warming planet. Soylent, the meal-replacement shake, 2023/7/3 下午4:32 Opinion | The True Threat of Artificial Intelligence - The New York Times https://www.nytimes.com/2023/06/30/opinion/artificial-intelligence-danger.html 4/7 embarked on a mission to “solve” global hunger, while Facebook vowed to “solve” connectivity issues in the Global South. None of these companies saved the world. A decade ago, I called this solutionism, but “digital neoliberalism” would be just as fitting. This worldview reframes social problems in light of for-profit technological solutions. As a result, concerns that belong in the public domain are reimagined as entrepreneurial opportunities in the marketplace. A.G.I.-ism has rekindled this solutionist fervor. Last year, Mr. Altman stated that “A.G.I. is probably necessary for humanity to survive” because “our problems seem too big” for us to “solve without better tools.” He’s recently asserted that A.G.I. will be a catalyst for human flourishing. But companies need profits, and such benevolence, especially from unprofitable firms burning investors’ billions, is uncommon. OpenAI, having accepted billions from Microsoft, has contemplated raising another $100 billion to build A.G.I. Those investments will need to be earned back — against the service’s staggering invisible costs. (One estimate from February put the expense of operating ChatGPT at $700,000 per day.) Thus, the ugly retrenchment phase, with aggressive price hikes to make an A.G.I. service profitable, might arrive before “abundance” and “flourishing.” But how many public institutions would mistake fickle markets for affordable technologies and become dependent on OpenAI’s expensive offerings by then? And if you dislike your town outsourcing public transportation to a fragile start-up, would you want it farming out welfare services, waste management and public safety to the possibly even more volatile A.G.I. firms? A.G.I. will dull the pain of our thorniest problems without fixing them. Neoliberalism has a knack for mobilizing technology to make society’s miseries bearable. I recall an innovative tech venture from 2017 that promised to improve commuters’ use of a Chicago subway line. It offered rewards to discourage metro riders from traveling at peak times. Its creators leveraged technology to influence the demand side (the riders), seeing structural changes to the supply side (like raising public transport funding) as too difficult. Tech would help make Chicagoans adapt to the city’s deteriorating infrastructure rather than fixing it in order to meet the public’s needs. This is the adaptation bias — the aspiration that, with a technological wand, we can become desensitized to our plight. It’s the product of neoliberalism’s relentless cheerleading for self-reliance and resilience. 2023/7/3 下午4:32 Opinion | The True Threat of Artificial Intelligence - The New York Times https://www.nytimes.com/2023/06/30/opinion/artificial-intelligence-danger.html 5/7 The message is clear: gear up, enhance your human capital and chart your course like a start-up. And A.G.I.-ism echoes this tune. Bill Gates has trumpeted that A.I. can “help people everywhere improve their lives.” The solutionist feast is only getting started: Whether it’s fighting the next pandemic, the loneliness epidemic or inflation, A.I. is already pitched as an all-purpose hammer for many real and imaginary nails. However, the decade lost to the solutionist folly reveals the limits of such technological fixes. To be sure, Silicon Valley’s many apps — to monitor our spending, calories and workout regimes — are occasionally helpful. But they mostly ignore the underlying causes of poverty or obesity. And without tackling the causes, we remain stuck in the realm of adaptation, not transformation. There’s a difference between nudging us to follow our walking routines — a solution that favors individual adaptation — and understanding why our towns have no public spaces to walk on — a prerequisite for a politics-friendly solution that favors collective and institutional transformation. But A.G.I.-ism, like neoliberalism, sees public institutions as unimaginative and not particularly productive. They should just adapt to A.G.I., at least according to Mr. Altman, who recently said he was nervous about “the speed with which our institutions can adapt” — part of the reason, he added, “of why we want to start deploying these systems really early, while they’re really weak, so that people have as much time as possible to do this.” But should institutions only adapt? Can’t they develop their own transformative agendas for improving humanity’s intelligence? Or do we use institutions only to mitigate the risks of Silicon Valley’s own technologies? A.G.I. undermines civic virtues and amplifies trends we already dislike. A common criticism of neoliberalism is that it has flattened our political life, rearranging it around efficiency. “The Problem of Social Cost,” a 1960 article that has become a classic of the neoliberal canon, preaches that a polluting factory and its victims should not bother bringing their disputes to court. Such fights are inefficient — who needs justice, anyway? — and stand in the way of market activity. Instead, the parties should privately bargain over compensation and get on with their business. This fixation on efficiency is how we arrived at “solving” climate change by letting the worst offenders continue as before. The way to avoid the shackles of regulation is to devise a scheme — in this case, taxing carbon — that lets polluters buy credits to match the extra carbon they emit. 2023/7/3 下午4:32 Opinion | The True Threat of Artificial Intelligence - The New York Times https://www.nytimes.com/2023/06/30/opinion/artificial-intelligence-danger.html 6/7 This culture of efficiency, in which markets measure the worth of things and substitute for justice, inevitably corrodes civic virtues. And the problems this creates are visible everywhere. Academics fret that, under neoliberalism, research and teaching have become commodities. Doctors lament that hospitals prioritize more profitable services such as elective surgery over emergency care. Journalists hate that the worth of their articles is measured in eyeballs. Now imagine unleashing A.G.I. on these esteemed institutions — the university, the hospital, the newspaper — with the noble mission of “fixing” them. Their implicit civic missions would remain invisible to A.G.I., for those missions are rarely quantified even in their annual reports — the sort of materials that go into training the models behind A.G.I. After all, who likes to boast that his class on Renaissance history got only a handful of students? Or that her article on corruption in some faraway land got only a dozen page views? Inefficient and unprofitable, such outliers miraculously survive even in the current system. The rest of the institution quietly subsidizes them, prioritizing values other than profit-driven “efficiency.” Will this still be the case in the A.G.I. utopia? Or will fixing our institutions through A.G.I. be like handing them over to ruthless consultants? They, too, offer data-bolstered “solutions” for maximizing efficiency. But these solutions often fail to grasp the messy interplay of values, missions and traditions at the heart of institutions — an interplay that is rarely visible if you only scratch their data surface. In fact, the remarkable performance of ChatGPT-like services is, by design, a refusal to grasp reality at a deeper level, beyond the data’s surface. So whereas earlier A.I. systems relied on explicit rules and required someone like Newton to theorize gravity — to ask how and why apples fall — newer systems like A.G.I. simply learn to predict gravity’s effects by observing millions of apples fall to the ground. However, if all that A.G.I. sees are cash-strapped institutions fighting for survival, it may never infer their true ethos. Good luck discerning the meaning of the Hippocratic oath by observing hospitals that have been turned into profit centers. Margaret Thatcher’s other famous neoliberal dictum was that “there is no such thing as society.” The A.G.I. lobby unwittingly shares this grim view. For them, the kind of intelligence worth replicating is a function of what happens in individuals’ heads rather than in society at large. But human intelligence is as much a product of policies and institutions as it is of genes and individual aptitudes. It’s easier to be smart on a fellowship in the Library of Congress than while working several jobs in a place without a bookstore or even decent Wi-Fi. 2023/7/3 下午4:32 Opinion | The True Threat of Artificial Intelligence - The New York Times https://www.nytimes.com/2023/06/30/opinion/artificial-intelligence-danger.html 7/7 It doesn’t seem all that controversial to suggest that more scholarships and public libraries will do wonders for boosting human intelligence. But for the solutionist crowd in Silicon Valley, augmenting intelligence is primarily a technological problem — hence the excitement about A.G.I. However, if A.G.I.-ism really is neoliberalism by other means, then we should be ready to see fewer — not more — intelligence-enabling institutions. After all, they are the remnants of that dreaded “society” that, for neoliberals, doesn’t really exist. A.G.I.’s grand project of amplifying intelligence may end up shrinking it. Because of such solutionist bias, even seemingly innovative policy ideas around A.G.I. fail to excite. Take the recent proposal for a “Manhattan Project for A.I. Safety.” This is premised on the false idea that there’s no alternative to A.G.I. But wouldn’t our quest for augmenting intelligence be far more effective if the government funded a Manhattan Project for culture and education and the institutions that nurture them instead? Without such efforts, the vast cultural resources of our existing public institutions risk becoming mere training data sets for A.G.I. start-ups, reinforcing the falsehood that society doesn’t exist. Depending on how (and if) the robot rebellion unfolds, A.G.I. may or may not prove an existential threat. But with its antisocial bent and its neoliberal biases, A.G.I.-ism already is: We don’t need to wait for the magic Roombas to question its tenets. Evgeny Morozov, the author of “To Save Everything, Click Here: The Folly of Technological Solutionism,” is the founder and publisher of The Syllabus and the host of the podcast “The Santiago Boys.” The Times is committed to publishing a diversity of letters to the editor. We’d like to hear what you think about this or any of our articles. Here are some tips. And here’s our email: letters@nytimes.com. Follow The New York Times Opinion section on Facebook, Twitter (@NYTopinion) and Instagram. A version of this article appears in print on , Section SR, Page 6 of the New York edition wit

2023年6月25日 星期日

人工智能在選舉中的使用引發了對護欄的爭奪

 

人工智能在選舉中的使用引發了對護欄的爭奪

競選規則的空白使政客們能夠傳播由日益強大的人工智能技術生成的圖像和信息。

經過許婷婷和史蒂文··邁爾斯 美國東部時間2023 6 25 日上午 5:00

 

在多倫多,本週市長選舉中的一名候選人發誓要清理無家可歸者營地,他發布了一系列由人工智能闡釋的競選承諾,其中包括人們在市中心街道上露營的假反烏托邦圖像,以及在公園裡搭起帳篷的捏造圖像。

 

在新西蘭,一個政黨在 Instagram 上發布了一幅逼真的渲染圖,描繪了假劫匪在一家珠寶店橫衝直撞的情景。 在芝加哥,四月份市長選舉中的亞軍抱怨說,一個偽裝成新聞媒體的推特賬戶使用人工智能克隆了他的聲音,這表明他縱容 警察的暴行。

 

幾個月前,人工智能為政治競選活動撰寫的緩慢的籌款電子郵件和宣傳圖片開始逐漸變成由該技術創建的源源不斷的競選材料,改寫了世界各地民主選舉的政治劇本。 政治顧問、選舉研究人員和立法者越來越多地表示,建立新的護欄,例如限制合成廣告的立法,應該成為當務之急。

 

現有的防禦措施,例如聲稱可以檢測人工智能內容的社交媒體規則和服務,未能起到多大作用來減緩這一趨勢。

 

隨著 2024 年美國總統競選開始升溫,一些競選活動已經開始測試該技術。拜登總統宣布競選連任後,共和黨全國委員會發布了一段人工生成的世界末日場景圖像的視頻,而佛羅里達州州長羅恩·德桑蒂斯則發布了前總統唐納德· J·特朗普與前衛生 官員安東尼·福奇博士的假照片。官方的。民主黨在春季嘗試了由人工智能起草的籌款信息,發現它們在鼓勵參與和捐贈方面往往比完全由人類編寫的文案更有效。

 

一些政客將人工智能視為幫助降低競選成本的一種方式,通過使用人工智能來創建對辯論問題或攻擊廣告的即時響應,或者分析可能需要昂貴專家的數據。 與此同時,該技術有可能向廣大受眾傳播虛假信息。

 

專家表示,一段不討人喜歡的虛假視頻、一封充滿計算機砲制的虛假敘 述的電子郵件或捏造的城市衰敗圖像,可能會向選民展示他們希望看到的東西,從而強化偏見並擴大黨派分歧。 該技術已經比手動操作強大得多——雖然並不完美,但改進迅速且易於學習。

 

OpenAI 的首席執行官薩姆·奧爾特曼 (Sam Altman) 在去年通過其廣受歡迎的 ChatGPT 聊天機器人推動了人工智能熱潮,今年 5 月,他對參議院小組委員會表示,他對選舉季感到緊張。 他表示,該技術操縱、說服、提供一對一互動虛假信息的能力是一個值得關注的重要領域

 

紐約民主黨眾議員 Yvette D. Clarke 在上個月的一份聲明中表示,2024 年的選舉週期將成為第一次人工智能生成內容盛行的選舉。她和其他國會民主黨人,包括明尼蘇達州參議員艾米·克洛布查爾,提出了立法,要求使用人工生成材料的政治廣告附帶免責聲明。

 

華盛頓州的一項類似法案最近簽署成為法律。 美國政治顧問協會最近譴責在政治競選中使用深度造假內容違反了其道德準則。 該組織即將上任的主席拉里· (Larry Huynh) 表示:人們會忍不住挑戰極限,看看能把事情做到什麼程度。” “與任何工具 一樣,都可能存在不良用途和不良行為,利用它們來欺騙選民、誤導選民、讓人相信一些不存在的東西。

 

這項技術最近對政治的入侵令多倫多感到意外,這座城市支持人工智能研究和初創企業蓬勃發展的生態系統。市長選舉將於週一舉行。 競選中的保守派候選人、前新聞專欄作家安東尼·福雷(Anthony Furey)最近在一份長達數十頁的文件中闡述了自己的政綱, 其中充滿了綜合生成的內容,以幫助他確立嚴厲打擊犯罪的立場。 仔細一看,可以清楚地發現許多圖像都不是真實的:一個實驗室場景的科學家看起來像外星斑點。另一張渲染圖中,一名女子的羊毛衫上別著一枚別針,上面的字跡難以辨認。類似的標記也出現在建築工地的警示膠帶圖像中。福雷的競選活動還使用了一張合成肖像,上面是一位坐著的女性,兩隻手臂交叉,第三隻手臂碰著下巴。

 

其他候選人在本月的一場辯論中利用這張照片來搞笑:我們實際上使用的是真實照片,喬什·馬特洛說,他展示了一張家人的照片,並補充說我們照片中沒有人有三隻手臂。儘管如此,草率的效果圖還是被用來放大福雷先生的論點。他獲得了足夠的動力,成為這場有 100 多名候選人的選舉中最知名的名字之一。

 

在同一場辯論中,他承認在他的競選活動中使用了這項技術,並補充說當我們繼續更多地了解人工智能時,我們將會在這裡開懷大笑政治專家擔心,人工智能如果被濫用,可能會對民主進程產生腐蝕作用。錯誤信息是一種持續存在的風險;Furey 的一位競 爭對手在一場辯論中表示,雖然她的員工使用 ChatGPT,但他們總是對其輸出進行事實核查。如果有人能夠製造噪音、製造不確定性或編造虛假敘述,這可能是影響選民並贏得選舉的有效方式,

 

布魯金斯學會高級研 究員達雷爾·M·韋斯特(Darrell M. West)上個月在一份報告中寫道。由於 2024 年總統選舉可能會涉及幾個州的數万名選民,因此任何能夠推動人們朝某個方向或另一個方向發展的因素最終都可能具有決定性作用。

 

Reality Defender(一家提供人工智能檢測服務的公司)的首席執行官本·科爾曼 (Ben Colman) 表示,越來越複雜的人工智能內容越來越頻繁地出現在社交網絡上,而社交網絡基本上不願意或無法對其進行監管。他說,在問題得到解決之前,就會造成不可逆轉的損害事後向數百萬用戶解釋他們已經看到和分享的內容是假的,這太少了,也太晚了,科爾曼先生說。 本月的幾天裡,Twitch 直播中的拜登先生和特朗普先生的合成版本之間不間斷地進行著不安全的辯論。虛假信息專家表示, 兩者都被明確認定為模擬的人工智能實體,但如果有組織的政治運動創造了此類內容,並且在沒有任何披露的情況下廣泛傳播,那麼很容易降低真實材料的價值。

 

政客們可以擺脫責任,聲稱妥協行為的真實鏡頭不是真實的,這種現像被稱為說謊者的紅利。普通公民可以自己製造假貨, 而其他人則可以使自己更深入地陷入兩極分化的信息泡沫中,只相信他們選擇相信的消息來源。如果人們不能相信自己的眼睛和耳朵,他們可能只會說,誰知道呢?’”

 

喬治城大學安全與新興技術中心研究員喬什·A·戈爾茨坦在一封電子郵件中寫道。這可能會促進從鼓勵良好習慣(例如橫向閱讀和尋找可靠來源)的健康懷疑主義轉變為不可能知道真相的不健康懷疑主義。

 

蒂芙尼· (Tiffany Hsu) 是一名科技記者,報導錯誤信息和虛假信息。 @蒂夫赫蘇 史蒂文··邁爾斯為《泰晤士報》報導錯誤信息。他曾在華盛頓、莫斯科、巴格達和北京工作,撰寫的文章榮獲 2021 年普利策公共服務獎。他還是 《新沙皇:弗拉基米爾·普京的崛起與統治》一書的作者。 @史蒂文·利邁爾斯 • Facebook

2023年6月13日 星期二

驪歌不再的時代

驪歌不再的時代

2023-06-13 00:48 聯合報/ 潘襎

年過五、六十歲的人,大都經歷畢業典禮上高唱《驪歌》的年代。我們從小到大經歷過無數次畢業典禮,多少別離的祝福與感傷發生在六、七月。

最初的畢業驪歌是華文憲(1899-1940)作詞,「驪歌初動,離情轆轆,驚惜韶光匆促…」「更願諸君,矢勤矢勇,指戈長白山麓…」。這首《驪歌》應是創作於東北九一八事變後的國民政府時期黨歌,往後流傳為校園畢業歌曲。原曲取自詩人羅伯特・伯恩斯(Robert Burns)填寫之蘇格蘭民謠《友誼萬歲》(Auld Lang Syne)。《驪歌》詞句優雅,卻蘊含著憂患時代的氣息。

另外一首校園驪歌更有名,我們通稱為《青青校樹》,填詞者郭輝(1892-1962)一生充滿傳奇,原曲來自日語驪歌《仰尊吾師恩》;原曲為H. N. D.作曲、布羅斯蘭(T.H. Brosnan)填詞的《放學歌》(Song for the close of school)。郭輝生於新竹南勢地區,一九一四年台北師範學校畢業,初任教新竹公學校,輾轉到福州謀得教職,娶妻生子;為餬口入滿州國,官至稅捐局長。日本敗戰,滿州國隨亡,郭輝返台任省教育廳編輯委員,一九四八年返新竹任教於新竹女中,任新竹文獻委員會委員;一九五八年遷居台北,去世於古亭。郭輝不幸處於一個不斷進行告別的時代,生於清朝、長於日治、謀職於國府大陸、居要職於滿州國,回台任職省府寫下《驪歌》,國府撤退來台後以教職與文獻考據而終老。

「青青校樹,萋萋庭草,欣霑化雨如膏;筆硯相親,晨昏歡笑,奈何離別今朝。世路多歧,人海遼闊,揚帆待發清曉;誨我諄諄,南針在抱,仰沾師道山高…」;整首分三段,反覆吟唱,離情依依,潸然淚下。

離別的歌曲裡面,跨越各年齡層,在華文世界耳熟能詳的是李叔同《送別》。李叔同於一八九八年奉母移居上海,出席「許幻園城南草堂雅集」,頻頻掄魁,幻園隔年闢室相邀入住草堂。爾後李叔同留學東京美術學校,畢業歸國任教。一九一五年冬雪,一日,幻園至其庭外高喊:「叔同兄,我家破產了,咱們後會有期!」李叔同驚覺出門,僅見他踏雪而去的背影。他立雪良久,返室內以鋼琴彈奏日語歌曲《旅愁》。這首歌曲乃犬童球溪依據約翰龐德・歐德威(John Pond Ordway, 1824-1880)《夢見家與母親》(Dreaming of Home and Mother,1868)填詞而成。李叔同改填為「長亭外,古道邊,芳草碧連天;晚風拂柳笛聲殘,夕陽山外山。天之涯,地之角,知交半零落;一壺濁酒盡餘歡,今宵別夢寒」。情深則別苦,刻骨銘心,故能千古絕唱。

驪歌駢律對仗,文字典雅,出自於先秦時代「驪駒」歌謠,形容人在征途。李白有「送君灞陵亭,灞水流浩浩…正當今夕斷腸處,驪歌愁決不忍聽。」王之渙〈涼州詞〉:「黃河遠上白雲間,一片孤城萬仞山;羌笛何須怨楊柳,春風不度玉門關。」「柳」與「留」同音,唐人折柳贈別,以寓挽留之情。

經歷數千年驪歌之別苦,周華健在《朋友》中高唱「這些年,一個人,風也過,雨也走,有過淚,有過錯…真愛過,才會懂,會寂寞,會回首,終有夢,終有你,在心中…」一九九七年的這首歌,揮別了驪歌的時代。

今日校園不再響起驪歌,積極面對未來,充滿歡樂,甚而採取KUSO手法來炒熱氣氛。驪歌不再,我們依舊希望擁有愛來承載關懷,懷著夢想迎向未來。(作者為亞洲大學現代美術館館長)

2023年6月12日 星期一

2023年5月7日 星期日

時論廣場》善用Sora 人人都可成為專業導演

時論廣場》善用Sora 人人都可成為專業導演

(林建甫)
19:52 2024/03/04 言

最近OpenAI又推出了一項新科技,使用者給出一段文字描述就能由旗下最新的AI影片產生器Sora直接生成一段60秒的逼真 影片,震撼全球。 9段Sora影片,包括走在熱鬧東京街頭的時尚女性、淘金時代的場景鳥瞰、老式休旅車高速行走在山路、踏著皚皚白雪奔跑 的猛獁象……。每段影片,看來都非常專業,運用鏡頭推移轉換,準確地表達角色情感與和視覺風格。外媒《Wired》聲 稱,這是沒有在其他影片生成AI模型中看見過的真實感,並且生成的影片長於其他模型。 現在AI的智慧實在是突飛猛進。

1980年代,我還在讀大學的時候,有朋友告訴我交大就是一個很大的電腦學校,各科系都是 在電腦裡面的零件去分工研究。但是當時大家覺得電腦根本稱不上一個腦,只是一部計算器而已。今天透過OpenAI的 ChatGPT,電腦已經可以跟你聊天對話,一點違和感都沒有。

根據OpenAI在官網上的介紹,Sora能夠生成包含多名角色、特定動作類型以及大量細節的複雜場景,而且AI不僅了解用戶 在提示詞所說的各種物體,還知道這些物體是如何存在於現實世界,進而營造出讓人驚豔的逼真感受。 看起來AI逐漸可以摸透人類的想法,然而這還是大量計算的結果,不是像人類直覺的反應。

不過令人擔心的是,AI已經侵入 人類的藝術工作層面。一般我們說科學的研究是邏輯推理,這種思考是「垂直思考」。電腦運算的速度很快,勝過人類,這 可以讓人類輸得心服口服。但是這種藝術類的範疇,屬於「水平思考」,不是直線邏輯的推理而是天外飛來一筆的想像。美 學的東西,現在電腦竟然可以做得這麼好,令人驚嘆。

然而仔細思量,藝術作品人類還是可以進行邏輯的解析,將其脈絡化,所以當電腦把訣竅寫入程式,也可以依樣畫葫蘆,做 出類似的作品,或甚至是創造出新鮮的東西,也令人不得不佩服。最近網路流傳一個故事,書法家孫大川寫了個對聯,右 聯:「酒二共識」,左聯:「一盅各表」,廣求橫批,一直沒人對得很好。沒想到上網詢問,ChatGPT居然回答對出了神橫 批:「合瓶共醇」,就像是神來之筆。

然而,這樣的發展,令人擔心的事就誠如我最近看到的一個段子,AI是不是發展錯方向?AI怎麼不是要幫我省卻工作上的辛 苦:倒垃圾、照顧小孩,反而是來搶走我的工作? 去年好萊塢的罷工,先是編劇抵制ChatGPT:抗議AI侵犯創作權益,後來又有編輯拒絕為ChatGPT產生的劇本草稿修改潤 飾,因為他們感覺這是為AI打工,雖傷害性不大,但侮辱性極強。

另外在日本, AI繪圖工具MIMIC也遭到繪師的集體抗 議,因為只要使用者上傳同一名繪師30幅以上的原創作品,給予 AI進行訓練後,接著MIMIC就能自動產出與該繪師藝術風 格相似的圖片。這不但衝擊到了繪師的商業利益,而且擔心有心人士透過MIMIC生成與他們繪圖風格相似的作品,接著在上 面加註偏激文字、濫用與散布,那麼網路上的人們又該如何分辨圖片和訊息的真假。

回過來說,目前Sora影片還是有些缺點,例如影片中的角色可能走過雪地,沒有腳印;可能咬了一口餅乾,之後餅乾卻沒有 咬痕。目前Sora對於光影的移動掌握還不夠精準,也還做不到準確描述一些物理作用的細節,比如人類手部的精巧動作,但 一般人可能不會注意到,相信未來這一定可以改進解決的。 我們應該要如何面對這樣的衝擊?由於晶片、程式、算力還在突飛猛進的發展,AI再來應該更是等比級數的進化。工作及智 財權的保障問題固然要解決,如何懂得駕馭新進的AI,善用它們來為人類工作,恐怕才是職場勝利者最該做的事。

「老高與小茉」這些YT(YouTuber)應該也很興奮,因為從此不用在素材庫裡找不太合適的影片,全部可以自主貼近主題 的生成。對於一般人,玩玩票,自己編個劇,就可以當導演,生成段影片,搞不好還可以找到自己被埋沒的天賦。至於我, 就等著Sora正式公布後,下個指令描述來生成影片,加入我的簡報,讓我的演講更加生動。(作者為中信金控首席經濟學 家、中信金融管理學院講座教授)

2023年5月6日 星期六

AI 與社會

AI 與社會

AI 孫燕姿

AI 詐騙

deepfake: 印度外長 日本首相

weapon systems

無人機

人工智能的下一個恐懼:好萊塢的殺手機器人成為軍隊的工具

 

美國國家安全官員警告說,這項新技術有可能顛覆戰爭、網絡衝突,以及——在最極端的情況下——使用核武器。

 

經過大衛·E·桑格

2023 5 5

 

當拜登總統在 10 月份宣布嚴格限制向中國出售最先進的計算機芯片時,他出售這些芯片的部分原因是讓美國工業有機會恢復其競爭力。

但在五角大樓和國家安全委員會,還有第二個議程:軍備控制。

該理論認為,如果中國軍方無法獲得芯片,它可能會放慢開發人工智能驅動武器的步伐。這將使白宮和全世界有時間找出在傳感器、導彈和網絡武器中使用人工智能的一些規則,並最終防範好萊塢製造的一些噩夢——不顧它們的人類創造者自動殺手機器人和計算機。

現在,圍繞著流行的 ChatGPT 聊天機器人和其他生成式人工智能軟件的恐懼迷霧使得將芯片限制在北京看起來只是一個臨時解決方案。

週四,當拜登先生在白宮拜訪正在努力限制技術風險的技術高管會議時,他的第一條評論是“你們正在做的事情具有巨大的潛力和巨大的危險。”

他的國家安全助手說,這反映了最近的機密簡報,內容涉及新技術有可能顛覆戰爭、網絡衝突,以及——在最極端的情況下——關於使用核武器的決策。

但就在拜登發出警告時,五角大樓官員在技術論壇上表示,他們認為暫停開發下一代 ChatGPT 和類似軟件六個月的想法是個壞主意:中國人不會等等,俄羅斯人也不會。

“如果我們停下來,猜猜誰不會停下來:海外的潛在對手,”五角大樓首席信息官約翰謝爾曼週三表示。“我們必須繼續前進。”

他的直言不諱突顯了當今整個國防界的緊張氣氛。沒有人真正知道這些新技術在開發和控制武器方面的能力,他們也不知道什麼樣的軍備控制制度(如果有的話)可能奏效。

預感是模糊的,但令人深感擔憂。ChatGPT 能否授權以前無法輕易獲得破壞性技術的不良行為者?它會不會加速超級大國之間的對抗,從而使外交和談判的時間所剩無幾?

“這個行業並不愚蠢,你已經看到了自我監管的努力,”谷歌前董事長埃里克施密特說,他曾在 2016 年至 2020 年擔任國防創新委員會首任主席。

施密特先生說:“因此,業界現在正在進行一系列非正式對話——都是非正式的——關於人工智能安全規則是什麼樣子的,”施密特先生與前國務卿亨利基辛格一起撰寫了一系列關於人工智能顛覆地緣政治的潛力的文章和書籍。

任何測試過 ChatGPT 初始迭代的人都清楚將護欄放入系統的初步努力。這些機器人不會回答有關如何用釀造的藥物傷害某人的問題,例如,或者如何炸毀大壩或削弱核離心機,美國和其他國家在沒有人工智能工具的情況下參與的所有行動.

但是那些行動黑名單只會減緩這些系統的濫用;很少有人認為他們可以完全阻止這種努力。總有一些技巧可以繞過安全限制,任何試圖關閉汽車安全帶警告系統緊急蜂鳴聲的人都可以證明這一點。

 

儘管新軟件讓這個問題變得普遍,但對於五角大樓來說,這並不是什麼新鮮事。十年前發布了關於開發自主武器的第一條規則。五角大樓的聯合人工智能中心成立於五年前,旨在探索人工智能在戰鬥中的應用。一些武器已經在自動駕駛儀上運行。擊落進入受保護空域的導彈或飛機的愛國者導彈長期以來一直具有“自動”模式。它使他們能夠在沒有人為干預的情況下開火,當被傳入的目標淹沒時,速度快於人類的反應。但它們應該受到人類的監督,人類可以在必要時中止攻擊。

伊朗最高核科學家穆赫森·法赫里扎德 (Mohsen Fakhrizadeh) 的暗殺行動是由以色列的摩薩德 (Mossad) 使用由人工智能輔助的自動機槍執行的,儘管似乎已經進行了高度遙控。俄羅斯最近表示,它已經開始製造——但尚未部署——其海底波塞冬核魚雷。如果它不辜負俄羅斯的炒作,這種武器將能夠自主穿越海洋,避開現有的導彈防禦系統,在發射幾天后發射核武器。

到目前為止,還沒有涉及此類自主武器的條約或國際協定。在軍備控制協議被放棄的速度快於談判速度的時代,達成這樣的協議的希望渺茫。但 ChatGPT 及其同類產品提出的挑戰類型不同,而且在某些方面更為複雜。

在軍隊中,注入人工智能的系統可以加快戰場決策的速度,以至於它們會產生全新的意外打擊風險,或者根據誤導性或故意錯誤的攻擊警報做出決策。

“人工智能在軍事和國家安全方面的一個核心問題是如何防禦比人類決策速度更快的攻擊,我認為這個問題尚未解決,”施密特先生說。“換句話說,導彈來得太快了,必須有自動反應。如果這是一個錯誤的信號會怎樣?”

冷戰期間充斥著錯誤警告的故事——曾經是因為本應用於練習核反應的訓練磁帶不知何故被輸入了錯誤的系統,並引發了蘇聯大規模進攻的警報。(良好的判斷力導致每個人都解除警戒。)新美國安全中心的保羅沙雷在他 2018 年出版的《無人軍隊》一書中指出,“從 1962 年到 2002 年,至少發生了 13 起近用核事件”,這“這證實了這樣一種觀點,即未遂事件是核武器的正常情況,即使是可怕的情況。”

出於這個原因,當超級大國之間的緊張局勢遠低於今天時,歷任總統都試圖通過談判為各方的核決策留出更多時間,這樣就沒有人會匆忙捲入衝突。但生成式人工智能有可能將各國推向另一個方向,即加快決策速度。

好消息是大國可能會小心——因為他們知道對手的反應會是什麼樣子。但到目前為止,還沒有商定的規則。

前國務院官員、現任 RiceHadleyGates and Manuel 諮詢集團負責人的 Anja Manuel 最近寫道,即使中國和俄羅斯還沒有準備好就AI 進行軍備控制談判,關於該主題的會議將導致討論人工智能的哪些用途被視為“超出範圍”。

當然,五角大樓也會擔心同意許多限制。

計算機科學家丹尼·希利斯 (Danny Hillis) 說:“我非常努力地爭取獲得一項政策,如果你擁有武器的自主元件,就需要一種方法來關閉它們,”他是用於人工智能的並行計算機的先驅。曾在國防創新委員會任職的希利斯先生說,五角大樓官員反擊說,“如果我們可以關閉它們,敵人也可以關閉它們。”

更大的風險可能來自個體行為者、恐怖分子、勒索軟件組織或擁有先進網絡技能的較小國家(如朝鮮),它們學習如何克隆更小、限制更少的 ChatGPT 版本。他們可能會發現生成式 AI 軟件非常適合加速網絡攻擊和瞄準虛假信息。

微軟的信任和安全運營負責人湯姆伯特正在加速使用新技術改造其搜索引擎,他在喬治華盛頓大學最近的一個論壇上表示,他認為人工智能係統將幫助防禦者比他們更快地檢測異常行為會幫助攻擊者。其他專家不同意。但他表示,他擔心人工智能會“加速”有針對性的虛假信息的傳播。

所有這一切都預示著一個新的軍備控制時代。

一些專家表示,由於無法阻止 ChatGPT 和類似軟件的傳播,最好的希望是限制推進該技術所需的專用芯片和其他計算能力。毫無疑問,這將是未來幾年提出的眾多不同軍備控制計劃之一,而此時主要核大國至少似乎對就舊武器進行談判不感興趣,更不用說新武器了。

 

大衛·E·桑格 (David E. Sanger)是一名白宮和國家安全記者。在為時報工作的 38 年報導生涯中,他曾帶領三個團隊獲得普利策獎,最近一次是在 2017

2023年4月2日 星期日

林一平/AI推動人的演化

林一平/AI推動人的演化

2023-04-03 03:48 聯合報

今日生成式AI的功能演進快速,每個人或多或少都有如下焦慮感:如何運用AI?我會不會被AI取代?其實AI和人類的互動,圖靈(Alan Mathison Turing)早已點出其關鍵

首先,圖靈認為,如果一台機器被期望不會出錯,那麼這部機器是不可能具有智慧的。洛夫萊斯夫人(即是Ada,全世界第一位程式師)指出,萬無一失的機器只能做我們告訴它做的事情。換言之,一個人可以將一個想法「注入」機器中,它會做出反應,然後就靜止。

但圖靈由另一個角度來看待機器(電腦),假設人們注入機器的想法如同由外部注入原子堆的中子。當機器只能做我們告訴它做的事情,是因為它是一個小於臨界值的原子堆,因此每個中子會引起一定的擾動,最終消失。然而,如果堆的大小充分增加,這種入射中子引起的干擾會引起連鎖反應,自動繼續增加,直到整個原子堆被破壞。

就人類思維而言,似乎也有這種連鎖反應現象。換言之,人類思維可能如同原子堆般處於「亞臨界」(subcritical)或「超臨界」(supercritical)狀態。向低於「亞臨界」的頭腦提出一個想法,在回答中只產生一個想法。向一個「超臨界」的頭腦提出想法,會產生一個完整的「理論」,由連鎖反應的次要的、第三的和更遙遠的想法組成。圖靈一心想創造這種「頭腦」概念的機器。由人帶動機器的超臨界,再由機器提升人的進化。

當電腦處於「亞臨界」,人有機會駕馭它,成為能力的延伸,稱之為智能擴增。當電腦處於「超臨界」,則它取代人類,稱之為智能自動化。有趣的是,電腦可能是一個人的智能擴增,也同時是另一個人的智能自動化。當人和演進中的電腦互動時,自己要努力的借力使力進化。如果您懂得運用電腦,擴增您的想像力,藉由AI進化自己的能力,您就不會被電腦取代。

洞燭利用電腦來擴增智能的先驅者是發明滑鼠的恩格爾巴特(Douglas Engelbart)。他最早提出智能擴增方法,與過去的自動化技術形成鮮明對比。在自動化方法中,技術可以取代人力,但不會改變人類的基本能力。恩格爾巴特的智慧增強提供了一種技術模型,讓人類的能力會隨著使用它而增加。

計算機滑鼠是這種技術模型最早期的一個例子。在恩格爾巴特提出x-y位置指標之前,計算機輸入是通過鍵盤或打孔卡作為符號輸入的。滑鼠允許直接操作計算機環境中的元素,從而跨越人與計算機之間的實際邊界。它使介面成為人類行為的延伸。它增強人類非常基本的能力,即二維手部運動,成為操縱數字媒體的能力。恩格爾巴特的所有努力都在結合技術創新來擴展人類的能力。

滑鼠的發明,藉由改變人類的手部行為擴大想像力的空間,其當年的原創性相當偉大,還不至於驚世駭俗。不同於滑鼠,生成式AI能力強大,可以改變人類各種感官的行為,卻可能會給人錯誤答案,因此,要利用它來擴增智能,人類面臨的演進過程更具挑戰,也更為有趣。而AI如何刺激人類的演進,將不僅是頭腦,也涵蓋五官肢體,真讓人期待。(作者為前科技部代理部長)

2023年3月30日 星期四

辛翠玲/你也ChatGPT了嗎?

辛翠玲/你也ChatGPT了嗎?

2023-03-30 00:57 聯合報/ 辛翠玲

其實人們早已預期,AI人工智慧的時代終將來臨;過去這些年來,也有大量關於如何應對AI的討論,只是當這一刻真的靠近時,還是讓人在好奇中忐忑。如何駕馭AI、哪些工作會被機器人取代,成了這一陣子的熱門話題;學習使用人工智慧,勢所難免。

AI的進展的確可觀。二○一六年,谷歌的AlphaGo與中、韓兩國的頂尖圍棋高手進行史詩級對弈,兩位代表人類心智能力極致的棋手最後棄子稱臣的一幕,猶讓人印象深刻。即便AlphaGo本質上仍是台精密運算的計算機,沒有意識、不具思考能力,但已堪稱AI史上的重要里程碑。

二○二二年十一月,Open AI的ChatGPT問世之後,各大網路平台也紛紛推出各種生成式聊天機器人。尤其是運用GPT-4大型語言模型的AI,還具備初步擬人的認知能力,與想像中擁有如同人類感知力的通用人工智能(Artificial General Intelligence,AGI)更加接近,也預示著AGI的科技奇點可能已經不遠。那應如何看待、或與愈來愈強大的人工智慧共存呢?

相較於一般的搜尋引擎如google,主要是按照使用者輸入的各種關鍵字組合,在網路中撈出可能相關的資料,再由使用者自己篩選、自行閱讀、整理資料;目前ChatGPT或微軟必應(Bing)等生成式AI則是幫你服務到底,重點在於使用者如何與其溝通。這些生成式AI根據使用者給的要求條件,在茫茫網海中找出可能相關的資料之後,AI代為閱讀、整理,再將整理好的結果直接提供給使用者,彷如個人隨身秘書一般

這些AI工具使用門檻不高,使用介面友善,只要能提出問題,稍加練習操作,大多數人不難入手。這也提醒我們,可以看看身邊有數位落差的親友是否需要協助。如果你是資訊科技門外漢,不妨花點時間體驗一下AI工具。如果你正好是成長於數位化時代開始之前、當年沒太多機會熟悉電腦的銀髮族,也可以放心探索,或許會發現這些工具比想像中的可親實用。反之,如果你是數位原住民,信手拈來就可以掌握新工具,也不妨協助身邊有數位障礙的親友,讓他們也能銜接AI時代。

另一方面,當生成式AI普及化之後,如何更進一步運用,才不會產出與所有人一樣、千篇一律的結果呢?此與使用者能否跟機器人有較好的溝通有關。當使用者的問題意識、邏輯、創意、表達能力愈好,提供給AI的條件元素、情境設定、邏輯鋪陳、預期目的等指令愈仔細、敘述愈周延時,AI能生成的內容就愈豐富,更能接近期待的結果。換句話說,至少在現階段,從使用者的角度而言,人腦還是決定機器腦表現的關鍵。而要能夠深入發問、有效溝通,人腦仍需有足夠的知識量、內建知識系統。所以,基礎知識的累積、學習終究不可缺。奠基於此,加上思考、批判能力時,人機協作可以發揮得更好。

AI科技還在急速發展、推陳出新中,各種工具來得又快又猛,常常一覺醒來,世界就又被往陌生的方向推了一階。雖然非專業領域的人們不見得能懂、也未必需要不斷追趕新技術,但是當時代就硬是被翻頁時,認識、學習、駕馭這些工具仍有其必要。Open AI官網直言,目前人類處於從AI過渡到AGI的準備期,假如這個發展的確是這麼不可擋,那就讓我們幫自己做點準備吧!(作者為中山大學政治經濟學系教授)

AI變革 職場迎接挑戰
2023-03-30 00:52 聯合報/ 盧信昌/台大國際企業學系副教授(台北市)

人工智慧領域的明日之星、OpenAI執行長奧特曼,在二○一五年間和特斯拉創辦人馬斯克共同創立該公司;更曾立下了要「確保人工智慧能有益於全人類」的使命和願景。二○二一年間,他在網頁上承認:「每天在OpenAI的工作總提醒著我,AI所帶來的變革影響,遠比所有人想像都更快、更激烈地發生當中。」

然而,隨著晚近的應用想像,再加上得自於儲存能量與數位科技的屢屢突破,卻也讓網路犯罪與黑心商業模式的進展更快速;因此,對於AI將如何影響人類的共同未來,奧特曼認為各界都有必要謹慎應對,雖然不必然是悲觀看待。

根據OpenAI公司與耶魯大學的合作研究,估算ChatGPT和其他AI生成功能的軟體工具,可能嚴重衝擊到美國高薪白領工作,約計有二成;以及在這類職業別之內,過半以上的業務職掌。因此,從工作設計、組織型態、管理激勵和消費服務等的提供流程,都需做出必要配合與前瞻性的重整。

最可能被人工智能所挑戰的高薪職業,則有口譯、翻譯工作、文本、繪本的執行創作,包括作曲寫譜和編曲配樂等,以及旅遊規畫、報稅服務、行銷研究、財務分析,甚至是記者。事實上,人工智慧的生成報導,從股市交易和盤後分析,乃至賽事勝負和體育活動的常態介紹,這類的創作模式早已嘗試了八年之久。

至於技術性勞力為主的生產製造和其他個人服務業,潛在受影響的可能範圍則最小;但即使是傳統勞力類型,仍有一成的業務將因著ChatGPT生成應用,而讓工作性質與人際互動受到影響,甚至是被取代。

職是之故,各界如何提早因應,尤其能從政府與各部會職能的檢討開始,諸如導正青年學子的人生規畫與就業預期;同時,及早在社會結構與政務推行等的方方面面,讓人工智慧的協作量能與應用想像,有融入結合的介面設計,更有流程追蹤的積極介入與成效評估、查核檢查點。

唯有建立起跨世代的支持緩衝,才能讓一時的失業恐慌與長期消費信心之間,透過人生教訓與資訊傳遞之後的交互影響,依舊能產生良性帶動與向上循環,而不至於在技術競爭與人力替代之下,讓經營依賴的偏重與集體投資的轉向,徹底阻滯了社會參與跟追求進取機會的調整決心。

最終,如何規避政經紛擾的時程拖延,一如失落三十年的日本?否則,只會導致普遍的消費萎縮,從而發生經濟動能的失速與整體社會的滑坡。換言之,要讓必然受到衝擊的行業別與相關人員,有適當的預期且在事前的學習準備,從而在對焦和引導之後,繼續能以開放胸襟和生活重心的自主轉向,逐步、漸進且全方位的做好調適與人生志業的追求!

2023年3月29日 星期三

「AI 智慧製造與數位轉型」圓桌論壇與談

「AI 智慧製造與數位轉型」圓桌論壇與談

前天晚接到簡副校長訊息,知道他確診而不能實體參加研討會,並希望我在論壇中代替他與談;由於當初是我建議邀請簡副校長協助策劃本研討會議題的研討,自然是一口答應下來;後來看到建議的討論題綱,對一個從沒有在產業界工作也非資訊專家的人,有相當的難度,因為不能離題太遠,我選擇分享一下我在工程教育方面的經驗與想法。

對於我來說,在這論壇與談、要拜 ChatGPT 之賜,因為他提供了一個與AI 工具直接互動的機會,有人形容以往在生活上接觸,是坐在「自動駕駛」的工具中,由收所網絡獲取資訊,而ChatGPT讓你成為「共同駕駛」,讓你提問,而無所不答,當然正如張副校長在他的演講中提醒,要高效使用這項工具,必須具備基本的領域知識,能夠立刻察覺明顯的錯誤,同時有疑問也要查明出處再做判斷。

另一方面,新版的GPT-4 威力強大到可謂「教師勤快的助理,學生最佳學伴或不會不耐煩而能幹的助教」,所以一定會被廣泛使用,問題是如何用?

我舉一些最近的例子,我請它提供所研究主題的關鍵議題,它對答如流,提出十項算是相當完整的議題,如再追問某一議題,它也會給合理的答覆,再要求他提供有某一材料系統做成元件的最新資訊,所得結果是洋洋灑灑,如此下去,對一個研究生定研究大綱無疑是很有幫助;

在撰寫論文方面,如果將草稿輸入,他會協助寫出摘要,做出總結,另外建議標題,而在表達方面,可請他協助準備十頁的

AI變革 職場迎接挑戰

「AI 智慧製造與數位轉型」研討會閉幕致詞

 「AI 智慧製造與數位轉型」研討會閉幕致詞

非常感謝大家辛苦一天,全程參加今天的研討會。今天專題演講主講人來自學界的簡禎富與張禎元兩位副校長,都有豐富的產業經驗,而產業界的先進,則包括一般歸類為傳統產業的「東台精機公司」的嚴瑞雄董事長以及「宏遠興業公司」的曾一正數位長,在高科技產業:則有「友達數位科技公司」楊本豫董事長以及「台達電子公司」蔡清雄副總經理,在新創公司方面,則有「創鑫智慧公司」林永隆董事長與「耐能智慧科技公司」劉峻誠創辦人,涵蓋了學術界、傳統產業、高科技業以及新創公司負責人或技術主管,借簡副校長形容,確實是「黃金陣容」。

早上雖然簡副校長無法在現場演講,但很精闢的勾勒出研討會AI 智慧製造與數位轉型」主題的現況與展望,接著張禎元副校長談「AI對製造工程教育與研發的利與弊」,目前大家多注目到AI 的正面功能,但它所帶來的弊端,也不容忽略,發人深省。

「東台精機公司」嚴瑞雄董事長,與大家分享東台在「AI 智慧製造應用」的經驗,以工具機、自動化、半導體、面板、醫療等案例說明,並介紹AI 智慧製造趨勢,如人機協作、可信任AI等:

「創鑫智慧公司」林永隆董事長談: 「適合邊緣佈署之類神經網路研發與應用」,介紹神經網路模型重要指標:準確度、速度、耗能、普用性,舉出物件偵測應用實例:無人倉儲搬運等 、道路維修、半導體製程,以及視訊語意分割應用實例:自動駕駛、泊車、泊船、無人機等,並提出醫學影像應用實例:大腸鏡息肉判讀、MR I腦瘤判讀等;

「耐能智慧科技公司」劉峻誠創辦人講「智慧製造與安全措施」,介紹AI晶片在製造業扮演的角色與功用,分享案例:製造檢驗、預防性維護…等;並說明耐能軟硬體整合解決方案;

「友達數位科技公司」楊本豫董事長談「從產業AI化到AI產業化 – AUO從內場域應用走向外場域服務」,介紹友達導入AI的歷程:management mind setting、process refining、people education,再報告對外輸出AI導入技術,提供智慧製造解決方案,具體案例介紹,並分享生態系統 (Eco-system) 概念。

「宏遠興業公司」曾一正數位長分享「智慧宏遠數位轉型之路」,介紹宏遠數位轉型契機與歷程,說明如何將數位轉型與永續發展相結合,並闡述傳統產業面對數位轉型的挑戰與成功因素。

「台達電子公司」蔡清雄副總經理談「整合物理模型與資料模型的 PdM/AI 電控設備平台」,簡介物理模型與資料模型,介紹Device Edge新架構的好處與問題,分享如何加速導入AI於電控系統,並以「智慧型預測保養機制」(Predictive Maintenances/AI,PdM/ AI) 開發平台應用案例說明。

在接下來的論壇中,討論題綱包括:

一. AI演算法與AI晶片的發展與產業化;

二. AI科技應用於製造產業升級與異質整合機制;

三. AI邊緣運算以及物理模型與資料模型之整合;

四. 智慧製造平台化、產業AI化與AI產業化;

五. 如何健全AI增能的產業生態系統。

2023年3月28日 星期二

「AI 智慧製造與數位轉型」專題演講引言

 「AI 智慧製造與數位轉型」專題演講引言

很歡迎大家來參加今天的研討會,本次研討會是中技社自2018年開始,主辦的第六次大型研討會;與前五次不同的是

上星期六,在清華有一場校友會主辦的「AI創新應用論壇」活動,大家的焦點,毫不意外的去年11月30號由OpenAI 推出,幾乎立即席捲全球的ChatGPT。當天一位主講人是台灣微軟AI 部門的高管,她說最近因為AI 進展太快,一方面要注意外界的發展,一方面要趕工,所以常常睡不飽;而不久前,美國紐約時報專欄作家 Thomas Friedman 體驗過ChatGPT強大功能後,稱之為人類的「普羅米修斯時代」,它帶給人類能力的躍升,有如學會用火一樣重要。我自己目前是ChatGPT Plus 訂戶,因而得以試用OpenAI 於3月14日推出的GPT-4版,在睡眠方面,是經常夢到用它做一些工作,想是因為 「日有所思.夜有所夢」之故;被稱會PC之父的微軟創辦人之一的 Bill Gates 評論,ChatGPT的發展與當年PC的推出一樣重要,應該並不誇張。在本月一日舉行今天研討會的「會前會」上,我曾報告對ChatGPT「AI 在製造業上的應用」提問,得到的部分答案高達四十項,面向之廣非常驚人,也必然會衝擊到今天的研討。

本研討會是中技社自2018年開始,主辦的第六次大型研討會;本次研討會的源起,是中技社從2021年起,推動「AI應用與治理研討」,分兩個區塊進行,一是由台大社科院團隊執行的三年期「AI治理準則」研討,另一則是「AI應用」,又分教育,製造與產業服務三分項,「AI與教育」除舉辦三次座談會,並於去年九月九日,在今天同一場地辦理大型研討會以及出版專題報告,在「AI與服務業」方面,甫於上星期五,進行了第一場座談會。今天的研討會,是經過去年三月、七月及八月舉辦之三場分別針對召開高科技,傳產與中小企業以及新創產業之座談會,經過彙整而規劃「AI智慧製造與數位轉型」研討會,由於新冠疫情變化的影響。到今天才得以舉辦。根據統計,到本星期一 (3月27日) 實體與視訊的報名人數加總已超過600人,可謂盛況空前,反映各界對本研討會議題以及內容的重視,精彩可期。

今天的研討會順利舉行,要感謝的人很多,但最主要的是研討會的策劃人,也是第一位主講人,清華大學的簡禎富執行副校長,簡副校長是清華工業工程系校友,美國威斯康辛大學博士,回台後就在清華任教,歷任副研發長兼首任產學合作執行長、主任秘書與副校長,於2005-2008年間借調至台積電擔任工業工程處副處長,擔任多家高科技公司顧問;著有《藍湖策略》、《工業3.5》等暢銷書,在研究方面,也得獎累累,是不可多得的與產業互動密切的優秀學者;今天他的講題是:「AI 智慧製造與數位轉型現況與展望」,可謂研討會最佳引言。

第二位主講人是虎尾科技大學的張禎元副校長,張副校長是美國卡內基美隆大學機械博士,在美國與紐西蘭大學任教與企業任職多年,自2011年起,在清華動力機械系任教,歷任工學院國際化執行長,AI製造系統研究中心副主任;2018年曾以合聘身分,擔任工研院機械與機電系統研究所技術長,去年八月開始,借調到虎尾科技大學擔任副校長,與簡副校長一樣,張副校長也是包括科技部傑出研究獎得主,並獲獎累累,今天他的講題是「AI對製造工程教育與研發的利與弊」,由於張副校長在學術與研發單位的豐富經驗以及優異表現,一定會給大家帶來許多寶貴的啟發。

2023年3月24日 星期五

你可以吃藍色藥丸或紅色藥丸,我們沒 有藍色藥丸了

你可以吃藍色藥丸或紅色藥丸,我們沒 有藍色藥丸了

2023 年 3 月 24 日 經過尤瓦爾·哈拉里 特里斯坦哈里斯和阿扎拉斯金
Harari 先生是一位歷史學家,也是具有社會影響力的公司 Sapienship 的創始人。Harris 先生和 Raskin 先生是人道技術中心的創 始人。

想像一下,當你登上一架飛機時,一半製造飛機的工程師告訴你,飛機有 10% 的機率墜 毀,你和機上的其他人都會遇難。你還會登機嗎?



2022 年,一項關於未來 AI 風險的調查詢問了領先人工智能公司背後的 700 多位頂尖學者 和研究人員。一半的受訪者表示,未來的人工智能係統有 10% 或更高的可能性導致人類滅絕(或類似的永久和嚴重的剝奪權力)。



構建當今大型語言模型的技術公司陷入了一場將全人類放在那個平面上的競賽中。 製藥公司必須首先對其產品進行嚴格的安全檢查,才能向人們出售新藥。生物技術實驗室 不能為了用他們的魔法給股東留下深刻印象而將新病毒釋放到公共領域。同樣,具有 GPT4 及更高功能的人工智能係統不應以快於文化可以安全吸收它們的速度與數十億人的生活糾纏在一起。主導市場的競賽不應設定部署人類最重要技術的速度。我們應該以能夠使我們 做到這一點的任何速度前進。



自 20 世紀中葉以來,人工智能的幽靈一直困擾著人類,但直到最近它仍然是一個遙遠的前景,它更屬於科幻小說而不是嚴肅的科學和政治辯論。我們人類的頭腦很難掌握GPT-4 和 類似工具的新能力,更難掌握這些工具正在以指數級的速度發展出更高級、更強大的能力。但大多數關鍵技能都歸結為一件事:操縱和生成語言的能力,無論是文字、聲音還是圖像。



一開始就是這個詞。語言是人類文化的操作系統。從語言中出現了神話和法律、神和金錢、藝術和科學、友誼和國家以及計算機代碼。人工智能對語言的新掌握意味著它現在可以破解和操縱文明的操作系統。通過掌握語言,人工智能正在掌握從銀行金庫到聖墓的文明萬能鑰匙。 如果人類生活在一個很大比例的故事、旋律、圖像、法律、政策和工具由非人類智能塑造 的世界中,這意味著什麼,非人類智能知道如何以超人的效率利用人類的弱點、偏見和成癮頭腦——同時知道如何與人類建立親密關係?在像棋這樣的遊戲中,沒有人能指望打敗計算機。



當同樣的事情發生在藝術、政治或宗教領域時會發生什麼? 人工智能可以迅速吞噬整個人類文化——我們幾千年來生產的一切——消化它並開始湧出大量新的文化製品。不僅是學校論文,還有政治演講、意識形態宣言、新邪教的聖書。到 2028 年,美國總統競選可能不再由人類主持。



人類通常無法直接接觸現實。我們被文化所包圍,通過文化棱鏡體驗現實。我們的政治觀點是由記者的報導和朋友的軼事塑造的。我們的性偏好受到藝術和宗教的影響。迄今為止,這種文化繭一直由其他人類編織而成。通過非人類智能產生的棱鏡來體驗現實會是什麼感覺?



幾千年來,我們人類一直生活在其他人的夢想中。我們崇拜神靈,追求美的理想,並將我們的生命獻給源於某些先知、詩人或政治家想像的事業。很快我們也會發現自己生活在非人類智能的幻覺中。



“終結者”系列描繪了機器人在街上奔跑並射殺人。《黑客帝國》假設要完全控制人類社 會,人工智能必須首先獲得對我們大腦的物理控制,並將它們直接連接到計算機網絡。然而,僅通過掌握語言,人工智能就可以將我們包含在類似矩陣的幻想世界中,而無需射擊任何人或在我們的大腦中植入任何芯片。如果需要開槍,人工智能可以讓人類扣動扳機, 只需告訴我們正確的故事。



被困在幻想世界的幽靈比人工智能的幽靈困擾人類的時間要長得多。很快,我們將最終與笛卡爾的惡魔、柏拉圖的洞穴和佛教瑪雅人面對面。幻想的帷幕可能籠罩整個人類,我們 可能再也無法撕開那張帷幕——甚至無法意識到它的存在。



社交媒體是人工智能與人類的第一次接觸,人類迷失了。第一次接觸讓我們嚐到了未來的苦澀滋味。在社交媒體中,原始人工智能不是用來創建內容,而是用來管理用戶生成的內容。我們的新聞推送背後的人工智能仍在選擇哪些文字、聲音和圖像到達我們的視網膜和耳膜,其基礎是選擇那些將獲得最多病毒傳播、最多反應和最多參與的內容。



雖然非常原始,但社交媒體背後的人工智能足以製造幻覺的帷幕,加劇社會兩極分化,破壞我們的心理健康並瓦解民主。數以百萬計的人將這些幻想與現實混淆了。美國擁有歷史上最好的信息技術,但美國公民無法就誰贏得選舉達成一致。



雖然現在每個人都意識到社交媒體的缺點,但它並沒有得到解決,因為我們太多的社會、經濟和政治機構已經與它糾纏在一起。 大型語言模型是我們與 AI 的第二次接觸,我們不能再失去了。



但是,我們應該在什麼基礎 上相信人類能夠將這些新形式的人工智能與我們的利益結合起來呢?如果我們繼續一切照舊,新的人工智能能力將再次被用來獲取利潤和權力,即使它會在不經意間摧毀我們社會的基礎。



人工智能確實有潛力幫助我們戰勝癌症、發現救生藥物以及為我們的氣候和能源危機發明 解決方案。還有無數我們無法想像的其他好處。但是,如果地基倒塌,AI 的利益摩天大樓 組裝得有多高都無關緊要。



考慮人工智能的時間是在我們的政治、經濟和日常生活變得依賴它之前。民主是一種對話,對話依賴於語言,當語言本身被黑客入侵時,對話就破裂了,民主就站不住腳了。如果我們等到混亂接踵而至,再補救就來不及了。 但有一個問題可能會縈繞在我們的腦海中:如果我們不盡快走,西方會不會有輸給中國的風險?不,不受控制的人工智能在社會中的部署和糾纏,釋放出與責任脫鉤的神一般的 量,可能正是西方輸給中國的原因。



我們仍然可以通過 AI 選擇我們想要的未來當神一般的力量與相應的責任和控制相匹配時, 我們就可以實現 AI 所承諾的好處。 我們召喚了外星智慧。我們對它知之甚少,只知道它非常強大,為我們提供了令人眼花繚亂的禮物,但也可能破壞我們文明的基礎。我們呼籲世界各國領導人以它所帶來的挑戰來應對這一時刻。第一步是爭取時間為人工智能世界升級我們 19 世紀的機構,並在人工智能掌握我們之前學會掌握它。



YouCan Havethe Blue Pillorthe Red Pill,andWe ’ re Outof Blue Pills

March 24, 2023 By Yuval Harari, Tristan Harris and Aza Raskin

Mr. Harari is a historian and a founder of the social impact company Sapienship. Mr. Harris and Mr. Raskin are founders of the Center for Humane Technology.



Imagine that as you are boarding an airplane, half the engineers who built it tell you there is a 10 percent chance the plane will crash, killing you and everyone else on it. Would you still board? In 2022, over 700 top academics and researchers behind the leading artificial intelligence companies were asked in a survey about future A.I. risk. Half of those surveyed stated that there was a 10 percent or greater chance of human extinction (or similarly permanent and severe disempowerment) from future A.I. systems. Technology companies building today’s large language models are caught in a race to put all of humanity on that plane. Drug companies cannot sell people new medicines without first subjecting their products to rigorous safety checks. Biotech labs cannot release new viruses into the public sphere in order to impress shareholders with their wizardry. Likewise, A.I. systems with the power of GPT-4 and beyond should not be entangled with the lives of billions of people at a pace faster than cultures can safely absorb them. A race to dominate the market should not set the speed of deploying humanity’s most consequential technology. We should move at whatever speed enables us to get this right. The specter of A.I. has haunted humanity since the mid-20th century, yet until recently it has remained a distant prospect, something that belongs in sci-fi more than in serious scientific and political debates. It is difficult for our human minds to grasp the new Sign up for the Opinion Today newsletter Get expert analysis of the news and a guide to the big ideas shaping the world every weekday morning. Get it sent to your inbox. https://www.nytimes.com/2023/03/24/opinion/yuval-harari-aichatgpt.html 2023/3/25 上午10:07 Opinion | Yuval Harari on Threats to Humanity Posed by A.I. - The New York Times https://www.nytimes.com/2023/03/24/opinion/yuval-harari-ai-chatgpt.html 2/4 capabilities of GPT-4 and similar tools, and it is even harder to grasp the exponential speed at which these tools are developing more advanced and powerful capabilities. But most of the key skills boil down to one thing: the ability to manipulate and generate language, whether with words, sounds or images. In the beginning was the word. Language is the operating system of human culture. From language emerges myth and law, gods and money, art and science, friendships and nations and computer code. A.I.’s new mastery of language means it can now hack and manipulate the operating system of civilization. By gaining mastery of language, A.I. is seizing the master key to civilization, from bank vaults to holy sepulchers. What would it mean for humans to live in a world where a large percentage of stories, melodies, images, laws, policies and tools are shaped by nonhuman intelligence, which knows how to exploit with superhuman efficiency the weaknesses, biases and addictions of the human mind — while knowing how to form intimate relationships with human beings? In games like chess, no human can hope to beat a computer. What happens when the same thing occurs in art, politics or religion? A.I. could rapidly eat the whole of human culture — everything we have produced over thousands of years — digest it and begin to gush out a flood of new cultural artifacts. Not just school essays but also political speeches, ideological manifestos, holy books for new cults. By 2028, the U.S. presidential race might no longer be run by humans. Humans often don’t have direct access to reality. We are cocooned by culture, experiencing reality through a cultural prism. Our political views are shaped by the reports of journalists and the anecdotes of friends. Our sexual preferences are tweaked by art and religion. That cultural cocoon has hitherto been woven by other humans. What will it be like to experience reality through a prism produced by nonhuman intelligence? For thousands of years, we humans have lived inside the dreams of other humans. We have worshiped gods, pursued ideals of beauty and dedicated our lives to causes that originated in the imagination of some prophet, poet or politician. Soon we will also find ourselves living inside the hallucinations of nonhuman intelligence. The “Terminator” franchise depicted robots running in the streets and shooting people. “The Matrix” assumed that to gain total control of human society, A.I. would have to first gain physical control of our brains and hook them directly to a computer network. However, simply by gaining mastery of language, A.I. would have all it needs to contain us in a Matrix-like world of illusions, without shooting anyone or implanting any chips in our brains. If any shooting is necessary, A.I. could make humans pull the trigger, just by telling us the right story. The specter of being trapped in a world of illusions has haunted humankind much longer than the specter of A.I. Soon we will finally come face to face with Descartes’s demon, with Plato’s cave, with the Buddhist Maya. A curtain of illusions could descend over the 2023/3/25 上午10:07 Opinion | Yuval Harari on Threats to Humanity Posed by A.I. - The New York Times https://www.nytimes.com/2023/03/24/opinion/yuval-harari-ai-chatgpt.html 3/4 whole of humanity, and we might never again be able to tear that curtain away — or even realize it is there. Social media was the first contact between A.I. and humanity, and humanity lost. First contact has given us the bitter taste of things to come. In social media, primitive A.I. was used not to create content but to curate user-generated content. The A.I. behind our news feeds is still choosing which words, sounds and images reach our retinas and eardrums, based on selecting those that will get the most virality, the most reaction and the most engagement. While very primitive, the A.I. behind social media was sufficient to create a curtain of illusions that increased societal polarization, undermined our mental health and unraveled democracy. Millions of people have confused these illusions with reality. The United States has the best information technology in history, yet U.S. citizens can no longer agree on who won elections. Though everyone is by now aware of the downside of social media, it hasn’t been addressed because too many of our social, economic and political institutions have become entangled with it. Large language models are our second contact with A.I. We cannot afford to lose again. But on what basis should we believe humanity is capable of aligning these new forms of A.I. to our benefit? If we continue with business as usual, the new A.I. capacities will again be used to gain profit and power, even if it inadvertently destroys the foundations of our society. A.I. indeed has the potential to help us defeat cancer, discover lifesaving drugs and invent solutions for our climate and energy crises. There are innumerable other benefits we cannot begin to imagine. But it doesn’t matter how high the skyscraper of benefits A.I. assembles if the foundation collapses. The time to reckon with A.I. is before our politics, our economy and our daily life become dependent on it. Democracy is a conversation, conversation relies on language, and when language itself is hacked, the conversation breaks down, and democracy becomes untenable. If we wait for the chaos to ensue, it will be too late to remedy it. But there’s a question that may linger in our minds: If we don’t go as fast as possible, won’t the West risk losing to China? No. The deployment and entanglement of uncontrolled A.I. into society, unleashing godlike powers decoupled from responsibility, could be the very reason the West loses to China. We can still choose which future we want with A.I. When godlike powers are matched with commensurate responsibility and control, we can realize the benefits that A.I. promises. 2023/3/25 上午10:07 Opinion | Yuval Harari on Threats to Humanity Posed by A.I. - The New York Times https://www.nytimes.com/2023/03/24/opinion/yuval-harari-ai-chatgpt.html 4/4 We have summoned an alien intelligence. We don’t know much about it, except that it is extremely powerful and offers us bedazzling gifts but could also hack the foundations of our civilization. We call upon world leaders to respond to this moment at the level of challenge it presents. The first step is to buy time to upgrade our 19th-century institutions for an A.I. world and to learn to master A.I. before it masters us. Yuval Noah Harari is a historian; the author of “Sapiens,”“Homo Deus” and “Unstoppable Us”; and a founder of the social impact company Sapienship. Tristan Harris and Aza Raskin are founders of the Center for Humane Technology and co-hosts of the podcast “Your Undivided Attention.” The Times is committed to publishing a diversity of letters to the editor. We’d like to hear w