2024年4月6日 星期六

AI Data and Energy

AI Data and Energy



science is when it works but shouldn’t, engineering is when it doesn’t work but should

手持利刃 心存慈悲

AI 領導力

AI 遇強則強

“令牌”,這些“令牌”本質上是單字或單字片段

It was soon overtaken. Last year, researchers from China released an A.I. model, Skywork, which was trained on 3.2 trillion tokens from English and Chinese texts. Google also unveiled an A.I. system, PaLM 2, which topped 3.6 trillion tokens.

AI牽動產業變革,將從算力推進至電力。美銀美林報告顯示,預估到2030年數據中心的電力需求,將以11%年複合年增長率提升,等於同於全球電力需求約1-2%,AI的電力使用量將在2023年至2028年間達到25-33%年複合成長率,這將對數據中心的設計,電力效能和散熱管理帶來挑戰。


在生成式AI 去年橫空出世後,AI數據中心、工業成長、電動車,以及建築電氣化等四大因素的推動,讓全球電力供應,成為繼算力後,有效的電力和熱管理成為今年去焦的重點事項。

美銀美林預計,到2030年,資料中心的電力需求預計將以11%的複合年增長率增長。這相當於全球電力需求的約1-2%,即240-340太瓦時(1太瓦時等於10億千瓦時)。其中,AI的電力使用量將在2023年至2028年上看25-33%的年複合長率這,也將對數據中心的設計和運營帶來挑戰。

美林證券也指出,隨著數據中心功率密度的提高,傳統的冷卻方法可能不再適用。例如,85%的數據中心的最大機架功率密度小於30千瓦,而對於高於20千瓦的功率密度,可能需要採用液體冷卻解決方案。

新的散熱方案技術是透過將冷卻劑直接輸送到晶片,每個晶片都有兩條管道(一條熱管,一條冷管)。

美林整券也說明,隨著數據中心向更高功率密度的轉變,電力和熱管理內容的需求也在增加。例如,輝達液冷供應商即預期,每兆瓦的電力和熱管理內容機會將分別增加18%和740%。

人工智慧競爭中,中國人才培育趕超美 國

人工智慧競爭中,中國人才培育趕超美 國

孟建國, CADE METZ 2024年3月22日 2024/3/24

在為ChatGPT這樣的聊天機器人提供動力的人工智慧方面,中國落後於 美國。但在培養新一代仿人技術背後的科學家方面,中國已經開始領先。 新的研究表明,從某些指標來看,中國已經超越美國成為人工智慧人才的 最大出產國,幾乎培養了全球一半的頂尖人工智慧研究人員,相比之下, 約18%研究人員來自美國本科院校。

該研究來自保爾森基金會旗下的麥克 羅波洛智庫,保爾森基金會是一家致力於促進中美之間建設性關係的機 構。 研究結果表明,中國培養的人才數量出現躍升,三年前,中國培養的人才 約佔世界頂尖人才的三分之一。相比之下,美國基本保持不變。

這項研究 基於2022年神經信息處理系統大會上發表論文的研究人員的背景。該會 議主要關注神經網路方面的進展,而神經網路是生成式人工智慧最近發展 的基礎。 人才失衡的現象已經持續了將近十年。在2010年代的大部分時間裡,美 國受益於大量中國頂尖人才前往美國大學攻讀博士學位。他們當中大多數 人留在美國。但研究顯示,這一趨勢也開始發生轉變,越來越多中國研究 人員留在了中國。

隨著中國和美國爭奪人工智慧領域的領先地位,未來幾年的發展可能至關 重要——人工智慧技術有可能提高生產率、增強產業實力並推動創新——從而使研究人員成為地緣政治意義上全球最重要的群體之一。

生成式人工智慧讓矽谷和中國的科技行業趨之若鶩,引發了融資和投資狂 潮。谷歌等美國科技巨頭以及OpenAI等初創公司引領了這股熱潮。專家 們說,這可能會吸引中國的研究人員,儘管北京與華盛頓之間日益緊張的 關係也可能使一些人望而卻步。

(《紐約時報》起訴了OpenAI和微軟侵犯其人工智慧系統相關新聞內容 的版權)。 中國培養了如此多的人工智慧人才,部分原因是中國在人工智慧教育方面 投入了巨資。麥克羅波洛智庫的主任馬暘說,自2018年以來,中國新增 了2000多個本科人工智慧項目,其中300多個在最精英的大學,不過他 指出,這些項目並沒有把重點放在那些推動ChatGPT等聊天機器人取得 突破的技術上。 他說:「很多項目都是關於人工智慧在工業和製造業中的應用,而不是目 前主導美國人工智慧產業的生成性人工智慧。」



雖然美國在人工智慧領域率先取得了突破性進展,最近的成果是聊天機器 人不可思議的類人能力,但其中很大一部分工作是由在中國接受教育的研 究人員完成的。 研究顯示,目前在美國工作的頂尖人工智慧研究人員中,來自中國的研究 人員佔38%,美國人占其中37%。三年前,在美國工作的頂尖人才中,來 自中國的研究人員佔27%,美國研究人員佔31%。



「這些數據表明,中國出生的研究人員對美國的人工智慧競爭力有多麼重 要,」卡內基國際和平基金會研究中國人工智慧的研究員馬特·希恩說。 他還說,這些數據似乎表明美國仍具吸引力。「我們是人工智慧領域的世 界領導者,因為我們繼續吸引和留住來自世界各地的人才,尤其是中國的 人才,」

他說。 加州大學柏克萊分校教授、人工智慧和機器人初創企業Covariant創始人 彼得·阿比爾表示,在美國頂尖公司和大學內部,與大量中國研究人員一 起工作被視為理所當然。 「這是很自然的情況,」他說。

過去,美國國防官員並不太擔心來自中國的人工智慧人才,部分原因是許 多大型人工智慧項目並不與機密數據打交道,還有部分原因是他們認為能 夠擁有最優秀的人才是最好的。此外,許多人工智慧領域的領先研究也是 公開發表的,這也打消了他們的擔憂。 川普政府曾頒佈禁令,禁止中國一些與軍方有聯繫大學的學生進入美國, 此外,新冠疫情期間,中國學生進入美國的人數相對減少,但研究顯示, 大量最有前途的人工智慧人才繼續來到美國學習。

但本月,根據一份聯邦起訴書,一名曾擔任谷歌工程師的中國公民被指控 試圖將人工智慧技術(包括關鍵微晶片架構)轉移到一家總部位於北京的 公司,該公司祕密向他支付了報酬。 關注美國競爭力的專家表示,在美工作的中國人工智慧研究人員人數眾 多,這給政策制定者提出了一個難題,他們既想打擊中國間諜活動,又不 想阻止中國頂尖計算機工程師繼續湧入美國。

「中國學者在人工智慧領域幾乎處於領先地位,」亞利桑那州立大學教 授、人工智慧研究者蘇巴拉奧·坎巴邁帕蒂說。如果政策制定者試圖阻止 中國公民在美國進行研究,他們就是在「搬起石頭砸自己的腳」,他說。

美國政策制定者的過往記錄好壞參半。因為錯誤起訴一些教授,川普政府 旨在遏制中國工業間諜活動和知識產權盜竊的政策受到了批評。中國移民 表示,此類計劃鼓勵了一些人留在中國。 研究顯示,目前,大多數在美國完成博士學位的中國人都留在美國,這有 助於美國成為全球人工智慧中心。研究顯示,即便如此,美國的領先地位 也已經開始下滑,目前它擁有全球約42%的頂尖人才,低於三年前的 59%。

孟建國(Paul Mozur)是時報全球科技記者,常駐台北。此前,他自香港、上海和首爾報導亞洲科技與政治的交叉議題。點擊查 看更多關於他的信息。 Cade Metz撰寫有關人工智慧、無人駕駛汽車、機器人、虛擬現實和其他技術新興領域的新聞。點擊查看更多關於他的信息。 翻譯:紐約時報中文網 點擊查看本文英文版。

2024年3月16日 星期六

Drone 人工智慧戰爭其實是什麼樣子

無人機 Maryln Monroe

GPS

Signal

Anti-interference

察打一體

翼龍 II

Microwave 4T
1T = 10,000 Gauss

人工智慧戰爭 (GPT-4 生成)

人工智慧戰爭 II (GPT-4 生成)


人工智慧戰爭其實是什麼樣子
美國東部時間 2024 年 4 月 10 日
大衛華萊士-威爾斯

11 月,以色列左翼媒體 +972 雜誌和 Local Call 發表了記者尤瓦爾·亞伯拉罕 (Yuval Abraham) 對以色列國防軍使用人工智慧系統識別加沙目標的令人不安的調查——一位前情 報官員稱其為“大規模暗殺工廠。”

到了年底,人工智慧世界末日的景象籠罩在陰影之中——這種景像 有時會出現失控的自主 武器系統——你可能會預料到會出現巨大而令人震驚的反應。相反,有關人工智慧部分發動 戰爭的報導只在以色列在加薩行為的爭論中引起了小小的漣漪。

也許部分原因是——在令人不安的程度上——專家們承認,人工智慧的形式已經在世界領先 的軍隊中廣泛使用,包括美國,至少自奧巴馬政府以來,五角大廈一直在為軍事目的開發 人工智能。

根據《外交事務》報道,目前至少有 30 個國家正在運作具有自主模式的防禦系 統。我們中的許多人仍然將人工智慧戰爭視為科幻小說中的未來願景,但人工智慧已經融 入了全球軍事行動,就像它融入了我們的日常生活一樣。 構成威脅的不僅是失控的人工智慧。控制不足的系統也會造成傷害。

《華盛頓郵報》將烏 克蘭戰爭稱為“超級發明實驗室”,標誌著“人工智慧無人機戰爭的革命”。五角大廈正在開發 針對人工智慧驅動的無人機群的應對措施,這種威脅隨著無人機的對抗而變得不那麼遙 遠。也門胡塞武裝在紅海發動攻擊。根據美聯社報道,一些分析人士表示,「無人機將在 沒有人類幫助的情況下識別、選擇和攻擊目標」只是時間問題。

埃利奧特·阿克曼和北約前 盟軍指揮官、海軍上將詹姆斯·斯塔夫里迪斯上個月在《華爾街日報》上預測,此類集群由 運行速度太快、無法人類監督的系統指揮,「即將改變軍事力量的平衡」。其他人則表示 未來就在這裡。

就像入侵烏克蘭一樣,加薩的猛烈攻勢有時看起來像是一種倒退,在某些方面更像是20世 紀的全面戰爭,而不是美國人已經習慣的平叛和明智的戰役。到 12 月,加薩近 70% 的房屋 和一半以上的建築物遭到破壞或摧毀。據聯合國稱,如今,只有不到三分之一的醫院仍在 運轉,110 萬加薩人面臨「災難性」糧食不安全。這可能看起來像一場老式衝突,但以色列 國防軍的攻勢也是軍事未來的不祥暗示——這一切都是由反恐戰爭開始以來才出現的技術制 定和監控的。

上週+972和Local Call發表了亞伯拉罕的後續調查,非常值得全文閱讀。 (《衛報》也發表 了一篇摘自同一篇報道的文章,標題為「機器冷酷地干了這件事」。該報道已引起美國國 家安全發言人約翰·柯比的注意,並由艾達·圖馬-斯利曼進行了討論以色列議會中的阿拉伯議 員,以及聯合國秘書長安東尼奧·古特雷斯,他說他對此「深感不安」。)

11 月的報告描述 了一個名為Habsora (福音)的系統,根據該系統,接受亞伯拉罕採訪的現任和前任以色 列情報官員確定了「軍隊聲稱武裝分子活動的建築物和結構」。這項受到以色列國防軍質 疑的新調查記錄了另一個名為 Lavender 的系統,該系統用於編制可疑戰鬥人員的「殺戮名 單」。他寫道,薰衣草系統“在對巴勒斯坦人前所未有的轟炸中發揮了核心作用,特別是在 戰爭的早期階段。”

亞伯拉罕認為,從功能上來說,加薩的毀滅——超過 30,000 名巴勒斯坦人被殺,其中大多 數是平民,包括 13,000 多名兒童——提供了人工智慧發動戰爭的願景。「根據消息來 源,」他寫道,「它的影響力儘管該演算法公認的錯誤率為 10%,但他們基本上將人工智 慧機器的輸出視為「人類決策」。一位消息人士告訴亞伯拉罕,人類通常只會花 20 秒的時 間查看每條推薦——“只是為了確保薰衣草標記的目標是男性”,然後再給推薦貼上“橡皮圖 章”。

人工智慧戰爭的前景提出的更抽象的問題不僅涉及機器錯誤,還涉及最終責任:誰應對在 很少或根本沒有人類輸入或監督的情況下進行的攻擊或活動負責?但是,雖然軍事人工智 慧的一個噩夢是它獲得了決策控制權,但另一個噩夢是它可以幫助軍隊提高已經做出的決 策的效率。正如亞伯拉罕所描述的那樣,薰衣草並沒有因為自己的失誤而在加薩造成嚴重 破壞。相反,它被用來以非常特殊的方式權衡可能的軍事價值和附帶損害——不太像軍事判 斷的黑匣子神諭或道德責任的黑洞,而更像是以色列國防軍所揭示的戰爭目標設計。

亞伯拉罕報道稱,10 月的某個時刻,以色列國防軍僅在可能的附帶損害限於15 或20 名平民 死亡的情況下才會針對拉文德確定的初級戰鬥人員——考慮到沒有任何附帶損害被認為是可 接受的,這個數字大得驚人。低階戰鬥人員。亞伯拉罕報告說,即使這意味著殺死 100 多名 平民,更多高級指揮官也將成為攻擊目標。

亞伯拉罕寫道,第二個程序名為“爸爸在哪 裡?”,用於在瞄準戰鬥人員之前追踪他們的家,因為在這些地點及其家人一起跟踪他們比 追踪他們到軍事前哨“更容易”。為了避免浪費智慧炸彈瞄準可疑的初級特工的家,以色列國 防軍越來越多地選擇使用精度低得多的啞炸彈。

這並不完全是科幻小說中的黑暗人工智慧魔法。這更像是綠野仙蹤的現象:乍看之下似乎 是超凡脫俗的奇觀,結果卻是一個人在窗簾後面擺弄開關。事實上,以色列國防軍在對新 報告的回應中表示,它“不使用識別恐怖分子的人工智慧系統”,並寫道“資訊系統只是分析 人員在目標識別過程中的工具。”以色列國防軍此前曾吹噓其使用人工智慧來瞄準哈馬斯, 據《國土報》報道,以色列國防軍在加沙建立了廣泛的「殺傷區」,任何進入其中的人都被認為是恐怖分子並被槍殺。 (以色列國防軍否認已劃定殺傷區域。)在CNN 上,分析師 巴拉克·拉維德(Barak Ravid) 向安德森·庫珀(Anderson Cooper) 講述了他與一名以色列預 備役軍官的談話,這名軍官告訴他,「這些命令基本上是來自地面指揮官的」 ——射殺每 一個處於戰鬥年齡的人,」這一描述與前中央情報局局長兼國防部長萊昂·帕內塔上週的評 論相符,他說:“根據我的經驗,以色列人通常會開槍,然後提出問題。”

事情接下來會走向何方?這個問題不僅適用於以色列在加薩的行為或烏克蘭的無人機升 級,無人駕駛飛機的混戰已經影響了戰爭的進程,俄羅斯廣泛部署了電子戰工具來幹擾烏 克蘭的無人機,根據《戰爭》雜誌的分析在岩石上,俄羅斯「試圖在整個殺傷鏈的自動化 方面取得進展」。 新美國安全中心的保羅·沙爾 (Paul Scharre)在 2 月的一篇文章《人工智慧戰爭即將到來的 危險時代》中勾勒了一些近期可能的未來,其中包括自主集群相互獨立作戰、高頻作戰等 等。交易機器人可能會賦予人工智慧管理現有核武庫的權力。

他還提出了一項積極主動且可能樂觀的五點計劃:政府同意對軍事人工智慧進行人類監 督,禁止以人為目標的自主武器,制定預防事故的最佳實踐協議,各國限制對核的控制以 及各國採用無人機行為常規指引。沙爾寫道:「如果沒有限制,人類將面臨走向危險的機 器驅動戰爭的未來的風險,而採取行動的窗口正在「迅速關閉」。

並非所有人都認為我們正在接近軍事奇點,超過這個奇點戰爭將變得面目全非,而不是演 變得更慢,表面之下有更多變化。 「軍事革命往往沒有其支持者最初設想的那麼激進,」 軍事學者安東尼·金在《岩石上的戰爭》中寫道。雖然他認為我們還沒有接近人類監督的終 結,並稱我們「不太可能」很快就會進入一個真正自主戰爭的世界,但他也相信「數據和 人工智慧是——甚至可能是當代戰爭的關鍵情報功能。”事實上,「任何想要在未來戰場上 獲勝的軍事力量都需要利用大數據的潛力——它必須掌握充斥著戰場空間的數位化訊息,」 他寫道。 “人類根本沒有能力做到這一點。”據推測,人工智慧會。

Sora (2/14)

Sora (2/14)

文生視頻

從現存影片學習與了解物理規律

速度與揚塵 陽光照射與塵霧

生物行為

未來: 直接看到的攝像頭學習

虛實難分 分水嶺: 懷疑與猜忌 吞噬真實

想像與真實

源頭信息的污染

舞龍 不需造模

深度造假

詐騙 兩億元 香港

人類文明的朝霞或餘暉

2024年2月24日 星期六

經濟日報社論/人工智慧帶來的商機與隱憂

經濟日報社論/人工智慧帶來的商機與隱憂

2024-03-14 03:00 經濟日報/ 經濟日報社論

自從2022年底ChatGPT炫麗上市,輝達(NVIDIA)圖形處 理器GPU被各國瘋狂搶購,AI人工智慧已成為全球最受注目 焦點。中外媒體對於AI商機大幅報導,坊間討論人工智慧技 術與應用的研討會,令人目不暇給。有人擦掌摩拳興奮無 比,夢想自己成為下一個黃仁勳,但也有人憂心忡忡,生怕 工作將被AI取代,淪落中年失業窘境。

國際媒體報導:日本軟銀執行長孫正義預計結合中東金主, 共同投資千億美元,以其所持有九成股份的安謀(ARM)為 技術核心,發展與輝達相抗衡的半導體核心晶片。 ChatGPT開發者OpenAI執行長奧特曼雄心大志更是驚人, 正與包括阿拉伯聯合大公國政府在內的投資者協商,募集5- 7兆美元,打造全球半導體新帝國,自行開發與製造AI高級 晶片。

但與此同時,科技界狂人,OpenAI共同發起人之一,曾是 最大捐助者的馬斯克,卻向美國法院提起訴訟,以OpenAI 違背捐贈受託責任、不公平商業行為等五大罪狀,控告Ope nAI高層,違反公司創立時宣示之「專注開發技術而不求謀 取利潤,向大眾分享開發原始碼、以非營利機制開發」等初 衷,甚至已實質成為微軟子公司。即便其中涉及商業利益與 版圖之爭,但亦凸顯AI技術已成兵家必爭之地。

在這波人工智慧浪潮下,除了不會缺席的晶圓代工龍頭台積 電、關係算力的大型資料中心AI伺服器,與台灣產業較為相 關之趨勢,還包括具備人工智慧功能的個人電腦(AI P C),具備AI功能的手機與穿戴式裝置,更是明年起的必備 規格。

在全球科技產業一片期待中,特別值得關注的是AI發展可能 帶來的隱憂。甫卸任谷歌副總裁,有「深度學習之父」之 稱,曾獲AI技術領域最高榮譽「圖靈獎」的傑佛瑞‧辛頓 (Geoffrey Hinton),日前接受美國電視節目60分鐘專訪 時,對於人工智慧未來發展提出高度憂慮。辛頓憂心主要有 兩點:未來AI自主判斷與AI慾望可否被人類所掌控。前者如 自動駕駛汽車,與具備人工智慧之軍事武器,其AI系統在關 鍵時刻所做判斷,是否符合人類社會法律與道德規範;辛頓 語出驚人地說:「人類可以阻止任何個人的慾望氾濫,但未 來不確定人類可以阻止AI慾望之無止境發展。」

其實在辛頓發出警示前,有識之士早已指出,以ChatGPT為 首之生成式AI,其所產生之文字、圖形、影像,已非常人可 辨真假,若為有心人使用,足以做為詐騙與犯罪之有力平 台,傷害善良百姓,令人憂心。 當然,刀刃可使生活便利,亦可成為傷害他人工具,這其間 需要法律與道德加以有效規範。

然而近年來科技發展迅速, 法律與民眾認知已然趕不上腳步,其間溝渠需要政府與社會 加強投資,俾使人工智慧應用利大於弊。 若從宏觀角度觀之,AI人工智慧技術掌握與否,勢必擴大國 家與國家間貧富差距與競爭力,強國益強、弱國益弱,台灣 經不起在這波歷史洪流中遭到淘汰,必須傾全國之力為之。 抱著「既期待又怕受傷害」的矛盾心情,欣見科技部在日前 發布「人工智慧科研發展指引」中,仿效歐盟、日本、國際 經濟合作組織OECD先見,開宗明義強調台灣人工智慧發 展,應以「以人為本」、「永續發展」、「多元包容」為核心價值,不能單純注重工程科技與製造商機,應增加人文科 學與人工智慧跨領域研究,務使台灣未來社會均衡發展,降 低AI不當使用傷害。

積極而言,AI技術是一種力量龐大的公共財,使用得當可累 積人類寶貴經驗與大數據,為社會樹立新規範,建立更具公 平、均衡、效率之生活秩序,從教育、健康、醫療照護、安 全等層面、全面提升民眾生活福祉,打造未來美麗新世界。 願國內有識之士,共同期許之。

AI投資狂潮將影響全球經濟

2024-02-25 
經濟日報/ 經濟日報社論

近來由於美國AI公司的投資狂潮,帶動台股相關供應鏈公司的股價暴漲,以致台股加權指數觸及19,000點歷史新高。AI投資固然帶動相關產業成長,
但更值得關注其對整體生產力及就業的影響。

1956年一群認為機器很快就能複製人類智能的科學家,在一場會議中創造了「人工智慧」(簡稱AI)的字眼。其後在1959年,葛麗絲.霍普(Grace Hopp)所率領的團隊,為反擊IBM壟斷大型電腦系統,開發了一個僅具算術運算功能的「通用商業語言」(簡稱COBOL)軟體。而最近一波從2000年代初期迄今的AI投資熱潮,其關注焦點則是對辨識圖片、翻譯文本、學會下圍棋及西洋棋等特定任務的處理。

廠商開發AI的動機是利潤,而生成式AI是近來最具獲利性的產品。最近五年全球投資在AI的金額,由2019年的311億美元,最多增加到2021年的725億美元,而在2023年則下降到425億美元。最近一、二年最大兩筆投資都在生成式AI,包括由微軟持股49%的OpenAI進行100億美元投資,以及由谷歌及亞馬遜主導的Anthropic進行60億美元投資。

不過,受限於經濟學的「邊際報酬遞減法則」,未來AI公司恐不願再進行大規模投資。從成本面來看,可提供AI演算的資料已被搜集殆盡是開發生成式AI面臨的最大問題。因此,再增加開發人力、電力及電腦運算數量,邊際產出也很快會下降。微軟前執行長比爾.蓋茲近來就表示類似觀點:「生成式AI發展已達極限,即使有GPT5,也不會出現如同GPT2至GPT4的飛躍。」再者,如同最近OpenAI執行長奧特曼所言,「在情感認知、道德判斷和藝術創造力上,人類擁有AI難以比擬的優勢。」這代表機器智能發展有其極限。而在實務上,近來提升生成式AI產品的效能所費不貲;開發GPT4的啟始成本為8億美元,而每次訓練費用200萬-1,200萬美元則為開發GPT3.5成本的五倍。

在需求面上,目前GPT4使用者每月需負擔20-25美元,超過一般民眾願意接受的水準。因此,未來AI公司可能朝降低費率、增加客戶數目,從而達到收益最大的方向,包裝其產品服務組合。

上述開發AI產品所面臨的問題,可能使奧特曼的看法成真:「人類水平的AI即將出現,但其對世界影響力較預期小。」 其中一個主因是以AI產品取代一些既存技術,並不符成本效益原則。例如,迄今43%銀行、95% ATM、以及80%面對面金融交易仍在使用COBOL軟體。而實務資料也顯示,從1980至2019年間,美國曾出現個人電腦、網際網路、以及智慧型手機等三項重要創新。然而,其總要素生產力平均每年只增加0.7%。相對地,技術創新較少的1940至1970年間,平均每年總要素生產力卻增加2.2%。

AI投資對就業的影響取決於下列三項效果:一,AI取代現有人力,造成勞動需求下降的「置換效果」;二,AI提升廠商利潤,促使廠商擴大生產規模,導致增加勞動需求的「生產力效果」;及三,AI創造新的工作種類與需求,因而增加勞動需求的「新工作產生效果」。但目前看來,還未出現明顯效果。

最近一份有關美國各地區使用機器人的研究指出,每多增加一台機器人,會使3.3名工人失業;換言之,置換效果在主導。不過,前面提及的過去三項創新,可以結合生成式AI產品提供的服務,從而增加消費者的效用滿足。因此,生產力效果及新工作產生效果可能更具主導力。

目前有關AI對於整體經濟影響的研究主要來自歐美,我國未來則宜投入更多資源來研究類似主題。

2023年7月24日 星期一

6G與AI的預言 人人都是模特兒

6G與AI的預言 人人都是模特兒

2023-07-25 02:50 聯合報/ 葉堂宇/美國清華智庫董事長(美國維吉尼亞州)

6G網絡與人工智慧AI堪稱當前最熱話題,美國曾大膽預測五至十年後,醫療健保、自駕汽車、教育、服務業都將面臨被淘汰。目前4G手機能夠傳輸高質量視頻圖像以及圖像傳輸質量,5G是全球互聯互通,無人駕駛、無人機、智能家居、智慧城市等項目將提升生活品質,真正實現零距離交流。

Uber沒擁有汽車,卻能夠讓你「隨叫隨到」有車坐,現在已是全球最大的Taxi公司。Airbnb沒擁有任何旅館,但它的軟體讓你能夠住進世界各地出租房,現在已是全球最大的旅館業;Google電腦打敗全球最厲害圍棋高手,因為開發出AI的電腦,使用能自己學習的軟體,所以AI能夠達到比預期提前十年的成就。

在美國,使用IBM Watson電腦軟體,幾秒內就有九成準確性的法律顧問,比起七成準確性的人為律師既便捷又便宜;臉書有一套AI軟體可以比人類更準確辨識人臉,到二○三○年AI電腦會比任何專家還聰明;自動駕駛汽車可在公眾場所使用,你不必擁有汽車,花時間加油停車考駕照交保險費。

現在平均每十萬公里一次車禍,造成每年全球約一百廿萬人死亡。以後AI自動駕駛每一千萬公里才一次車禍,減少一百萬人死亡,因為需要保險的人極少,保險公司會面臨更多的挑戰,傳統汽車公司可能會面臨倒閉,房地產公司會遭遇極大的變化,因為可在車程中工作,距離將不是選房主要條件。

3D列印設備預計十年內會由近二萬美元減到四百美元,速度加快百倍,人類太空船也會使用這種設備。手機就會有3D掃描功能,可測量腳做個人化鞋子。預計二○二七年百分之十的產品會用3D列印設備製造。

產業機會方面,廿年內百分之七十至八十的工作會消失,溫室建築物可以有少量的水,肉可以從實驗室生產,不必養豬、雞或牛。百分之卅畜牧土地會變成其他用途,很多初創公司會供給高蛋白質昆蟲當成食品。

數位時代的錢,將是Bitcoin在智能電腦中的「數據」。百分之七十的人類會有手機,能上網接受世界級的教育,但大部分的老師會被智能電腦取代,小學生要會寫Code,如果不會就是像住在亞馬遜森林中的原住民,你的孩子準備好了嗎?

至於未來可能消失的職業,千萬不要覺得這很遙遠,上世紀已經有打字員、電話接線員等職業消失,職業變遷的速度將越來越快。未來十年百分之八十的現金使用會消失,人們選擇網銀或移動支付;未來廿年絕大多數中小銀行如果不把前台業務外包將難以生存,傳統金融業和科技業正在進行生死競速,金融領域將發生一場徹底的互聯網革命。

富士康百萬「機器人大軍」計畫公布後引起矚目。未來隨著機器人成本的下降和普及,裝配車間將不需要真人;借助電視盒,只要身處帶寬足夠的Wi-Fi環境,就可免費觀看在線視頻,有線電視終會消失,甚至電視台的構建都會被打亂。

未來沒有誰再會為矮而愁眉,高技術含量增高手術已在進行。還有,超微科技的運用使整容業更趨完美,已有人研發用電腦勘測臉部細節,量身製作完美五官。從這個意義上講,漂亮的臉蛋與高挑的身材人人都可以擁有,職業模特兒失去意義,時裝秀將從T形台走向6G AI大街。

2023年7月3日 星期一

人工智能的真正威脅

人工智能的真正威脅


經過葉夫根尼·莫羅佐夫 莫羅佐夫先生是《要拯救一切,點擊這裡:技術解決方案主義的愚蠢》一書的作者,也是即將推出的播客《聖地亞哥男孩》的 主持人。

2023 年 6 月 30 日 5 月,超過 350 名技術高管、研究人員和學者簽署了一份聲明,警告人工智能存在的危險。 簽署者警告說:“與流行病和核戰爭等其他社會規模的風險一樣,減輕人工智能帶來的滅絕 風險應該成為全球優先事項。” 在此之前,埃隆·馬斯克和蘋果聯合創始人史蒂夫·沃茲尼亞克等人簽署了另一封備受矚目的 信函,呼籲暫停先進人工智能係統的開發六個月。



與此同時,拜登政府敦促負責任的人工智能創新,並表示“為了抓住它提供的機遇”,我 們“必須首先管理它的風險”。在國會,參議員查克·舒默 (Chuck Schumer)呼籲就人工智能 的潛力和風險舉辦“同類首個”聽證會,這是來自行業高管、學者、民權活動人士和其他利 益相關者的速成課程。



人們對人工智能日益增長的焦慮並不是因為那些無聊但可靠的技術,這些技術可以自動完成我們的短信或指導機器人吸塵器躲避客廳中的障礙物。令專家們擔憂的是通用人工智能 (AGI)的崛起。 AGI 尚不存在,但一些人認為 OpenAI 的 ChatGPT 快速增長的功能表明它的出現已經不遠 了。



OpenAI 聯合創始人 Sam Altman將其描述為“通常比人類更聰明的系統”。構建這樣的 系統仍然是一項艱鉅的任務,有人說這是不可能的。但好處似乎確實很誘人。 想像一下,Roombas 不再只能用吸塵器吸地板,而是進化成多用途機器人,樂於在早上煮 咖啡或疊衣服,而無需編程來完成這些事情。 聽起來很吸引人。但如果這些 AGI Roomba 變得太強大,它們創造一塵不染的烏托邦的使 命可能會讓它們的塵土飛揚的人類主人變得混亂。至少我們跑得很好。 關於通用人工智能的討論中充斥著這樣的世界末日場景。



然而,由學者、投資者和企業家 組成的新興 AGI 遊說團體反駁說,一旦安全,AGI 將成為文明的福音。奧特曼先生是這場 競選活動的代言人,他開始了全球巡演以吸引立法者。今年早些時候,他寫道,通用人工 智能甚至可能會推動經濟發展,增加科學知識,並“通過增加豐富性來提升人類水平”。 這就是為什麼科技行業中有如此多的聰明人正在努力開發這項有爭議的技術,儘管如此令 人苦惱:不利用它來拯救世界似乎是不道德的。



他們受制於一種意識形態,認為這項新技術是不可避免的,而且在安全的情況下,是普遍有益的。它的支持者想不出更好的替代方案來修復人類並擴展其智慧。 但這種意識形態——稱之為 AGI 主義——是錯誤的。



AGI 的真正風險是政治性的,並且不會通過馴服叛逆的機器人來解決。最安全的 AGI 也無法提供其遊說團體所承諾的進步靈丹妙藥。通用人工智能主義將其出現描述為幾乎不可避免,它分散了人們對尋找增強智能的 更好方法的注意力。



AGI主義的支持者們並不知道,它只是一種更宏大意識形態的私生子,這種意識形態宣揚的 是,正如瑪格麗特·撒切爾 (Margaret Thatcher) 所說的那樣,除了市場之外別無選擇。 正如奧特曼暗示的那樣,通用人工智能——或者至少是急於建立它——更有可能為資本主義 最具破壞性的信條:新自由主義創造一個強大的(而且更時髦的)盟友,而不是像奧特曼先生暗示的那樣打破資本主義。 新自由主義的締造者著迷於私有化、競爭和自由貿易,希望通過市場和放鬆管制來激發和 改變停滯不前的、對勞動力友好的經濟。 其中一些轉變取得了成效,但也付出了巨大的代價。



多年來,新自由主義招致了許多批評者,他們將大衰退、金融危機、特朗普主義、英國脫歐等歸咎於它。 因此,拜登政府與這種意識形態保持距離也就不足為奇了,他們承認市場有時會出錯。基金會、智囊團和學術界甚至敢於想像後新自由主義的未來。 然而新自由主義還遠未消亡。更糟糕的是,它在通用人工智能主義中找到了盟友,而通用人工智能主義則強化並複制了它的主要偏見:私人行為者的表現優於公共行為者(市場偏見),適應現實勝過改變現實(適應偏見),效率勝過現實。社會問題(效率偏差)。 這些偏見完全顛覆了通用人工智能背後的誘人承諾:構建世界的追求不但不能拯救世界, 反而會讓事情變得更糟。方法如下。



AGI永遠無法克服市場對利潤的要求。 還記得優步以其低廉的價格吸引城市作為其公共交通系統嗎? 一切都開始得很順利,優步承諾提供令人難以置信的廉價乘車服務,並提供自動駕駛汽車 和最低勞動力成本的未來。財力雄厚的投資者喜歡這個願景,甚至承擔了 Uber 數十億美元 的損失。 但當現實降臨時,自動駕駛汽車仍然是一個白日夢。投資者要求回報,Uber被迫提高價格。依靠它來取代公共巴士和火車的用戶被留在人行道上。 Uber 商業模式背後的新自由主義本能是私營部門可以比公共部門做得更好——這就是市場偏見。 不僅僅是城市和公共交通。醫院、警察部門甚至五角大樓越來越依賴矽谷來完成他們的任務。



有了通用人工智能,這種依賴只會加深,尤其是因為通用人工智能的範圍和野心是無限的。任何行政或政府服務都無法免受其破壞性承諾的影響。 此外,AGI 甚至不需要存在來吸引他們。無論如何,這是 Theranos 的教訓,這家初創公司 承諾通過革命性的血液檢測技術和前寵兒“解決”醫療保健問題美國的精英。它的受害者是 真實的,即使它的技術從來都不是。 在經歷了這麼多 Uber 和 Theranos 式的創傷之後,我們已經知道 AGI 的推出會帶來什麼。



它將包括兩個階段。一是高額補貼服務的魅力攻勢。然後是醜陋的緊縮,過度依賴的用戶和機構承擔了使他們盈利的成本。 一如既往,矽谷專家淡化了市場的作用。在最近一篇題為“為什麼人工智能將拯救世界”的 文章中,著名科技投資者馬克·安德森 (Marc Andreessen) 甚至宣稱人工智能“像任何其他技術一樣,由人擁有並由人控制”。 只有風險投資家才能使用如此精緻的委婉說法。大多數現代技術都屬於公司所有。他們 ——而不是神話中的“人民”——將成為通過拯救世界賺錢的人。 他們真的在拯救它嗎?到目前為止,記錄很差。



Airbnb 和 TaskRabbit 等公司被視為陷入困境的中產階級的救世主;特斯拉的電動汽車被視為解決地球變暖的良方。代餐奶昔 Soylent 的使命是“解決”全球飢餓問題,而 Facebook 則誓言要“解決”南半球的連接問題。 這些公司都沒有拯救世界。 十年前,我將這種現象稱為“解決方案主義”,但“數字新自由主義”也同樣合適。這種世界觀 根據營利性技術解決方案重新定義了社會問題。結果,屬於公共領域的擔憂被重新想像為市場中的創業機會。



AGI 主義重新點燃了這種解決主義的熱情。去年,奧特曼先生表示,“通用人工智能可能是人類生存所必需的”,因為“我們的問題似乎太大了”,我們“如果沒有更好的工具就無法解決”。他最近斷言通用人工智能將成為人類繁榮的催化劑。 但公司需要利潤,而這種仁慈,尤其是來自燒毀投資者數十億美元的無利可圖的公司的仁慈,並不常見。



OpenAI 已從微軟接受了數十億美元的投資,並考慮再籌集 1000 億美元來 建設 AGI。這些投資需要收回——以對抗該服務驚人的隱形成本。(2 月份的一項估計顯 示,ChatGPT 的運營費用為每天 700,000 美元。) 因此,醜陋的緊縮階段,以及為了使 AGI 服務盈利而大幅提價的階段,可能會在“豐富”和“繁榮”之前到來。但到那時,有多少公共機構會將變化無常的市場誤認為是負擔得起 的技術,並開始依賴 OpenAI 昂貴的產品呢? 如果你不喜歡你的城鎮將公共交通外包給一家脆弱的初創企業,你是否希望它把福利服務、廢物管理和公共安全外包給可能更加不穩定的通用人工智能公司?



AGI 將減輕我們最棘手問題的痛苦,但不會解決它們。 新自由主義擅長利用技術來緩解社會的苦難。我記得 2017 年的一家創新科技企業承諾改善通勤者對芝加哥地鐵線路的使用。它提供獎勵來阻止地鐵乘客在高峰時段出行。它的創建者利用技術來影響需求方(乘客),認為供應方的結構性變化(例如籌集公共交通資金) 太困難了。科技將幫助芝加哥人適應城市日益惡化的基礎設施,而不是為了滿足公眾的需求而進行修復。 這就是適應偏差——希望藉助技術魔杖,我們可以對自己的困境變得麻木不仁。它是新自由主義對自力更生和韌性不懈鼓吹的產物。



信息很明確:做好準備,增強您的人力資本,並像初創企業一樣制定您的路線。AGI 主義 也呼應了這一點。比爾·蓋茨宣稱人工智能可以“幫助世界各地的人們改善生活”。 解決方案主義者的盛宴才剛剛開始:無論是對抗下一次流行病、孤獨症流行病還是通貨膨脹,人工智能已經被定位為釘住許多真實和想像的釘子的萬能錘子。然而,解決方案主義者的愚蠢行為所損失的十年揭示了此類技術修復的局限性。



可以肯定的是,矽谷的許多應用程序——用於監控我們的支出、卡路里和鍛煉製度——有時 會有所幫助。但他們大多忽視了貧困或肥胖的根本原因。如果不解決根源,我們就會陷入適應而非轉型的境地。 推動我們遵循步行習慣(有利於個人適應的解決方案)和理解為什麼我們的城鎮沒有公共空間可以行走(這是有利於集體和製度轉型的政治友好解決方案的先決條件)之間是有區別的。



但 AGI 主義與新自由主義一樣,認為公共機構缺乏想像力,而且生產力不高。他們應該適 應 AGI,至少按照 Altman 先生的說法,他最近表示,他對“我們的機構適應的速度”感到緊張——他補充說,這是“我們為什麼要開始部署這些技術”的部分原因。系統很早就開始了, 儘管它們確實很弱,這樣人們就有盡可能多的時間來做這件事。” 但機構只能適應嗎?他們不能製定自己的變革議程來提高人類的智力嗎?或者我們使用機構只是為了減輕矽谷自身技術的風險嗎?



AGI 破壞了公民道德並放大了我們已經不喜歡的趨勢。 對新自由主義的一個常見批評是,它使我們的政治生活變得扁平化,圍繞效率進行重新安排。1960 年的一篇文章《社會成本問題》已成為新自由主義經典,其中宣揚污染工廠及其 受害者不應費心將糾紛告上法庭。這樣的鬥爭是低效的——到底誰需要正義呢?——並阻礙 市場活動。相反,雙方應該私下討價還價並繼續開展業務。 這種對效率的執著正是我們通過讓最嚴重的罪犯繼續像以前一樣來“解決”氣候變化的方 式。避免監管束縛的方法是製定一項計劃(在本例中是對碳徵稅),讓污染者購買信用額 度以匹配他們排放的額外碳。 這種效率文化,其中市場衡量事物的價值並取代正義,不可避免地腐蝕公民美德。



由此產生的問題隨處可見。學者們擔心,在新自由主義下,研究和教學已經成為商品。醫生們感嘆,醫院優先考慮更有利可圖的服務,例如擇期手術,而不是緊急護理。記者們討厭他們的文章的價值是用眼球來衡量的。 現在想像一下,向這些受人尊敬的機構——大學、醫院、報紙——釋放通用人工智能,並肩 負著“修復”它們的崇高使命。他們隱含的公民使命對 AGI 來說仍然是不可見的,因為這些使命即使在他們的年度報告中也很少被量化——這些材料用於培訓 AGI 背後的模型 畢竟,誰喜歡吹噓他的文藝復興歷史課只有少數學生呢?或者她關於某個遙遠國家的腐敗問題的文章只有十幾個頁面瀏覽量?效率低下且無利可圖,即使在當前系統中,這些異常值也奇蹟般地生存了下來。



該機構的其他部門悄悄地補貼他們,優先考慮利潤驅動的“效率”之外的價值觀。 AGI 烏托邦中的情況還會如此嗎?或者通過通用人工智能來修復我們的機構是否會像將它們交給無情的顧問一樣?他們也提供數據支持的“解決方案”以最大限度地提高效率。但這些解決方案往往無法抓住機構核心的價值觀、使命和傳統之間混亂的相互作用——如果你 只觸及數據的表面,這種相互作用是很難被發現的。



事實上,類 ChatGPT 服務的卓越性能在設計上就是拒絕在數據表面之外的更深層次上把握現實。因此,儘管早期的人工智能係統依賴於明確的規則,並需要像牛頓這樣的人對重力進行理論化——詢問蘋果如何以及為何下落,但像 AGI 這樣的新系統只是通過觀察數百萬個蘋果下落到地面來學習預測重力的影響。 然而,如果 AGI 看到的只是資金短缺的機構為生存而戰,它可能永遠無法推斷出它們的真實精神。祝你好運,通過觀察已變成利潤中心的醫院來辨別希波克拉底誓言的含義。



瑪格麗特·撒切爾的另一句著名的新自由主義格言是“不存在社會這樣的東西”。 AGI 遊說團體無意中也認同這一悲觀觀點。對他們來說,值得複制的智力是個人頭腦中發生的事情的函數,而不是整個社會的函數。 但人類智力不僅是基因和個人才能的產物,也是政策和製度的產物。在國會圖書館獲得獎學金比在沒有書店甚至沒有像樣的 Wi-Fi 的地方做幾份工作要容易得多。 更多的獎學金和公共圖書館將為提高人類智力創造奇蹟,這似乎並沒有那麼有爭議。但對 於矽谷的解決方案論者來說,增強智能主要是一個技術問題——因此 AGI 令人興奮



然而,如果通用人工智能主義確實是其他意義上的新自由主義,那麼我們應該準備好看到 更少——而不是更多——支持情報的機構。畢竟,他們是那個可怕的“社會”的殘餘,對於新自由主義者來說,這個社會並不真正存在。AGI 增強智能的宏偉計劃最終可能會縮小它。 由於這種解決方案主義偏見,即使是圍繞通用人工智能的看似創新的政策想法也無法令人 興奮。以最近提出的“人工智能安全曼哈頓計劃”為例。這是基於 AGI 之外別無選擇的錯誤 想法 但是,如果政府資助曼哈頓文化和教育項目以及培育它們的機構,我們對增強智力的追求 難道不會更有效嗎?



如果沒有這樣的努力,我們現有公共機構的大量文化資源就有可能成為通用人工智能初創 企業的培訓數據集,從而強化社會不存在的謊言。 根據機器人叛亂如何(以及是否)展開,AGI 可能會或可能不會證明存在的威脅。但由於其反社會傾向和新自由主義偏見,通用人工智能主義已經是這樣的:我們不需要等待神奇的 Roomba 來質疑它的原則。





The True Threat of Artificial Intelligence https://www.nytimes.com/2023/06/30/opinion/artificial-intelligencedanger.html 2023/7/3 下午4:32 Opinion | The True Threat of Artificial Intelligence - The New York Times https://www.nytimes.com/2023/06/30/opinion/artificial-intelligence-danger.html 2/7 Discussions of A.G.I. are rife with such apocalyptic scenarios. Yet a nascent A.G.I. lobby of academics, investors and entrepreneurs counter that, once made safe, A.G.I. would be a boon to civilization. Mr. Altman, the face of this campaign, embarked on a global tour to charm lawmakers. Earlier this year he wrote that A.G.I. might even turbocharge the economy, boost scientific knowledge and “elevate humanity by increasing abundance.” This is why, for all the hand-wringing, so many smart people in the tech industry are toiling to build this controversial technology: not using it to save the world seems immoral. They are beholden to an ideology that views this new technology as inevitable and, in a safe version, as universally beneficial. Its proponents can think of no better alternatives for fixing humanity and expanding its intelligence. But this ideology — call it A.G.I.-ism — is mistaken. The real risks of A.G.I. are political and won’t be fixed by taming rebellious robots. The safest of A.G.I.s would not deliver the progressive panacea promised by its lobby. And in presenting its emergence as all but inevitable, A.G.I.-ism distracts from finding better ways to augment intelligence. Unbeknown to its proponents, A.G.I.-ism is just a bastard child of a much grander ideology, one preaching that, as Margaret Thatcher memorably put it, there is no alternative, not to the market. Rather than breaking capitalism, as Mr. Altman has hinted it could do, A.G.I. — or at least the rush to build it — is more likely to create a powerful (and much hipper) ally for capitalism’s most destructive creed: neoliberalism. Fascinated with privatization, competition and free trade, the architects of neoliberalism wanted to dynamize and transform a stagnant and labor-friendly economy through markets and deregulation. Some of these transformations worked, but they came at an immense cost. Over the years, neoliberalism drew many, many critics, who blamed it for the Great Recession and financial crisis, Trumpism, Brexit and much else. It is not surprising, then, that the Biden administration has distanced itself from the ideology, acknowledging that markets sometimes get it wrong. Foundations, think tanks and academics have even dared to imagine a post-neoliberal future. Yet neoliberalism is far from dead. Worse, it has found an ally in A.G.I.-ism, which stands to reinforce and replicate its main biases: that private actors outperform public ones (the market bias), that adapting to reality beats transforming it (the adaptation bias) and that efficiency trumps social concerns (the efficiency bias). These biases turn the alluring promise behind A.G.I. on its head: Instead of saving the world, the quest to build it will make things only worse. Here is how. 2023/7/3 下午4:32 Opinion | The True Threat of Artificial Intelligence - The New York Times https://www.nytimes.com/2023/06/30/opinion/artificial-intelligence-danger.html 3/7 A.G.I. will never overcome the market’s demands for profit. Remember when Uber, with its cheap rates, was courting cities to serve as their public transportation systems? It all began nicely, with Uber promising implausibly cheap rides, courtesy of a future with self-driving cars and minimal labor costs. Deep-pocketed investors loved this vision, even absorbing Uber’s multibillion-dollar losses. But when reality descended, the self-driving cars were still a pipe dream. The investors demanded returns and Uber was forced to raise prices. Users that relied on it to replace public buses and trains were left on the sidewalk. The neoliberal instinct behind Uber’s business model is that the private sector can do better than the public sector — the market bias. It’s not just cities and public transit. Hospitals, police departments and even the Pentagon increasingly rely on Silicon Valley to accomplish their missions. With A.G.I., this reliance will only deepen, not least because A.G.I. is unbounded in its scope and ambition. No administrative or government services would be immune to its promise of disruption. Moreover, A.G.I. doesn’t even have to exist to lure them in. This, at any rate, is the lesson of Theranos, a start-up that promised to “solve” health care through a revolutionary blood-testing technology and a former darling of America’s elites. Its victims are real, even if its technology never was. After so many Uber- and Theranos-like traumas, we already know what to expect of an A.G.I. rollout. It will consist of two phases. First, the charm offensive of heavily subsidized services. Then the ugly retrenchment, with the overdependent users and agencies shouldering the costs of making them profitable. As always, Silicon Valley mavens play down the market’s role. In a recent essay titled “Why A.I. Will Save the World,” Marc Andreessen, a prominent tech investor, even proclaims that A.I. “is owned by people and controlled by people, like any other technology.” Only a venture capitalist can traffic in such exquisite euphemisms. Most modern technologies are owned by corporations. And they — not the mythical “people” — will be the ones that will monetize saving the world. And are they really saving it? The record, so far, is poor. Companies like Airbnb and TaskRabbit were welcomed as saviors for the beleaguered middle class; Tesla’s electric cars were seen as a remedy to a warming planet. Soylent, the meal-replacement shake, 2023/7/3 下午4:32 Opinion | The True Threat of Artificial Intelligence - The New York Times https://www.nytimes.com/2023/06/30/opinion/artificial-intelligence-danger.html 4/7 embarked on a mission to “solve” global hunger, while Facebook vowed to “solve” connectivity issues in the Global South. None of these companies saved the world. A decade ago, I called this solutionism, but “digital neoliberalism” would be just as fitting. This worldview reframes social problems in light of for-profit technological solutions. As a result, concerns that belong in the public domain are reimagined as entrepreneurial opportunities in the marketplace. A.G.I.-ism has rekindled this solutionist fervor. Last year, Mr. Altman stated that “A.G.I. is probably necessary for humanity to survive” because “our problems seem too big” for us to “solve without better tools.” He’s recently asserted that A.G.I. will be a catalyst for human flourishing. But companies need profits, and such benevolence, especially from unprofitable firms burning investors’ billions, is uncommon. OpenAI, having accepted billions from Microsoft, has contemplated raising another $100 billion to build A.G.I. Those investments will need to be earned back — against the service’s staggering invisible costs. (One estimate from February put the expense of operating ChatGPT at $700,000 per day.) Thus, the ugly retrenchment phase, with aggressive price hikes to make an A.G.I. service profitable, might arrive before “abundance” and “flourishing.” But how many public institutions would mistake fickle markets for affordable technologies and become dependent on OpenAI’s expensive offerings by then? And if you dislike your town outsourcing public transportation to a fragile start-up, would you want it farming out welfare services, waste management and public safety to the possibly even more volatile A.G.I. firms? A.G.I. will dull the pain of our thorniest problems without fixing them. Neoliberalism has a knack for mobilizing technology to make society’s miseries bearable. I recall an innovative tech venture from 2017 that promised to improve commuters’ use of a Chicago subway line. It offered rewards to discourage metro riders from traveling at peak times. Its creators leveraged technology to influence the demand side (the riders), seeing structural changes to the supply side (like raising public transport funding) as too difficult. Tech would help make Chicagoans adapt to the city’s deteriorating infrastructure rather than fixing it in order to meet the public’s needs. This is the adaptation bias — the aspiration that, with a technological wand, we can become desensitized to our plight. It’s the product of neoliberalism’s relentless cheerleading for self-reliance and resilience. 2023/7/3 下午4:32 Opinion | The True Threat of Artificial Intelligence - The New York Times https://www.nytimes.com/2023/06/30/opinion/artificial-intelligence-danger.html 5/7 The message is clear: gear up, enhance your human capital and chart your course like a start-up. And A.G.I.-ism echoes this tune. Bill Gates has trumpeted that A.I. can “help people everywhere improve their lives.” The solutionist feast is only getting started: Whether it’s fighting the next pandemic, the loneliness epidemic or inflation, A.I. is already pitched as an all-purpose hammer for many real and imaginary nails. However, the decade lost to the solutionist folly reveals the limits of such technological fixes. To be sure, Silicon Valley’s many apps — to monitor our spending, calories and workout regimes — are occasionally helpful. But they mostly ignore the underlying causes of poverty or obesity. And without tackling the causes, we remain stuck in the realm of adaptation, not transformation. There’s a difference between nudging us to follow our walking routines — a solution that favors individual adaptation — and understanding why our towns have no public spaces to walk on — a prerequisite for a politics-friendly solution that favors collective and institutional transformation. But A.G.I.-ism, like neoliberalism, sees public institutions as unimaginative and not particularly productive. They should just adapt to A.G.I., at least according to Mr. Altman, who recently said he was nervous about “the speed with which our institutions can adapt” — part of the reason, he added, “of why we want to start deploying these systems really early, while they’re really weak, so that people have as much time as possible to do this.” But should institutions only adapt? Can’t they develop their own transformative agendas for improving humanity’s intelligence? Or do we use institutions only to mitigate the risks of Silicon Valley’s own technologies? A.G.I. undermines civic virtues and amplifies trends we already dislike. A common criticism of neoliberalism is that it has flattened our political life, rearranging it around efficiency. “The Problem of Social Cost,” a 1960 article that has become a classic of the neoliberal canon, preaches that a polluting factory and its victims should not bother bringing their disputes to court. Such fights are inefficient — who needs justice, anyway? — and stand in the way of market activity. Instead, the parties should privately bargain over compensation and get on with their business. This fixation on efficiency is how we arrived at “solving” climate change by letting the worst offenders continue as before. The way to avoid the shackles of regulation is to devise a scheme — in this case, taxing carbon — that lets polluters buy credits to match the extra carbon they emit. 2023/7/3 下午4:32 Opinion | The True Threat of Artificial Intelligence - The New York Times https://www.nytimes.com/2023/06/30/opinion/artificial-intelligence-danger.html 6/7 This culture of efficiency, in which markets measure the worth of things and substitute for justice, inevitably corrodes civic virtues. And the problems this creates are visible everywhere. Academics fret that, under neoliberalism, research and teaching have become commodities. Doctors lament that hospitals prioritize more profitable services such as elective surgery over emergency care. Journalists hate that the worth of their articles is measured in eyeballs. Now imagine unleashing A.G.I. on these esteemed institutions — the university, the hospital, the newspaper — with the noble mission of “fixing” them. Their implicit civic missions would remain invisible to A.G.I., for those missions are rarely quantified even in their annual reports — the sort of materials that go into training the models behind A.G.I. After all, who likes to boast that his class on Renaissance history got only a handful of students? Or that her article on corruption in some faraway land got only a dozen page views? Inefficient and unprofitable, such outliers miraculously survive even in the current system. The rest of the institution quietly subsidizes them, prioritizing values other than profit-driven “efficiency.” Will this still be the case in the A.G.I. utopia? Or will fixing our institutions through A.G.I. be like handing them over to ruthless consultants? They, too, offer data-bolstered “solutions” for maximizing efficiency. But these solutions often fail to grasp the messy interplay of values, missions and traditions at the heart of institutions — an interplay that is rarely visible if you only scratch their data surface. In fact, the remarkable performance of ChatGPT-like services is, by design, a refusal to grasp reality at a deeper level, beyond the data’s surface. So whereas earlier A.I. systems relied on explicit rules and required someone like Newton to theorize gravity — to ask how and why apples fall — newer systems like A.G.I. simply learn to predict gravity’s effects by observing millions of apples fall to the ground. However, if all that A.G.I. sees are cash-strapped institutions fighting for survival, it may never infer their true ethos. Good luck discerning the meaning of the Hippocratic oath by observing hospitals that have been turned into profit centers. Margaret Thatcher’s other famous neoliberal dictum was that “there is no such thing as society.” The A.G.I. lobby unwittingly shares this grim view. For them, the kind of intelligence worth replicating is a function of what happens in individuals’ heads rather than in society at large. But human intelligence is as much a product of policies and institutions as it is of genes and individual aptitudes. It’s easier to be smart on a fellowship in the Library of Congress than while working several jobs in a place without a bookstore or even decent Wi-Fi. 2023/7/3 下午4:32 Opinion | The True Threat of Artificial Intelligence - The New York Times https://www.nytimes.com/2023/06/30/opinion/artificial-intelligence-danger.html 7/7 It doesn’t seem all that controversial to suggest that more scholarships and public libraries will do wonders for boosting human intelligence. But for the solutionist crowd in Silicon Valley, augmenting intelligence is primarily a technological problem — hence the excitement about A.G.I. However, if A.G.I.-ism really is neoliberalism by other means, then we should be ready to see fewer — not more — intelligence-enabling institutions. After all, they are the remnants of that dreaded “society” that, for neoliberals, doesn’t really exist. A.G.I.’s grand project of amplifying intelligence may end up shrinking it. Because of such solutionist bias, even seemingly innovative policy ideas around A.G.I. fail to excite. Take the recent proposal for a “Manhattan Project for A.I. Safety.” This is premised on the false idea that there’s no alternative to A.G.I. But wouldn’t our quest for augmenting intelligence be far more effective if the government funded a Manhattan Project for culture and education and the institutions that nurture them instead? Without such efforts, the vast cultural resources of our existing public institutions risk becoming mere training data sets for A.G.I. start-ups, reinforcing the falsehood that society doesn’t exist. Depending on how (and if) the robot rebellion unfolds, A.G.I. may or may not prove an existential threat. But with its antisocial bent and its neoliberal biases, A.G.I.-ism already is: We don’t need to wait for the magic Roombas to question its tenets. Evgeny Morozov, the author of “To Save Everything, Click Here: The Folly of Technological Solutionism,” is the founder and publisher of The Syllabus and the host of the podcast “The Santiago Boys.” The Times is committed to publishing a diversity of letters to the editor. We’d like to hear what you think about this or any of our articles. Here are some tips. And here’s our email: letters@nytimes.com. Follow The New York Times Opinion section on Facebook, Twitter (@NYTopinion) and Instagram. A version of this article appears in print on , Section SR, Page 6 of the New York edition wit