2023年5月7日 星期日

時論廣場》善用Sora 人人都可成為專業導演

時論廣場》善用Sora 人人都可成為專業導演

(林建甫)
19:52 2024/03/04 言

最近OpenAI又推出了一項新科技,使用者給出一段文字描述就能由旗下最新的AI影片產生器Sora直接生成一段60秒的逼真 影片,震撼全球。 9段Sora影片,包括走在熱鬧東京街頭的時尚女性、淘金時代的場景鳥瞰、老式休旅車高速行走在山路、踏著皚皚白雪奔跑 的猛獁象……。每段影片,看來都非常專業,運用鏡頭推移轉換,準確地表達角色情感與和視覺風格。外媒《Wired》聲 稱,這是沒有在其他影片生成AI模型中看見過的真實感,並且生成的影片長於其他模型。 現在AI的智慧實在是突飛猛進。

1980年代,我還在讀大學的時候,有朋友告訴我交大就是一個很大的電腦學校,各科系都是 在電腦裡面的零件去分工研究。但是當時大家覺得電腦根本稱不上一個腦,只是一部計算器而已。今天透過OpenAI的 ChatGPT,電腦已經可以跟你聊天對話,一點違和感都沒有。

根據OpenAI在官網上的介紹,Sora能夠生成包含多名角色、特定動作類型以及大量細節的複雜場景,而且AI不僅了解用戶 在提示詞所說的各種物體,還知道這些物體是如何存在於現實世界,進而營造出讓人驚豔的逼真感受。 看起來AI逐漸可以摸透人類的想法,然而這還是大量計算的結果,不是像人類直覺的反應。

不過令人擔心的是,AI已經侵入 人類的藝術工作層面。一般我們說科學的研究是邏輯推理,這種思考是「垂直思考」。電腦運算的速度很快,勝過人類,這 可以讓人類輸得心服口服。但是這種藝術類的範疇,屬於「水平思考」,不是直線邏輯的推理而是天外飛來一筆的想像。美 學的東西,現在電腦竟然可以做得這麼好,令人驚嘆。

然而仔細思量,藝術作品人類還是可以進行邏輯的解析,將其脈絡化,所以當電腦把訣竅寫入程式,也可以依樣畫葫蘆,做 出類似的作品,或甚至是創造出新鮮的東西,也令人不得不佩服。最近網路流傳一個故事,書法家孫大川寫了個對聯,右 聯:「酒二共識」,左聯:「一盅各表」,廣求橫批,一直沒人對得很好。沒想到上網詢問,ChatGPT居然回答對出了神橫 批:「合瓶共醇」,就像是神來之筆。

然而,這樣的發展,令人擔心的事就誠如我最近看到的一個段子,AI是不是發展錯方向?AI怎麼不是要幫我省卻工作上的辛 苦:倒垃圾、照顧小孩,反而是來搶走我的工作? 去年好萊塢的罷工,先是編劇抵制ChatGPT:抗議AI侵犯創作權益,後來又有編輯拒絕為ChatGPT產生的劇本草稿修改潤 飾,因為他們感覺這是為AI打工,雖傷害性不大,但侮辱性極強。

另外在日本, AI繪圖工具MIMIC也遭到繪師的集體抗 議,因為只要使用者上傳同一名繪師30幅以上的原創作品,給予 AI進行訓練後,接著MIMIC就能自動產出與該繪師藝術風 格相似的圖片。這不但衝擊到了繪師的商業利益,而且擔心有心人士透過MIMIC生成與他們繪圖風格相似的作品,接著在上 面加註偏激文字、濫用與散布,那麼網路上的人們又該如何分辨圖片和訊息的真假。

回過來說,目前Sora影片還是有些缺點,例如影片中的角色可能走過雪地,沒有腳印;可能咬了一口餅乾,之後餅乾卻沒有 咬痕。目前Sora對於光影的移動掌握還不夠精準,也還做不到準確描述一些物理作用的細節,比如人類手部的精巧動作,但 一般人可能不會注意到,相信未來這一定可以改進解決的。 我們應該要如何面對這樣的衝擊?由於晶片、程式、算力還在突飛猛進的發展,AI再來應該更是等比級數的進化。工作及智 財權的保障問題固然要解決,如何懂得駕馭新進的AI,善用它們來為人類工作,恐怕才是職場勝利者最該做的事。

「老高與小茉」這些YT(YouTuber)應該也很興奮,因為從此不用在素材庫裡找不太合適的影片,全部可以自主貼近主題 的生成。對於一般人,玩玩票,自己編個劇,就可以當導演,生成段影片,搞不好還可以找到自己被埋沒的天賦。至於我, 就等著Sora正式公布後,下個指令描述來生成影片,加入我的簡報,讓我的演講更加生動。(作者為中信金控首席經濟學 家、中信金融管理學院講座教授)

2023年5月6日 星期六

AI 與社會

AI 與社會

AI 孫燕姿

AI 詐騙

deepfake: 印度外長 日本首相

weapon systems

無人機

人工智能的下一個恐懼:好萊塢的殺手機器人成為軍隊的工具

 

美國國家安全官員警告說,這項新技術有可能顛覆戰爭、網絡衝突,以及——在最極端的情況下——使用核武器。

 

經過大衛·E·桑格

2023 5 5

 

當拜登總統在 10 月份宣布嚴格限制向中國出售最先進的計算機芯片時,他出售這些芯片的部分原因是讓美國工業有機會恢復其競爭力。

但在五角大樓和國家安全委員會,還有第二個議程:軍備控制。

該理論認為,如果中國軍方無法獲得芯片,它可能會放慢開發人工智能驅動武器的步伐。這將使白宮和全世界有時間找出在傳感器、導彈和網絡武器中使用人工智能的一些規則,並最終防範好萊塢製造的一些噩夢——不顧它們的人類創造者自動殺手機器人和計算機。

現在,圍繞著流行的 ChatGPT 聊天機器人和其他生成式人工智能軟件的恐懼迷霧使得將芯片限制在北京看起來只是一個臨時解決方案。

週四,當拜登先生在白宮拜訪正在努力限制技術風險的技術高管會議時,他的第一條評論是“你們正在做的事情具有巨大的潛力和巨大的危險。”

他的國家安全助手說,這反映了最近的機密簡報,內容涉及新技術有可能顛覆戰爭、網絡衝突,以及——在最極端的情況下——關於使用核武器的決策。

但就在拜登發出警告時,五角大樓官員在技術論壇上表示,他們認為暫停開發下一代 ChatGPT 和類似軟件六個月的想法是個壞主意:中國人不會等等,俄羅斯人也不會。

“如果我們停下來,猜猜誰不會停下來:海外的潛在對手,”五角大樓首席信息官約翰謝爾曼週三表示。“我們必須繼續前進。”

他的直言不諱突顯了當今整個國防界的緊張氣氛。沒有人真正知道這些新技術在開發和控制武器方面的能力,他們也不知道什麼樣的軍備控制制度(如果有的話)可能奏效。

預感是模糊的,但令人深感擔憂。ChatGPT 能否授權以前無法輕易獲得破壞性技術的不良行為者?它會不會加速超級大國之間的對抗,從而使外交和談判的時間所剩無幾?

“這個行業並不愚蠢,你已經看到了自我監管的努力,”谷歌前董事長埃里克施密特說,他曾在 2016 年至 2020 年擔任國防創新委員會首任主席。

施密特先生說:“因此,業界現在正在進行一系列非正式對話——都是非正式的——關於人工智能安全規則是什麼樣子的,”施密特先生與前國務卿亨利基辛格一起撰寫了一系列關於人工智能顛覆地緣政治的潛力的文章和書籍。

任何測試過 ChatGPT 初始迭代的人都清楚將護欄放入系統的初步努力。這些機器人不會回答有關如何用釀造的藥物傷害某人的問題,例如,或者如何炸毀大壩或削弱核離心機,美國和其他國家在沒有人工智能工具的情況下參與的所有行動.

但是那些行動黑名單只會減緩這些系統的濫用;很少有人認為他們可以完全阻止這種努力。總有一些技巧可以繞過安全限制,任何試圖關閉汽車安全帶警告系統緊急蜂鳴聲的人都可以證明這一點。

 

儘管新軟件讓這個問題變得普遍,但對於五角大樓來說,這並不是什麼新鮮事。十年前發布了關於開發自主武器的第一條規則。五角大樓的聯合人工智能中心成立於五年前,旨在探索人工智能在戰鬥中的應用。一些武器已經在自動駕駛儀上運行。擊落進入受保護空域的導彈或飛機的愛國者導彈長期以來一直具有“自動”模式。它使他們能夠在沒有人為干預的情況下開火,當被傳入的目標淹沒時,速度快於人類的反應。但它們應該受到人類的監督,人類可以在必要時中止攻擊。

伊朗最高核科學家穆赫森·法赫里扎德 (Mohsen Fakhrizadeh) 的暗殺行動是由以色列的摩薩德 (Mossad) 使用由人工智能輔助的自動機槍執行的,儘管似乎已經進行了高度遙控。俄羅斯最近表示,它已經開始製造——但尚未部署——其海底波塞冬核魚雷。如果它不辜負俄羅斯的炒作,這種武器將能夠自主穿越海洋,避開現有的導彈防禦系統,在發射幾天后發射核武器。

到目前為止,還沒有涉及此類自主武器的條約或國際協定。在軍備控制協議被放棄的速度快於談判速度的時代,達成這樣的協議的希望渺茫。但 ChatGPT 及其同類產品提出的挑戰類型不同,而且在某些方面更為複雜。

在軍隊中,注入人工智能的系統可以加快戰場決策的速度,以至於它們會產生全新的意外打擊風險,或者根據誤導性或故意錯誤的攻擊警報做出決策。

“人工智能在軍事和國家安全方面的一個核心問題是如何防禦比人類決策速度更快的攻擊,我認為這個問題尚未解決,”施密特先生說。“換句話說,導彈來得太快了,必須有自動反應。如果這是一個錯誤的信號會怎樣?”

冷戰期間充斥著錯誤警告的故事——曾經是因為本應用於練習核反應的訓練磁帶不知何故被輸入了錯誤的系統,並引發了蘇聯大規模進攻的警報。(良好的判斷力導致每個人都解除警戒。)新美國安全中心的保羅沙雷在他 2018 年出版的《無人軍隊》一書中指出,“從 1962 年到 2002 年,至少發生了 13 起近用核事件”,這“這證實了這樣一種觀點,即未遂事件是核武器的正常情況,即使是可怕的情況。”

出於這個原因,當超級大國之間的緊張局勢遠低於今天時,歷任總統都試圖通過談判為各方的核決策留出更多時間,這樣就沒有人會匆忙捲入衝突。但生成式人工智能有可能將各國推向另一個方向,即加快決策速度。

好消息是大國可能會小心——因為他們知道對手的反應會是什麼樣子。但到目前為止,還沒有商定的規則。

前國務院官員、現任 RiceHadleyGates and Manuel 諮詢集團負責人的 Anja Manuel 最近寫道,即使中國和俄羅斯還沒有準備好就AI 進行軍備控制談判,關於該主題的會議將導致討論人工智能的哪些用途被視為“超出範圍”。

當然,五角大樓也會擔心同意許多限制。

計算機科學家丹尼·希利斯 (Danny Hillis) 說:“我非常努力地爭取獲得一項政策,如果你擁有武器的自主元件,就需要一種方法來關閉它們,”他是用於人工智能的並行計算機的先驅。曾在國防創新委員會任職的希利斯先生說,五角大樓官員反擊說,“如果我們可以關閉它們,敵人也可以關閉它們。”

更大的風險可能來自個體行為者、恐怖分子、勒索軟件組織或擁有先進網絡技能的較小國家(如朝鮮),它們學習如何克隆更小、限制更少的 ChatGPT 版本。他們可能會發現生成式 AI 軟件非常適合加速網絡攻擊和瞄準虛假信息。

微軟的信任和安全運營負責人湯姆伯特正在加速使用新技術改造其搜索引擎,他在喬治華盛頓大學最近的一個論壇上表示,他認為人工智能係統將幫助防禦者比他們更快地檢測異常行為會幫助攻擊者。其他專家不同意。但他表示,他擔心人工智能會“加速”有針對性的虛假信息的傳播。

所有這一切都預示著一個新的軍備控制時代。

一些專家表示,由於無法阻止 ChatGPT 和類似軟件的傳播,最好的希望是限制推進該技術所需的專用芯片和其他計算能力。毫無疑問,這將是未來幾年提出的眾多不同軍備控制計劃之一,而此時主要核大國至少似乎對就舊武器進行談判不感興趣,更不用說新武器了。

 

大衛·E·桑格 (David E. Sanger)是一名白宮和國家安全記者。在為時報工作的 38 年報導生涯中,他曾帶領三個團隊獲得普利策獎,最近一次是在 2017