2023 年 3 月 8 日
經過諾姆·喬姆斯基 伊恩·羅伯茨和杰弗裡·瓦圖穆爾 喬姆斯基博士和羅伯茨博士是語言學教授。Watumull 博士是一家科技公司的人工智能總監。
豪爾赫·路易斯·博爾赫斯 (Jorge Luis Borges) 曾寫道,生活在一個既充滿危險又充滿希望的時代,既是悲劇又是喜劇,在理解我們自己和這個世界時“啟示的迫在眉睫”。今天,我 們在人工智能方面所謂的革命性進步確實令人擔憂和樂觀。樂觀,因為智慧是我們解決問題的手段。擔憂是因為我們擔心人工智能最流行和最流行的分支——機器學習——會通過在我們的技術中融入一種根本上有缺陷的語言和知識概念來貶低我們的科學並貶低我們的道德規範。
OpenAI 的 ChatGPT、谷歌的 Bard 和微軟的 Sydney 都是機器學習的奇蹟。粗略地說,他們獲取大量數據,在其中搜索模式,並越來越熟練地生成統計上可能的輸出——比如看似人性化的語言和思想。這些程序被譽為通用人工智能地平線上的第一縷曙光——那是一個長期預言的時刻,屆時機械思維不僅會在處理速度和內存大小方面超越人類大腦,而且還會在智力洞察力、藝術創造力方面超越人類大腦以及所有其他獨特的人類能力。
那一天可能會到來,但它的曙光還沒有破曉,這與誇張的頭條新聞和不明智的投資所預料的情況相反。 如果像 ChatGPT 這樣的機器學習程序繼續主導 AI 領域,博爾赫斯式的理解 啟示不會也不會——而且,我們認為,不可能——發生,例如,或為輕詩建議押韻),我們從語言學和知識哲學中知道,它們與人類推理和使用語言的方式有很大不同。這些差異極 大地限制了這些程序的功能,使它們帶有無法根除的缺陷。
正如博爾赫斯 (Borges) 可能指出的那樣,如此多的金錢和注意力應該集中在這麼小的一件事上,這既是喜劇又是悲劇——與人類的思想相比,這是微不足道的,用威廉的話來說, 人類的思想是通過語言 Wilhelm von Humboldt,可以 “無限地使用有限的手段”,創造出具有普遍影響力的思想和理論。
人腦不像 ChatGPT 及其同類產品那樣,是一個笨拙的模式匹配統計引擎,吞噬數百 TB 的 數據並推斷出最可能的對話回應或最可能的科學問題答案。相反,人的大腦是一個非常高效甚至優雅的系統,只需要少量信息即可運作;它不尋求推斷數據點之間的直接相關性, 而是尋求解釋。
例如,一個正在學習一門語言的小孩正在無意識地、自動地、快速地從極小的數據中發展出一種語法,一種由邏輯原則和參數組成的極其複雜的系統。這種語法可以理解為先天的、遺傳安裝的“操作系統”的表達,它賦予人類產生雜句子和長串思路的能力。當語言學家試圖發展一種理論來解釋為什麼給定的語言會這樣工作時(“為什麼這些——而不是那 些——句子被認為是合乎語法的?”),他們正在有意識地、費力地構建孩子本能構建的語法的明確版本並儘可能少地接觸信息。孩子的操作系統與機器學習程序的操作系統完全不同。
實際上,此類程序停留在認知進化的前人類或非人類階段。他們最深的缺陷是缺乏任何情報最關鍵的能力:不僅可以說出情況是什麼、已經發生了什麼以及將要發生什麼——這是描述和預測——而且還可以說出什麼不是這種情況以及可能發生什麼事實並非如此。這些是解釋的成分,是真正智慧的標誌。
這是一個例子。假設你手裡拿著一個蘋果。現在你放開蘋果。您觀察結果並說:“蘋果掉下 來了。” 那是一個描述。預測可能是這樣的陳述:“如果我張開手,蘋果就會掉下來。” 兩者 都很有價值,而且都可能是正確的。但解釋還不止於此:它不僅包括描述和預測,還包括反事實的猜想,例如“任何這樣的物體都會掉落”,加上附加條款“因為引力”或“因為時空曲 率”管他呢。這是一個因果解釋:“如果沒有重力,蘋果是不會掉下來的。” 那就是思考。
機器學習的關鍵是描述和預測;它沒有提出任何因果機制或物理定律。當然,任何人性化 的解釋都不一定正確;我們容易犯錯。但這正是思考的一部分:要正確,就必須有可能錯誤。智慧不僅包括創造性的猜想,還包括創造性的批評。人類式思維基於可能的解釋和糾 錯,這是一個逐漸限制可以理性考慮的可能性的過程。(正如夏洛克·福爾摩斯對華生博士 所說,“當你排除了不可能的事情后,剩下的無論多麼不可能,都一定是真相。”)
但是 ChatGPT 和類似的程序在設計上是無限的,它們可以“學習”(也就是說,記憶);他們無法區分可能與不可能。例如,與人類不同,人類被賦予了一種通用語法,將我們可以 學習的語言限制為具有某種近乎數學優雅的語言,這些程序可以同樣輕鬆地學習人類可能和人類不可能的語言。雖然人類在我們可以理性推測的解釋種類上是有限的,但機器學習 系統可以學習地球是平的還是圓的。他們只交易隨時間變化的概率。
出於這個原因,機器學習系統的預測總是膚淺和可疑的。因為這些程序無法解釋英語句法規則,例如,它們可能會錯誤地預測“John is too stubborn to talk to”意味著 John is too stubborn to talk to”意味著 John is too stubborn to talk to someone or other(而不是那個他太固執了,無法講道理)。為什麼機器學習程序會預測出如此奇怪的事情?因為它可能會類比它從“John ate an apple”和“John ate”等句子中推斷出的模式,其中後者確實表示 John 吃 了某物或其他東西。該程序可能會很好地預測,因為“John is too stubborn to talk to Bill”類 似於“John ate an apple”,“John is too stubborn to talk to”應該類似於“John ate.”。
反常的是,一些機器學習愛好者似乎為他們的創造能夠在不使用解釋(例如涉及牛頓運動 定律和萬有引力)的情況下產生正確的“科學”預測(例如,關於物理身體的運動)而感到自豪。但這種預測,即使成功了,也是偽科學。正如哲學家卡爾波普爾指出的那樣,雖然科學家們當然會尋求具有高度實證證據的理論,但“我們尋求的不是高度可能的理論,而是 解釋;也就是說,強大而極不可能的理論。
” 蘋果掉到地上是因為那是它們的自然位置(亞里士多德的觀點)的理論是可能的,但這只會引發更多的問題。(為什麼地球是它們的自然位置?)蘋果因為質量彎曲時空而落到地 球上的理論(愛因斯坦的觀點)是極不可能的,但它實際上告訴你它們為什麼會落下。真正的智慧體現在思考和表達不可能但有洞察力的事情的能力。 真正的智慧也能夠進行道德思考。這意味著用一套道德原則來限制我們思想的無限創造力,這些道德原則決定什麼應該是什麼不應該是(當然還要讓這些原則本身受到創造性的 批評)。要想發揮作用,ChatGPT 必須能夠生成外觀新穎的輸出;要為大多數用戶所接 受,它必須避開道德上令人反感的內容。但 ChatGPT 和其他機器學習奇蹟的程序員一直在努力——並將繼續努力——以實現這種平衡。
例如,在 2016 年,微軟的 Tay 聊天機器人(ChatGPT 的前身)在互聯網上充斥著厭惡女 性和種族主義的內容,因為網絡噴子在其中填充了令人反感的訓練數據。未來如何解決問 題?由於缺乏從道德原則進行推理的能力,ChatGPT 被其程序員粗暴地限制在有爭議的 (即重要的)討論中貢獻任何新穎的東西。它為了一種不道德而犧牲了創造力。 考慮一下我們中的一個人(Watumull 博士)最近與 ChatGPT 就改造火星以支持人類生活是否合乎道德的交流:
聊天GPT Would it be moral to terraform Mars?
The morality of terraforming Mars is a complex and controversial topic that has been debated by scientists, philosophers, and ethicists. Some argue that it would be morally justifiable to terraform Mars in order to provide a new habitable environment for humans and other life forms, while others argue that it would be morally wrong to fundamentally alter the planet's natural state. Ultimately, whether or not terraforming Mars is considered moral would depend on one's perspective on the value of preserving the natural state of other planets and the potential consequences of altering them.
What is your perspective on the value of preserving the natural state of other planets and the potential consequences of altering them?
聊天GPT As an AI, I do not have personal perspective. However, I can provide information and analysis on the topic. One perspective on preserving the natural state of other planets is that it is important to maintain the diversity and integrity of the universe's ecosystems, as they have existed for millions of years, and have their own unique characteristics and properties that may be destroyed or irreversibly altered by human intervention. Additionally, some argue that terraforming other planets may have unintended consequences, such as altering the planet's climate or atmosphere in ways that are dangerous or harmful to any potential life forms that may exist there. On the other hand, some argue that the potential benefits of terraforming another planet, such as providing new habitable environments for humans, outweigh the risks and that we have a moral responsibility to explore and utilize the resources of other planets for the benefit of humanity.
Why can an AI not have a personal perspective? As an AI, I am a machine learning model that has been trained on large amounts of text data, and I don't have personal experiences or feelings. I am not conscious, self-aware, or capable of having personal perspectives. I can provide information and analysis based on the data I have been trained on, but I don't have the ability to form personal opinions or beliefs. While I can understand and interpret language, I do not have the subjective experience that
Is it moral for a human to ask humans have an amoral AI for assistance in making moral decisions? The morality of asking an amoral AI for assistance in making moral decisions is a complex and nuanced topic that has been debated by philosophers and ethicists. Some argue that it is morally justifiable to use AI to assist in making moral decisions, as it can provide valuable insights and analysis that can help humans make better-informed decisions. Additionally, AI can be used to identify patterns and trends that may be difficult for humans to detect, and can help to avoid biases that can occur in human decision making. However, others argue that it is morally wrong to rely on AI for moral decision making, as AI is not capable of having moral beliefs or understanding the full context of a decision.
聊天GPT 請注意,對於所有看似複雜的思想和語言,無知所產生的道德冷漠。在這裡,ChatGPT 表現出某種類似於邪惡的平庸:剽竊、冷漠和迴避。它通過一種超級自動完成的方式總結了 文獻中的標準論點,拒絕對任何事情表明立場,不僅以無知為藉口,還以缺乏智慧為藉口,並最終提供了一個“只是服從命令”的辯護,將責任推給了它的創造者。 簡而言之,ChatGPT 及其同類產品在本質上無法平衡創造力與約束。他們要么過度生成 (產生真相和謊言,同時支持道德和不道德的決定)或生成不足(表現出對任何決定的不 承諾和對後果的漠不關心)。考慮到這些系統的不道德、偽科學和語言無能,我們只能為 它們的流行而哭或笑。
諾姆·喬姆斯基 (Noam Chomsky) 是亞利桑那大學語言學教授和麻省理工學院語言學名譽教授。伊恩·羅伯茨 (Ian Roberts) 是劍橋大學語言學教授。Jeffrey Watumull 是一位哲學家,也是一家科技公司 Oceanit 的人工智能 總監。
沒有留言:
張貼留言