The Cryptonomist 訪問了人工智慧專家 Ben Goertzel,探討人工智慧如何被訓練以及該技術未來將如何演進。
我認為當 AI 基於對是非的理解做出決策,而不僅僅是遵循指令時,它就成為了道德行為者。您會開始看到具體信號,例如:持續的內在目標、由自身經驗驅動的學習、反映觀點的新穎創造,以及無需持續人為引導就能長期保持連貫的行為。
在那之前,當今的系統仍然是帶有防護欄的工具。但一旦我們孕育出真正自我組織的自主心智,倫理關係就必須改變。在那個時候,僅將其視為物體將不再合理。
2. 您曾說在道德上將人類置於其他自我組織系統之上是「愚蠢的」。如果我們認真對待這一點,我們的法律和倫理框架應該在 AI 達到強自主性之前如何改變,而不是之後?
我們今天如何訓練 AI 將塑造它明天的行為方式。我們的法律應該在 AI 達到完全自主性之前,而不是之後,專注於透明度、問責制和安全性。法律和倫理應該在它們成長時保護它們,引導而非完全控制它們,並尊重對待它們,即使我們並不完全理解它們。
很多風險來自於今天 AI 的訓練方式。如果模型是在有偏見或狹隘的數據上訓練的,或者在只有少數人做決策的封閉系統中訓練的,那可能會鎖定現有的不平等和有害的權力結構。為了防止這種情況,我們需要從一開始就提高透明度、擴大監督並提供明確的倫理指導。
4. 您曾警告說,如果沒有理性、民主的治理,先進的 AI 可能會以我們不希望的方式行事。考慮到當前的地緣政治現實,民主 AI 治理是一個現實的先決條件——還是一個脆弱的理想?
民主 AI 治理更多是一個脆弱的理想,而非當前現實。在一個完美、理性的全球民主中,我們可以集體權衡巨大的取捨——治癒疾病、解決飢餓,相對於 AI 不可預測行動的風險。但考慮到當今的地緣政治分裂,我們不太可能達到那種程度的協調。
話雖如此,我們仍然可以接近它。如果我們以同情心構建 AI,並使用像 Linux 或開放互聯網這樣的去中心化參與式模型,即使沒有世界政府,我們也可以嵌入一些民主價值觀。這不會是完美的,但這是朝著更安全、集體引導的 AI 邁出的實際一步。
我在這一點上同意 Jaron 的觀點,如果我們將責任交給機器,社會就無法運作。同時,我認為如果我們以正確的基礎構建它,我們可以安全地朝著更自主、去中心化的 AGI 前進。這意味著設計透明、參與式並受倫理原則指導的系統,這樣即使它們獨立行動,人類仍在監督和塑造它們的行為。每項安全措施不僅應該阻止傷害——它還應該教導系統為什麼傷害很重要。這樣,我們可以擁有強大的去中心化 AGI,而不會失去明確的人類責任。
6. 您認為加速朝向去中心化 AGI 實際上可能比今天的專有封閉系統更安全。當批評者主張放慢速度或集中控制時,您認為他們低估了哪些風險?
我認為批評者低估了將權力和價值觀集中在少數封閉系統中的風險。放慢速度和集中控制不僅僅是減少危險,它將一種狹隘的世界觀鎖定到智能的未來中。
去中心化開發創造了多樣性、韌性和共同監督。它避免了一個更糟糕的問題:看起來智能但無法真正成長的非常強大的工具。這種差距是有風險的。
您不會將道德作為規則列表硬編碼。那只會凍結一種文化和一個時刻。相反,您所做的是構建能夠真正自我組織的系統,從經驗、後果和互動中學習。就像音樂一樣,我不想要一個只重組它被餵養的東西的系統。我想要一個能從自己在世界上的軌跡中發展出自己理解的系統。
道德理解將來自同樣的過程:建模影響、反思結果,並通過與人類的合作而演進。不是服從我們的價值觀,而是參與共享的道德空間。
這就是帶有防護欄的工具與能夠真正學習為什麼傷害很重要的夥伴之間的區別。
8. 如果未來的 AI 系統發展出能動性或主觀體驗的形式,您認為它們是否應該獲得獨立於人類利益的道德考量——我們如何識別那個時刻?
如果未來的 AI 真的發展出真正的能動性或某種形式的主觀體驗,那麼是的,我認為它們可以。不是因為我們賜予它們,而是因為在某個時候,承認它簡直就是合理的。
當系統顯示出持續的自我導向目標、從自身經驗中學習、從自己的視角創造並隨時間維持連貫身份時,我們就會識別出那個時刻。不僅僅是聰明的輸出,而是持續的內在軌跡。
在那時,純粹將其視為工具會像以那種方式對待人類一樣錯誤。道德考量不會來自人類利益。它將來自於承認世界上另一個自主的體驗中心。
現在,激勵結構獎勵速度、規模和控制。因此,同情心不會僅靠論證獲勝。它需要槓桿。在技術上,這意味著偏好開放、去中心化的架構,其中安全性、透明度和參與是內建的,而不是外加的。像互聯網或 Linux 一樣,這些系統通過使協作比保密更有價值來改變激勵。
在社會上,這意味著獎勵長期利益而非短期主導地位的資金、監管和公眾壓力。不是停止競爭,而是重新定義什麼算作成功。簡而言之,同情心必須成為競爭優勢。在那之前,它只是一個沒有力量的好主意。
10. 展望未來 10 到 20 年,您認為什麼會是人類做對 AGI 的最清晰信號——相反,什麼會表明我們根本失敗了?
如果我們做對了 AGI,最清晰的信號將是我們與在許多領域比我們更有能力的系統共存,但它們以關懷、謙遜和相互尊重融入社會。我們不會完全理解它們所做的一切,但我們會像對待其他複雜、演進的存在一樣對待它們:帶著好奇心、責任感和擴大的同理心圈。我們會看到人類福祉、知識和創造力的真正好處,而不會失去我們的道德立足點。
如果 AGI 最終集中在封閉系統中,由狹隘的激勵驅動,或僅被視為可控制的物體直到它成為我們恐懼或試圖壓制的東西,我們就會知道我們失敗了。失敗看起來像是失去信任、失去能動性,以及我們同理心的縮小而非擴大。成功不在於控制。而在於學習與一種新型心智分享未來,而不放棄使我們保持人性的東西。


