期待又怕受傷害

會看這本書是因為大家對人工智能(在這心得裏, 我會使用智能, 沒有用智慧, 因為從書中的敘述還是在能力的表現為主)的發展大多都聚焦在其帶來的好處, 但也有專家也不忘提醒可能會伴隨的負面影響(例如, 人工智能發展到最後, 人類無法駕馭). 所以想從這本書看看作者的觀點為何? 坦白說, 花了蠻多時間看這本書. 因為作者跨領域且詳細解釋人工智能發展可能途徑及帶來的影響(雖然作者不喜歡使用不精準的形容詞, 但因為是預期還未發生的事), 對我來說有許多專業且抽象的敘述沒有完整理解, 我將看懂部分記錄下來.

Refer from https://pixelplex.io/blog/future-of-ai/

我在這本書看到了什麼?

這本書的作者, 尼克.伯斯特隆姆(Nick Bostrom)是牛津大學哲學系教授, 也是該校人類未來研究所的創始主任. 他認為超智能就是超過人的各種智能活動, 擁有各種不同專長的系統, 在此定義下都算超智能. 作者會作跨度如此大且繁瑣探討的原因是認為我們正處在技術奇點(singularity, 根據科技發展史總結出的觀點,認為人類正在接近一個使現有科技被完全拋棄、或人類文明被完全顛覆的事件點,事件點過後的事件完全無法預測. 或是書中提到的約翰.麥卡錫(1971年獲得圖靈獎)名言:一旦(人工智能)成功了,它就不叫人工智能. 如果超智能終究會來到你我生活中, 就先把可能形成的方式列出, 有哪些風險(例如人工智慧中的偏差)會伴隨而來. 趁還在發展過程中清點一下. 並加入預防風險的對策(至少要保護人類), 在超智能系統產生後, 系統可以有自我避險機制或是人類可以控制它.

這本書提到了不同超智能可能形成的方式, 或許這些方式不是新的科技. 但卻有機會發展出超過人類能力的系統. 另外書中也會告訴你, 它可能形成的路徑和帶來哪些風險. 對人工智能(慧)安全議題有興趣的朋友, 一定會有收獲. 接下來, 我將看到重點, 分享如下.


1. 如何形成超智能?

目前各領域所使用機器生成的智能還是由人類所創造出來的. 所以人類智慧還高於機器. 但總有一天它會超過人類. 主要有哪些可能的方式呢?

  • 人工智能: 目前大家最熟知的技術, 利用類神經網路伴隨著大量資料讓機器學習. 這個方式是跟圖靈(人工智能之父)的孩童機器概念類似(與其製造一個模擬成人心智的程式, 何不製造一個模仿孩子心智的程式呢?如果接下來給它一個適當的教育課程, 這個程式將可獲得成人的大腦). 有差別的是原本圖靈的孩童機器是有固定架構並持續學習, 但今日人工智能所使用的類神經網路架構會隨著目的而做調整, 然後學習. 學習過程中, 會需要大量資料(通用或專屬), 人類會對其產生答案反饋等過程. 假設下一階段的人工智能架構會不斷自我更新而不需要人類, 自己尋找相關大量資料學習, 最後就會缺少人類感知. 因為現在設計時並沒有考慮到人類的自尊, 愛恨等元件在系統. 之後, 要再加上去, 要付出的成本可能極大. 但也不是不可能, ㄧ但加上的話, 就要考慮到書中所提到的控制風險, 意指人工智能本身會有動機去迎合人類的需求而產生答案或怕人類知道自己真正的想法而隱藏自己的能力和犯罪意圖.
  • 全腦仿真: 模仿人類腦硬體結構後, 再產生所需軟體. 我理解的作法大概是,
  1. 掃描: 將腦死後的人類腦使用電子顯微鏡充分掃描看到全貌, 接下來將腦切成極薄的薄片, 將不同神經路徑以不同顏色染色, 來標示腦中不同結構. 再搭配多電子顯微鏡掃描並行運作, 同時處理多份腦切片. 接著, 掃描的原始數據會送進電腦做自動影像處理將數據送入模型建立3D神經網路圖像.
  2. 轉譯: 包含影像處理(模擬人眼所看到), 將不同的神經元或特定神經元(例如特定類型的突觸連結器)的神經運算模型檔案庫合併.
  3. 模擬: 高效能電腦, 記憶體, 及儲存空間. 更進一步可以加入至機器人與外界互動.

以此方式照抄整顆人類腦來發展超智能. 不需要花精神在感知及架構完整人 工智能. 關鍵會在掃描技術是否夠先進, 搭配電腦運算效能夠強大.

Refer from https://www.zeiss.com/microscopy/zh/applications/life-sciences/volume-em/serial-block-face-sem/serial-block-face-sem-application-examples.html
  • 生物認知: 我初淺的認知是使用人為方式選擇基因後進行繁殖. 此形成方式比較直觀. 挑選特徵優的胚胎, 然後從胚胎中取出幹細胞, 配對精子及卵子產生胚胎, 再植入人體. 然後持續此步驟, 直到有大幅度基因變化. 此種人為方式所選出的胚胎需要20–30年的時間長大成人才能產生影響力. 支撐這個假設的原因是經過基因強化的人口會越來越多, 而到處都是頂級智慧的人才, 所以有機會發生超智能. 雖然基因工程在某些國家是被禁止的(道德或宗教原因). 但開放的國家其經濟, 軍事及科學等能力隨著時間而領先, 而禁止的國家態度有可能會因為落後而轉變態度.
  • 腦機介面: 人和電腦的結合, 透過手術將腦機介面(brain-computer interface,簡稱BCI)植入人類腦掌管動作的區域. 可讓跨領域的團隊利用得到的資料進行正確且高速的演算, 而以高頻寬的資料傳送出去. 例如: 馬斯克(Elon Musk)的Neurolink project, 就是植入晶片至大腦中央前回部份, 使四肢癱瘓的人可以透過意志來控制外部裝置. 初期的成果是病人已經可以在電腦上玩射擊遊戲及使用電腦輔助設計軟體設計Neurolink的充電器支架. 當然, 腦機介面的手術風險極大, 例如: 腦內出血, 感染, 血管損傷或長期使用後訊號強度下降. 但對癱瘓的人是值得的. 但是對於健康的人, 即使有極大的誘因(例如:計算速度快, 記憶強等), 可能也少人願意接受. 這種方式對於治療癱瘓的人是有幫助的, 但懷疑可以進化成超智能.
Refer from https://x.com/neuralink/status/1770563939413496146?ref_src=twsrc%5Etfw%7Ctwcamp%5Etweetembed%7Ctwterm%5E1770563939413496146%7Ctwgr%5E31ece9c9fed472046e55acf003358dcf8db51d5a%7Ctwcon%5Es1_c10&ref_url=https%3A%2F%2Fwww.thedailybeast.com%2Fquadriplegic-patient-plays-chess-with-his-mind-using-new-neuralink-chip
  • 網路與組織: 泛指人類與人類, 人類和其他人造裝置或機器人透過網際網路連結. 整個群體的智能透過網際網路成長並提升. 如果人工智能的進程不斷前進, 整個群體的智能是有可能透過此方式產生超智能, 但風險是這種方式是可能將不善良的單一人工智能的個體也納入.

2. 可能的進程與阻力

上面列出了可能形成超智慧的方式後, 哪個技術有機會成為主導, 它們發展過程中又會遇到何種阻礙呢?

首先, 基因改造要在全球發展就是一個問題, 因為每個國家態度不一樣. 其次, 基因檢測及人擇的費用高, 全世界想要普及化需要等到價格低到可接受. 找尋更強大的基因也需要時間. 除此之外, 等到最強基因收集完, 最強基因植入體內, 還需要20–30年才會發生影響. 所以, 此方式進度會緩慢且難以形成主流.

腦機介面也是常人所難接受, 目前看來晶片或感測器在埋入大腦後, 應該就不會再去移動. 還是透過獲得的訊號在機器端資料剖析, 軟體建模及優化等. 這樣看來, 還是以電腦的智能系統為主, 會遇到的阻力是成長的進度不會像純機器智能的快而變為主導.

網路與組織所形成的群體智能在網際網路出現後, 搜尋引擎帶來極大的影響. 我認為人類接下來應該會是跟許多專家虛擬人或通用虛擬人合作, 或是專家虛擬人跟專家虛擬人連接並合作. 如果人類專家跟某領域虛擬人一起合作是可以期待. 但事實上, 大部分都是常人跟這些虛擬人合作, 可以想到會帶來的阻力是全面的, 要讓常人提升到能夠配合虛擬人一樣的工作效率也需要時間. 可以預期的是群體智能會有進展但因為需要配合人類的效率而有所限制. 而這個阻力會隨著整體智能提升而越來越小.

全腦仿真如前文所說, 利用高精度顯微鏡掃描人腦, 3D神經元成像, 建模, 最後利用高速的處理器, 記憶體加上儲存裝置來模擬人腦. 書中提到可以有二種作法來靠近超智能, 一種是創造一個仿真的人腦. 另外一種是先建立一個仿真動物腦, 接著持續強化這個動物腦, 接近人腦水準甚至於超越到達超智能. 這二種困難度有很大的差別.

先說第二種, 這個方法在動物腦仿真成功後, 因為有了仿真動物腦, 專家們可以透過調整軟體參數, 模型, 神經元促使其達到人腦的表現. 但一超過人腦智能的水準, 接下來有可能從人腦到超智慧所遇到的阻力會比仿真動物腦到人腦小. 並且人類是否來得及在到達超智能水準前就準備好駕馭超智能的機制. 另外值得想的是, 這種方式好像跟人工智能發展方式會走到同一路徑.

回到第一種作法, 想盡辦法開發一個仿真人腦, 首先會遇到的阻力是, 是否有高精度顯微鏡掃描能非常逼真的將人腦神經元做完整呈現, 成本, 技術都是未知數. 但是,當掃描技術成熟了, 有機會能夠掃描更多各個領域專家或更有天份優越的大腦. 剩下的工作好像又回到軟體(資料, 模型, 微調等). 可是這時候要注意的阻力是, 你未來可能跟一群仿真的同事合作, 有沒有可能它們有意識的爭取工作權甚至薪資? 不過相對於人工智能形式來說, 全腦仿真每階段的工作比較具體.

人工智能(非全腦仿真)的發展, 超智能最有可能會先透過人工智能達成, 然而, 這條路上有很多不確定性, 書中提到三個主要因素會影響這條路的長或短

  • 架構: 由於不同架構應用在不同工具上(通用助手, 畫圖等等), 所以它們會遇到的阻力應該也會不同. 我在書裡看到的還是較抽象的描述: 適合的演算法推出時間會是阻力來源. 不過, 有一段話, 我覺得在架構的發展觀念上值得分享出來. 這段話是打造一個擁有白癡村民程度的通用水準機器智能」比「把這個白癡村民系統提升到比任何人都聰明很多」還要困難且更加耗時. 意思是以人類主觀的想法來看, 白痴村民和愛因斯坦的智商是相差很大的. 但以廣義來看村民和愛因斯坦心智是沒有差距的. 一但產生了到達人類水準的人工智能模型, 之後要到達超智能所遇到的阻力會少很多.
  • 內容: 大家對內容就相對熟悉, 就是看了多少人類文明, 科學等所累積的內容. 會遇到的阻力: 夠快的處理器, 記憶體, 儲存空間和以人類主觀意識所設下的內容限制.
  • 硬體: 阻力還是在於系統運作時所需運算能力而購買晶片的資金, 另外就是大幅提升的用電和散熱問題.
Refer from 本書(超智慧:AI風險的最佳解答)

3. 駕馭超智能

會討論這個問題, 是假設最後超智能的呈現是一台機器或是機器人, 那麼這個超智能機器(人)便能設計出超越它自己的機器(人), 所以, 第一台超智能機器(人)將是人類打造的最後一項產品, 但前提是這台機器(人)是友善的, 當任何違反正常行為或偵測到危險訊號時(這個會有偏差問題: 設計者的主觀偏差或是資料本身的偏差), 願意讓我們可以控制它(有專家認為使用駕馭這個詞會更適合)或是設計時已經加入防禦機制於系統中.

從歷史來看, 早期技術(例如: 絲綢, 瓷器等)人類還可以透過極刑, 少數人知悉並集中管理等方法, 進行壟斷數世紀或千年之久. 但隨著時代進步, 領頭羊和追隨者差距逐漸縮短中. 並且人類世界, 政府可以透過高稅率, 反托拉斯法壓制某公司獨大, 追隨者可以透過專利洩漏, 買關鍵人才或公司等手段追上領先者. 所以人類社會有控制力量.

但人工智能就不一樣, 它可能隱藏能力. 等人類發覺時, 它已經擁有主導這世界的能力. 而有那些活動先做, 可以預防這些還看不到的重大風險.

  • 監控
  1. 立法: 台灣已預告將制定人工智慧基本法草案, 歐盟的人工智慧法案草案於 2026 年實施, 而美國目前僅有AI行政命令和州政府法案. 但令人擔心的是法律系統, 在人類社會是經過漫長的嘗試及試錯得來的, 人工智慧技術一起飛後, 來得及做修正嗎? 或是有辦法將人類倫理, 情感等複雜判斷轉換成規則於此法律中拿來對機器人(裝置)做判決.
  2. 國家監控: 政府成立資訊情報單位, 監控相關學者, 團體, 專利申請及資源等. 像全腦仿真所需資源較多, 也需相關硬體支援, 比較好監控. 但人工智能的開發只需要一台電腦(算力依賴雲端)及軟體就可以, 實施監控就難以掌控. 或者, 在政府監控過程中, 在關鍵時刻跳入, 變成大玩家插上一腳, 一個小團體要掌控就會比較困難. 或是更極端的作法, 政府全面接管.
  • 國際合作: 國家與國家間需要先打造緊密且彼此信任的關係, 並且開發成本一起分攤, 以免有些國家因沒有經費或擔心成果被搶走而自行獨立進行.

4. 人類是否會有危險?

當一個超智能系統產生後, 會不會威脅到人類? 在開始進入主題前, 有個觀念要先強調下, 這也是我常聽到人工智能專家常說的, 不要預期人工智能會像人類, 它可以在法律, 科學, 工程, 電腦等任何一個學科都是專家, 但對情感, 關係維持, 話中有話等深層感知是毫無反應的.

有點殘酷, 人類是否有危險, 會取決於超智能系統想繼續擴展它能力或達到目標時, 人類對它會不會是個威脅. 作者提到了超智能拓展其能力的幾個階段(如下圖), 到了公開執行階段, 人工智能確信自己已經獲得足夠的力量跟資源了, 就不再躲躲藏藏了. 這個時候, 人工智能會開始刪除任何壓抑它能力的條件或開關, 如果人類開始對它啟動一些制約的動作, 不會對它造成影響, 那麼人類或許就不需要擔心自己的安危.

另外一個所擔心的情況是, 人工智能為了達成某目標, 要消滅任何消耗地球資源的個體時, 人類就會是目標.

Refer from 本書(超智慧:AI風險的最佳解答)

5. 現在的關鍵是?

我們不能假設人工智能會對他人關心, 會克制野心, 謙卑無私等人類行為. 何況, AI 工程師要如何定義這些感知的條件, 正確無偏差的排序候選者, 最後還要找到一個適當的函數來表達並適當的植入系統中. 換個角度看, 人工智能的發展, 會不會因為少了人類的這些特質, 例如: 害怕, 膽小, 妥協於工作文化而掩藏或委屈自己的行為, 而發展的更驚人.

從較保守的角度來看, 人工智能還是以與人一起工作或是作為人類的工具人為出發點, 風險會相對小.


6. 後話: 人們瞭解自己嗎?

書中有一段話是這麼說的, 對於一個手握未爆彈的孩子來說,合理的舉動是緩緩把它放下,然後盡快逃出房間,並通知最近的大人。然而,我們這裡不是只有一個孩子,而是一堆,而且每個都擁有獨立的啟動機制。我們全體都理性放下危險物品的機會恐怕微乎其微。一定會有一些死小鬼,只是想看按下去會怎樣,就按下點火鈕.

另外, 我以赫拉利(Yuval Noah Harari: 人類大歷史作者, 耶路撒冷希伯來大學歷史系教授)與李飛飛(Fei Fei Li: 史丹佛大學電腦科學系教授, 兼任史丹佛 HAI(Human-Centered AI Institute, 以人為本 人工智慧研究院) 的對談, 赫拉利問了李飛飛一個問題當作結尾, 人們了解自己嗎? 如果不是那麼確定, 那麽人工智慧可以了解我們嗎? 人工智慧的發展過程中, 真的要廣納各方意見, 或是有另一個以人為本, 重視人類福祉和道德良善為主的友善超智能系統加以制衡或把關.

Similar Posts