“““超智慧:AI風險的最佳解答””” 讀書心得

期待又怕受傷害 會看這本書是因為大家對人工智能(在這心得裏, 我會使用智能, 沒有用智慧, 因為從書中的敘述還是在能力的表現為主)的發展大多都聚焦在其帶來的好處, 但也有專家也不忘提醒可能會伴隨的負面影響(例如, 人工智能發展到最後, 人類無法駕馭). 所以想從這本書看看作者的觀點為何? 坦白說, 花了蠻多時間看這本書. 因為作者跨領域且詳細解釋人工智能發展可能途徑及帶來的影響(雖然作者不喜歡使用不精準的形容詞, 但因為是預期還未發生的事), 對我來說有許多專業且抽象的敘述沒有完整理解, 我將看懂部分記錄下來. Refer from https://pixelplex.io/blog/future-of-ai/ 我在這本書看到了什麼? 這本書的作者, 尼克.伯斯特隆姆(Nick Bostrom)是牛津大學哲學系教授, 也是該校人類未來研究所的創始主任. 他認為超智能就是超過人的各種智能活動, 擁有各種不同專長的系統, 在此定義下都算超智能. 作者會作跨度如此大且繁瑣探討的原因是認為我們正處在技術奇點(singularity, 根據科技發展史總結出的觀點,認為人類正在接近一個使現有科技被完全拋棄、或人類文明被完全顛覆的事件點,事件點過後的事件完全無法預測. 或是書中提到的約翰.麥卡錫(1971年獲得圖靈獎)名言:一旦(人工智能)成功了,它就不叫人工智能. 如果超智能終究會來到你我生活中, 就先把可能形成的方式列出, 有哪些風險(例如人工智慧中的偏差)會伴隨而來. 趁還在發展過程中清點一下. 並加入預防風險的對策(至少要保護人類), 在超智能系統產生後,…