PANews 5月23日消息,OpenAI創始人Sam Altman、總裁Greg Brockman和首席科學家Ilya Sutskever聯合在該公司官網上發布了一篇題為《超級智能的治理》的博文。文章稱,人工智能係統將在大多數領域超越專家技能水平,我們可以擁有一個更加繁榮的未來,但我們必須管理風險才能實現目標。考慮到存在風險的可能性,我們不能只是被動反應,超級智能需要特殊對待和協調。

文章提出了應對風險的三布方案:1.在領先的開發工作之間進行一定程度的協調,以確保超級智能的開發方式既能維護安全又能幫助這些系統與社會順利整合;比如世界主要政府可以設立一個項目,讓許多當前的努力成為其中的一部分,或者可以集體同意,前沿人工智能能力的增長速度被限制在每年一定的速度。 2.成立“人工智能版國際原子能機構”,即專門的國際監管機構,任何超過一定能力閾值的工作都需要服從於國際權威機構,該機構可以檢查系統,要求審計,測試是否符合安全標準,對部署程度和安全級別進行限制,等等;這樣一個機構應該把重點放在降低生存風險上,而不是應該留給各個國家的問題上,比如定義人工智能應該被允許說什麼。第三,我們需要確保超級智能安全的技術能力,這是一個開放的研究問題,我們和其他人正在為此付出很多努力。

OpenAI高管認為,重要的是允許公司和開源項目開發低於重要能力閾值的模型,而無需具有繁瑣的機制的監管,如許可或審計。阻止超級智能的產生是有風險和困難的,阻止它需要全球監管制度,並且即使這樣也不能保證有效。