人民網
人民網>>知識產權>>首頁滾動

構建新一代人工智能准則

2019年01月24日08:44 | 來源:光明日報
小字號
原標題:構建新一代人工智能准則

【科學向未來】

著名作家阿西莫夫1940年在科幻小說中提出了“機器人三原則”:機器人不得傷害人類,或看到人類受到傷害而袖手旁觀﹔機器人必須服從人類的命令,除非這條命令與第一條相矛盾﹔機器人必須保護自己,除非這種保護與以上兩條相矛盾。今天,人工智能逐漸從科幻走向現實,人們對人工智能可能產生的危害也愈加警惕,希望能夠為其制定准則以確保人工智能科技和產業向對社會有益的方向順利發展。

1.以和諧互補的方式鏈接不同的人工智能准則提案

人工智能既是經過數十年錘煉發展出來的科學領域,又是改變未來的重要顛覆性技術。人工智能的研究與發展不僅關系到國家科技、經濟發展、社會穩定,更關系到國家在科技、產業領域的國際影響與國際局勢。

人工智能在帶來機遇的同時也帶來潛在的風險與隱患。例如應用最為廣泛的深度神經網絡模型在對輸入引入極小的噪聲(如改變圖像輸入中某個關鍵的一個像素值)情況下,就有可能使網絡的識別和預測結果產生顛覆性的錯誤(如將青蛙識別為卡車、烏龜識別為槍支)。若沒有充分的風險評估,新興技術在對社會發展帶來機遇的同時,很有可能引入不可預計的安全隱患與風險。

現在對於人工智能的發展而言,首要的問題是選擇正確的道路。創新、價值、倫理是一個鐵三角,創新性技術對社會帶來潛在價值的同時,可能存在難以預期的風險,並對社會倫理提出重大挑戰。因此,發展人工智能技術普惠經濟與社會的同時,關注人工智能的社會屬性,從社會風險、倫理准則與治理角度確保人工智能科學、技術、產業的健康、良性發展至關重要。

為了確保發展有益的人工智能,世界上各國政府、非政府組織、科學團體、科研機構、非營利性組織、企業都提出了人工智能發展准則。包括英國政府、國際電子電器工程學會、國際勞工組織。至今,於公開渠道可見的人工智能准則提案已接近40個,涉及以人為本、合作、共享、公平、透明、隱私、安全、信任、權利、偏見、教育、通用人工智能等主題。例如,美國生命未來研究所倡導的阿西洛瑪人工智能准則(Asilomar AI Principles)、英國上議院提出的人工智能准則(AI Code)等,都希望通過在人工智能倫理與准則制定方面的領先來引領人工智能的發展。

事實上目前任何一個國家、機構、組織提出的人工智能准則都僅覆蓋了少部分主題(更為具體的層面,人工智能准則提案涉及超過50個主要議題),雖然不少准則提案都有自身的特色,有其他方案未能覆蓋的考量,但想要構建統一、全面、完善的人工智能准則既是難以實現的,又是沒有必要的——難以實現的原因是人工智能這門科學技術本身、人工智能准則、倫理的內涵和外延都是在不斷完善的﹔沒有必要的原因是每個國家、組織與機構的准則提案都結合自身實際情況,有組織目標、環境、文化、倫理傳統相關的特殊考慮。

筆者認為,真正有價值的做法是認可每一個國家、機構提案在一定范圍的意義,而為了更好地實現人工智能的全球治理,重點將不是統一人工智能的准則,而是以更和諧互補的方式鏈接不同的人工智能准則提案,使其在局部(如國家、組織機構等)有序與一致,世界的全局范圍內不同的准則提案仍可交互和協商,最終實現和諧互補、優化共生。

2.調和政府與企業在准則制定上的現存差異

在對不同人工智能准則提案的量化分析中可以看到:相對而言,各國政府對人工智能的潛在風險與安全高度重視,但企業的重視程度相對薄弱。這反映了在企業從事人工智能創新過程中對於潛在風險與安全隱患可能估計不足。例如,在對人工智能風險的評估中,部分企業認為如果總體可能的利益遠遠超過可預見的風險和不利因素,則可以進行相關探索。但從學術的視角看,一方面,依據潛在利益與風險之間的量化差異決定企業是否採取相關行動本身就是一個危險的視角﹔另一方面,如果沒有站在全社會的全局視角進行綜合研判與分析,僅從企業自身視角進行預測與判斷,則很有可能因為局限的思考與行動對社會造成潛在的巨大危害。

因此,應當看到政府重視與企業相對不足的考慮之間的差距,並採取引導、監管、建立人工智能產品與服務的風險與安全評估體系等有效措施彌補政府期望與企業實踐之間的鴻溝。

同時,一些准則在相關技術途徑可能引發風險的方面可能估計不足。例如某些提案中對通用人工智能(各個認知功能達到人類水平,簡稱AGI)、超級智能(所有認知功能超過人類水平,簡稱ASI)涉及很有限。

這方面學術機構的討論和相關研究應當為政府決策提供有力支撐,例如阿西洛瑪人工智能准則中提出超級智能以全人類受益為標准來發展,劍橋大學近期提出並正在進行一項名為“通用人工智能的實現途徑及潛在風險”的研究。

3.兼顧專用人工智能和通用人工智能的發展

在人工智能頂層設計當中,是否發展通用人工智能,還是僅限於發展領域特定的專用人工智能?這是諸多人工智能准則提案中主要存在的巨大分歧。

例如,歐盟人工智能研究實驗室聯合會(CLAIRE)就明確提出應限制人類水平智能、通用智能以及超級智能的發展。德國的人工智能計劃也集中於發展專用人工智能。而阿西洛瑪人工智能准則、OpenAI等機構提出的人工智能准則中則明確提出應當對更安全的通用人工智能進行充分考慮與發展。

事實上發展專用智能並不一定能夠完全避免風險,因為專用智能系統在應用中很可能遇到不可預期的場景, 具備一定的通用能力反而有可能提升智能系統的魯棒性和自適應能力。因此應針對智能的通用性這個主題鏈接不同國家、組織、機構的考慮,實現頂層設計的互補。

人類認知功能的多樣性以及人工智能應用場景的復雜性使得很難對人工智能的風險、安全以及倫理體系進行絕對完善的建模,特別是涉及到人工智能產品、服務與具有不同文化背景的人類群體交互。任何國家都應制定適應本國的實際社會、科技、經濟發展與文化需求的人工智能准則。但更關鍵的是需要全世界不同政府、學術組織、產業界深度交互與協同,對人工智能的發展進行對全社會有益的戰略性設計,對其潛在的社會風險與倫理挑戰進行系統性評估與預測,並構建世界范圍內總體和諧、互為補充、優化共生的發展准則。(作者:曾毅,系中國科學院自動化研究所類腦智能研究中心研究員、副主任)

(責編:王小艷、王珩)

分享讓更多人看到

返回頂部