人民網
人民網>>知識產權>>首頁滾動

人工智能倫理三問:如何對待機器和自身的關系?

2018年07月12日08:48 | 來源:經濟日報
小字號
原標題:人工智能倫理三問

法國生產的EZ10無人駕駛公交車已正式投入運行,隨著人工智能技術不斷發展,相關法律、法規亟待完善。 (資料圖片)

當前,人工智能浪潮方興未艾,在很多領域展示出巨大應用前景。然而,隨著人工智能技術的不斷發展,它引發的倫理爭議也不斷出現

近日,中國發展研究基金會發布報告——《未來基石——人工智能的社會角色與倫理》。針對人工智能倫理問題,報告在提出一系列建議的同時,也希望推動問題的充分討論。

對人工智能的討論足夠了嗎

迄今為止,我們對人工智能可能會帶來的挑戰仍知之甚少,嚴肅的公共討論還十分缺乏

要理解人工智能的社會影響,首先要認識人工智能在社會發展中的獨特作用。在人類發展進程中,知識的增長和社會協作體系的擴展起到了重要作用,而這一切都離不開人類大腦提供的智能基礎。

報告認為,人工智能的發展,將帶來知識生產和利用方式的深刻變革,人工智能不僅意味著前沿科技和高端產業,未來也可以廣泛用於解決人類社會面臨的長期性挑戰。從消除貧困到改善教育,從提供醫療到促進可持續發展,人工智能都大有用武之地。

例如,人工智能可以大幅度降低醫療服務的成本,緩解醫療人才不足的局面。在教育領域,人工智能能夠分析人們獲取知識的方式,然后利用這些信息開發出相應模型,來預測人們的投入和理解程度。人工智能還可以改變貧困地區高水平教師不足、教學質量低下的局面,促進教育公平。

此外,人工智能可以服務於殘障人士。例如,微軟最近在ios應用程序商店推出了一款名為“seeing AI”的產品,幫助失明和弱視人群應對日常生活中的問題。“seeing AI”的開發團隊包括一名在7歲時就失明的工程師,這一應用程序盡管還處於早期階段,但已証明人工智能可以捕捉用戶周圍的圖像並即時描述。比如,它可以讀取菜單、清點貨幣等,從而幫助殘障人士提高生活能力。

然而,迄今為止,我們對人工智能可能會帶來的挑戰仍知之甚少,嚴肅的公共討論還十分缺乏。社會公眾對人工智能的想象在很大程度上仍被科幻小說和影視作品所主導,而對於人工智能在未來可能產生的影響,更是缺乏認知和關切。在政策層面,對於人工智能的關注很大程度上仍集中於技術和經濟層面,缺乏整體性的思考和討論。盡管有少數哲學和社科領域的學者開始關注人工智能帶來的倫理問題和社會挑戰,但這些討論並未進入公共政策視界,而且討論的重點也多集中在超級人工智能這樣仍相對遙遠的議題上。

報告認為,在人工智能問題上,圍繞可能出現的挑戰,無知、忽視、偏狹、誤解交織在一起,可能會導致真正的風險。

人工智能會帶來哪些倫理挑戰

從人文視角來看,人工智能帶來了一些有可能撼動社會基礎的根本性問題

中國發展研究基金會副理事長兼秘書長盧邁表示,人工智能發展將進一步釋放社會活力,中國應積極擁抱人工智能,充分利用好它對生產力的解放效應。但是,把握機遇的前提是了解並預防風險,這需要我們在倫理學和社會治理上下功夫。

中國發展研究基金會秘書長助理、研究一部主任俞建拖認為,社會應該正視人工智能帶來的挑戰,並超越純技術和經濟的視角,從社會和人文視角去探討人工智能帶來的影響。

報告認為,從人文視角來看,人工智能帶來了一些已經在發生或即將發生、有可能撼動我們社會基礎的根本性問題。

隨著人工智能的不斷發展,我們對於人的理解越來越物化和去意義化,人和機器的邊界越來越模糊,我們需要思考這種邊界模糊的后果。我們該如何對待機器和自身的關系?人和機器應該整合嗎?如果人對快樂和痛苦的感受可以通過其他物理和化學手段來滿足,那麼,人還有參與社會互動的需要和動力嗎?

人工智能還帶來了新的社會權力結構問題。借助人工智能,企業可以賦予每個用戶大量的數據標簽,並基於這些標簽了解人的偏好和行為,甚至超過用戶對自己的了解,這是巨大的權利不對稱。

此外,人工智能可能會造成偏見強化。在社交媒體中,人工智能將觀點相近的人相互推薦,新聞推送也常常存在路徑依賴。當人們的信息來源越來越依賴於智能機器,偏見會在這種同化和路徑依賴中被強化。

人工智能還使社會的信息和知識加工處理能力被極大放大,信息和知識的冗余反而使人陷入選擇困境。如果人參與社會互動的次數和范圍縮小,而人工智能越來越多介入到知識的生產中,知識與人的需求之間的關系將變得越來越間接,甚至會反過來支配人的需求。

盡管人工智能也會推動進一步的專業化分工和創造新的工作機會,但並非所有人都有能力邁過技術性和社會性壁壘。尤瓦爾·赫拉利在《未來簡史》中警告,未來社會可能會出現“無用階級”,這種擔心並非全無道理。

人工智能也對傳統的法律法規和社會規范提出了挑戰。譬如,無人駕駛汽車一旦出現事故,我們究竟該歸因於開發產品的企業、產品擁有者還是人工智能產品本身?

如何構建人工智能的倫理規范

考慮到人工智能的深遠影響,需要全社會共同努力,制定開發和應用的倫理規范和政策方向

人工智能正幫助人類社會向充滿不確定性的未來疾馳。在沖進未知之門之前,需要給它裝上剎車,讓它真正能行穩致遠,這個剎車就是倫理規范和公共政策准則。

當前,已經有一些人工智能領先企業關注人工智能開發和應用的倫理問題。微軟公司總裁施博德表示,要設計出可信賴的人工智能,必須採取體現道德原則的解決方案,因此微軟提出6個道德基本准則:公平、包容、透明、負責、可靠與安全、隱私與保密。谷歌公司也表示,在人工智能開發應用中,堅持包括公平、安全、透明、隱私保護在內的7個准則,並明確列出了谷歌“不會追求的AI應用”。

報告認為,這些企業的前瞻性探索十分重要。但是,考慮到人工智能對未來社會的深遠影響,還需要全社會和各國政府的共同努力,制定人工智能開發和應用的倫理規范和政策方向,為其未來健康發展奠定基礎。

為此,報告提出了一系列建議:在社會層面,高校和研究機構開展前瞻性科技倫理研究,為相關規范和制度的建立提供理論支撐﹔各國政府、產業界、研究人員、民間組織和其他利益攸關方展開廣泛對話和持續合作,通過一套切實可行的指導原則,鼓勵發展以人為本的人工智能﹔人工智能企業應該將倫理考量納入企業社會責任框架中﹔投資機構應將倫理問題納入ESG(環境、社會和治理)框架,引導企業進行負責任的人工智能產品開發﹔社會組織可以通過培訓、發布倫理評估報告、總結代表性案例等方式,推動人工智能倫理規范的構建。

報告建議,在公共政策層面,人工智能研發和應用的政策應該將人置於核心,滿足人全面發展的需求,促進社會的公平和可持續發展﹔政府需要設立專項資金,支持大學和研究機構開展人工智能等前沿科技的倫理研究﹔政府還需要給予不同人群以學習了解人工智能的機會,推動全社會對人工智能的知識普及和公共政策討論﹔優先鼓勵人工智能應用於解決社會領域的突出挑戰,包括減少貧困和不平等,促進弱勢群體融入社會並參與社會發展進程﹔應組建由政府部門和行業專家組成的人工智能倫理委員會,對人工智能的開發和應用提供倫理指引,並對具有重大公共影響的人工智能產品進行倫理與合法性評估。

此外,對於人工智能的規范發展也需要更廣泛的國際合作。清華大學公共管理學院院長薛瀾表示,“人工智能的發展將在創新治理、可持續發展和全球安全合作3個方面對現行國際秩序產生深刻影響,需要各國政府與社會各界從人類命運共同體的高度予以關切和回應。隻有加強各國之間的合作與交流,才可能真正構建起一套全球性的、共建共享、安全高效、持續發展的人工智能治理新秩序”。

報告也建議,各國政府應促進數據共享技術,為人工智能培訓和測試提供共享的公共數據集。在個人信息得到保護的前提下,促進數據的自由流通﹔並加強國際合作,建立多層次的國際人工智能治理機制。各國政府應通過聯合國、G20以及其他國際平台,將人工智能發展納入國際合作議程,利用人工智能推動聯合國2030年可持續發展目標的實現。(袁 勇)

(責編:龔霏菲、王珩)

分享讓更多人看到

返回頂部