• <track id="yzspn"></track>

      <table id="yzspn"><option id="yzspn"></option></table>
      您的位置: 主頁 > 新聞資訊 > 人物報道 >

      何積豐院士:人工智能需要規則性治理

      來 源:科學人才網
      發布時間:2021-07-12

      “人工智能作為賦能技術,需要一個治理的階段。人工智能應用發展迅速,有些在智慧城市建設領域起著核心作用,也有野蠻生長的現象,我們需要一個規則性治理。”在2021世界人工智能大會“共話標準,驅動產業”標準化分論壇上,中國科學院院士、工信部新一代人工智能標準與應用重點實驗室主任委員何積豐進行主旨報告時表示。

      何積豐是著名計算機軟件科學家。現任華東師范大學終身教授、軟件學院院長,中國科學院信息學部常委會副主任,上海市科協副主席,國家可信嵌入式軟件工程技術研究中心首席科學家,上海市高可信計算重點實驗室主任。

      2021世界人工智能大會于7月8日至10日在上海召開,今年是第四屆大會,以“智聯世界 眾智成城”為主題,圍繞“AI賦能城市數字化轉型”方向,探討人工智能技術創新與產業落地的前沿進展,廣泛傳遞城市數字化轉型的理念與價值,推動相關治理和規范形成全球共識。

      “人工智能的范圍遠遠不只計算機學科,人工智能在數學、物理、社會學、心理學等都發揮了一些不可替代的作用。”何積豐認為,人工智能常被看作計算機科學的分支,但事實上是在自然科學和社會科學的交叉口。“我們應該給智能技術設一個紅線,規定什么事情不能做。”

      何積豐在演講中表示,人工智能本質是機器模擬人類思考行為的能力,人工智能的發展可以分為三階段:弱人工智能、強人工智能、超人工智能。而我們正處于中間階段。

      弱人工智能著重對人類推理過程的模仿,通常只擅長于某個特定領域;強人工智能是可以達到人類思維級別的人工智能程序,“深度學習”、“因果推理”和“大數據”是其發展的引擎和燃料;超人工智能具有全方位超越人類大腦的思維能力,例如自我學習、情感等。

      何積豐指出,可信人工智能應該具備于人類智能類似的特質,包括透明性、可解釋性、公平性、魯棒性、自適性等特質。比如說,告訴用戶該智能系統工作原理,告訴用戶該智能系統在什么環境下不工作。

      針對安全問題,何積豐提出幾點安全對策:保護模型和算法,對于早期的數據質量、模型等制定標準,并要求模型在部署后的可解釋性;保護隱私;公平建模;可信驗證;倫理法律等。

      其中,關于公平性,他指出兩個問題。第一,中國作為一個地域遼闊、人口眾多的大國難免經濟發展不平衡,沿海地區和偏遠地區的經濟發展差異也使得人們在高科技的使用上有差異,因此這種公平的實現相對較難。第二,不同年齡的人掌握新技術的能力有差別。他表示,“但是現在我們也沒有很好的辦法去做普及。前段時間網上有個老太太上公交車,讓她顯示健康碼,但她沒有智能手機。”

      關于可信驗證,他認為要拿出辦法判斷某系統是否可信、可信度達到了哪一等級。“在云計算的發展支撐下,很多軟件系統發生了大變化。過去的軟件系統十分專業,它是否可靠只影響一部分業務;現在鼓勵企業上云,很多業務在云上,云變成像電、水一樣的公共設施,公共設施的可信極其關鍵。”

      關注微信公眾號
      97碰