• <track id="yzspn"></track>

      <table id="yzspn"><option id="yzspn"></option></table>
      您的位置: 主頁 > 科研學術 >

      人工智能治理研究必須“超前于實踐”

      來 源:文匯報
      發布時間:2021-07-12
      人工智能技術正給人類社會治理帶來全新的挑戰。對學術界而言,有些研究已經“等不起”了。
            
      日前,在上海交通大學計算法學與AI倫理研究中心成立儀式上,AI倫理課題組負責人田豐向全社會征集研究者和志愿者。 “我們現在對人工智能治理的研究還遠遠不夠。”田豐是商湯智能產業研究院院長,兼任上海交通大學計算法學與AI倫理研究中心聯袂主任。在他看來,隨著人工智能賦能百業效應的顯現,將帶來生產效率上百倍乃至上千倍的提升,同時也可能把人性善惡帶來的影響放大百倍、千倍,因此,人工智能治理研究必須走在實踐前面,通過研究提升人工智能治理能力,從而為城市的數字化轉型提供更好的支撐。
       
      人工智能會產生“歧視”和“偏見”,該怎么辦?
       
      就在去年,深圳法院認定人工智能生成的文章構成作品并擁有著作權,這一全國首例判例一度引發法學界熱議。而這只是人工智能發展給人類社會帶來的挑戰之一,也凸顯了人工智能治理的重要意義。
            
      所謂人工智能治理,即針對人工智能的開發和應用所帶來的社會風險,確保數據安全和算法公正,使科技真正造福于人類并且處于可控狀態。上海交通大學中國法與社會研究院院長、著名法學家季衛東說,必須明確相關的原則、倫理、政策、法律、行業規則、技術標準,形成綜合治理的規范性框架,并把合規要求落到實處。
       
      “隨著信息與通信技術的迅猛發展,社會生活的方方面面都在數字化。法治中國的大政方針則意味著法律系統與社會系統的完全對應。數字全覆蓋、法治全覆蓋,兩者重疊在一起,決定了人工智能治理的重要性。”季衛東告訴記者,物理空間與信息空間的交融,以及社會的智能網絡化,勢必帶來治理方式以及法律秩序原理的深刻變化。
            
      在季衛東看來,當前的人工智能已經具備一定的自主學習與決策能力,但并不具備法律人格,而現行法律也未明確界定人工智能的設計、制造、消費、使用等各環節主體的責任與義務。這使得一旦人工智能在使用過程中出現問題,法律對責任的認定和劃分難度大增。比如,自動駕駛汽車決策錯誤導致人員傷亡、智能醫療助理給出錯誤醫療建議導致患者病情加重等,當這類情況發生時,如何明確界定主體責任? 
       
       “弱人工智能演進至強人工智能階段后,更會對現行法律法規及其執行機制等造成深遠影響。”上海市科學研究所科技與社會研究室主任王迎春說,從去年發布的全球人工智能治理年度觀察來看,隨著城市數字化轉型,人工智能會越來越多地用于生產和社會治理,這樣的融合將帶給我們意想不到的挑戰。
            
      比如,當下人工智能主要是大數據驅動,訓練數據的偏差不可避免地會導致人工智能產生“歧視”和“偏見”。不論是曾經公開測試的微軟小冰還是別的人工智能,“他們”都在根據收集到的大數據“自主學習”中習得了一些“偏見”和“不良習慣”。此外,人工智能用于社會治理時,數據使用的邊界究竟在哪里?這些都需要學界進一步研究。
            
      “只是技術的基礎和載體變了,而人性并沒有變”
            
       盤點全球人工智能研究領域的成果,在過去10年,人工智能安全風險和防御方面的論文數量增加了差不多10倍。 “人工智能治理已經成為全球學術界研究的熱點之一,甚至有學者建議,設定全球統一的人工智能的數據使用標準。”上海交大法律大數據分析中心主任楊力說。
            
       其實,人工智能治理中的安全問題、法律問題等都并非人工智能出現后才有。在早期互聯網或者更早IT基礎設施剛剛開始建設時,這些問題就已經出現。田豐直言:只是技術的基礎和載體變了,而人性并沒有變。
            
      他舉了個簡單的例子。開源共享是當下人工智能發展過程中倍受推崇的一種方式,因為它直接帶來了知識共享,有助于人工智能的研究和發展提速。但是,開源共享也使得更多的安全漏洞被暴露出來,同時也會有在一些黑色或灰色產業地帶活動的人研究開源框架,這會帶來很多難以預測的產業發展風險和社會風險。
            
      “人工智能的最大特點是效率躍升,這也使得人性中的善惡帶來的影響都會加速放到最大。這也是為什么我們的研究必須要有一定的超前性和前瞻性,并且要加快研究速度,這樣才可能為整個技術創新發展鋪平道路。”田豐說。
            
      在關注技術創新的同時,還要注意風險防范
            
      “當下,人工智能治理已經受到了政府、智庫以及企業界等多方面的關注。但是從學界研究到現實應用,都應進一步提速。”季衛東告訴記者,技術往往跑得比法律、社會治理的規范更快更前,人工智能的發展已經進入爆發期,而治理體系作為法律與社會互動的一部分,其發展演變卻相對緩慢。
            
      季衛東直言,技術快速迭代提醒國內學術界要加強跨學科的協同研究,要從規范制定、制度框架以及技術、道德原則、政策等層面加快對人工智能治理的研究。當下的人工智能治理不能只是停留在簡單行政規制上,而要注意不同價值取向和利益的平衡,采取因勢利導的“助推”手法。
            
       確實,有一些問題是技術層面的,比如人工智能的自主學習過程中出現的算法“黑箱”導致的問題,就必須從技術層面解決。但更多在人工智能治理中的問題,需要政府、企業以及個人協同解決。以去年發表在《自然神經科學》雜志上的成果為例,其開發的人工智能系統,可以將大腦活動轉化為文本數據。一旦這一技術成熟用于腦機接口,那么如何保護個人隱私,則必須由政府、科技界、法學界等重新給出解決方案。
            
      田豐同樣認為,人工智能治理要關注的對象,既包括整個產業鏈中所有各方,也要涵蓋政府、用戶等整個科技治理領域各方的權、責、利。
            
      季衛東稱,就人工智能治理而言,在關注技術創新的同時,還要注意預防和及時解決人工智能可能帶來的社會問題,政府和相關機構應該及時確立人工智能研發的安全框架和技術標準,包括確保人工智能應用的合法合規、人工智能的功能可靠可控、驅動人工智能的數據安全可信,以及人工智能在用于社會治理時的決策公平公正,人工智能算法的可解釋性和可追溯性, “只有這樣才能為我們的城市數字轉型提供更安全、可靠的環境”。     

      關注微信公眾號
      97碰