曰批免费视频播放免费,一区二区三区四区无码日韩,无码不卡免费v片在线观看,久久婷婷人人澡人人9797

 
 

人工智能倫理問題的現狀分析與對策

發布時間:2022-01-04 11:28:04  |  來源:中國網·中國發展門戶網  |  作者:張兆翔、譚鐵牛、張吉豫  |  責任編輯:楊霄霄
關鍵詞:人工智能,倫理,治理,應對策略

中國網/中國發展門戶網訊   人工智能(AI)是第四次產業革命中的核心技術,得到了世界的高度重視。我國也圍繞人工智能技術制定了一系列的發展規劃和戰略,大力推動了我國人工智能領域的發展。然而,人工智能技術在為經濟發展與社會進步帶來重大發展機遇的同時,也為倫理規范和社會法治帶來了深刻挑戰。2017 年,國務院印發的《新一代人工智能發展規劃》提出“分三步走”的戰略目標,掀起了人工智能新熱潮,并明確提出要“加強人工智能相關法律、倫理和社會問題研究,建立保障人工智能健康發展的法律法規和倫理道德框架”。2018 年,習近平總書記在主持中共中央政治局就人工智能發展現狀和趨勢舉行的集體學習時強調,要加強人工智能發展的潛在風險研判和防范,維護人民利益和國家安全,確保人工智能安全、可靠、可控。要整合多學科力量,加強人工智能相關法律、倫理、社會問題研究,建立健全保障人工智能健康發展的法律法規、制度體系、倫理道德。2019 年,我國新一代人工智能發展規劃推進辦公室專門成立了新一代人工智能治理專業委員會,全面負責開展人工智能治理方面政策體系、法律法規和倫理規范研究和工作推進。《中華人民共和國國民經濟和社會發展第十四個五年規劃和2035年遠景目標綱要》中專門強調要“探索建立無人駕駛、在線醫療、金融科技、智能配送等監管框架,完善相關法律法規和倫理審查規則”。這些均體現了我國對人工智能倫理及其治理的密切關注程度和積極推進決心,同時也突出了這一問題的重要性。

當前人工智能倫理問題

倫理是處理人與人之間關系、人與社會之間關系的道理和秩序規范。人類歷史上,重大的科技發展往往帶來生產力、生產關系及上層建筑的顯著變化,成為劃分時代的一項重要標準,也帶來對社會倫理的深刻反思。人類社會于20 世紀中后期進入信息時代后,信息技術倫理逐漸引起了廣泛關注和研究,包括個人信息泄露、信息鴻溝、信息繭房、新型權力結構規制不足等。信息技術的高速變革發展,使得人類社會迅速邁向智能時代,其突出表現在帶有認知、預測和決策功能的人工智能算法被日益廣泛地應用在社會各個場景之中;前沿信息技術的綜合運用,正逐漸發展形成一個萬物可互聯、萬物可計算的新型硬件和數據資源網絡,能夠提供海量多源異構數據供人工智能算法分析處理;人工智能算法可直接控制物理設備,亦可為個人決策、群體決策乃至國家決策提供輔助支撐;人工智能可以運用于智慧家居、智慧交通、智慧醫療、智慧工廠、智慧農業、智慧金融等眾多場景,還可能被用于武器和軍事之中。然而,邁向智能時代的過程如此迅速,使得我們在傳統的信息技術倫理秩序尚未建立完成的情況下,又迫切需要應對更加富有挑戰性的人工智能倫理問題,積極構建智能社會的秩序。

計算機倫理學創始人 Moore將倫理智能體分為4 類:倫理影響智能體(對社會和環境產生倫理影響);隱式倫理智能體(通過特定軟硬件內置安全等隱含的倫理設計);顯示倫理智能體(能根據情勢的變化及其對倫理規范的理解采取合理行動);完全倫理智能體(像人一樣具有自由意志并能對各種情況做出倫理決策)。當前人工智能發展尚處在弱人工智能階段,但也對社會和環境產生了一定的倫理影響。人們正在探索為人工智能內置倫理規則,以及通過倫理推理等使人工智能技術的實現中也包含有對倫理規則的理解。近年來,越來越多的人呼吁要賦予人工智能機器一定的道德主體地位,但機器能否成為完全倫理智能體存在巨大的爭議。盡管當前人工智能在一些場景下的功能或行為與人類接近,但實則并不具有“自由意志”。從經典社會規范理論來看,是否能夠成為規范意義上的“主體”來承擔責任,并不取決于其功能,而是以“自由意志”為核心來構建的。黑格爾的《法哲學原理》即以自由意志為起點展開。因此,當前階段對人工智能倫理問題的分析和解決路徑構建應主要圍繞著前3 類倫理智能體開展,即將人工智能定性為工具而非主體。

當前階段,人工智能既承繼了之前信息技術的倫理問題,又因為深度學習等一些人工智能算法的不透明性、難解釋性、自適應性、運用廣泛等特征而具有新的特點,可能在基本人權、社會秩序、國家安全等諸多方面帶來一系列倫理風險。例如:人工智能系統的缺陷和價值設定問題可能帶來公民生命權、健康權的威脅。2018 年,Uber 自動駕駛汽車在美國亞利桑那州發生的致命事故并非傳感器出現故障,而是由于 Uber 在設計系統時出于對乘客舒適度的考慮,對人工智能算法識別為樹葉、塑料袋之類的障礙物做出予以忽略的決定。人工智能算法在目標示范、算法歧視、訓練數據中的偏失可能帶來或擴大社會中的歧視,侵害公民的平等權。人工智能的濫用可能威脅公民隱私權、個人信息權。深度學習等復雜的人工智能算法會導致算法黑箱問題,使決策不透明或難以解釋,從而影響公民知情權、程序正當及公民監督權。信息精準推送、自動化假新聞撰寫和智能化定向傳播、深度偽造等人工智能技術的濫用和誤用可能導致信息繭房、虛假信息泛濫等問題,以及可能影響人們對重要新聞的獲取和對公共議題的民主參與度;虛假新聞的精準推送還可能加大影響人們對事實的認識和觀點,進而可能煽動民意、操縱商業市場和影響政治及國家政策。劍橋分析公司利用 Facebook 上的數據對用戶進行政治偏好分析,并據此進行定向信息推送來影響美國大選,這就是典型實例。人工智能算法可能在更不易于被察覺和證明的情況下,利用算法歧視,或通過算法合謀形成橫向壟斷協議或軸輻協議等方式,破壞市場競爭環境。算法決策在社會各領域的運用可能引起權力結構的變化,算法憑借其可以處理海量數據的技術優勢和無所不在的信息系統中的嵌入優勢,對人們的權益和自由產生顯著影響。例如,銀行信貸中通過算法進行信用評價將影響公民是否能獲得貸款,刑事司法中通過算法進行社會危害性評估將影響是否進行審前羈押等,都是突出的體現。人工智能在工作場景中的濫用可能影響勞動者權益,并且人工智能對勞動者的替代可能引發大規模結構性失業的危機,帶來勞動權或就業機會方面的風險。由于人工智能在社會生產生活的各個環節日益廣泛應用,人工智能系統的漏洞、設計缺陷等安全風險,可能引發個人信息等數據泄露、工業生產線停止、交通癱瘓等社會問題,威脅金融安全、社會安全和國家安全等。人工智能武器的濫用可能在世界范圍內加劇不平等,威脅人類生命與世界和平……

人工智能倫理風險治理具有復雜性,尚未形成完善的理論架構和治理體系。人工智能倫理風險的成因具有多元性,包括人工智能算法的目標失范、算法及系統缺陷、受影響主體對人工智能的信任危機、監管機制和工具欠缺、責任機制不完善、受影響主體的防御措施薄弱等。人工智能技術和產業應用的飛速發展,難以充分刻畫和分析其倫理風險及提供解決方案。這要求我們必須克服傳統規范體系的滯后性,而采用“面向未來”的眼光和方法論,對人工智能的設計、研發、應用和使用中的規范框架進行積極思考和構建,并從確立倫理準則等軟法開始,引領和規范人工智能研發應用。

關于人工智能的發展,我們既不能盲目樂觀,也不能因噎廢食,要深刻認識到它可以增加社會福祉的能力。因此,在人類社會步入智能時代之際,必須趁早從宏觀上引導人工智能沿著科學的道路前行,對它進行倫理反思,識別其中的倫理風險及其成因,逐步構建科學有效的治理體系,使其更好地發揮積極價值。 

人工智能倫理準則、治理原則及進路

當前全球人工智能治理還處于初期探索階段,正從形成人工智能倫理準則的基本共識出發,向可信評估、操作指南、行業標準、政策法規等落地實踐逐步深入,并在加快構建人工智能國際治理框架體系。

倫理準則

近幾年來,眾多國家、地區、國際和國內組織、企業均紛紛發布了人工智能倫理準則或研究報告。據不完全統計,相關人工智能倫理準則已經超過40 項。除文化、地區、領域等因素引起的差異之外,可以看到目前的人工智能倫理準則已形成了一定的社會共識。

近年來,中國相關機構和行業組織也非常積極活躍參與其中。例如:2018 年1 月,中國電子技術標準化研究院發布了《人工智能標準化白皮書(2018 版)》,提出人類利益原則和責任原則作為人工智能倫理的兩個基本原則;2019 年5 月,《人工智能北京共識》發布,針對人工智能的研發、使用、治理?3?個方面,提出了各個參與方應該遵循的有益于人類命運共同體構建和社會發展的15 條原則;2019 年6 月,國家新一代人工智能治理專業委員會發布《新一代人工智能治理原則——發展負責任的人工智能》,提出了人工智能發展的8 項原則,勾勒出了人工智能治理的框架和行動指南;2019 年7 月,上海市人工智能產業安全專家咨詢委員會發布了《人工智能安全發展上海倡議》;2021 年9 月,中關村論壇上發布由國家新一代人工智能治理專業委員會制定的《新一代人工智能倫理規范》等。從發布內容上看,所有準則在以人為本、促進創新、保障安全、保護隱私、明晰責任等價值觀上取得了高度共識,但仍有待繼續加深理論研究和論證,進一步建立共識。

治理原則

美國、歐洲、日本等國家和地區在大力推動人工智能技術和產業發展的同時,高度重視人工智能的安全、健康發展,并將倫理治理納入其人工智能戰略,體現了發展與倫理安全并重的基本原則。

習近平總書記高度重視科技創新領域的法治建設問題,強調“要積極推進國家安全、科技創新、公共衛生、生物安全、生態文明、防范風險、涉外法治等重要領域立法以良法善治保障新業態新模式健康發展”。近年來,我國在應對新技術新業態的規制和監管方面,形成了“包容審慎”的總體政策。這項基本政策在2017 年就已正式提出。在2020 年1月1日起實施的《優化營商環境條例》第55 條中更是專門規定了“包容審慎”監管原則:“政府及其有關部門應當按照鼓勵創新的原則,對新技術、新產業、新業態、新模式等實行包容審慎監管,針對其性質、特點分類制定和實行相應的監管規則和標準,留足發展空間,同時確保質量和安全,不得簡單化予以禁止或者不予監管。”這為當前人工智能倫理治理提供了基本原則和方法論。一方面,要注重觀察,認識到新技術新事物往往有其積極的社會意義,亦有其發展完善的客觀規律,應予以一定空間使其能夠發展完善,并在其發展中的必要之處形成規制方法和措施。另一方面,要堅守底線,包括公民權利保護的底線、安全的底線等。對于已經形成高度社會共識、凝結在法律之中的重要權益、價值,在執法、司法過程中都要依法進行保護。這既是法律對相關技術研發者和使用者的明確要求,也是法律對于在智能時代保護公民權益、促進科技向善的鄭重承諾。

治理進路

在人工智能治理整體路徑選擇方面,主要有兩種理論:“對立論”和“系統論”。

“對立論”主要著眼于人工智能技術與人類權利和福祉之間的對立沖突,進而建立相應的審查和規制制度。在這一視角下,一些國家和機構重點關注了針對人工智能系統本身及開發應用中的一些倫理原則。例如,2020 年《人工智能倫理羅馬倡議》中提出7 項主要原則——透明、包容、責任、公正、可靠、安全和隱私,歐盟委員會于2019 年《可信賴人工智能的倫理指南》中提出人工智能系統全生命周期應遵守合法性、合倫理性和穩健性3 項要求,都體現了這一進路。

“系統論”則強調人工智能技術與人類、其他人工代理、法律、非智能基礎設施和社會規范之間的協調互動關系。人工智能倫理涉及一種社會技術系統,該系統在設計時必須注意其不是一項孤立的技術對象,而是需要考慮它將要在怎樣的社會組織中運作。我們可以調整的不僅僅是人工智能系統,還有在系統中與之相互作用的其他要素;在了解人工智能運作特點的基礎上,可以在整個系統內考慮各個要素如何進行最佳調配治理。當前在一些政策和法規中已有一定“系統論”進路的體現。例如,IEEE(電氣與電子工程師協會)發布的《合倫理設計》11中提出的8 項原則之一即為“資質”(competence),該原則提出系統創建者應明確對操作者的要求,并且操作者應遵守安全有效操作所需的知識和技能的原則,這體現了從對使用者要求的角度來彌補人工智能不足的系統論視角,對智能時代的教育和培訓提出了新需求。我國國家新一代人工智能治理專業委員會2019 年發布的《新一代人工智能治理原則——發展負責任的人工智能》中,不僅強調了人工智能系統本身應該符合怎樣的倫理原則,而且從更系統的角度提出了“治理原則”,即人工智能發展相關各方應遵循的8 項原則;除了和諧友好、尊重隱私、安全可控等側重于人工智能開放和應用的原則外,還專門強調了要“改善管理方式”,“加強人工智能教育及科普,提升弱勢群體適應性,努力消除數字鴻溝”,“推動國際組織、政府部門、科研機構、教育機構、企業、社會組織、公眾在人工智能發展與治理中的協調互動”等重要原則,體現出包含教育改革、倫理規范、技術支撐、法律規制、國際合作等多維度治理的“系統論”思維和多元共治的思想,提供了更加綜合的人工智能治理框架和行動指南。基于人工智能治理的特殊性和復雜性,我國應在習近平總書記提出的“打造共建共治共享的社會治理格局”的指導下,系統性地思考人工智能的治理維度,建設多元共治的人工智能綜合治理體系。

我國人工智能倫理治理對策

人工智能倫理治理是社會治理的重要組成部分。我國應在“共建共治共享”治理理論的指導下,以“包容審慎”為監管原則,以“系統論”為治理進路,逐漸建設形成多元主體參與、多維度、綜合性的治理體系。

教育改革

教育是人類知識代際傳遞和能力培養的重要途徑。通過國務院、教育部出臺的多項措施,以及聯合國教科文組織發布的《教育中的人工智能:可持續發展的機遇與挑戰》、《人工智能與教育的北京共識》13等報告可以看到,國內外均開始重視教育的發展改革在人工智能技術發展和應用中有著不可或缺的作用。為更好地支撐人工智能發展和治理,應從4 個方面進行完善:普及人工智能等前沿技術知識,提高公眾認知,使公眾理性對待人工智能;在科技工作者中加強人工智能倫理教育和職業倫理培訓;為勞動者提供持續的終身教育體系,應對人工智能可能引發的失業問題;研究青少年教育變革,打破工業化時代傳承下來的知識化教育的局限性,回應人工智能時代對人才的需求。

倫理規范

我國《新一代人工智能發展規劃》中提到,“開展人工智能行為科學和倫理等問題研究,建立倫理道德多層次判斷結構及人機協作的倫理框架”。同時,還需制定人工智能產品研發設計人員及日后使用人員的道德規范和行為守則,從源頭到下游進行約束和引導。當前有5 項重點工作可以開展:針對人工智能的重點領域,研究細化的倫理準則,形成具有可操作性的規范和建議。在宣傳教育層面進行適當引導,進一步推動人工智能倫理共識的形成。推動科研機構和企業對人工智能倫理風險的認知和實踐。充分發揮國家層面倫理委員會的作用,通過制定國家層面的人工智能倫理準則和推進計劃,定期針對新業態、新應用評估倫理風險,以及定期評選人工智能行業最佳實踐等多種方式,促進先進倫理風險評估控制經驗的推廣。推動人工智能科研院所和企業建立倫理委員會,領導人工智能倫理風險評估、監控和實時應對,使人工智能倫理考量貫穿在人工智能設計、研發和應用的全流程之中。

技術支撐

通過改進技術而降低倫理風險,是人工智能倫理治理的重要維度。當前,在科研、市場、法律等驅動下,許多科研機構和企業均開展了聯邦學習、隱私計算等活動,以更好地保護個人隱私的技術研發;同時,對加強安全性、可解釋性、公平性的人工智能算法,以及數據集異常檢測、訓練樣本評估等技術研究,也提出了很多不同領域的倫理智能體的模型結構。當然,還應完善專利制度,明確算法相關發明的可專利性,進一步激勵技術創新,以支撐符合倫理要求的人工智能系統設計。

此外,一些重點領域的推薦性標準制定工作也不容忽視。在人工智能標準制定中,應強化對人工智能倫理準則的貫徹和支撐,注重對隱私保護、安全性、可用性、可解釋性、可追溯性、可問責性、評估和監管支撐技術等方面的標準制定,鼓勵企業提出和公布自己的企業標準,并積極參與相關國際標準的建立,促進我國相關專利技術納入國際標準,幫助我國在國際人工智能倫理準則及相關標準制定中提升話語權,并為我國企業在國際競爭中奠定更好的競爭優勢。

法律規制

法律規制層面需要逐步發展數字人權、明晰責任分配、建立監管體系、實現法治與技術治理有機結合。在當前階段,應積極推動《個人信息保護法》《數據安全法》的有效實施,開展自動駕駛領域的立法工作;并對重點領域的算法監管制度加強研究,區分不同的場景,探討人工智能倫理風險評估、算法審計、數據集缺陷檢測、算法認證等措施適用的必要性和前提條件,為下一步的立法做好理論和制度建議準備。

國際合作

當前,人類社會正步入智能時代,世界范圍內人工智能領域的規則秩序正處于形成期。歐盟聚焦于人工智能價值觀進行了許多研究,期望通過立法等方式,將歐洲的人權傳統轉化為其在人工智能發展中的新優勢。美國對人工智能標準也尤為重視,特朗普于2019 年2 月發布“美國人工智能計劃”行政令,要求白宮科技政策辦公室(OSTP)和美國國家標準與技術研究院(NIST)等政府機構制定標準,指導開發可靠、穩健、可信、安全、簡潔和可協作的人工智能系統,并呼吁主導國際人工智能標準的制定。

我國在人工智能科技領域處于世界前列,需要更加積極主動地應對人工智能倫理問題帶來的挑戰,在人工智能發展中承擔相應的倫理責任;積極開展國際交流,參與相關國際管理政策及標準的制定,把握科技發展話語權;在最具代表性和突破性的科技力量中占據發展的制高點,為實現人工智能的全球治理作出積極貢獻。

(作者:張兆翔譚鐵牛中國科學院自動化研究所張吉豫 中國人民大學法學院;《中國科學院院刊》供稿)

返回頂部