10月8日,由科技部、教育部、工業(yè)和信息化部等十部門聯(lián)合印發(fā)的《科技倫理審查辦法(試行)》正式公布。
《辦法》明確, 高等學校、科研機構、醫(yī)療衛(wèi)生機構、企業(yè)等是本單位科技倫理審查管理的責任主體。從事生命科學、醫(yī)學、人工智能等科技活動的單位,研究內容涉及科技倫理敏感領域的,應設立科技倫理(審查)委員會。值得注意的是,該《辦法》提及的《需要開展倫理審查復核的科技活動清單》中,包括具有輿論社會動員能力和社會意識引導能力的算法模型、應用程序及系統(tǒng)的研發(fā)。
相關數(shù)據(jù)顯示,今年以來,我國人工智能大模型迎來井噴期。截至7月底,我國累計有130個人工智能大模型問世,其中,僅今年前7個月就有64個大模型發(fā)布。不久前,首批通過《生成式人工智能服務管理暫行辦法》備案的11個大模型產品獲批向全社會開放服務。與此同時,對于算法模型倫理風險的關注也提上日程。人工智能算法模型的倫理風險表現(xiàn)在哪些方面?《辦法》的出臺,為國內人工智能大模型的發(fā)展提出了什么樣的要求?
推動算法模型
健康穩(wěn)定可控有序發(fā)展
中國科學院科技戰(zhàn)略咨詢研究院研究員肖尤丹在接受記者采訪時表示,科技倫理審查是防范科技風險的重要機制,更是有力保障特定技術領域健康發(fā)展的基礎性制度。科技倫理審查既不是由行政機關實施的行政審查或者審批,也不是一般意義上的合法性或合規(guī)性審查,而是以特定責任單位、科技倫理(審查)委員會為主體,根據(jù)《科技進步法》和《辦法》的規(guī)定開展的專業(yè)性、自律性管理活動。在一定程度上,科技倫理審查是應對前沿科技活動的風險彈性與法律制度、行政管理的剛性約束長期存在的沖突,彌補現(xiàn)有行政管理和法律規(guī)制局限性的產物。
北京市京師律師事務所合伙人律師盧鼎亮認為,《辦法》主要是要求對涉及到生命健康、生態(tài)環(huán)境、公共秩序、可持續(xù)發(fā)展等科技倫理敏感領域的人工智能算法模型科技活動進行科學倫理審查。人工智能算法的發(fā)展也要遵循科學倫理的要求,對涉及到科學倫理底線的相關科技活動需要進行客觀評估和審慎對待,并且針對人工智能大模型科技活動中的不確定性和科技倫理風險進行審查評估。
“《辦法》的出臺并非為人工智能算法模型的發(fā)展戴上‘緊箍咒’,相反該《辦法》的出臺能夠促進人工智能算法領域的科技活動更加健康穩(wěn)定可控有序的發(fā)展。”盧鼎亮說。
“對于新興技術和前沿科技領域發(fā)展而言,《辦法》的出臺更多地是為促進創(chuàng)新主體勇于探索未知和前沿提供了邊界更為清晰、預期更為穩(wěn)定的機制保障。”肖尤丹表示。
肖尤丹認為,《辦法》的出臺必將有利于在科技倫理框架下加快包括人工智能大模型等前沿新興技術的健康發(fā)展,也能在相關程度上促進相關領域開展更全面、更深入和更持續(xù)的國際科技合作,形成更公正、更透明、更負責任的前沿技術創(chuàng)新生態(tài)。
倫理審查從哪些方面進行
業(yè)界認為,從當前社會輿論的普遍認知來看,人工智能算法模型的倫理風險主要表現(xiàn)在以下幾個方面:一是數(shù)據(jù)偏見與歧視。如果AI的訓練數(shù)據(jù)不平衡或包含偏見,那么這種偏見可能會被模型放大,導致輸出結果也存在偏見。這可能會對某些群體造成不公平的待遇或歧視。二是隱私侵犯。AI模型在數(shù)據(jù)采集、處理和分析過程中可能會侵犯到個人的隱私權。比如,沒有得到明確許可的情況下進行的數(shù)據(jù)收集,或者使用數(shù)據(jù)進行精準的個人畫像等。三是缺乏透明度。復雜的AI模型(例如深度學習模型)往往難以解釋,缺乏透明度,使得外部很難理解它們的決策過程和邏輯。四是責任歸屬不明確。當AI模型犯錯或導致某些損失時,誰應該為此承擔責任可能并不明確。五是安全性問題:AI模型可能被惡意攻擊者操縱或欺騙,從而做出不當或不安全的決策。此外,在某些應用中,例如自動化武器或決策系統(tǒng),使用AI可能會觸及深層的道德和倫理問題。過度依賴或與AI互動可能會影響人們的社交技能、心理健康或日常生活習慣等。
肖尤丹認為,根據(jù)《辦法》的規(guī)定,結合人工智能算法模型科技活動的倫理風險,科技倫理審查可能需要重點考慮兩個方面:一是準確區(qū)分科技倫理審查與現(xiàn)有安全評估、算法備案、合規(guī)審查和行業(yè)監(jiān)督機制的差別。二是根據(jù)所涉科技活動的類型和性質合理確定倫理審查重點。
科技倫理審查適用范圍
肖尤丹分析,此次出臺的《辦法》第二條明確了科技倫理審查的適用范圍,應當不能簡單地將科技倫理審查等同于安全審查或者安全評估。另外,《辦法》第五十四條還專門對科技倫理審查與之前已經存在的一些涉及技術的其他性質倫理審查規(guī)范之間的適用進行了規(guī)定,強化了科技倫理審查的專門性。
“從倫理風險生成機制和場景看,科學技術研究活動與產品服務開發(fā)活動、技術應用活動的倫理風險和審查關注點顯然并不相同。”肖尤丹表示,在研究過程中,應當更加關注研究人員資質、研究基礎及設施條件是否符合相關要求,研究活動的科學價值、社會價值和研究目標的積極作用,關注涉及以人為研究參與者時的個人信息保護和知情同意,數(shù)據(jù)的收集、存儲、加工、使用等處理活動以及研究開發(fā)數(shù)據(jù)新技術等符合國家數(shù)據(jù)安全和個人信息保護等有關規(guī)定。在產品服務開發(fā)和技術應用方面,應當更關注算法、模型和系統(tǒng)的設計、實現(xiàn)、應用的公平、公正、透明、可靠、可控,以及數(shù)據(jù)合規(guī)、安全合規(guī)和用戶權益保護。
“作為本單位科技倫理審查管理的責任主體,人工智能企業(yè)應該評估擬開展的科技活動是否符合《辦法》第三條規(guī)定的科技倫理原則,參與科技活動的科技人員資質、研究基礎及設施條件等是否符合相關要求;倫理風險控制方案及應急預案是否科學恰當、是否具有可操作性。”盧鼎亮認為,此外,還應該評估個人隱私數(shù)據(jù)、生物特征信息等信息處理是否符合個人信息保護的有關規(guī)定;數(shù)據(jù)的收集、存儲、加工、使用等處理活動以及研究開發(fā)數(shù)據(jù)新技術等是否符合國家數(shù)據(jù)安全和個人信息保護等有關規(guī)定,數(shù)據(jù)安全風險監(jiān)測及應急處理方案是否得當;算法、模型和系統(tǒng)的設計、實現(xiàn)、應用等是否遵守公平、公正、透明、可靠、可控等原則。
中關村物聯(lián)網產業(yè)聯(lián)盟副秘書長、專精特新企業(yè)高質量發(fā)展促進工程執(zhí)行主任袁帥認為,與傳統(tǒng)科技活動的風險相比,人工智能算法模型的風險具有更高的隱蔽性和難以證明性。由于人工智能算法模型的決策是基于歷史數(shù)據(jù)和模式,而這些數(shù)據(jù)和模式可能存在偏見和歧視等問題,因此其帶來的風險可能會在長時間過程中逐漸顯現(xiàn)。“因此,需要政府、企業(yè)、學術界和社會公眾等多方協(xié)作,共同應對這一挑戰(zhàn)。”袁帥說。
來源:《中國高新技術產業(yè)導報》