|
資料圖(新華社) |
中評社北京11月20日電/據科技日報報導, 近日,科技部會同教育部、工業和信息化部、國家衛健委等十部門聯合印發《科技倫理審查辦法(試行)》(以下簡稱《審查辦法》)。《審查辦法》體現了科技向善的總體願景,特別強調“遵循增進人類福祉、尊重生命權利、堅持公平公正、合理控制風險、保持公開透明”,反映出了科技促進人類繁榮的理念。
人工智能賦能人類繁榮與社會發展,涉及到人的科技活動是人工智能倫理審查的重點。《審查辦法》指出,涉及以人為研究參與者的科技活動,包括以人為測試、調查、觀察等研究活動的對象,以及利用人類生物樣本、個人信息數據等的科技活動,都需要按照《審查辦法》給出的指引進行科技倫理審查,以確保人的基本權利,個人信息得到充分保護,在必要情況下以知情同意為基礎合法合規地收集、分析與使用。《審查辦法》指出,在生命健康、生態環境、公共秩序、可持續發展等方面,可能帶來倫理風險挑戰的科技活動也需要進行科技倫理審查,這些領域正是人工智能賦能社會發展的核心及關鍵領域,需要秉承促進人類、社會、生態可持續發展的理念避免風險,促進創新。
科技倫理審查由一般程序、簡易程序、專家復核構成相對完善的科技倫理審查體系。在一般程序、簡易程序的基礎上,專家復核相關領域可能存在科技倫理風險,因此需重點關注。
針對需要開展專家復核的科技活動,《審查辦法》拉出清單,對人類主觀行為、心理情緒和生命健康等具有較強影響的人機融合系統的研發需要進行專家復核。人機融合系統是人類智能與人工智能融合的復合智能體。其構建目的一般是為了輔助和增強人類智能。人機融合系統雖然有輔助或增強人類執行認知任務的能力,但是也可能影響人類的自主性,從而影響到人類主觀行為,倫理審查中要特別關注人機融合系統對人類能動性、主觀行為產生的負面影響。人機融合系統還有可能對人類心理造成負面影響,例如影響人類情緒,使人產生對系統的依賴等。針對腦機接口等融合智能系統,倫理審查特別要注意其對人的心理或身體造成嚴重不良影響的可能性,如侵入式腦機接口技術的物理安全風險,對腦組織的潛在負面影響等。此外,受限於目前人工智能模型的能力,侵入式、非侵入式腦機接口難以完全避免編解碼錯誤;模型涉及的個人數據安全、可解釋性、可靠性;對人類能動性與自由意志的負面影響;應用層面是否會對社會公平帶來挑戰等倫理風險均需在專家復核階段開展進一步審查。 |