6月11日,香港個(gè)人資料私隱專(zhuān)員公署發(fā)布《人工智能 (AI): 個(gè)人資料保障模范框架》(下稱(chēng)《模范框架》)。
《模范框架》涵蓋4大范疇,具體包括:制訂AI策略及管治架構(gòu);進(jìn)行風(fēng)險(xiǎn)評(píng)估及人為監(jiān)督;實(shí)行AI模型的定制與AI系統(tǒng)的實(shí)施及管理;以及促進(jìn)與持份者的溝通及交流。
個(gè)人資料私隱專(zhuān)員鐘麗玲12日向媒體表示,香港企業(yè)使用AI呈現(xiàn)上升的趨勢(shì),希望《框架》為機(jī)構(gòu)使用人工智能系統(tǒng)時(shí)提供指引,持續(xù)監(jiān)督AI系統(tǒng),降低個(gè)人資料外泄的風(fēng)險(xiǎn),特別是風(fēng)險(xiǎn)高的環(huán)節(jié),應(yīng)加強(qiáng)人為監(jiān)督。
據(jù)悉,《模范框架》是亞太區(qū)首個(gè)在人工智能領(lǐng)域針對(duì)保障個(gè)人資料隱私制定的指引性框架。
2021年9月26日,中國(guó)國(guó)家新一代人工智能治理專(zhuān)業(yè)委員會(huì)發(fā)布了《新一代人工智能倫理規(guī)范》(以下簡(jiǎn)稱(chēng)“《規(guī)范》”),旨在將倫理道德融入人工智能全生命周期,為從事人工智能相關(guān)活動(dòng)的自然人、法人和其他相關(guān)機(jī)構(gòu)等提供倫理指引。
《規(guī)范》提出了增進(jìn)人類(lèi)福祉、促進(jìn)公平公正、保護(hù)隱私安全、確保可控可信、強(qiáng)化責(zé)任擔(dān)當(dāng)、提升倫理素養(yǎng)等6項(xiàng)基本倫理要求。其中,數(shù)據(jù)與隱私安全內(nèi)容貫穿了人工智能管理、研發(fā)、供應(yīng)等特定活動(dòng)的具體倫理要求。
相比于《規(guī)范》,《模范框架》給出的建議更加細(xì)化。其中對(duì)機(jī)構(gòu)提供包括制定、進(jìn)行、實(shí)行和促進(jìn)四個(gè)階段的調(diào)整反饋機(jī)制,在四個(gè)階段中,又分別提出了細(xì)化的步驟和考慮項(xiàng)目。
比如,在第一部分《AI策略及管治》中,《模范框架》指出,AI策略可包含:界定AI系統(tǒng)在機(jī)構(gòu)的科技生態(tài)系統(tǒng)中提供的功能、參考AI道德原則,制定特定適用于機(jī)構(gòu)在采購(gòu)、實(shí)施及使用AI方案方面的道德原則、列明AI系統(tǒng)在機(jī)構(gòu)中不可接受的用途等等。
而在“列明AI系統(tǒng)在機(jī)構(gòu)中不可接受的用途”一條中,《模范框架》特別指出,機(jī)構(gòu)應(yīng)識(shí)別潛在風(fēng)險(xiǎn)高至應(yīng)禁止采用的AI用例,這些用例應(yīng)隨著AI技術(shù)的發(fā)展、新風(fēng)險(xiǎn)的出現(xiàn)及/或新風(fēng)險(xiǎn)緩解措施的采用而增加、刪除或調(diào)整用例。
《模范框架》作為指引性框架,也對(duì)打算投資購(gòu)入AI方案的機(jī)構(gòu)提出了可供參考的建議,其中包括方案使用AI的目的、預(yù)計(jì)使用AI的用例,AI供應(yīng)商應(yīng)遵循的有關(guān)隱私和保安的主要責(zé)任和道德規(guī)定、技術(shù)性和管治方面的國(guó)際標(biāo)準(zhǔn)等等。
針對(duì)風(fēng)險(xiǎn)因素,《模范框架》也給出了較為細(xì)化的指導(dǎo)。其中包括識(shí)別和評(píng)估AI系統(tǒng)可能帶來(lái)的各種風(fēng)險(xiǎn),采取措施減少AI系統(tǒng)帶來(lái)的隱私風(fēng)險(xiǎn)。此外《模范框架》指出,對(duì)于AI方案需要以風(fēng)險(xiǎn)為本的方式進(jìn)行人工監(jiān)督。
《模范框架》建議,在決定人工監(jiān)督的程度時(shí),需要考慮AI系統(tǒng)的風(fēng)險(xiǎn)程度,若是高風(fēng)險(xiǎn)AI系統(tǒng),即可能對(duì)個(gè)人或群體造成嚴(yán)重及長(zhǎng)期的損害、輸出結(jié)果可能影響到個(gè)體的基本權(quán)利和自由,包括財(cái)務(wù)損失、身體傷害、歧視、個(gè)人資料控制權(quán)的喪失、自主權(quán)的缺乏、心理傷害等的系統(tǒng),則應(yīng)采用“人在環(huán)中”(human-in-the-loop)模式,在此模式中,人類(lèi)在決策過(guò)程中保留控制權(quán),以防止或減少AI出錯(cuò)或作出不當(dāng)?shù)臎Q定。
高風(fēng)險(xiǎn)AI系統(tǒng)包括用于醫(yī)療診斷、信用評(píng)估、工作或求職評(píng)估等對(duì)個(gè)人或社會(huì)有重大影響的領(lǐng)域。
若是低風(fēng)險(xiǎn)AI系統(tǒng),則可以采用“人在環(huán)外”(human-out-of-the-loop)模式,在此模式中,AI系統(tǒng)在沒(méi)有人為介入的情況下作出決定,以實(shí)現(xiàn)完全自動(dòng)化的決策過(guò)程。
若這兩者都不適用,則可以使用適中風(fēng)險(xiǎn)AI系統(tǒng),例如當(dāng)風(fēng)險(xiǎn)程度不可忽視或“人在環(huán)中”方式不符合成本效益或不可行時(shí),可以采用“人為管控”(human-in-command)模式。在此模式中,人類(lèi)決策者利用AI系統(tǒng)的輸出結(jié)果監(jiān)控其運(yùn)作,并在需要時(shí)介入。