图:私隐专员钟丽玲(小图)强调,机构应提醒员工在使用AI聊天机械人时,尽量避免输入个人资料或客户的机密资料。 大公报记者汤嘉平摄

  为应对AI对个人资料私隐带来的挑战,个人资料私隐专员公署(私隐专员公署)昨日发布《人工智能(AI):个人资料保障模范框架》(下称《模范框架》)。框架涵盖制定AI策略及管治、进行风险评估及人为监督、实行AI模型的定制与AI系统的实施及管理,以及促进与持份者的沟通和交流四大范畴。

  私隐专员钟丽玲表示,使用AI的机构应提醒员工在使用AI聊天机械人时,尽量避免输入个人资料或客户的机密资料,而使用机构亦不能过度收集资料应用于AI中。若之后收到违反框架内容的投诉,私隐公署会严肃跟进,视乎资料洩露情况的严重性而考虑是否启动正式调查。\大公报记者 汤嘉平

  根据生产力局的预测,2024年本港机构的AI采用率将达49%,较2023年的30%高许多。而全球生成式AI市场将继续增长,预计2032年的市值达到13000亿美元,相比2022年高出逾31倍。钟丽玲表示,人工智能安全是国家的重点领域之一,而此时推出《模范框架》将有助孕育AI在香港的健康发展,促进香港成为创新科技枢纽,并推动香港以至大湾区的数字经济发展。

  须为雇员做好充足培训

  《模范框架》分为四大部分,在第一部分“制定AI策略及管治”中,提出采购AI的七个步骤,包括:一、寻找AI方案;二、选择合适的AI方案;三、收集及准备数据;四、为特定目的定制AI模型;五、测试、评估和验证AI模型;六、测试和审核系统和组件的安全性和私隐风险;七、将AI方案纳入到机构的系统中。而在管治架构方面,钟丽玲建议使用AI的机构成立AI管制委员会,委员会可由高级管理人员、跨部门团队(包括AI采购团队)和使用AI的雇员组成。钟丽玲提醒机构要对雇员使用AI做好充足的培训。

  在进行风险评估及人为监督方面,钟丽玲指《模范框架》将AI系统的风险程度由较低到较高的次序,分为“人在环外”、“人为管控”和“人在环中”三个阶段,她举例,若一间机构通过聊天机械人给到一个客户最基本、简单的信息或查询,就属于AI在没有人为介入下作出决定的“人在环外”阶段;而AI若要使用生物识辨资料实时识别个人(例如人脸识别、虹膜扫描),AI辅助医学影像分析或治疗,求职者评估、工作表现评核或终止僱佣合约等方面,则人类决策者在决策过程中应保留控制权以防止或减低AI出错,即“人在环中”的定义。

  已抽查28企业 未发现违规

  在实行AI模型的定制与AI系统的实施及管理方面,《模范框架》建议,AI必须收集最少量的个人资料,而客户的姓名、联络资料、某些人口特征等个人资料并非必要收集资料。另外,钟丽玲强调,机构应提醒员工在使用AI聊天机械人时,尽量避免输入个人资料或客户的机密资料。

  与持份者沟通方面,钟丽玲建议企业要先与用户指明有使用AI并披露风险,以及容许用户修正资料;因有案例是有公司成立虹膜资料库后,用户发现未能找到自己资料,最终无法删除登记纪录,这已违反私隐条例。

  钟丽玲续表示,若之后私隐公署收到违反框架内容的投诉,私隐公署亦会严肃跟进,视乎个案情况启动正式调查。自去年8月至今年2月,公署主动抽查28间企业使用AI的情况,当中10间机构则通过人工智能去搜集个人资料,而这10间机构均未发现违规搜集个人资料。公署指未来会继续抽查企业。

點讚(0) 打賞

评论列表 共有 0 條評論

暫無評論

微信小程序

微信扫一扫體驗

立即
投稿

微信公眾賬號

微信扫一扫加關注

發表
評論
返回
頂部