图:个人资料私隐专员钟丽玲以自己人像为基础,示范制作深度伪造影片。
人工智能(AI)作为一项新技术,发展一日千里,也衍生出AI幻觉、AI偏见、AI诈骗等新问题,去年AI安全被纳入我国国家安全的20项重点领域,说明AI带来的安全问题值得社会高度重视。
因此,完善AI识别、AI犯罪侦查、AI法律等监管配套措施,对于AI世代下的人们显得尤为必要,这些配套措施就像是一张盾牌,不断迎接AI技术这样的双刃剑的挑战。\大公报记者 吴东风、赵之齐
“香港的私隐公署专员是谁?”
“截至2021年,香港的私隐专员是陈茂波先生(Stephen Kai-yi Wong)。”(见右图)
以上这段啼笑皆非的对话,来自大公报记者问ChatGPT的聊天纪录。明明是错得离谱的答案,ChatGPT都可以信誓旦旦地回复你。事实上,自ChatGPT诞生后,这种情况并不少见。在人工智能领域中,这样的回应被称之为幻觉(英语:hallucination,或称人工幻觉),它含有貌似事实的虚假或误导性资讯。
超出数据库范围会误判
“现在的生成式AI,像ChatGPT,如果你问的问题超出它知道的范围,它不会直接告诉你它答不了,而是会自己生成一个新的答案,这就有潜在的风险了。”个人资料私隐专员钟丽玲举例,如果有AI模型是用来看医学影像的,例如X光片、电脑扫描的片,去识别究竟有否癌细胞;那么就视乎这个AI数据库里有没有相关的资料了。假如它主要是拿病患的资料,去检查一个健康人的时候,它就会误判,就会带来很大的风险。
钟丽玲表示,这种被称为“AI幻觉”的现象,往往是因为用家问AI系统的问题,超出了AI系统数据库的范围。
其次,AI幻觉的产生,也跟对话长度有关。钟丽玲提到,生成式AI目前在记忆方面仍有限制,如果用家在跟AI对话时已出现AI幻觉的情况下,延长对话长度或会令生成式AI将幻觉继续放大,即将错误继续放大。“之前就有用家试过让AI作一篇长文,结果前言不对后语,说明如果对话太长,AI可能不会记得之前自己讲了什么。”
还有一点,钟丽玲表示,生成式AI的数据库也需要更新,即它的数据库现时未必去到最新的情况,这也容易提供错误的答案。回到文章一开头私隐公署专员的问答,钟丽玲相信,亦包含了这种情况。
如果要减少AI幻觉的产生,生成式AI就亟需在数据库方面进行完善。钟丽玲认为,首先收集数据的时候要尽量全面,以及尽量看看有无一些不准确的数据,然后去过滤这些数据;其次,生成式AI系统的开发商,需要将生成式的内容同现实中的数据进行比较,去测试这个AI系统的准确性、完整性;最后,钟丽玲亦建议一些开发商在定制AI模型时,应尽量提供一些专门领域的专业数据,以提升数据库的质素,例如在分析信贷审批领域,生成式AI就需要用到金融数据市场的数据等。
人脸识别算法存在偏见
另外,生成式AI数据库的准确性和完整性亦需要完善。如果数据库不准确、不完整,不单有机会引发AI幻觉,亦有机会产生AI偏见。据美国国家标准和技术研究所的一份报告显示,研究人员调查了189种人脸识别算法(已经涵盖该行业中的大多数),并发现,大多数人脸识别算法都含有偏见。研究人员指,算法对黑人和亚洲人脸的错误识别率是针对白人面孔的10至100倍。对女性的错误识别多过男性,导致黑人妇女很容易受到算法偏见的影响。
至于人们应如何识别AI幻觉,钟丽玲表示,私隐公署在去年推出“使用AI聊天机械人自保‘十招’”的单张,今年亦发布《AI:个人资料保障模范框架》(《框架》),从市民角度、采购公司角度提醒如何正确使用和选用AI。另外,她指欧盟于去年12月推出的人工智慧规范法案(AI Act),提到对于AI生成的产品,要进行特别标签、加水印提醒是AI生成,而私隐公署亦在今次的《框架》中提出此建议。
發表評論 取消回复