您的位置首页  装饰装修  软装搭配

专访中科院自动化所曾毅:不应以发展为借口越过AI伦理红线

“有些尝试是在设计阶段就不应该去做的,我们不能用‘可能会影响发展’的借口去尝试那些已经处于红线、甚至越过红线的应用和场景。”

近日,记者专访中国科学院自动化所研究员、北京智源人工智能研究院AI伦理中心主任、国家新一代人工智能治理专委会委员曾毅,就国外某些科技巨头停止使用人脸识别技术、中国公众对数据隐私的态度和人工智能治理等话题展开讨论。

如何看待放弃人脸识别技术?

5月底,非裔美国人弗洛伊德遭美国警察暴力执法致死一事后,人脸识别使用争议再次引发讨论。美国多家科技公司,包括微软、IBM和亚马逊因隐私争议、算法偏见等问题表示暂停向美国警方提供人脸识别系统。

对此,曾毅认为,技术公司放弃使用人脸识别算法并没有解决问题,而是在回避问题。他推测,如果技术公司宣布放弃人脸识别的使用,很可能是找到了其他替代方案,例如改用其他生物特征识别方法。

“比如公众对人脸识别的意见非常大,技术公司说‘好,我们放弃人脸识别’”,“但公众可能并不知道,虹膜识别、步态识别、声纹识别和指纹识别等其他生物特征几乎可以达到人脸识别的准确率。而这些当中也不乏存在肤色、性别、年龄、种族和国别等偏见的问题。因此简单的禁止使用某项技术并没有解决潜在风险,积极负责任地解决技术的伦理风险本身,发挥技术的善用才是真正应该做的事情”。

在他看来,人脸识别技术在国家与社会安全中发挥了很多积极作用,例如跨年龄人脸识别可用来打拐。“关键问题是,不应该让人脸识别系统直接去做决策,比如不能因为肤色黑、以及一些特定的其他面部特征,就判断犯罪的可能性高。”人脸识别技术可以用来做决策辅助,但不应该在决策中扮演决定性作用。

对于人工智能算法的偏见问题,他补充解释道,人工智能基于大量的社会数据,数据中已经表征了社会偏见,这是一个不能回避的问题。而技术开发者本身也有可能由于自身的偏见,对系统引入额外偏见。

“我们应当采用人工智能技术去规避数据当中的潜在偏见,更应避免技术设计者引入个人偏见。”

从“渐变码”看中国公众对数据隐私的态度

“说中国公众对隐私问题不是特别重视,其实是一个误区,并可能产生误导。”曾毅认为,就公众对隐私的重视程度而言,中国和西方国家没有本质差异。

他提到,2019年世界经济论坛就公众对政府合理使用人脸识别系统的态度进行过一次调研。结果发现,中国公众的支持率是83%,美国的支持率是80%,两者结果相似。

2020年5月,他所在的北京智源人工智能研究院人工智能伦理与安全研究中心联合中国科学院自动化研究所中英人工智能伦理与治理研究中心共同发布了《人脸识别与公共卫生调研报告》,显示新冠疫情期间,中国公众没有放松对隐私安全的要求。

曾毅尤其关注到,新冠疫情期间,“杭州渐变色健康码将上线”的消息在网上引发讨论。他表示中国网民关于“渐变码”的伦理和隐私安全讨论“非常切中要害”。

首先,网民对“渐变码”的关注度很高,很多讨论几千人点赞和回复。“具体观点来看,大家当时就谈,健康码是为新冠疫情而做的。如果超越了新冠防控本身,老百姓是不愿意的,这是一个非常明确的意见。”

第二,网友提到,健康码的设计初衷是给别人看的,但每天是否抽烟、喝酒、睡眠时长甚至走路步数,这些都是个人的健康数据,并没有打算给别人看。

他认为,公众的对于隐私保护的讨论、对于数据流向等概念的理解非常清晰,分析也很深刻。

人工智能治理愿景与技术落地

2019年5月,国家互联网信息办公室发布了《数据安全管理办法(征求意见稿)》。同年8月,国家互联网信息办公室又发布《儿童个人信息网络保护规定》,明确任何组织和个人不得制作、发布、传播侵害儿童个人信息安全的信息。

曾毅在采访中提到,上述两个规定以及新颁布的民法典中,都有关于数据安全保护的相关规定,尤其关于儿童个人信息保护的规定在全世界走在前列。但无论是欧盟的《通用数据保护条例》或者中国的这些尝试,都有一些需迫切解决的问题。

例如,《通用数据保护条例》中提到数据删除,即用户授权同意后改变想法,想把数据撤回。《通用数据保护条例》要求允许用户撤回。

曾毅介绍,尽管很多人工智能企业表明自己符合这条规定,但从人工智能模型中删除数据十分困难。目前几乎没有一家企业可以做到在训练好的人工智能模型中,把某个用户数据的影响从模型中删除。

“规范的愿景长期来讲一定是有益的,但在落地层面还需要学术界、企业界真正从技术的角度解决伦理与治理的痛点,从而取得突破。”

不应以发展为借口越过AI伦理红线

换脸软件ZAO在协议中暗藏霸王条款、教室使用表情识别技术、杭州动物园“人脸识别第一案”……2019年发生了数起因滥用人脸识别相关技术或触碰伦理红线而引发争议的事件。

曾毅表示,出现这些现象是因为人工智能的利益相关方,例如开发AI的公司、部署AI的企业、用户在数据合规性和用户隐私保护方面做得不够规范。

在他看来,人工智能产品研发的过程当中,在设计、研发、使用和部署各环节都应当注意数据隐私安全和算法潜在伦理隐患等问题。应当采取策略性的设计,并使用多相关方共担责任的框架,以此发展未来的人工智能。

“多相关方共担责任的框架”是指人工智能算法的提供者和技术使用者承担各自应承担的责任。

例如新冠疫情期间的健康码虽然由企业开发,但数据部署和收集工作由各省市的大数据中心负责。因此,不仅提供相关技术的企业需要注意数据安全保护的问题,维护数据的各个省市大数据中心也需要注意相关的保护问题。

曾毅总结道,作为一种颠覆性的技术,人工智能可以改变世界,它能够被善用,也有风险被恶用、误用和滥用。

“我们在用技术改变社会的尝试中,应当尽可能避免误用、杜绝恶用和滥用。所以,有些尝试是在设计阶段就不应该去做的。人工智能一定是发展是主题,但是我们不能用‘可能会影响发展’的借口去尝试那些已经处于红线、甚至越过红线的应用和场景。”

免责声明:本站所有信息均搜集自互联网,并不代表本站观点,本站不对其真实合法性负责。如有信息侵犯了您的权益,请告知,本站将立刻处理。联系QQ:1640731186