频道栏目
首页 > 资讯 > 网络安全 > 正文

AI技术被滥用危害大,全球加强监管是大势所趋

19-01-21        来源:[db:作者]  
收藏   我要投稿
当今世界,人工智能(AI)科技发展的重要性早已不言而喻,AI 目前已应用到多个领域之中,包括视觉、语音识别、自动驾驶以及机器人等。人工智能技术的加持推动了这些领域的快速发展,并实现了落地应用,但是与此同时 AI 带来的安全隐患和道德争议,也让社会各界在新的AI技术应用上变得更加谨慎。

2018年12 月初微软总裁兼首席法务官布拉德·史密斯(Brad Smith)呼吁各国政府对面部视觉技术的使用做出规范。不久之后,谷歌公司也表示不会向云客户提供通用的面部识别技术。尽管只是个例,但也能看出,科技公司在AI技术开发和应用上越来越克制。

另一方面,各国的政策制定者也正积极讨论相关的规范和监管政策,以期减少AI发展带来的潜在风险。

德国创新创业协会会长胡海涛对第一财经记者表示:“个人数据应受到严密的保护,我们协会的创业人主要从事对医疗及生物医药AI的研发,如果个人数据保护不力,不仅会导致客户个人社会形象受损,甚至可能影响到职业生涯;如果是公众人物,潜在的风险更是不可估量。”

加强“个人数据”保护

借助大数据和云计算,人工智能近两年来再度站上了时代的浪尖,成为任何人都无法忽视的热点,但与此同时AI带来的各种社会问题也逐渐浮出了水面。

2018年3月17日,据外媒披露,英国政治咨询公司剑桥分析(Cambridge Analytica)曾在未经脸书(Facebook)公司同意、并且未告知实情的情况之下,通过一款问答应用软件窃取了至少8700万脸书用户的数据,然后把这些数据卖给了特朗普的竞选团队,以使其得以在2016年总统大选中向脸书用户实现精准地信息投放,最终赢得了该届大选。事实上,真正使用了该问答应用软件的用户仅占极少数,但因为脸书公司的数据管理存在漏洞,使得剑桥分析公司不仅获得了用户的所有数据,还包括他们脸书好友的所有数据信息,尽管他们从未使用过该款应用。

这无疑是2018年被曝光的最大数据丑闻,脸书公司的市值在丑闻曝光后至今已跌去了近40%,但这只是冰山一角,用户数据泄露和被滥用的例子早已屡见不鲜。用户的数据之所以富有价值,是因为人工智能系统可以通过数据分析,监控用户的所有行踪,从购物习惯到个人兴趣爱好,甚至于政治倾向。这让互联网巨头可以轻易通过AI给用户推送他大概率会感兴趣的项目和广告,而一旦这些数据遭到泄露,被用于非法目的,后果将不堪设想。

对如何收集、处理和储存个人数据方面进行监管已刻不容缓,在数据保护方面,欧盟已先行一步。

2018年5月25日,欧盟《通用数据保护条例》(GDPR)正式生效,为保障新规的推行,增设的独立监管机构——欧洲数据保护委员会也于同一天正式成立。该条例被认为是史上最严格的个人数据保护条例,不仅大幅拓展了对于“个人数据”的定义,除了姓名、手机号、用户名、IP地址等常规信息外,健康数据、宗教信仰、政治观点、包括性取向等敏感信息也被划入了保护范围,而且用户可以自主决定企业是否获取其个人信息,以及允许使用的范围,并可以要求企业删除已保存的相关信息。

该条例不仅是针对注册地或总部在欧盟的企业,只要企业向欧盟用户提供产品、服务,或持有、处理欧盟用户的数据,都属于管辖的范围。对任何违反个人信息收集、使用基本原则及没有保障数据主体权利的企业,最高可罚款2000万欧元或全球营业额的4%。受到这项条例影响最大的正是手中掌握着大量用户数据的互联网巨头。

2018年11月底,多个欧洲国家消费者团体向监管机构投诉谷歌公司,指控它违反了欧盟的数据保护规定,秘密追踪数百万用户的移动位置。谷歌公司恐面临巨额罚款。2018年12月中旬,欧洲监管机构宣布,由于脸书公司未能保护用户隐私,它将对该公司展开调查,这意味着脸书公司最高可能会接到一份数十亿美元的罚单。

近日在美国旧金山召开的阿斯彭(Aspen)网络峰会上,德克萨斯州议会代表兼众议院监督与政府改革委员会主席赫德(Will Hurd)表示,未来美国也很有可能推出一款类似GDPR的数据监管法案。赫德表示,一年前可能大多数美国人还对此无法表示认同,但是2018年的一系列数据泄露事件已完全改变了人们对此的看法。

谷歌CEO:担忧AI技术被滥用合情合理

除了个人数据保护,对AI的算法偏见目前是另一个亟待解决的难题。

人与人之间,很难完全消除每个人存在的各种偏见,但通常情况下个体的影响力有限,不至于给社会带来严重后果。可是如果一种人工智能算法暗含偏见,一旦它被广泛应用,所产生的负面影响将难以估量。

2018年10 月中旬,亚马逊关闭了其(试验性的)人工智能招聘引擎,该工具本来的作用是对应聘者的简历做出打分,然后把其中高分对象推送给负责招聘的人力资源部门,而低分的简历则直接淘汰。但在实际应用过程中,开发人员发现AI竟然对“女性”求职者存在偏见,如果简历中在特定语境下出现了“女子”一词,可能被系统自动降级。这并非是开发者在设计程序时故意为之,而是人工智能在对公司历史上的海量求职、招聘数据进行学习后,得出的模型。作为一家科技公司,亚马逊男性员工的比例约占60%,男性求职者也远远多于女性。

随着人工智能应用领域的越来越大,如何能确保AI算法的公正、公平且安全正是当务之急。尤其是在无人驾驶、医疗诊断、法律咨询等深具社会影响力的领域,一旦因算法偏见造成了负面影响,又应由谁来承担责任呢?

从理论上说,想要避免产生算法偏见,前提是要保证输入算法的数据本身不带任何偏见,但实际情况则要复杂许多,比如任何数据来源都是有限的,如果源头本身就不完全客观,那么这种偏见自然会遗传给算法。

胡海涛对第一财经记者表示,“当我们不能对不同的AI算法进行客观唯一的评价之时,增加AI算法的透明性、开放度及对AI算法的审议机制,是人类目前阶段最明智的选择。人工智能的算法应确保公平、公正、公开,并且不存在黑箱操作,只有如此,其给出的参考结果才有说服力。AI应帮助人类做出更好的决策,而不是替人类做出决定。”

近年来颇为热门AI自动驾驶技术正是最好的例子,早在2017年,美国众议院就通过了相关方案,以加速自动驾驶汽车的推广,但该法案在参议院却一直未被审批。2018年12月19日,美国国会参议员再度拒绝了在2018年年终休会前对该议案进行投票。尽管车企做出了让步,但该议案还是遭到了部分民主党人士的反对,反对人士认为自动驾驶技术未能解决安全问题上的担忧。

谷歌CEO皮查伊去年12月中旬对媒体表示,对人工智能技术被滥用的担忧是“非常合理的”。他表示,新的人工智能工具,比如无人驾驶汽车和疾病检测算法等,都要求科技公司设置道德护栏并思考什么是对该技术的滥用,“我认为科技公司必须意识到不能先创造人工智能工具,然后再去完善它,这样是行不通的。

埃森哲应用智能部门常务董事乔杜里也表示,在未来一年,预计将在全球范围内看到更多的政府审查和技术监管。她认为:“人工智能和全球科技巨头所掌握的权力,引发了很多关于如何规范行业和技术的问题,在2019年,我们将不得不开始找到这些问题的答案。”

相关TAG标签
上一篇:应该怎样正确看待5G,不能全盘否定也不能盲目肯定
下一篇:BGP协议(二)
相关文章
图文推荐

关于我们 | 联系我们 | 广告服务 | 投资合作 | 版权申明 | 在线帮助 | 网站地图 | 作品发布 | Vip技术培训 | 举报中心

版权所有: 红黑联盟--致力于做实用的IT技术学习网站