最新公告
  • 欢迎您光临欧资源网,本站秉承服务宗旨 履行“站长”责任,销售只是起点 服务永无止境!立即加入我们
  • 「可信AI」的前世今生、基本与研究意义。

    近年来,“可信AI”逐渐成为人工智能领域的热门话题之一,以人工智能为基础支撑业务的互联网科技公司走在了前列。

    今年6月,蚂蚁集团在全球人工智能大会上首次公布了“可信AI”技术架构体系。今年7月,京东研究院在世界人工智能大会上发布了中国首部《可信人工智能白皮书》。两家公司都将隐私保护、鲁棒性/稳定性、可解释性和公平性作为“可信人工智能”的四个基本原则。

    如果你仔细观察,对隐私保护和公平的呼吁早于“可信人工智能”一词的出现。例如,微众银行、同盾科技等金融科技公司很早就开始布局数据隐私,应用联邦学习、差分隐私等技术保护数据,推动数据依赖模型的研发。

    什么是“可信人工智能”?为什么互联网大公司频频收场,从而在数字领域掀起如此轰轰烈烈的研究热潮?

    更重要的是,除了企业界,学术界也有投资。比如今年10月,哥伦比亚大学数据科学研究所所长、ACM和IEEE双Fellow的周以真在权威期刊《ACM Newsletter》上发表了《可信人工智能》一文,详述了过去以及“可信人工智能”的提出,基本核心和研究意义。

    不同于“人工智能伦理”,“可信人工智能”不仅要求以人为本的技术发展,更要从人工智能技术本身出发,强调提高人工智能算法和模型的鲁棒性和可解释性。换言之,如果说“AI伦理”是人工智能社会的道德准则,那么“可信AI”就相当于人工智能时代的一种法律手段,将有机会限制人工智能技术的劣势。从根。

    但为什么“可信AI”的研究先是在工业界开始,然后又传播到学术界呢?目前,为什么“可信AI”的研究对象是一家互联网科技公司?

    原因也很简单:人工智能的大规模应用存在很多“信任危机”问题,无论是普通用户还是权威学者都对人工智能算法提出了担忧。作为人工智能技术应用的主力军,互联网大公司如果不积极解决人工智能的信任问题,很可能面临被淘汰的命运。

    01. 一场用户“逼”的技术革命

    大厂商不得不开始直面一个问题:公众对人工智能的信任度正在下降。

    众所周知,当前基于神经网络的人工智能技术普遍存在无法解释、鲁棒性差、过度依赖数据等问题。

    这样的例子在互联网上并不少见。

    据英国《每日邮报》报道,2015年2月,英国进行了首例机器人心脏瓣膜修复手术。手术使用了被誉为“手术机器人界波士顿动力”的达芬奇手术机器人。然而,原本是尖端医疗人工智能技术的示范,却以惨烈的失败告终。手术过程中,血液溅到摄像头上,导致机器“失明”,导致机器人“错位”患者心脏并刺破主动脉。最终,接受手术的患者在手术一周后死亡。

    2016年9月,央视《法治在线》栏目报道了河北邯郸高速公路发生的一起严重事故。一名年轻男子在驾驶特斯拉轿车时未能避免与道路清扫车发生追尾事故而丧生。根据事故发生后行车记录仪中的视频分析,特斯拉在事故发生时处于“匀速”状态,因未能识别躲避而撞上前车。这被认为是国内披露的首例使用特斯拉Autopilot功能发生致命车祸的案例。

    因为这些真实的悲剧,公众对人工智能的信任度大打折扣。因此,尽管有大量研究表明,使用自动驾驶系统的车辆的事故率远低于现有车辆的事故率,但质疑的声音仍然存在:

    “在自动驾驶中,决定交通创新成败的不是99%的准确率,而是1%的错误率。”

    目前人工智能的发展主要以深度学习为主,深度学习算法最常被宣传为“准确率高达99.99%”。由于深度学习模型的“黑匣子”特性,即使是深度学习“三巨头”在深度学习和神经网络方面的成就获得 2018 年图灵奖(计算机领域的诺贝尔奖)也不能自信说某种算法可以达到100%的准确率。

    深度学习的三巨头,从左到右分别是 Yann LeCun、Geoffrey Hinton 和 Yoshua Bengio

    由此看来,估计准确率只有99%的深度学习算法在现实生活中实现时,会带来很多不容小觑的问题。例如,假设未来一个城市有 10 万辆自动驾驶汽车,那么按照最高准确率 99% 的概率,还有 1000 辆可能对人类出行安全构成威胁的隐藏车辆。

    除了“无法解释”之外,人工智能系统在现实生活中的实施也出现了许多由设计不公、模型结论不稳定、隐私侵犯等导致的“用户信任危机”。涉及的企业和用户不仅是自动驾驶行业,更多的是一场“国家危机”。

    例如,人工智能技术已经成为互联网产业发展不可或缺的驱动力之一。然而,在人工智能赋能数字经济的过程中,人工智能算法的弊端也频频出现,这使得企业推出的人工智能产品引发部分用户担忧,质疑声不绝于耳。

    例如,一些电商平台存在大数据杀戮现象;内容平台存在推荐算法下用户接收到的信息内容同质化现象;去年,《人物》曾报道外卖系统使用算法​​将骑手困在系统中;社交媒体平台也存在因监管不当导致个人隐私数据泄露的问题;而在金融场景中,也存在贷款保险等业务背后的AI算法评级带来的公平性问题。

    一个更直接的例子仍然是引用交通。虽然不是每个人都会选择购买准确率高达 99% 的自动驾驶汽车,但现代居民的日常出行几乎离不开网约车平台。该平台使用人工智能系统进行驾驶员-乘客匹配、路线规划和自动订单调度。在给人们的出行带来极大便利的同时,也存在着人工智能技术不完善带来的诸多问题,如路线规划不合理等。导致多收费用,显示的到站时间与实际情况严重不符等。

    算法的公平性背后有两个基本因素,人为的和非人为的。如果说公司利用人工智能“扼杀大数据”(公司试图盈利)是可控的企业伦理问题,那么就类似于将“承诺过很多”的司机正常分配给用户,威胁到乘客的人身安全。该行为很可能源于人工智能系统本身“不可控”的技术缺陷。所谓“不可控”,是指传统人工智能模型在决策过程中存在“黑箱”问题,即推理过程不透明。

    人工智能技术带来的便利性与人工智能技术的“不可信”之间的矛盾,正逐渐成为人工智能在现实生活中大规模应用的核心问题。

    例如:在医疗场景中,如果患者不能信任 AI,那么即使诊断正确且对患者有益,Ta 也不会听从 AI 系统给出的诊断和医疗建议。同理,不管企业和用户吹嘘的自动驾驶技术有多好,如果没有完全的保障,我们也不敢把“驾驶”交给人工智能;即使支付宝等在线支付平台再方便一些,如果使用人工智能算法也会造成用户的金钱损失,我们不会再使用它。

    因此,提高公众对人工智能的信任变得至关重要。

    02. 企业为什么要进入“可信AI”?

    针对人工智能在实施中的负面影响,除了目前全球政府机构发布的近150条人工智能治理原则和共识外,例如2019年的《G20人工智能原则》强调“在可信领域推动创新” 2019年,欧盟颁布了《可信AI道德准则》,产业界和学术界也觉醒了,主动倡导研究“可信AI”。

    那么,京东、蚂蚁、腾讯等企业为何进入“可信AI”市场?连谷歌都成立了“AI伦理团队”?

    一个直接的原因:信任是业务的基石。2002年1月,时任微软掌舵人的比尔·盖茨在给员工、股东和客户的备忘录《可信计算》中提出,构成“可信”的四个因素是安全、隐私、可靠性和商业诚信.

    随着AI信任危机的发酵,普通用户从消费者的角度对AI产品越来越谨慎;学者们从技术研究的角度,关注人工智能模型本身的缺陷可能带来的实际应用后果。从运营的角度来看,企业在应用人工智能赋能数字经济的过程中,不得不面对用户信任、技术隐患、同行竞争等问题。

    近年来,各国的政策在人工智能的实施中也强调“以人为本”。也就是说,用户是策略的核心保护者。例如,2018 年 5 月,被称为“历史上最严格的隐私和数据保护法”的欧盟通用数据保护条例 (GDPR) 生效,而法国数据保护局 (CNIL) 则声称其违反了GDPR。谷歌被处以创纪录的 5000 万欧元罚款,这对全球企业应用人工智能等技术赋能经济发出了警告。

    除了用户的信任问题,企业想要进入“可信AI”还有两个容易被忽视的原因:

    首先,企业自身也面临风控问题。与游戏中机器人的现场停滞不同,人工智能系统在医疗、金融、旅游等场景中的漏洞和失误,可能会造成无法弥补的金钱和安全损失。

    支付宝等互联网支付平台每天遭受数亿次黑客攻击。他们每天都面临着“你不跑,黑产品就跑在你前面”的情况。如果速度比黑品慢,成千上万支付宝用户的资金安全就会受到威胁。这时,支付宝应用的风控模型和算法的鲁棒性就变得至关重要。

    其次,人工智能对人类社会的影响正在逐渐加深,在越来越多的场景中成为人工智能的替代品。如果企业不提前做好防御和准备,就有可能在新一轮的市场竞争中被淘汰。

    例如,它也是一个在线叫车平台。任何一家公司都可以率先开发出更强大、更健壮的人工智能调度系统,以降低司机与乘客的劣质匹配率,提高距离最近的乘客与司机的匹配率,以减少乘客的等待时间,通过自动提供最优、公平的出行价格,公司将能够最大程度地降低成本,提高效率,获得市场竞争优势。

    神经·模糊·预测控制及其matlab实现_bp网络神经算法例题_[56] 刘美俊 基于改进学习算法的模糊神经网络控制系统

    再比如,在在线支付平台中,如果支付宝不积极提高人工智能算法的鲁棒性和可解释性,而是依靠人工的方式来筛选和识别诈骗电话,那么人工成本会显着增加;如果一个表现不佳的模型被筛选、识别和辩护,它就无法超越黑品,因此它所遭受的损失是不可估量的。此时,如果竞争对手在“可信AI”上率先开发出更强大的系统和算法,支付宝将失去原有的城市或面临被淘汰的命运。这可能是蚂蚁集团早在 2015 年就启动可信 AI 相关研究的核心驱动力。

    2018 年 9 月,麦肯锡全球研究院发布了一份长达 60 页的报告,分析了人工智能对全球经济的影响,明确指出到 2030 年,人工智能将在全球产生 13 万亿美元的收入。经济效益,全球 GDP 每年增加约 1.2%;此外,人工智能的应用可能会扩大企业之间的差距[56] 刘美俊 基于改进学习算法的模糊神经网络控制系统,预计到 2030 年,人工智能领导者的回报将翻一番,而延迟采用人工智能技术的公司将远远落后。

    03. 企业该如何应对?

    由于政策压力、用户信任度不断收紧,以及对黑产品的追求,国内外厂商不得不主动或被动地参与到“可信AI”的研究中,通过实际行动控制人工智能技术的影响。对人类社会的负面影响。

    例如,在 GDPR 罚款事件后,谷歌在 2019 年推出了“遗忘算法”,允许用户在谷歌页面或 Youtube 上删除自己的个人隐私数据,并承诺在特定时间(18 个月)内自动删除用户的位置信息. 、浏览历史记录等。

    互联网时代,除了诚信,人们还需要考虑数据安全问题,而数据泄露是信任危机诞生的主要根源;在AI时代,除了更严重的数据安全问题,算法的统计性质带来的不可控性、AI系统的自主学习、深度学习“黑匣子”模型的莫名性也成为导致数据安全问题的新要素。用户信任危机。

    这时,信任问题不再完全取决于公司自己的意愿,还取决于公司对AI技术(数据、算法等)的理解和控制。因此,从企业的角度来看,推广“可信AI”的意愿只是解决用户信任问题的第一步。问题的关键在于企业能否从底层技术上实现AI的可信度。

    一个普遍的偏见是,国内厂商对“可信AI”的认知远远落后于欧美国家。但事实是,早在2015年2月,蚂蚁集团就启动了基于“终端特性”的手机丢失风险研究项目,在端云协同风控研究方面迈出了第一步,旨在保护隐私和安全。用户的安全。2017年6月,蚂蚁发布了具有智能攻防能力的第一代智能风控引擎AlphaRisk,对用户集中的支付宝终端进行风险防控。到2021年首次披露技术架构时,蚂蚁集团已经完成了6年的“可信AI”技术积累。根据“

    总的来说,企业在“可信AI”方面的工作主要分为三个部分:文件诉求、企业管理和技术研究。

    文件方面,最著名的是京东研究院今年发布的《可信人工智能白皮书》和微众银行牵头的《联邦学习白皮书》。当然,可信人工智能不能仅仅停留在原则和共识之上,还需要落实到技术实施和组织文化中。

    在企业管理方面,商汤科技于去年1月成立人工智能伦理治理委员会,并于今年上半年启动伦理审查制度,建立贯穿人工智能全生命周期的风险管理体系系统,并对将要实施的人工智能系统进行监控。全过程的追溯和审核,为国内科技企业树立了榜样。

    在技​​术研发层面,实现“可信AI”主要有两种方式:数据和算法。数据问题侧重于隐私保护和安全、数据偏见以及由此产生的不公平性,而算法问题侧重于可解释性和稳健性(又称“稳健性”)。

    数据、算法和算力被视为人工智能研究的“三驾马车”。随着用户隐私数据保护意识的增强和数据泄露带来的风险增加,“数据保护”与“数据驱动”如何融合?将成为“可信AI”的热门研究方向之一。

    除了数据隐私保护,为实现“可信AI”,目前产学界研究人员面临的问题和未来需要解决的方向有以下几个维度:

    1)数据公平

    AI的训练结果直接依赖于输入数据。但由于数据采集条件的限制,数据中不同组的比例并不均衡。比如目前的NLP训练语料多为英文和中文,其他8000多种小语种难以融入AI世界;而由于学习语料的AI简历筛选往往会自动过滤掉包含特定关键词的求职者,使其成为“AI透明人”。

    2)算法稳定性

    针对 AI 模型的数据和系统的攻击方式多种多样,例如中毒攻击、对抗性攻击和后门攻击。例如,通过向模型提供恶意评论,会影响推荐系统的准确性;通过在交通标志上贴上专门设计的图案,自动驾驶系统可能会被误导为错误识别。

    另一方面,干扰的形式正逐渐从数字世界向物理世界蔓延。比如通过打印对抗样本等手段,在物理层面直接干扰自动驾驶和人脸识别系统。

    3)算法可解释性

    以深度学习为代表的机器学习算法本质上是一个端到端的黑匣子。一方面,不清楚为什么训练好的人工智能模型能有极高的性能;另一方面,人工智能系统依赖哪些因素做出决策也不清楚。例如,一位实验者曾问 GPT-3(自然语言处理模型)“新冠疫情何时结束”,其答案是“2023 年 12 月 31 日”,但答案的依据是什么?研究人员无从解释,自然也难以保证其准确性。

    仍然来自感兴趣的人

    针对上述问题,国内各大厂商纷纷开始布局研究,寻求可行的技术手段,破解“可信AI”之路上的“绊脚石”。

    以数据隐私保护为例。支持“数据可用性和不可见性”的“分布式计算”、“联邦学习”等新兴技术在业界非常流行,尤其受到蚂蚁集团、微众银行、同盾科技等公司的青睐。2017年11月,蚂蚁金服与伯克利大学启动人工智能开源项目Ray,通过分布式平台为开发者提供计算资源和任务调度支持,重点关注隐私保护、智能风控、智能搜索等应用场景在它的社区里。继续为开发者提供开源支持;2019年,微众开源了第一个工业级联邦学习框架FATE。

    在模型鲁棒性方面,国内厂商正在积极投入对抗性学习研究。2017年9月,蚂蚁提交了第一个与文本对抗相关的专利“一种基于拼音扩展特征的文本内容风险变体识别方法”,并在接下来的三年中继续探索内容安全场景的智能对抗技术解决方案。共申请专利31项。百度提出并开源了对抗样本工具箱“Advbox”,利用先进的生成方法构建对抗样本数据集,对对抗样本进行特征统计,攻击新的AI应用,通过对抗攻击强化商业AI模型,提高安全性该模型。

    在可解释性的应用研究中,国内厂商的表现也尤为突出。2018年9月,蚂蚁推出反洗钱智能报文系统,自动输出包括风控原因、反洗钱监管合规要求处理方案等报文内容;2020年,蚂蚁开发了一种可解释的图算法Risk-like[56] 刘美俊 基于改进学习算法的模糊神经网络控制系统,它可以在欺诈案件中主动尝试现场。

    纵观国内各大厂对AI技术的治理,不难发现,以商汤科技为代表的感知智能技术的研发更侧重于“AI为善”的应用管控。与感知智能相比,“可信AI”在以金融为代表的风险敏感场景下,优势更加明显,研究更加深入透彻。

    在可预见的未来,金融、医疗、出行等与人类社会现实息息相关的企业或将成为“可信人工智能”研究的主力军,大量关键技术可以期待的成果将涌现,从技术层面引导人工智能造福社会。

    04. 企业责任

    一个公司能做出突破性的人工智能技术,它会走的很快;但只有让自己的人工智能技术可信,才能走得更远。“人工智能突破”和“人工智能守信”,就像是在打仗、保卫国家。前者会让人感觉更强烈,但后者是安定生活的保证。

    企业是构建“可信AI”过程中不可忽视的力量。一方面,企业是技术攻关的主力军;另一方面,企业是人工智能实施问题的发现者。在思考如何推动人工智能商业化的过程中,企业发现的问题可以反馈给学术界,可以加速解决人工智能落地中的各种问题。

    此外,企业是推动人工智能技术为人类社会创造价值的先行者。最终,在实验室中实现的人工智能创新,无论是正面的还是负面的,都必须由公司产品化,提供给用户,并影响个人。

    在这个过程中,保护用户也是保护企业本身。虽然是黑客和用户强行推动的技术革命,但“可信AI”的危机并不是大众对技术的无知和自己想法的固执,而是人工智能本身的技术还没有得到充分发展。如前所述,当前对“可信AI”的研究还有很多技术难点需要攻克。

    企业冲锋,学术界覆盖,各方力量合力。只有越来越多的研究人员参与进来,人工智能才会变得“值得信赖”指日可待。

    参考链接:

    1. Bughin, J., Seong, J., Manyika, J., Chui, M., & Joshi, R. (2018)。来自人工智能前沿的笔记:建模影响人工智能对世界经济的影响。麦肯锡全球研究院,布鲁塞尔、旧金山、上海、斯德哥尔摩。

    2. 值得信赖的人工智能

    3. 比尔·盖茨:可信计算

    4. 默认情况下,Google 将在 18 个月内删除您的数据

    5. 值得信赖的 AI 道德准则

    站内大部分资源收集于网络,若侵犯了您的合法权益,请联系我们删除!
    欧资源网 » 「可信AI」的前世今生、基本与研究意义。

    常见问题FAQ

    免费下载或者VIP会员专享资源能否直接商用?
    本站所有资源版权均属于原作者所有,这里所提供资源均只能用于参考学习用,请勿直接商用。若由于商用引起版权纠纷,一切责任均由使用者承担。更多说明请参考 VIP介绍。
    提示下载完但解压或打开不了?
    最常见的情况是下载不完整: 可对比下载完压缩包的与网盘上的容量,若小于网盘提示的容量则是这个原因。这是浏览器下载的bug,建议用百度网盘软件或迅雷下载。若排除这种情况,可在对应资源底部留言,或 联络我们.。
    找不到素材资源介绍文章里的示例图片?
    对于PPT,KEY,Mockups,APP,网页模版等类型的素材,文章内用于介绍的图片通常并不包含在对应可供下载素材包内。这些相关商业图片需另外购买,且本站不负责(也没有办法)找到出处。 同样地一些字体文件也是这种情况,但部分素材会在素材包内有一份字体下载链接清单。
    欧资源网
    一个高级程序员模板开发平台

    发表评论