当前位置:   金科网 > 人工智能 > 正文

旷视科技:人工智能治理


案例摘要
当前,我们已经在支付、通行、拍摄等多个场景体验到了人工智能技术给日常生活带来的便利和效率的提升,人工智能作为新一轮科技革命和产业变革的重要驱动性技术,正在重塑生产方式、优化产业结构、提升生产效率,推动着社会、经济各领域从数字化、网络化向智能化加速跃升。但随着人工智能技术越来越广泛地应用,它正深刻地影响和改变着人们长期既定的认知体系和价值观念;而人工智能换脸、数据隐私泄露等事件也给社会治理带来全新挑战。因此,在人工智能行业发展早期就去思考人工智能治理的问题就显得尤为重要。
北京旷视科技有限公司(以下简称“旷视”)作为当今中国人工智能、计算机视觉和深度学习技术与商业化运营的佼佼者,在行业中率先开始思考企业层面的人工智能治理。在实践中,旷视虽然面临缺乏行业相关标准和其它企业成功治理经验的困境,但还是坚定信念,不断探索。
北京大学光华管理学院金融学系教授张峥、副教授卢瑞昌等撰写了案例《旷视:人工智能治理的新征程》、《旷视:可持续发展的人工智能》。案例通过与旷视的管理层、执行团队、基层员工与外部专家的访谈,讲述了旷视团队如何从零开始探索人工智能治理,如何结合自身的战略发展目标,制定治理的方向和政策,如何逐步从公司的体制、机制到各个业务流程方面,实现规则、制度建立和政策的落地执行。在此过程中,旷视的思考和实践既揭示了人工智能企业共同面对的治理问题,也饱含旷视团队的价值观和自我要求。相信旷视在人工智能治理上的实践可以为行业的发展和治理提供参考与借鉴。
以下内容为案例文本的部分摘选。
一、旷视与AI治理难题
1

旷视:不断进化的独角兽
2011年10月,三名清华大学“姚班” 毕业的学生——印奇、唐文斌和杨沐一起创立了专注于计算机视觉人工智能技术的旷视,经过9年的奋斗,旷视已经从当年那支创业大赛的冠军团队成长为《麻省理工科技评论》 中的“2019年50大聪明公司”、胡润研究院在2019年评选的“全球独角兽”企业……诸多行业认可背后是一家在人工智能舞台上备受瞩目的成长型企业。

旷视科技:人工智能治理

旷视科技:人工智能治理

图:旷视创始人印奇(中)、唐文斌(左)、杨沐(右)
目前,旷视对外提供的解决方案主要聚焦在个人物联网、城市物联网和供应链物联网三大场景,以消费电子、传感器和机器人作为核心终端,将业务方向规划在6个核心领域:云服务和开发者、消费电子、城市管理、园区、物流及零售,致力于用软硬件结合的解决方案,构建连结及赋能百亿物联网设备的人工智能基础设施。

旷视科技:人工智能治理

旷视科技:人工智能治理

图:旷视业务生态图
在2019年,旷视正式把人工智能治理工作上升到公司战略层面,并结合自身特点制定了旷视的《人工智能应用准则》 (以下简称“《准则》”),从正当性、人的监督、技术可靠性和安全性、公平和多样性、责任可追溯、数据隐私保护等六个维度,作为在公司人工智能治理上的依据,并呼吁同行和合作伙伴一起重视人工智能的治理,积极行动,共建可持续发展的AI生态。
2

人工智能治理标准与方法无先例
历史上,第一辆汽车出现在1885年,而第一辆配上安全带的汽车则出现在1963年。如今安全带已是各类汽车的标配。1945年世界上第一次核爆炸实验成功后,1968年全球59个国家则联合签署了《不扩散核武器的条约》。由此可见,在人类文明的发展中,人们从未停止过用科技的力量拓展认知边界、改变人类的社会面貌,但也一直遵循着“有所为有所不为”的选择。而这种选择多源于长久积累的社会实践和生活经验。
相较之下,尚处于弱人工智能时代初期的人工智能行业,社会对于它的关注已经超出了科学与技术演进、产业发展与行业规范等问题。越来越多的社会主体开始从社会、政治、法律、伦理、道德等各方面思考人工智能有可能带来的潜在问题。
与基因工程、生物医药等行业不同,人工智能技术具有机器模仿、机器学习的能力,将打破长久以来人类为主体构建的生产与劳动力的关系,成为新一代产业革命的引擎。世界各国相继把人工智能定位到国家战略发展的高度,源于这项技术将对生产力、产业发展带来新一轮的扩充与刺激。
但是,例如欧盟专利局拒绝了人工智能发明专利的申请、人工智能音箱建议人类使用者自杀、汽车自动驾驶系统失灵造成交通事故、人工智能写作软件批量编写假新闻等种种充满争议的问题频繁出现,又引发了社会各界争相发起对人工智能潜在风险的大讨论,全球各国纷纷倡导国际间的合作治理。如何让机器做“对”的事情,成为人工智能治理的关键问题。但目前来看,行业里尚未出现人工智能治理的标准化管理途径或可参照模式。
3

企业的人工智能治理现状
面对人工智能引发的社会问题,科技巨头们纷纷成立伦理委员会应对挑战。2016年,Amazon、Microsoft、Google、IBM和Facebook联合成立了一家非营利性的人工智能合作组织(Partnership on AI),苹果也于2017年1月加入该组织。在科技巨头们的共识里,与其靠外界强加约束人工智能发展,不如先成立伦理委员会自主监督。
但即便如此,技术在落地应用的过程中,还是会出现各种偏差,有的是产品本身运行出现了意外,如Amazon智能音箱Alexa“嘲笑使用者”,有的是产品功能的应用场景不清晰引发了人们的担忧,比如“Google Assistant在用户指令下开枪射穿了苹果”。这些事件的出现都非企业设计产品的初衷,虽然后续这些技术偏差都得到了校正,但是我们仍需思考一个严肃的问题:人工智能与人类的关系将走向何方?
面对由于技术的快速发展带来的产品不确定、市场不确定,以及由此产生的AI治理问题带来的挑战,中国国内的科技巨头如百度、腾讯、阿里等也纷纷发布企业层面的人工智能治理的原则或标准,倡议对人工智能技术的正当使用和数据安全保护。
旷视积极加入到国内人工智能治理标准建设的队伍中。2019年初,在国家科技部的推动下“国家新一代人工智能治理专业委员会”建立。旷视作为委员会委员之一,全程参与研究并联合推动发布了《新一代人工智能治理原则——发展负责任的人工智能》。该原则提出了关于人工治理的框架和行动指南。
2019年7月,旷视率先行业发布了自己的《人工智能应用准则》,从正当性、人的监督、技术可靠性和安全性、公平和多样性、问责和及时修正、数据安全与隐私保护六个维度,对人工智能正确有序发展作出明确规范,同时给出相应干预措施或指导意见,确保人工智能能够在可控范围内持续发展。旷视希望《准则》能够对人工智能行业起到示范作用,呼唤起各界对善用技术的重视,倡导行业提早建立可持续发展的生态。
二、旷视AI治理的权衡与考量
随着人工智能的商业化应用进一步拓展,人们对人工智能技术引起的社会问题越发担忧。但对于企业来说,标准是什么?具体怎么做?治理的边界在哪?在旷视内部也存在着不同的观点。
在旷视创始人眼里,“技术信仰,价值务实”始终贯穿着公司的经营与运作。旷视作为一个商业主体,企业的目标也从最早的“生存”向“领跑”动态转变。而在当今这个时点,中国领先的人工智能企业已经站在了全球同行业的第一梯队,正在参与并推动中国企业与全球市场进行交流。中国企业要想发展成为“伟大”的公司,不仅需要“伟大”的实力,更要有“伟大”企业的治理能力和影响力,需要用国际的语言、从国际的视角来思考和行动。因此,对于未来志向全球的旷视来说,人工智能治理就必需要从现在起步。
由于旷视的“价值务实”,他们选择回归业务本质是去思考人工智能治理与商业目标之间的关系。
“当企业的人工智能治理跟商业的利益发生一些小冲突的时候,这时候可能就需要公司创始人有一定的定力和决断力,我们还是沿着这个走。其实,有些当时我们犹豫的、最后没做的事情,现在回过头来看都是正确的决定,对公司长期来说是好的。”
——印奇,旷视联合创始人兼CEO
2020年3月20日
Q
在人工智能技术日新月异的当下,谨慎小心是否会限制企业的创新和活力呢?
“技术研究与探索本无禁区,但是作为存在商业化目标的企业来说,无论是不是高科技企业都应该有禁区。”
——孙剑,旷视首席科学家、研究院院长
2020年3月16日
观察人工智能行业的发展,在过往的几年里人工智能企业已经经历过一轮大浪淘沙,其中不少企业的事件暴露出了行业乱象,也致使人工智能行业受到更为广泛地关注和担忧。对此,旷视管理层也认为人工智能治理是对企业长期可持续发展的有利支撑。
“一些现在不被认为是风险(人工智能的伦理风险)因素的,在未来有可能成为风险。即便有完备的技术,但是因为人工智能技术的特殊性与复杂性,一旦出现纰漏就会造成巨大的影响,对公司的声誉和市值都会造成不可估量的损失。”
——徐云程,旷视首席运营官
2020年3月10日
在商业价值的追求之上,是公司的使命和初心。如何寻求企业理想和商业利益之间的平衡,必将考量企业的取舍之道。旷视的创始人团队对此也非常清楚,人工智能治理是有成本的,毕竟短期的投入是摆在眼前的,长期的回报却不一定看得到。但是,要想成为一家受人尊敬的企业,短期的商业利益必须要为长期的理想实现服务。
刘俏
北京大学光华管理学院院长
2020年3月23日

旷视科技:人工智能治理

旷视科技:人工智能治理

“人脸识别技术被日益广泛地使用,应用场景越来越多,出现的问题也随之增多,企业面临的人工智能治理的迫切性是客观存在的。从另一个角度,中国企业是有机会和时间窗口去做市场的引导者,成为行业架构、规范或原则的制定者。对于旷视来说,他有这种敏感性和愿景,已经超过企业价值最大化的目的。所以它(人工智能治理与企业商业利益)并不矛盾。"
三、行胜于言,旷视的人工智能治理
2019年8月,公司确定了人工智能治理行动战略。本着坚定不移的推进态度、务实的落地机制设计和与各界广泛合作的开放心态,旷视从制度与机制的设立,科研、产品、客户管理等多方入手,初步建立并打开了公司推动人工智能治理的局面。

旷视科技:人工智能治理

旷视科技:人工智能治理

第一步:外部咨询
对于旷视来说,最难的是企业界并没有成熟的人工智能治理落地路径可循,外面学者的倡议比较多,但是企业自律的实践却比较少,一切都需要旷视自己去原创。在行动之前,旷视的AI治理筹备团队开始了广泛的调研。从专家学者到企业精英,从国内到国际,从书本理论到实例分享,筹备团队在吸收外界经验的同时,对设计自己的方案渐渐清晰。
第二步:确立制度与机制
人工智能治理落地推进的首要工作,就是要成立专门的机构,制定相应的行为规范。2019年7月,旷视发布了《人工智能应用准则》,并随后在公司内部面向全员发布了《人工智能道德行为规范》。2019 年8月,旷视成立了“旷视人工智能道德委员会”,成为中国首家成立该项组织的AI企业。该委员会是公司处理人工智能治理事项的最高决策机制,由公司高管和外部专家共同组成,确保了讨论的中立性和客观性。
在企业内部,为了将以上的《准则》和《规范》切实落地推进,旷视进行了一系列机构和制度建设,并从研发学术、产品工程、客户渠道和运营管理四个方面开展了务实的工作,从而实现在日常工作中自我管理、自我约束。
第三步:治理落地齐推进
1、 研发与学术
2020年1月旷视人工智能治理研究院盘点的“2019全球十大AI治理事件”在微博、微信上发起了公开投票,并获得了公众的广泛参与和讨论,短短两个星期就获得了2000多万的浏览量和1000多条留言。网友的讨论很热烈,其中隐私、安全、权利是大众最关心的人工智能治理关键词。
在对各方专家、网友就十大事件的评论进行分析后,旷视人工智能治理研究院总结出4类人们关注的话题方向:人工智能时代伦理和法律的关系;人工智能衍生的经济发展与社会公平问题;人工智能应用的追责机制和权益分配;人工智能时代下的人身安全与隐私保护。在之后的研究工作中,旷视人工智能治理研究院与各研究机构、公益组织、相关企业分别开展深入合作,将以上话题与企业实际业务中遇到的问题相结合,规划出了近期人工智能伦理的研究课题、并展开了积极探索。
2020年6月底,旷视加入了北京智源发起的“可持续发展的人工智能”公益研究计划,在该平台上发布了城市社区建设、可信AI技术上的两大研究课题,并引入专业研究机构进行协作研究。

旷视科技:人工智能治理

旷视科技:人工智能治理

图:2019全球十大AI治理事件投票结果
2、渠道与生态
无论是客户、合作伙伴,还是关注企业发展的投资人、开发者、科研机构,都是人工智能产业生态的重要组成部分。旷视认为企业的AI治理,不能只是企业独自起舞,必须要在产业生态中建立共识、推动协作、逐渐形成规范。只有这样,才真正形成了人工智能治理的闭环,最终推动“AI的可持续发展”。
2020年3月,旷视正式在每件软、硬件产品中都放入了《正确使用人工智能产品倡议书》,倡导客户和合作伙伴一起加入AI治理的行列。虽然倡议书本身不具有法律约束性,但旷视希望联合客户和合作伙伴共同关注人工智能治理,逐渐去重视和树立人工智能的伦理观。事情虽小,但这是建立人工智能治理生态的第一步。
结语
人工智能技术的发展日新月异,技术应用的效果和由此产生的社会影响更是屡屡超出人们的预期。驾驭人工智能,是新时代的驭火之术,人类要让技术为我所用、创造价值,同时又不能被技术所伤害。行走在刀锋之上,旷视清楚地意识到人工智能企业不能走先发展后治理的老路,而必须是边发展边治理,在促进行业法规、制度不断健全的同时,加强企业自律,在技术、产品、服务上形成有旷视特色的道德伦理的护城河。
目前,旷视已经在人工智能治理的路上迈出了坚实的一步,探索并搭建了决策机制,建立了初步的方法论,但这还远远不够。企业在获取商业利益的同时如何更好地兼顾人工智能伦理的评判,如何把控人工智能技术的发展方向、从而让技术给各个产业的变迁带来符合社会期待的价值,这些问题还有待旷视在未来的长期实践中交出答卷。
本文4520字
《旷视:人工智能治理的新征程》案例正文18615字
《旷视:可持续发展的人工智能》案例正文16250字
教授解读

旷视科技:人工智能治理

旷视科技:人工智能治理

张峥
北大光华管理学院
副院长、金融学系教授
随着人工智能技术在近些年的突破,其商业化应用也迅速崛起,并显示了广阔的前景。但同时我们也注意到,如信息造假、算法偏见、隐私侵犯、数据保护、网络安全等问题的出现对法律、伦理、社会等方面提出了诸多新的挑战。
然而,当我们去观察技术和行业的革新,尤其在新技术商业化的初期,其自身的治理更多是依靠行业和技术的力量,而非立法和监管。因为技术和商业模式快速迭代,成文的立法和监管很难跟上技术发展与创新步伐,而行业自律、伦理框架、最佳实践、技术指南等更具弹性的治理方式将越来越重要。
通过与旷视科技合作开发的案例,我们领略了人工智能这一具有高度专业化、技术化行业的复杂性,非专业人士往往难以对其风险和不确定性有准确的判断和认知。因此,无论是对于行业、企业还是受众等,旷视在推动人工智能治理上的情怀、思考与实践的动态变化值得被记录与总结,并希望通过光华案例这个载体让更多利益相关方参与其讨论,如监管机构、决策者、学术界、企业、社会公共机构、公众等都能参与到新技术治理的建设中来。
卢瑞昌
北大光华管理学院
金融学系副教授

旷视科技:人工智能治理

旷视科技:人工智能治理

我们非常荣幸能有机会和旷视的首席运营官徐云程及其众多同仁一起合作开发人工智能治理的案例。人工智能被认为是人类工业革命的第四次浪潮,它能颠覆现有的很多行业,而不是像其他行业一样,只是在某一领域的突破。生产力决定生产关系,未来,人工智能可能会带来整个社会关系和生产关系的解构和重组。因此,我们可能无法承受无序发展带来的后果,所以在人工智能行业的发展早期来思考治理的问题就非常有必要了。
我们把人工智能治理与现在的公司治理进行类比,公司治理已经发展出了的包括经理人薪酬结构、独立董事、股东大会等为了解决公司所有人和运营者之间的委托代理问题的而设计的一系列机制,而目前人工智能治理的具体实施机制几乎空白。尽管近年来有很多的国家、国际会议和论坛将“人工智能治理”作为重点关注议题,但是更多都是停留在议题探讨,或者出一些报告和倡议的阶段。真正能形成共识,能落地的机制安排仍然非常欠缺。我们认为伦理的讨论固然重要,但如果没有落地机制,可能在实践意义上还是欠缺了一些。我们期待旷视在人工智能治理的探索能为整个行业的发展提供一些进一步的思考和探索。
声明
本文摘编自案例《旷视:人工智能治理的新征程》(案例编号:BESR-1-20200828-162);《旷视:可持续发展的人工智能》(案例编号:BESR-1-20200828-163)。以上案例均由北京大学光华管理学院金融学系教授张峥、副教授卢瑞昌、案例中心研究员袁慰根据企业调研撰写。该案例仅用于课堂讨论,而非管理决策或活动是否有效的证明。本案例版权归北京大学管理案例研究中心所有。如申请使用本案例请发送邮件至:casecenter@gsm.pku.edu.cn 未经北京大学管理案例研究中心授权许可,禁止以任何方式复制、保存、传播、使用本文或者案例正文中的任何部分。
Copyright©2020北京大学管理案例研究中心
原标题:《旷视科技:人工智能治理——新时代的驭火之术 | 光华案例》