前言
不经意地访问到这个IBM的文档,没有LOGO,没有图片,没有排版,纯文本网页。与摇滚明星出席、聚光灯闪闪的Watson大会相比,这显得过于低调了。
今年5月,美国联邦政府科技办公室(OSTP)发布信息征询函(RFI),在《为即将到来的AI时代做好准备》的题目下,向社会公开征询若干关键问题的见解。网页内容就是IBM对上述RFI做出响应。
从中我们可以看到,作为美国科技力量的象征以及认知计算概念提出者,在一个相对克制的语境下,IBM是如何看待AI的。
不要把风向当真相/Learn Beyond Headlines 是IBM在“法律与管制”部分对政府提出的建议,针对那些充斥报端的故事性渲染。
实际上,IBM也是Headlines的常客,而这篇文章的风格和基调,确实有异常态。在AI的征程上,大量的技术、社会、法律问题需要得到解决,在技术视角和应用视角之外,恰如其分的社会视角审视是出彩之处。
以下我择要翻译,并不完善。 阅读原文 可查看网页。
A 概述+应用
B-社会影响
C-技术
D-数据
E-大奖赛
F-安全性与控制
G-法律与管制
H-商业模式
正文:
A 概述+应用
IBM提倡使用Augumented intelligence一词而非Artificial intelligence一词,意为增强智能,强调技术的发展以协助而非代替人类/人工为目标。
认知计算是IBM趋向AI的特定路径(Our particular approach):
认知计算基于一系列广泛的技术能力集合,如机器学习、推理与决策技术;语言、语义及图像技术;人机交互技术;分布式高性能计算;以及新计算架构和设备。当上述能力以解决某种问题为意图整合起来,就能在各行业提升生产率、促进新发现。
这就是IBM watson正在做的:
医疗-通过阅读患者电子病历、相关文献、同类病例,识别同类患者的细微差别、评估医护标准和不同的治疗方案、对相关性、风险和偏好进行排序,提升精准医疗水平并最终对患者有效施治
社会服务- 为有需要的公民提供及时且有价值的回答,协助处理保险、税务等问题,并预测个体和群体的需求,以制定更高效的资源配置计划
教育- 协助教师开发个性化的教育项目,帮助学生使用不同的学习方式,全面提升早教、小学到高校教育的有效性
金融- 通过定量评估申请者提升金融服务的包容性,以可控的成本最大程度提升保险覆盖范围,确保遵从各级管制政策,降低各类欺诈和浪费
交通- 提升公共交通系统的运作效率,支持公交车具的半自动驾驶,管理事故、优化燃料使用,并维护基础设施及公交车队整体运行
公安- 利用机器视觉为公共安全人员提供异常检测,建立犯罪的预测性模型并帮助查案人员发现大规模信息之间的联系
环保- 理解各类因素之间的复杂联系,构建环境模型以实现精准预测和污染物的精准管理
基础设施- 需求和供给预测,制定、执行项目计划,对已建设施进行维护
B-社会影响
AI能够广泛地改善生活质量。为使这种利益被社会充分接受,AI系统应具有显著的社会能力(Social capacities),因为它们将对我们的情绪和决策形成深远的影响。它们还需要理解如何学习并遵从某些行为准则,以更好地融入人类价值观。
AI会改变工作方式,和过去的技术进步一样,会对现有的工作岗位形成替代。但IBM同时强调,从最大化社会福祉出发,应加速其发展而非制约其发展。
进而提出,我们应该基于现实(而非臆想),就AI如何改变工作的性质开展一系列重要的对话。报告援引了MIT、OECD以及经济学人的最新研究(网页链接有内链,可以按图索骥)支持这一论断。
IBM举例说,AI让放射科医生从繁重的“看片”工作中解放出来,从而能够聚焦更多机器所不能的高价值工作,比如解读并制定诊疗方案,从而挽救更多人的性命。(这个例子最近貌似被IBM自己推翻了,IBM Watson大会宣扬的最新案例是,被医师确诊为不治之症的病人最终被Watson找到了正确的治疗方案...)
AI会带来新的工作流程和实践,工作技能需要得到更新,以帮助人们更进一步认识社会的复杂性本质。援引麦肯锡的报告balabla...政策建议有一条是要基于现实评估技术对工作的影响...不要听各路热心人士的瞎BB...(全文都在强调这个观点,看来在美国反对党的声音很大呀)
C-技术
一些重要但未达预期的技术领域,建议政府加大投入
机器学习与推理-大部分AI系统使用基于大量标签数据的监督学习,但未来AI需要和人一样,可以通过互动(讨论、辩论、观察、学习),干中学、从少量数据中归纳提炼、在不同任务中融会贯通
决策技术- 对系统性风险的建模,权衡利弊,基于场景的异常现象预测,在保障隐私前提下的数据分析,不确定环境下的决策(谁敢利用AI进行决策,可能取决于它是否能够设定符合一把手脾性的决策风格...如果和本文后面建议的那样,把AI当作一个人,在公司政治中,这个人不经任何妥协就能取得决策影响力是不可思议的...所以,相当相当长的时间内,AI最多作为决策支持工具存在)
特定领域的AI系统- 深度理解特定领域专家技能,如医疗、工程、法律等数以千计的领域。AI最终必须执行专业级的任务,比如管理冲突、设计实验以及谈判
数据安全与信任- 训练数据可能有偏倚、缺漏或被恶意篡改。必须有技术能衡量数据集的熵(entropy of datasets)、确认数据质量和完整性,才能保证AI系统更客观、可靠和精确(面向AI训练需要的数据治理或数据资产管理是一个新方向)。在系统知道用户意图和优先级、解释推理过程并从错误中学习的前提下并能被独立认证的前提下,人们应该信任AI系统(简单地说就是让人类制定AI的游戏规则,且分为一般性设置和个性化设置两层...听起来很不纯粹,有谁具备独立认证认知系统的能力呢?)。
计算基础设施效率的根本性提升- 当AI系统规模化部署,工作负载会给计算带来史无前例的压力,这就需要部署高性能分布式云计算系统。新的计算架构如神经计算、模糊计算,新计算设备如量子计算机和新的存储设备有待突破。(设备和应用的增长带来数据的指数级增长,然而机器算法迭代对计算开销的需求有是指数倍于数据增长的,因此AI大规模部署对计算要求性能的要求已经不是HDFS+MapReduce能胜任的了,需要从芯片到硬件到计算范式的端到端突破)
D-数据
一个制约AI系统发展的主要瓶颈是接入 sufficiently large, openly curated, public training 的data sets。无论是有监督、无监督的机器学习,都需要大量的无偏移数据才能训练准确的模型。
深度学习正在改进语音识别、语言翻译、图像识别和问答能力。每一个AI进步,如视频理解,都需要创建新的数据集。专业领域的任务,如肿瘤识别、保险精算都需要特定而难以获取的数据集。(数据交易的两个细分市场:用于训练模型的数据、用来直接解决问题的数据。AI的应用方向为进一步细分提供了线索,比如数据堂实际上在语音识别问题上扮演了训练数据提供方的角色,这样的细分市场可能有几十个之多)
必须创造激励机制推动数据以及训练模型的共享,比如model zoo这样的机制。已经有ImageNet, Visual Genome, MegaFace, YouTube 8M等项目在促进特定领域数据的开放 ,但确保满足认知计算发展所需的数据仍是重要瓶颈。(算法效率会随着数据量级增加而衰减,因此算法测试基准很重要。例如,MegaFace由华盛顿大学创建,搜集了一百万张图片,代表690000个独特的人。这是第一个在一百万规模级别的面部识别算法测试基准)。
可以预见,一些交易主体或行业协会可能会为它们代表的行业创建Primer的开放数据集。比如,2000年初期, RosettaNet就致力于开发电子商务(e-business)和电子产品的行业数据标准。
数据偏差:以一种开放透明的方式开发数据集对机器学习系统至关重要,但这个问题很复杂。数据偏差通常会包含在数据集内,并且随着训练会变得更复杂。比如,在某种广受欢迎的人脸识别数据集中,就发现了人种数据的错误。照片标签错误地把某些种族标定为动物。如果认知计算系统不能察觉训练集中的错误,就会形成盲点从而导致严重后果。
共享模式:训练数据集的量在增长,所需计算资源则增长更快。从视频数据集中学习一个动作判别模型可能就需要花费几个月。那么,通过诸如Caffe Model Zoo这样的机制共享这些训练模型,将降低研究者的门槛并推动更多的群体加入这个领域。(既然算法会成为竞争优势,仅仅诉诸于开源社区似乎并不足够,算法交易是否存在可能?)
E-大奖赛
多年以来,通过大奖赛等方式激励技术竞争、推动技术扩散都是行之有效的方式。AI领域也需要政府加大这方面的投入。
早在1714年,大不列颠议会通过了第一个此类法案以鼓励测量地理经度的技术,革命性地推动了远洋商业。2004-05-07年,DARPA推出自动驾驶的激励计划,有效拉动了自动驾驶技术的发展,一系列成果已经得到商用。2012年DARPA的机器人挑战计划,正在驱动机器人技术想更加实用的方向发展,尤其是在极端环境下的救援和应急。
一个叫做Burt Rutan’s SpaceShipOne 的DEMO是第一个商用的重复火箭技术,经过8年的激烈竞争获得了Ansari Xprize,对平价航空旅行形成巨大的推动力。同样,IBM今年也设立了500万美元的AI XPrize,用以支持利用AI技术克服世界性的重大挑战。
选择什么样的挑战呢?XPrize通行的标准有两个,一是要求5-8年能够实现的,二是必须存在竞争者。AI领域已经存在大量的攻关项目,一个好主意是选取那些受到研究界和公众共同关注的领域。
F-安全性与控制
要享受AI的益处,首先要信任它。新技术在采纳过程中通常都会遇到这个问题,我们最初可能也不信任ATM机或刹车系统。
我们可以简单说,那些按我们期望去行动的东西是值得信任的。但信任需要一个最佳实践的系统,能指引AI的安全性和道德管理。这是一个包含了社会惯例和价值、算法问责性、遵从现行法律政策和个人信息保护的系统。
IBM正在与整个生态合作开发这一系统(这可能和前面提到的独立认证有关,这是一个一般性设置规范,我认为这是国家科技竞争需要关注的方面。IBM专门有一节讲到发展交叉学科、多学科合作的必要性,主要是指这方面,我没有翻译)。
G-法律与管制
任何具有转型意义的工具都在某种程度上提升了人类的能力,使其更智能(smarter)。作为全球社区的重要力量,IBM尽最大努力确保AI被正确地使用于正确的目的。
认知系统的商业和社会影响日趋显著,承担责任必须成为政策对话的基础。这些话题包括:
算法责任- 对于那些基础性算法的构建工作,尽管有必要保持产权和商业机密的,确立某种实践和协议以建立理解和信任是必要的
个人隐私- 不赘述
劳动力转型- 新的工作机会,以及填补这些机会所需的工作技能
安全性– 保护基于道德标准做出的决策,并确保对自治系统的控制
不要把风向当真相- 鉴于围绕AI过于热烈的讨论,建议政策制定者应该从严肃研究中获取资源,比如ITIF(Information Technology & Innovation Foundation)近期发布的报告。(感谢IBM提供线索,这个机构是专注于技术政策研究的非赢利性智库,被宾西法利亚大学评为美国最权威的科技智库。这个机构长长的赞助商名单里有IBM,但这不影响其中立性。该机构近期两份关于AI的报告分别是 "It's Going to Kill Us!" and Other Myths About the Future of Artificial Intelligence 和The Promise of Artificial Intelligence,IBM说的应该是前者)
聚焦技能-必须教育、训练人们具备高科技技能,这在新时代的数据密集型工作中是必备的。今天的教育系统完全与劳动市场的需求不合拍,需要更新课程表和职业教育计划以胜任认知系统发展后的新工种。
H-商业模式
(OSTP没有专门要求应答商业模式的问题,IBM在Others里面专门表达了这方面的见解——抓住每一个影响政策的机会。但实际上,这部分全部在谈信任的重要性,而非商业模式本身,从中获取Watson业务进展的希望破灭了,但还是全部翻译下来)
接受一个如AI般极具影响力的技术需要高度的公众信任,这很难一蹴而就。会出现挫折,失败可能来自不当使用,也可能来自工具自身的缺陷。社会需要看到AI带来的好处,这样才会觉得承受这些挫折是值得的。
政策环境的进步慢于技术的进步。AI系统被采纳的速度部分取决于商业模式。
截止目前,安全的认知交易平台(区块链、密码总账系统)及被信赖的经济模式(开放的API经济)尚未建立。要成功重构一个以人为中心的系统,是对信任模式的挑战。(这里再次强调AI是一个“people-centered system”,无独有偶,埃森哲2016年技术报告的主题也是以人为本:技术固然是驱动力,但“人”才是未来企业转型的核心力量)
信任经济平台一旦建立,人们将能更好的构建、理解认知系统,并与它们共同工作。认知系统最终将成为某种受信的社会软件组织/生物,具备像狗和马一样的高水平社交智能(social software organisms,这背后也有一篇论文,认为不应采取任何一种单一的测试手段来衡量AI的进展,而应围绕不断增加的参与人类社会的能力来组织多维度测量)。被信任的认知引擎将和工作流引擎一样,显著推动美国和全球经济。
根据1994年认知心理学家Don Norman的著作,知识、技术和组织是三种增强人类能力的方式,工程、社会和管理科学共同扮演了重要的推进角色。从认知工具到助手再到协作者,到教练甚至居中协调者(cognitive mediators),这是一个信任和技术能力共同进步的过程(这里的措辞开始“高调”起来:AI系统现在被人训练/trained,未来可能会成为人的教练coach,以及mediator,这是一个可大可小的词)。
这是值得的。在一个数据成为新自然能源的复杂世界,所有职业的认知助手和所有人的认知中介(仍是mediator一词。这个词在平台研究中也会出现,平台实际上就是一个mediator。如果未来人的认知需要以AI为中介,细思极恐,但应该不是IBM希望表达的意思),将会增强所有人的智力,重构一个以人为中心的认知时代。
信任需要时间,过程中还会出现错误:19世纪的人们并不相信蒸汽机和电饭锅,因为它们会意外地爆炸。设计和工程水平都随着时间进步,巨大的经济潜力被释放出来。一个更近的例子是核能,尽管它有利于降低温室气体,但从未获取过充分的信任,很多国家正在削减核能发电计划。
就现在而言,人们可能不愿意信任各种形式的AI,或者担忧其社会影响,或者受到一些故事的影响,比如tesla和google自动驾驶的“失败”。事实是,出事故的Tesla以一种有违公司推荐的方式在操作,而Google的事故应归咎于周边由人驾驶的车辆。
信任其实是一种社会构建(a social construct)。正如Thomas theorem所说:人们定义一个情形为真,那么它就是真(“if [people] define situations as real, they are real in their consequences”. )。通向AI的信任之路需要定义一些其他的因素:算法透明性、开发性、清晰的治理架构、技术道德应用和风险管理。这需要产业界、学术界和政府齐心协力。
附件:IDC全球认知计算市场预测
作为技术视角、社会视角的补充,下面整理自市场研究机构IDC对认知计算全球市场的预测。
IDC于27日发布一份报告,对全球认知计算/人工智能的企业支出做了预测.
对于人工智能/认知计算的描述与IBM趋同,报告中的一句话正确地指出了其价值主张:
利用算法和基于规则的逻辑来识别和处理数据流,实现跨行业的功能自动化
通稿披露的数据整理如下
整体:从2016年近80亿美元到2020年470多亿美元,CAGR为55.1%;上述数据包括软件、硬件和服务,其中软件支出占比接近一半
区域:北美区域投资总额最大,2016年接近61亿美元;日本增长最快(115%),亚太(除日本)区域增长64%
行业:16年银行、零售、医疗和离散制造四大行业贡献整体收入一半;未来增长最快的行业则是医疗(69%)和离散制造(61%);教育和连续制造业也会快速增长
产品类别:认知应用软件支出最大,增长也最快,2020年达182亿美元;认知计算专用硬件和软件(应用+平台)的增长率都是60%;服务&咨询收入规模第二大,但增长相对较低
用例:2016年吸引投资最多的包括自动客户服务代理、质量管理调查和推荐系统、诊断和治疗系统、欺诈分析和调查。未来五年收入增长最快的包括公共安全和应急响应、药物研究和发现、诊断和治疗系统、供应和物流、质量管理调查和推荐系统、车队管理。