澳门太阳城

[计算技术]基于内存计算技术的人工智能芯片问世

  (科技日报东京5月26日电)

  在此期间,富士通通过量子现象设计的应用数字电路的“最佳组合问题”,开发出了全新概念的 “数字退火”量子计算,2018年5月15日开始提供云服务。“最佳组合”在解决新药开发、金融、流通等各个领域问题的同时,新生出众多的商机。

  富士通成功研发“数字退火”计算机。这台计算机运算速度惊人,日本目前最快的超级计算机“京”需要8亿年时间才能完成的运算,“数字退火”计算只需一秒即可完成。其神奇的运算速度已不能用每秒多少次运算来表述。

  说到“数字退火”技术,很多人可能还感觉陌生。科技日报记者就“数字退火”技术采访了富士通宋志毅博士。宋志毅参与了“京”和“后京”超级计算机的设计和总装,同时也是“数字退火”计算机的研发者之一。

  “数字退火”首先实现了第一代1024比特云服务,第二代DAU的精度和规模更高,能够解决金融等领域高精度要求和化学等领域大规模计算问题,适用领域更大。

  富士通第一代“数字退火”计算机已开始提供云服务。2018年下半年开始开发更高性能的第二代DAU“数字退火器单元”(Digital Annealer UNIT)并可以将此系统的软硬件直接提供给客户自己使用。目前正在开发DAU并列的大规模并行处理技术。2019年度将实现100万比特规模的问题解决能力。

  宋志毅:“数字退火”是受量子现象启发的数字电路,模拟量子退火的量子计算机,能够瞬间解决目前通用计算机难以解决的“组合优化问题”的一项新技术。其特长是规模应对8192比特,通过所有比特组合,使用方便,具有64比特、64位灰度的高精度,数字电路在常温下稳定运行。

  今日视点

  宋志毅:“数字退火”的量子现象,是 “0”和“1” 两个不同状态同时出现的称为“叠加”的现象。通过使用基于该现象的“量子比特”机制,演算速度实现了飞跃性提高。“数字退火”在数字电路上再现了“量子比特”机制。“数字退火”在各种量子计算机技术中,属于退火方式的计算机。退火方法是一种专门用于组合优化问题的方法,但其操作速度快,使用非常简单。不需要像传统计算机那样进行编程,只需通过设置参数即能执行计算。

  宋志毅:人工智能(AI)有三大支柱技术支撑,即高性能计算机(HPC)、深度学习和“数字退火”。富士通在高性能计算机领域有开发超级计算机“京”的经验,现正在开发“后京”超级计算机。在深度学习领域,2018年开发了专用处理器DLU。在“数字退火”领域,开发出了“数字退火”量子计算技术。有了这3个重要技术,富士通正在构建这3个重要基础技术相互关系的解决方案。

  介于超级计算机和量子计算机之间

  宋志毅博士与“数字退火”计算机。本报记者 陈超摄

  “数字退火”优势在于利用现有的半导体技术制造,不需特殊的冷却装置即可实现在常温环境下稳定工作。“数字退火”在组合优化问题上飞速进步,可以解决需要大规模计算和高精度的各种实际组合优化问题。

  通用计算和下一代计算的桥梁是“数字退火”。在下一代计算的量子计算机尚未实用化之前,世界上超级计算机研究者们正在展开激烈竞争。但量子计算机能够解决各种现实问题的实用化尚需时间。

  “数字退火”通过8192比特规模全组合,是唯一解决了“组合优化问题”的实用化计算机。对于在实用方面仍有很多难以克服问题的量子计算机,应用数字技术的优势,把量子计算机的优点用数字电路再现,实现了早期实用化。

  “数字退火”量子计算是介于超级计算机和量子计算机之间的全新构架计算模式。

  第一代“数字退火”计算机已开始提供商用服务,第二代也于今年初问世,可望近期投入商业运营。

  科技日报:“数字退火”如何快速解决复杂计算问题?

  “数字退火”计算机的心脏“DAU”芯片

  科技日报:“数字退火”技术是何方神圣?

  实现演算速度飞跃性提高

  将实现百万比特规模的问题解决能力

  科技日报:“数字退火”技术处于什么地位?

  人工智能系统的新型计算机芯片问世。

  经典计算机体系结构将处理数据的中央处理器与存储数据的内存分离,很多计算机的能耗用于来回转移数据。新芯片考虑在架构级别而不是晶体管级别来突破摩尔定律的局限。但创建这样一个系统面临的挑战是,内存电路要设计得尽可能密集,以便打包大量数据。

  研究团队使用电容器来解决上述问题,电容器可比晶体管在更密集的空间内进行计算,还可非常精确地制作在芯片上。新设计将电容器与芯片上的静态随机存取存储器(SRAM)的传统单元配对。电容器和SRAM的组合用于对模拟(非数字)域中的数据进行计算。这种内存电路可按照芯片中央处理单元的指令执行计算。

  该芯片基于内存计算技术,旨在克服处理器需要花费大量时间和能量从内存中获取数据的主要瓶颈,通过直接在内存中执行计算,提高速度和效率。芯片采用了标准编程语言,在依赖高性能计算且电池寿命有限的手机、手表或其他设备上特别有用。

  研究人员表示,对于许多应用而言,芯片的节能与性能提升同样重要,因为许多人工智能应用程序将在由移动电话或可穿戴医疗传感器等电池驱动的设备上运行。这也是对可编程性的需求所在。

  实验室测试表明,该芯片的性能比同类芯片快几十到几百倍。研究人员称,其已将内存电路集成到可编程处理器架构中。“如果以前的芯片是强大的引擎,新芯片就是整车。”

  通过改变计算的基本属性,美国普林斯顿大学研究人员日前打造的一款专注于人工智能系统的新型计算机芯片,可在极大提高性能的同时减少能耗需求。

  普林斯顿大学研制的新芯片主要用于支持为深度学习推理算法设计的系统,这些算法允许计算机通过学习数据集来制定决策和执行复杂的任务。深度学习系统可指导自动驾驶汽车、面部识别系统和医疗诊断软件。

  第一个版本将用于在办公环境中规划和模拟医疗程序,以便医务人员能够会面并讨论介入程序。这将进一步扩展,允许外科医生和其他临床医生将虚拟成像与手术室、放疗治疗室、重症监护病房和放射科的物理环境相结合。

  这一合作项目的目标是让外科医生和其他临床医生能够可视化和访问医学影像数据。

  Magic Leap在关于合作的官方网站上表示:“医疗技术的进步很可能是全球范围内影响人类的最重要的进步。无论这意味着治疗罕见疾病的新药物,还是帮助缓解疼痛或停工期的新手术切入点,医疗专业人士几乎可以一致同意,把病人放在第一位是他们的终极优先事项。通过帮助病人更好地看到和理解他们的诊断,并允许医生探索人体的细节,这是前所未有的,我们希望彻底改变医学的实践方式。

  正如之前在智锋号之前报道的那样,虚拟现实(VR)和混合现实(MR)在医疗保健领域有很多应用。其中一个比较有趣的领域是磁共振成像技术的应用。Magic Leap的目标是通过与德国医疗技术公司Brainlab合作,涉足这一领域。

  Magic Leap和Brainlab将创建一个操作系统,将Brainlab的数据管理、云计算、可视化和数据预处理与Magic Leap的空间计算和体验平台相结合。

  Magic Leap最近开始推出其首个实体产品——Magic Leap One Creator Edition混合现实耳机,以及配套的电脑包。该公司还与一些领先的公司和品牌建立了合作关系,包括Sennheiser和欧洲乐队Sigur Ros。

  我前面讲过,传统计算已经形成了软硬件抱团竞争的垄断态势,但是智能计算当前的态势是,软硬件还相对独立,尚未形成软硬一体抱团竞争的垄断局面。

  三,从事技术平台和处理器芯片的企业数量比较少。无论是在计算基础平台还是处理器芯片研制上,我们的企业占的比例都较少。

  雷锋网

  这一次人工智能的兴起有一个重要特点。前两次更多是由学术主导,学术界呼吁政府和投资人投资。而本次主要是商业主导,政府和投资人主动向热点领域投入。可以说,这一次的兴起是人工智能技术真正与产业结合,飞入寻常百姓家。

  长期从事高性能计算和分布处理领域研究工作。1970 年代,参加远望一号测量船中心计算机研制;1992 年,负责研制成功银河-Ⅱ巨型机高速网络软件系统;1994 年,负责研制成功「银河仿真Ⅱ计算机」系统软件,设计了集成化仿真软件环境,提出直接映象优化技术,解决了系统前端机和仿真主机间的强实时通信问题;1997 年,主持研制成功「银河-Ⅲ并行巨型计算机系统」,组织攻克了可扩展大规模并行体系结构、高速互连网络、巨型机操作系统等关键技术;2000 年,主持研制成功银河超级并行计算机系统,组织攻克了基于超结点的分布共享存储(CC-NUMA)体系结构、高可扩展拓扑互连结构、层次式并行编程环境等关键技术;2004 年,主持研制成功国家 863 重点攻关项目「高性能核心路由器」。

  在会上,卢锡城院士带来了以《夯实计算基础,方能行稳致远》为题的演讲。在演讲中,他回顾了计算机技术的发展历史以及我国的发展情况。以史为鉴,我们在传统基础技术平台上的进展已经落于人后,现在,我们要紧握智能计算带来的创新发展机遇,打破垄断,引领创新。

  电子计算机诞生 70 多年了,这 70 多年来,计算技术追求的目标主要有两点:第一,算得更快,这主要靠系统硬件技术进步;第二,使用更方便,这主要靠软件系统技术进步。

  雷锋网 AI 科技评论按:2019 年 5 月 17 日下午,天津世界智能大会专题论坛「新一代人工智能核心技术及治理高峰论坛」在天津梅江会展中心举行。本次论坛由科学技术部战略规划司、中国工程院三局指导,天津市科学技术局主办,东丽区人民政府、新一代人工智能产业技术创新战略联盟共同承办。会议围绕国家新一代人工智能核心技术为讨论方向,探讨了人工智能发展现状与未来技术趋势。

  我想谈的第三点是夯实基础、防止重蹈历史覆辙。现在人工智能非常热,人工智能发展也很快。

  第一,不再是单打独斗,而是利益相关者的抱团竞争。

  我国应用需求旺盛,应用成果多。2016 年,中国数字经济居全球第二,占 GDP 比重超 30%,互联网应用发展非常好。2018 年,中国人工智能企业数量在全球排名第二,是全球人工智能投融资规模最大的国家之一。

  智能计算也对体系结构提出了新的要求。比如,在云侧的模型训练需要高效能大规模并行计算能力的支撑。特别是学习模型参数多,数据规模大,计算量大的时候。比如涉及到 80 多亿个参数的机器翻译神经网络模型,这种大型模型的训练,即使在现在的大规模计算平台上,有的也需要几个月的时间。

  在美国对中国实行技术封锁的当下,卢锡城院士的发言引人深省。以下为卢锡城院士的演讲内容,雷锋网 AI 科技评论编辑整理如下,有删减。

  端侧的推理应用需要小型化、高能效、低时延、传感-计算-通信融合的体系架构支撑。无人机/无人车/机器人等诸多设备,对时延要求非常苛刻。

  我要谈的第二点是智能计算带来创新发展的机遇。大家都把这一次人工智能的兴起归结为深度学习+大规模计算+大数据(算法、算力、数据)。2006 年被视为深度学习元年,虽然神经网络概念较早就提出来了。深度学习之所以成功的重要背景是,计算能力达到了可实用要求,互联网的发展又带来了大量可用的数据。

  回顾我国传统计算发展历程,可以分两个阶段。

  智能计算的特点

  在云侧,如果用来推理应用就需要高吞吐率、低延迟的服务计算模式支撑,满足海量并发推理任务的服务质量要求,对海量在线用户的快速实时响应。

  同时,各公司纷纷开源智能计算软件框架,当前的态势是群雄竞争,谷歌领跑。

  互联网时代,一个领域经过一段时间的竞争,最后往往出现一两个计算生态垄断的格局。

  五,我国自主智能计算软件框架的影响力与国际相比存在较大差距。聚集在上面的第三方应用少,以自用为主。从 Github 活跃度上可以看到,百度 PaddlePaddle、腾讯 Angel、阿里 X-DeepLearning 与谷歌 TensorFlow 等差距较大。

  在基础领域,我们也取得了可喜的成果。我前面提到,在传统领域,比如芯片技术上,特别是在微处理器阶段,我们的落后导致我们的基础必须要依靠别人。而现在围绕智能芯片的研发,2018 年,中国有 7 家企业进入全球排名的前 24 名。智能计算软件框架,中国企业也有领头,比如百度的 PaddlePaddle、腾讯的 Angel、阿里的 X-DeepLearning 等。我们有很好的起点。

  第二,生态的核心是基础平台,或者说是研发平台的相关企业。

  在云侧,计算机产业几大优势企业正在竞争主导地位,比如谷歌的定制专用智能芯片 TPU,英特尔和微软试图采用 CPU+FPGA 争夺市场,华为发布专用智能芯片昇腾 910。

  四,应用开发主要基于国外智能计算软件框架之上。

  我国人工智能发展面临大好机遇

  这里做出小结。

  对于如何应对,我觉得有如下几点思考。

  第三,规模的应用是整个生态发展进步的动力,技术的转轨可以来创新发展的机遇。

  二,努力探索新型体系结构。比如分析人工智能计算特点,凝练高效人工智能计算指令集;面向智能计算的高速互联拓扑;存算一体、算通融合、异质异构计算架构;适用 AI 其它模型的体系架构,如图计算、规则推理等。此外,还有探索高效好用的智能计算的软件生态,比如智能计算软件框架,包括高效语言编译、基础算法库等等,努力打造软硬一体的智能生态计算。

  二,短板明显。智能芯片产品主要面向推理,云侧训练芯片竞争能力弱,高性能 GPU、FPGA 仍依靠引进。

  我们应抓住自主、创新的发展机遇

  人工智能应用对基础软硬件平台技术提出了很大的挑战,目前智能计算的生态尚未形成垄断的态势。正因为这样,就给我们创造了机遇,要抓住自主、创新发展智能生态计算的机遇期。智能计算还有很多理论性的难题有待攻克,谁能在这些难题上率先取得突破,谁就有可能牵引新结构体系的发展。

  人工智能,或者说智能计算也存在生态问题。智能计算分为两个相对独立的阶段,一是训练学习阶段,二是推理应用阶段。智能计算平台可以分为两大类,一个是「云侧」平台,解决模型的训练(学习)以及海量智能信息服务(推理)问题,一个「端侧」平台,百花齐放,主要解决推理应用。

  计算生态竞争的特点

  纵观每一次计算技术的转轨,都会发现可能会引发行业的洗牌。有的企业抓住了机遇,就发展为新的产业巨头,比如英特尔抓住微处理器发展的机遇;有的与时俱进,开拓了新的发展领域,比如 IBM 的大中型机、PC 机、云计算;有的未适应这种技术转轨,就可能退出了相关领域,如摩托罗拉、诺基亚。

  我国人工智能计算发展面临一个很好的机遇。

  当时我国发展计算机的原则是:借助外援而不依靠外援,坚持独立自主引进技术,不单纯购买机器,有步骤地发展我国计算机事业。

  第一,使能技术、基础平台,决定了自主发展的基础能力。

  同时,我们也拥有一支实力强的科技队伍。AI Index 2018 显示,我国在人工智能领域发表论文的数量已经超过美国。人工智能领域的专利申请排名前十的国家,中国也是排在第一。

  早期是单个计算机系统的竞争,可以说是一种型号、一种体系结构、一套应用软件,这时候软件依附于硬件,用户更换计算机型号的时候要移植已有的应用软件。

  卢锡城,1946 年 11 月 13 日出生于江苏省靖江县,计算机专家。1970 年毕业于哈尔滨军事工程学院,1982-1984 年,在美国麻省大学进修计算机专业。曾任国防科学技术大学副校长、原总装备部科技委副主任兼秘书长等职。

  在端侧,各大公司纷纷推出 ASIC 芯片架构,ARM、英特尔、苹果、高通等企业在芯片上做出了很大的努力,中国企业的典型代表有华为、寒武纪、比特大陆。

  严峻挑战

  到中期,变成了计算机系列的竞争,这是由 IBM 360 系列开始的,时间是 1964 年。这时候,系列内不同型号向下兼容,当用户升级型号的时候,已有的应用软件在原则上可以不用变化。

  系统软件技术的进步也得从如下方面努力:一是优化系统资源管理,提高资源利用效率;二是提供友好的人机交互方式,这主要是靠操作系统来做;第三是发明面向领域应用的编程语言;第四是丰富应用开发环境,这里包括软件工具、编程库、中间件等。

  回顾这段历史,我想有如下几点启示:

  一,学术界要面向智能计算挑战问题,加大国内外合作,持之以恒,以基础理论、计算模型和算法上的创新突破,牵引体系结构的创新。

  二,产业界要推进产业联盟(芯片、平台、应用商),发挥既有骨干企业优势,构建上下游协同的产业链,集中力量打造我国有竞争力的智能计算生态。关键是集聚应用、滚动发展、形成规模,规模越大,生态会越稳定。

  一,大家都在积极探索高效智能处理芯片体系结构及实现技术。例如传统通用芯片、FPGA 半定制芯片、全定制芯片或者类脑芯片。

  总体上来讲,专用的 ASIC 芯片具有一定优势,测试表明,专用 ASIC 的能效比(性能/瓦)明显优于 CPU 和 GPU,同时,ASIC 芯片发展前景也比较好,预计 2025 年市场规模将超过 CPU 和 GPU 的总和。

  一是在电子管、晶体管中小规模集成电路时代。我国元器件与国际相比有差距,但是还不太大,是量上的差别。当时完全是基于国产的器件研制计算机的硬件系统,同时自行研制软件系统。比如 1964 年哈军工研制的 441B-I 型通用计算机,就是全国产晶体管。1979 年,国防科大研制成功的 151-IV 型大型通用计算机,全部采用国产中小规模的集成电路(全部器件自主设计、定型、生产),用于远望一号测量船的中心数据处理。

  第三,平台越早进入市场,就越容易占领先机,定下生态发展的主旋律。

  四是教育部门要合理部署多层次人工智能领域人才培养,在人工智能领域,从当前来看,虽然大家都很重视,但无论是人才总数还是基础人才数量,我国和国际存在很大差距。

  智能计算模式相对比较少,精度要求相对低。深度学习算法集中在一些相对固定的操作模式,如向量、矩阵运算,在训练阶段,单精度(32 位)或者半精度(16 位)就可以了,在推理阶段,甚至可以到低值、二值。此外,智能计算可并行度高,目前神经网络同一层的计算可以完全并行,而且很多是规则的大数据流并行。

  第四,平台上承载的内容越丰富,生态规模越大,就越容易吸引用户,应用越多就发展越快,生态系统就会越稳定。

  以史为鉴,计算技术发展的回顾

  当前智能计算技术发展态势主要有如下特征。

  当集成电路进入超大规模时代,我国在微处理器技术方面出现了质的差距。为满足发展需求,1981 年以后国家允许进口配套的器材来组装系统或者直接引进计算机系统来解决应用需求,这样基于引进的微处理器设计系统或者集成引进系统来做开发应用,就成为主要路径。由于系统硬件退出了核心技术,系统软件也就失去了发展动力,大部分学校也把人才培养转向了计算机应用专业。特别是出现了软硬联盟、抱团竞争的计算生态垄断以后,我国几次努力都未能改变传统基础计算平台发展的被动局面。

  计算竞争形态的演变

  第二,模型和算法创新,能够牵引体系结构的变革。

  智能计算技术发展态势

  除了以上几点,最大的挑战是,虽然我国软硬件研发能力已有质的提升,但研发产品的竞争力仍然不强。如果我们不抓住机遇,夯实基础,下大力气去打造有竞争力的抱团竞争的智能计算生态,仍然只是注重近期效益,发展应用,我们就有可能重蹈传统计算产业的覆辙。一旦在人工智能领域、智能计算领域也形成若干个这样的垄断生态,那我们又要变得被动。

  最后,我想用这么一句话来总结今天的报告,前事不忘后事之师,只有夯实基础,才能够行稳致远,谢谢大家!

  一,原始创新能力不足。我们的研究跟踪多、创新少,量有优势、质量上明显不够。

  如何应对目前的艰难局面

  到了网络时代,是计算生态的竞争。计算基础平台,包括系统硬件和系统软件,以及平台上承载的利益相关的技术和服务商提供的产品集合,总体来讲形成了一个竞争的计算生态。

  智能计算对体系结构的要求

  系统硬件技术的进步得从两方面努力,一是发明新器件,器件(逻辑器件/存储器件)是计算机的基础,可以说是一代器件一代系统。二是创新体系结构,即创造适合应用特点的高效体系结构,随着芯片技术的发展,又存在微体系结构和宏体系结构的创新。计算模型和算法的创新,催生了体系结构的创新。

  智能计算带来创新发展的机遇

  计算生态竞争和传统的单个计算机系统及计算机系列的竞争有不同的特点。

  获「国家科技进步一等奖」4 项,2 项为第一完成人;「国家科技进步二等奖」2 项,1 项为第一完成人;1996 年获光华科技基金一等奖、1999 年获军队重大专业技术贡献奖、2000 年获何梁何利科技进步奖、2005 年获湖南省首届科学技术杰出贡献奖等。荣立一等功 1 次、三等功 3 次。

  三,管理部门要综合施策。一是激励骨干企业加大对基础平台的投入;二是引导学术界、企业、应用部门基于自主计算生态做研究和开发;三是成立智能产业发展大基金,市场和政府协同,以目标为导向,推动产学研联合。特别是要关注当前的一些小微创新。

  但是我们也面临着严峻的挑战。

  我国传统计算发展历程

  夯实基础,防止重蹈历史覆辙

  2 主要技术方向:全同态加密、安全多方计算与零知识证明

  零知识性。在验证过程结束后,验证方不会得到任何有关关于数据的信息。

  同态加密自身也存在一定局限性。同态加密的所有中间结果都是加密的,因此服务器不能对中间值做出任何决策,也就是说需要计算所有的条件分支,因此只能将所有操作都包含到函数中,增加了函数复杂性,并会造成性能损失。

  隐私计算技术是密码学的一个前沿发展方向,填补了数据在计算环节隐私性问题的空白,将基于密码学的信息安全体系打造成完整的闭环,为云计算、分布式计算网络和区块链等技术的应用提供隐私性基础。本专题将简述隐私计算技术,并分析其起源、技术方向与应用前景。

  当代密码学起源于1977年,Ron Rivest,Adi Shamir和Leonard Adleman发明了非对称式加密(又称公开密钥加密)算法RSA。RSA利用了目前计算机分解素因子运算难度的不对称性,设计了公钥用于加密、私钥用于解密的公钥加密体系,私钥不会出现在数据传输环节,极大提高了加密数据传输的安全性。RSA算法发表于1977年4月3日,犹太民族的逾越节,如摩西出埃及一般,人类的加密技术突破了长期以来的瓶颈,到达了新的阶段。

  密码学通过数学理论将数据转化为密文状态,无私钥不能读取其内容,解决了不安全环境下隐私存储与通信的问题,但在使用环节存在空白。到了信息的使用环节,在通讯和存储过程中处于加密状态的数据就不得不进行解密以用于查询和计算。所以,基于密码学的信息加密体系在使用环节是存在空白的,目前尚不能构成闭环的加密系统。当信息拥有者不得不提交数据使用第三方服务时,他就面临着信息泄露的风险,其他环节的加密状态也就失去了意义。针对这种情况,学术界开展了加密状态下进行数据计算的研究,也就是我们所说的隐私计算。

  稳定性。如果证明方没有拥有特定的数据,那么诚实的证明方几乎不可能通过验证。

  分布式计算网络能防止云计算寡头垄断计算资源。云计算的规模效应非常明显,发展到后期必然形成寡头垄断格局,人们的使用习惯形成后,这些企业将提高价格,获取高额垄断利润,公众难以充分享受到效率提升所带来的利益。分布式计算网络不同于云计算,是对存量计算资源的利用,个体不放弃对计算资源的所有权,只是在网络上进行互助与资源共享。企业可能持有较高的计算能力,但与分布式计算网络所整合的人类全体计算设备的力量相比,很难形成垄断性的优势。任何企图获取垄断利润的行为,都是与全世界的算力作对,不具备经济合理性。

  与原始数据直接运算结果相等。常见的非对称加密算法RSA、ECC都是加法同态的。

  摘要

  安全多方计算主要目的是解决互不信任的参与方在保护隐私的前提下协同计算的难题。现实世界中,会经常出现一些协作情景下,计算参与方希望运用他们的数据得到某些结果,但不愿意把自己的数据透露给其他人的情况。安全多方计算的设计理念满足了现实经济合作中参与方希望得到合作利益却不希望被泄露自己数据的客观需求,具有较大的潜在市场空间,其主要应用领域包括电子选举、电子拍卖、资产托管等。

  1978年Ron Rivest、Leonard Adleman 和Michael L. Dertouzos提出了同态加密问题,并在同年提出了满足乘法同态的算法RSA。在此之前,密码学研究关注的都是数据在存储和传输过程中的静态安全,而同态加密问题的提出将加密技术的研究从静态引向动态,是理论上的巨大革新,也开创了隐私计算的先河。

  正文

  计算服务请求者在收到计算结果后进行解密,获得的结果:

  目前,隐私计算技术效率较低,实际的商业应用较少。随着技术的不断发展,云计算、区块链乃至分布式计算网络逐渐走入了人们的视野,人们对数据安全的重视为隐私计算的应用提供了迫切需求。隐私计算在安全云计算、分布式计算网络和加密区块链三个方向将有较广的应用前景。

  同态原本是抽象代数中的概念。用加密函数f表示从原始数据M经加密得到密文S的过程,f^(-1)表示其逆运算,即解密过程:

  全同态加密是相对基础性的隐私计算技术,潜在应用范围较广。全同态加密技术实现了密文的直接运算,解决了计算合作中的隐私问题。通过全同态加密,计算资源的需求方可以将涉及隐私的数据以密文状态发送给云服务器或计算公司等非可信的第三方并完成计算,不需要担心任何的信息安全问题。

  3 应用前景

  2.2 安全多方计算

  3.1 安全云计算

  全同态加密算法则是指给定任意一种运算规则,可以通过算法构造出对加密数据的相应运算规则,并满足同态性要求。

  除了结果的正确性和输入的隐私性外,安全多方计算协议还要保证参与方之间的公平性。即计算结果只能所有人都得到或都得不到,以应对攻击者可能的提前终止行为。

  云计算极大的提高了算力资源的利用效率,市场规模增长迅速,具有广阔的发展前景。随着信息技术的发展,网络通信速度和服务器计算能力逐步提高,云计算产业发展迅速。一方面,云计算服务通过出租计算资源的形式,避免了个人和企业重复购买硬件设备的资源浪费,人们可以不再拥有很多使用频率较低的硬件,转而租用随时待机的线上计算资源,服务提供商的硬件也可以保持极高的使用率,提高了资源配置的效率;另一方面,云计算服务提供商拥有大量的计算硬件,可以为这些设备提供适宜的运行环境和及时的维护,数据中心的建设将极大降低单位计算资源的成本,发挥规模效应。云计算的这些优势使其近年来高速发展,目前已经形成约2602亿美元的市场规模。云计算技术受到了各行业的普遍认同,具有非常丰富的应用场景和广阔的发展空间,将会极大地改变计算资源的利用方式。

  1982年,华人图灵奖得主姚期智开创性的提出的百万富翁问题,引入了多方安全计算概念。姚期智在他的论文《Protocols for Secure Computations》中提出了百万富翁问题,即两个百万富翁在没有可信第三方、不透露自己的财产状况的情况下,如何比较谁更富有。

  附注:

  就称该加密函数f满足对运算“+”的同态性。这里的“+”表示一种抽象的运算规则,它可以是我们熟知的加法、乘法等等。

  经过学界的不断研究和发展,以全同态计算、安全多方计算和零知识证明为代表的隐私计算取得了一定的成果,也成为了密码学研究的热点问题之一。

  风险提示:技术存在瓶颈,落地应用不及预期

  2 主要技术方向:全同态加密、安全多方计算与零知识证明

  特别顾问:沈波;Rin;JX

  文:宋双杰,CFA;孙含儒;吴振宇

  随着信息技术的不断发展,数据逐渐成为政府、企业与个人的重要资产,其发掘、存储、处理与使用变得愈发重要,逐渐产生了隐私性需求。数据科学的发展使数据的应用场景不断扩展,相应的合作也开始涌现,隐私性问题也随之而来。例如,企业可能需要使用合作方的数据以形成某种判断或结果,而合作方并不愿意将自己的数据完全交给他人,企业同样不希望自己的查询条件或分析方法被合作方得知;使用云计算资源时,使用者也希望自己的数据和运算方法能够保密,然而现实中却不得不将内容全部上传,从而面临泄露的风险。随着云计算和区块链的发展,隐私计算的需求愈发涌现,这一结合了密码学和计算科学的前沿领域再次受到了大家的关注。

  Craig Gendry、Amit Sahai和Brent Waters于2013年发表GSW13算法,进一步优化了同态乘法算法。目前主流的全同态加密计算系统均使用后两类加密算法。

  隐私计算的效率相比常规计算更低。隐私计算与区块链的结合,将解决数据可验证性与隐私性的问题,极大地拓展区块链的使用场景。但走向商业落地仍需要有硬件计算能力或技术突破。

  3.3 加密链上数据与隐藏交易信息

  安全多方计算的局限性有:效率较低;无法保证参与方输入的真实性。无法阻止参与方恶意构造输入,并从结果推测其他人的输入。

  隐私计算技术是密码学的一个前沿发展方向,填补了数据在计算环节隐私性问题的空白,将基于密码学的信息安全体系打造成完整的闭环,为云计算、分布式计算网络和区块链等技术的应用提供隐私性基础。本专题将简述隐私计算技术,并分析其起源、技术方向与应用前景。

  1 隐私计算:加密技术的另一维度

  2.2 安全多方计算

  隐私计算为分布式计算网络提供了信息安全的保证。分布式计算网络很可能会以一种点对点的形式存在,节点间直接进行计算资源的分配,其中的安全问题尤为重要。这样的形式下,数据将直接从计算资源的需求节点发送到不受信任的提供节点,数据安全相比云计算会面临更大的挑战。如果可以使用隐私计算,就可以从根本上解决分布式计算网络的信息安全问题,用户一方面可以安全地使用他人的计算资源,另一方面也可以在不公开数据的前提下进行计算合作,将极大的丰富分布式计算网络的应用场景。

  但是,使用云计算服务不可避免地牺牲隐私性。目前在使用云计算服务的过程中,用户数据以明文的形式存储在云服务提供商处。一方面,数据会不可避免地被云计算提供商获取,虽然有相关法规保护,但普通用户在与寡头企业的博弈中始终处于不利地位;另一方面,虽然有安全措施,但是云端服务器上的数据仍然有可能被内鬼和黑客获取。云计算虽然提高了计算资源的使用效率,但数据安全性无法得到保障。

  安全多方计算解决如何在参与计算的各方不泄露自身输入、且没有可信第三方的情况下安全地计算约定的函数并得到可验证结果的问题。安全多方计算主要解决的主要目的是解决互不信任的参与方在保护隐私的前提下协同计算的难题。其自身同样存在局限性,不能保证参与者的诚实度,也无法阻止参与者恶意输入。

  本文为通证通研究院( ID:TokenRoll )原创。未经授权,禁止擅自转载。转载请后台回复关键词【转载】

  安全多方计算还有如下应用场景:将一个需要加密的密钥K拆分为n个不同的部分,保管在不同参与方,各方都不知道其他人保管的那部分。利用这n份中的任意至少t个部分(2

  完备性。如果证明方和验证方都是诚实的,证明方确实拥有特定的数据,那么验证一定通过。

  20世纪80年代,MIT研究员 Shafi Goldwasser、Silvio Micali 和Charles Rackoff 提出了零知识证明的概念。零知识证明涉及两个参与方:证明者和验证者。它的目的是解决如下问题:证明者如何向验证者证明自己拥有某一特定的数据,但证明过程不能透露任何有关该数据的信息。

  2.3 零知识证明

  因一些原因,本文中的一些名词标注并不是十分精准,主要如:通证、数字通证、数字currency、货币、token、Crowdsale等,读者如有疑问,可来电来函共同探讨。

  隐私计算可以让数据在云计算过程中保持加密状态,避免被服务提供商和其他第三方获取,极大地提高了云计算过程中的数据安全。传统密码学无法在数据计算环节保证安全性,而隐私计算技术填补了这一空白,使得包括云计算在内的各种数据合作变得更加安全和隐私。机密数据可以通过全同态加密算法交由云计算服务商计算,而无需直接传输明文数据。通过安全多方计算,数据拥有者之间可以放心地进行合作计算,而无需担心自己的数据会被合作者或第三方获取。隐私计算将极大的扩大云计算的应用场景。

  目前阶段,密码学层面的隐私计算主要有全同态加密(Full Homomorphic Encryption,FHE)、多方安全计算(Secure Multi-Party Computation,sMPC)、零知识证明(Zero-knowledge Proof)三种主要的技术方向。此外,还有可信执行环境、不可区分混淆等方向。本篇专题将解析全同态加密、安全多方计算与零知识证明,并分析它们的优势与不足。

  1 隐私计算:加密技术的另一维度

  零知识证明是密码学的高级应用,但并不是所有问题都可以通过零知识证明算法进行验证。Goldreich, Micali和Wigderson证明了,多项式时间内可以验证解正确性的问题(NP问题)一定存在零知识证明算法。

  目录

  通证通研究院 × FENBUSHI DIGITAL 联合出品

  2.3 零知识证明

  如果原始数据S1、S2之间可以进行某种运算“+”,并且运算结果仍然是可以被加密函数处理的,此外还满足

  现有的解决方案效率损失较大,尚不能大规模商业应用。目前,已经有一些算法相对Gentry最初的算法有了一定程度的改进,如Smart等人提出的BGV算法放弃了Bootstrapping而采用换模技术与私钥交换技术,一定意义上取得了突破,是目前效率最好的全同态加密算法。但是,从绝对性能来看,当前全同态加密算法的效率还是非常低的,同样的运算所消耗的计算资源大约要比明文高6个数量级。因此,全同态加密仍是一种处于研究和实验阶段的技术,尚不足以商业应用。未来,全同态加密技术的落地一方面有赖于更高效率算法的出现,另一方面也将受惠于设备计算能力的提高,可能将从关键性数据开始逐步应用,最终扩展到更多的计算场景。

  3.1 安全云计算

  3.2 分布式计算网络

  隐私计算在云计算、分布式计算网络和区块链三个方向有广阔发展前景。隐私计算可以让数据在云计算过程中保持加密状态,提高了计算过程中的数据安全。隐私计算也使隐私数据上链成为可能,并且同样通过区块链技术确保其可验证性。

  零知识证明是证明者在不透露隐私数据的情况下,向任意第三方证明自己确实拥有特定数据的算法。多用于匿名区块链隐藏交易细节,实现匿名性。

  在非对称加密中,已经出现类似零知识证明的概念。如果某人需要证明他确实是某一特定私钥的持有者,他可以让验证方随机生成一个数字,自己用私钥对数字进行签名。如果该签名可以被对应的公钥验证,那么证明通过。在整个过程中,持有者的私钥不会被泄露。但由于公钥和私钥是一一对应的,只要完成了这个验证过程,第三方很容易将私钥持有者和公钥对应起来。

  对数据隐私的担忧限制了智能合约的应用范围。运行在区块链上的智能合约将区块链带入了2.0时代,实现了支付结算以外的诸多功能。但是,智能合约链上运行带来的可信性同样要以牺牲隐私性为代价,所有的处理记录都可以在区块链上被查找,其应用范围也会受数据敏感性的限制。

  2.1 全同态加密

  zk-SNARK(Zero-knowledge succint non-interactive arguments of knowledge)是经典的非交互式零知识证明算法,被应用在匿名数字通证ZCash的匿名交易环节。zk-SNARK的核心技术与同态加密、多方安全计算有一定的联系。ZCash匿名交易的发送方可以在不泄露交易的金额、地址等细节的前提下向验证者证明交易的合法性。

  隐私计算,是一类在保证数据提供方不泄露敏感数据的前提下,对数据进行计算并能验证计算结果的技术。

  3 应用前景

  在RSA算法问世前使用对称式加密算法的时代,加密和解密数据遵循同样的规则。对称式加密的关键要素包括加密算法和密钥,数据发送方使用特定的密钥加密数据,并且将加密数据和密钥发送给接收方。在传输的过程中,加密数据或密钥存在被拦截的风险。一旦加密算法被破解,如果不及时更换密钥,那么双方此后的通信过程就不再安全。

  满足同态性的加密函数能够实现在不解密原始数据的前提下对加密数据进行某一运算,提供了对加密数据的计算能力。全同态加密算法则是指给定任意一种运算规则,可以通过算法构造出对加密数据的相应运算规则,并满足同态性。全同态加密是相对基础性的隐私计算技术,应用范围较广,但其目前计算效率较低,并存在一定局限性。

  零知识证明,是证明者在不透露隐私数据的情况下,向任意第三方证明自己确实拥有特定数据的算法,分为交互式和非交互式两种。零知识证明算法具有以下特性:

  3.2 分布式计算网络

  区块链可以提供可信的分布式记账,极大的降低了信任成本,但面临链上数据可验证和隐私性的两难。区块链通过共识机制实现了不可篡改的分布式记账,为价值互联网提供了一种可靠的全新信任形式,将极大的促进线上资产的发展,并以信任为切入点改变互联网乃至经济社会的生态。但是,链上的信息对所有人来说都是公开可查的,隐私性有很大牺牲。

  全同态加密算法按照发展阶段可以划分为三类。2009年,Craig Gentry在论文《Fully Homomorphic EncryptionUsing Ideal Lattices》(基于理想格的全同态加密)中给出了全同态加密(FHE)的首个算法实现,也是首个同时满足加法同态和乘法同态的加密算法。但Gentry的算法效率极低。据测试,该算法执行单次位操作运算需要30分钟,远远无法满足大规模应用的需求。

  满足同态性的加密函数能够实现在不解密原始数据的前提下对加密数据进行某一运算。对加密后的数据进行计算得出结果:

  Brakerski 和 Vinod Vaikuntanathan 在初代全同态加密算法的基础上作出改进,于 2011 年提出了BGV算法。它的数学基础是RLWE(Ring Learning-with-errors)问题的求解难度的不对称性。

  安全多方计算解决了如何在参与计算的各方不泄露自身输入、且没有可信第三方的情况下安全地计算约定的函数并得到可验证结果的问题。例如,在百万富翁问题中,两名富翁可以各自加密自己的财产状况X和Y作为输入,通过特定的算法,双方可以得到可信的X和Y的比较结果,但无法获知对方的财产情况。

  导读

  3.3 加密链上数据和隐藏交易信息

  M.Van Dijk和A.Juels已经证明同态加密必须在同一个密钥下进行,在多方合作中有共谋的可能,因此全同态加密通常适合协作计算,目前可以防止串谋攻击的同态加密安全计算效率低于其他通用协议。

  隐私计算使隐私数据上链成为可能,并且同样通过区块链技术确保其可验证性。通过使用隐私计算技术,数据可以在保持加密状态的进行确认、处理和计算,信息上链的可信性和隐私性之间的两难将会得到解决。人们通过全同态加密、安全多方计算和零知识证明等技术,在不泄露原始敏感数据的前提下使用区块链进行信息验证。

  分布式计算网络是云计算的高级形态,利用个体广泛的计算资源,形成分布式的运算网络。随着个人计算设备性能的提高和互联网节点接入数的增加,网络计算能力的冗余越来越多。人们闲置的手机、计算机等设备能够通过分布式计算网络重新被有效利用。随着通信技术的不断发展,网络的带宽逐渐提高让分布式计算网络的建立从理论逐渐走向现实。

  2.1 全同态加密

  同态加密保证了数据计算过程的安全,提供了对加密数据进行处理的功能。如果要对原始数据进行处理,一般需要先解密数据。如果执行计算过程的一方是不可信任的,那之前的加解密过程等于白费心思。

  姚期智提出的混淆电路(garbled circuits)是针对两方计算的一种解决方案,Goldreich、Micali和Wigderson等人对其进行了研究和发展,目前已经成为密码学领域的热点问题之一。

  大部分安全多方计算方案对参与方的诚实性有所要求。在安全多方计算研究中,通常将参与者分为诚实者、半诚实者和攻击者。诚实者提供正确数据,且不尝试窃取他人输入数据;半诚实者提供正确数据,在没有不利后果的前提下愿意获取他人输入;攻击者提供虚假数据破坏合作,且试图窃取他人输入。大部分相对高效的安全多方计算协议都只有应对大部分参与方都是诚实者或半诚实者的情况具有安全性,仅SPDZ线的研究成果能够在大部分参与者都是攻击者的情况下保证安全性和正确性。安全多方计算协议至少应该能够在在所有参与者都是半诚实者的情况下运行,才能够适应市场经济的现实情况,保护参与者隐私。恶意的攻击者不期望得到正确的结果,所以更多地要依靠激励机制的设计来加以限制。

  非对称式加密保证了数据存储与传输的安全。非对称式加密算法通过产生成对的公钥与私钥,公钥用于加密数据,私钥用于解密对应公钥所加密的数据。在上面的例子中,数据接收方只需对发送方公开公钥,发送方使用接收方的公钥加密数据,接收方收到后使用私钥解密。整个加解密过程中双方不需要交换有关私钥的信息,因此安全性非常高。

  随着信息技术的不断发展,数据逐渐成为政府、企业与个人的重要资产,其发掘、存储、处理与使用变得愈发重要,逐渐产生了隐私性需求。隐私计算,是一类数据或计算方法保持加密状态,不泄露给其他合作方的前提下,进行计算合作的技术,其出现填补了密码学出现以来在信息的处理和使用环节的空白。目前阶段,密码学层面的隐私计算主要有全同态加密、多方安全计算、零知识证明等主要的技术方向。