关灯
工作站之家 首页 新闻 查看内容
0

“在中国,为中国“ 2018戴尔科技峰会盛大开幕

摘要: 二十年前美国科技公司戴尔进入了中国市场,2018年戴尔迎来了在华成立第二十周年。在二十周年之际戴尔公司在国家会议中心举办了2018戴尔科技峰会。来自戴尔公司、合作伙伴、用户代表等近6000位参会人士、500余位来自 ...

二十年前美国科技公司戴尔进入了中国市场,2018年戴尔迎来了在华成立第二十周年。在二十周年之际戴尔公司在国家会议中心举办了2018戴尔科技峰会。来自戴尔公司、合作伙伴、用户代表等近6000位参会人士、500余位来自各个领域的专家和意见领袖、50余家市场领先的技术企业等代表,共同聆听全球前瞻的数字化理念和技术,共商数字化转型核心议题,分享数字化转型成功实践。

 


戴尔科技集团创始人、董事长兼首席执行官迈克尔戴尔发表了主题演讲,畅谈数字化技术及其发展趋势,分享企业数字化转型成功之道。他表示:“数字化变革驱动第四次全球工业革命,把握转型时机对企业而言至关重要,否则将可能面临被颠覆的命运。戴尔科技峰会为客户和合作伙伴提供研讨数字化未来的绝佳平台。同时,我也相信,通过全面深化的戴尔中国4.0+战略,戴尔科技集团将为中国的客户创造更多的价值,为中国的经济发展做出更多的贡献。

 


 “在中国,为中国始终是戴尔公司在中国市场的发展策略。2018年正是戴尔中国正式成立20周年。在这20年间,戴尔既是中国经济在全球影响力不断提升的见证者,也是这一巨变的受益者和贡献者。中国的改革开放使中国经济规模不断扩大,产业升级势不可挡,也为戴尔科技集团的发展提供了宽广的舞台,同时,面对方兴未艾的第四次工业革命及互联网+的蓬勃发展,戴尔科技集团作为数字化转型的领先者,不遗余力地推动中国产业升级。同时,戴尔科技集团宣布迈入戴尔中国4.0+新阶段,将汇聚科技集团的综合实力,深耕中国市场,进一步履行在中国,为中国的承诺,以领先的科技力量,丰富的实战经验为企业数字化转型保驾护航。




 

戴尔服务于中国市场,面对数字化、大数据、云计算等新的挑战和变革,不断地推出解决方案和服务,加速推动国内企业向数字化转型,并推出了针对金融、医疗、教育、电信、制造等领域的全新解决方案与技术创新体验。在科技峰会上,戴尔展示了Precision工作站系列,包括台式机和移动工作站的产品,同时为工程制造、娱乐媒体、教育科研等行业提供专业、全面、创新的解决方案,凭借其可靠稳定的设计、强大的编辑性能、丰富的ISV认证以及自动性能调优软件,帮助用户释放创造力,为各个行业应用提供强大的运算效能。此外,借助戴尔Precision工作站打造的VR一体化平台,结合与传统的CAD/CAE应用软件的无缝协作,可帮助用户浸入数字环境,进行无延迟观察和实时修改模型,真正实现对VR仿真技术的高效利用。

 


在下午的人工智能分论上,戴尔易安信负责人工智能机器学习平台和研究的企业架构师吴跃带来了加速人工智能、赢占精准先机的报告。

 

吴跃认为:“最近几年,在视觉、语音、IRP、自然语音分析处理等等领域,基于AI的场景应用已经取得了长足进步。但是,在更多的领域中,我们的用户在开始尝试与应用、数据类型相结合,以达成可落地的AI应用场景。这就是今天下午的会议希望跟大家探讨的。

   

“经过十几年以后,现在的算法技术,包括可以供算法进行的训练,以及可以满足训练的计算力的施工,与十几年前相比已经发生了翻天覆地的变化。这就是基于算法、算力和数据构成了AI在很多行业和应用场景落地的关键技术基础“。

 

“基于第三方的统计,不光我是个人,从CIO来讲,对投资AI有非常大的热情。接近2/3CIO表示未来三年内会考虑在AI上加大投资。从国外做得比较成熟的企业来看,像亚马逊,除了AWS可以为我们提供对外的AI的服务器以外,它的内部系统,包括智能引擎和智能音箱Echo,累计发货量已经超过3000万台,国内有很多提供本土化智能音箱的解决方案提供商“。

 

“以Netflix来讲,它的数据显示,通过个性化推荐的算法,基于用户千人千面的精准视频推荐,每年可以减少因为用户流失降低的损失差不多有10亿美金“。

 

亚马逊收购的Kiva是专门做物流机器人的企业,通过机器人来代替人工进行货物的分拣、搬运,可以提高50%的库存能力。在一些传统行业,包括医疗、金融,金融在研究基于AI的身份识别、声纹识别、风控、反欺诈,都有非常广阔的可以预期的场景。

 

回到国内来看,中国的人工智能产业是什么状态呢?非常有幸的是我们站在AI快速发展的商业化起点上。过去一两年,中国的人工智能产业,大家对AI的热情可以说是非常高涨。有数据统计,在过去的2017年,中国从事人工智能,或者可以提供人工智能的产品和服务企业的总数排在全球第二位,第一位是美国。中国在AI领域的融资额的数据已经接近全球AI领域融资额的48%。在AI领域的论文产出非常多。当然,我们也要理性地看到在顶级学术领域的突破性创新与世界领先水平还有一定差距。这需要我们快速追赶。

 

我们从去年下半年开始发现了一个很有意思的现象,用户在应用AI技术进行业务创新的行业分布呈明显的发散态势。过去比较集中在高校,应用于科研领域,或者是互联网用户是做AI做的比较早的,现在也是比较成熟的。AI技术落地应用的尝试已经开始遍布各个行业,像金融、医疗、交通的无人驾驶、制造业企业(基于计算机视觉技术做工业产品的外观检测、基于时序的数据分析做工业产品质量的一致性分析、生产设备的预防性维护),这些都是AI应用场景。

 

与我们息息相关的医疗领域将是与人工智能相结合非常有意义的应用方向。现在我们去医院,经常是人满为患。十一假期结束以后,我陪我的太太去了北京的三甲医院,当时感觉医院就是人山人海。以医疗的放射科来讲,放射科医生的年增长率是4%,但放射影像的增长率是30%。能不能基于人工智能技术来做医疗影响图像的检测,基于自然语言处理技术进行辅助的病历诊断。这些都是我们探索的研究方向。

 

这条路的时间可能比较漫长,需要我们有足够的耐心。我们在一些领域已经看到了可喜的变化,大家对未来充满了预期。埃森哲在去年发布的人工智能报告中预测到2035年人工智能对中国GDP的拉动总量达到7万亿美金,对GDP的贡献率超过20%

 

一些火车站、机场、博物馆都部署了安防摄像头。以前都是后处理。既然有了计算机视觉、人工智能技术,能不能对视频数据进行结构化的分析,包括基于一些属性的提取。比如,年龄、性别、服饰、帽饰、人脸信息。基于这些数据可以做到以图搜图、聚类的结构化查询、为轨道交通提供人流分析、轨迹分析。我们与国内非常领先的应用合作伙伴一起提供了解决方案

 

既然AI技术经过了60多年的发展历史,为什么过去几十年一直没有发展起来呢?一个很重要的因素可能就是由于以往计算力的瓶颈。基于AI的神经网络训练,GPUFPGA会对训练产生非常好的加速结果。

 

OpenAI今年发布的研究报告来看,它回顾了过去6AI计算力的需求,基本上每3.4个月的计算力消耗会增长1倍,在过去6年已经翻了30万倍。也就是基于计算力的要求,可能我们需要更好的更高效的计算平台。这个计算平台是不是只需要我们提供比较高效的GPU或者是FPGA的加速芯片就可以满足要求呢?

 

在做算法的时候,我们谈到端到端的AI训练。同样,对于人工智能的IT平台,我们认为它也是端到端的平台,涉及到的元素会很多,彼此之间是需要相互适应、相互调配的。如果一个不能达到业务发展性能的要求,可能就会成为综合系统的短板。如果将企业的整个AI基础架构平台比喻成一辆汽车,加速芯片就如同发动机,它提供了训练和应用所需的计算引擎。在进行模型训练的时候,因为性能要求很高,往往需要调用1台服务器,甚至是多台GPU服务器来做分布式训练。现在大家在用数据并行,训练的过程中会产生大量的参数,上亿的参数需要通过网络来进行传输,网络的带宽和时延对性能提升也是非常重要的关键。

 

既然AP是大数据,没有数据显然是什么都做不成的,数据质量和数据数量也是非常关键的一部分。高速的文件存储系统就好比整车的油箱,它会提供加油功能。

 

方向盘相当于整个集群的作业管理和调度平台。做AI做的比较早的客户,计算集群的规模已经非常大了,可能有几百张,甚至上千张GPU卡的规模,怎么对这个集群进行集中化的管理,包括对集群的作业调度,这可能也是需要我们考虑的问题。除此之外,还包括数据中心的基础设施、部署和咨询服务。

 

依托戴尔在计算、存储、网络、高性能计算、大数据等解决方案的解决,我们可以为用户提供端到端的基础架构平台解决方案。其中,包括计算力的提供,我们可以为用户提供不同类型的GPUPGA加速芯片的服务器。比如,其中一个产品C4140是专门针对GPU提供的定制化服务器,可以在1U的空间内支持4块性能最高的全宽GPU。我们的服务器也可以支持IPG

 

针对网络互联,可以提供高速低延迟的以太网交互。对小容量、大容量的存储应用场景,可以提供多款外置存储解决方案。针对深度学习的平台管理,针对GPU资源的管理、平台的部署、资源的调度、资源的池化,我们一直在做很多的工作。今年下半年发布的“AI就绪解决方案,可以将AI训练过程中需要到的GPU资源,基于戴尔易安信的C4140一机四服载体,包括高速低延迟的EDR网络,保证海量非结构化数据存储解决方案,专门针对SPC场景优化过的NFS解决方案,以及相应的平台软件产品打包在一起,可以进行一体化整机柜的交付。

 

在软件部分,我们可以为数据算法工程师提供Data Scinetis Portal,通过BS模式进入Portal的界面,它可以把非常耗时耗力的底层环境部署。比如,搭建TensorFlow,或者是其他的框架Caffe2,我们都做好了自己的镜像。点击进来以后,可以申请GPU资源,调用已经做好的软件可以以更快速的方式部署本地的AI生产环境。我们集成了一些容器化的支持,更智能化的调度组件,实现GPU资源的灵活调度。

 

目前可以支持TensorFlowCaffe2MXNet这三种框架。无论是使用Python2Pathon3,还是R语言,都是可以使用Dato Scientist Portal的。针对更大规模的。比如,需要16张、32GPU卡做大规模的分布式训练,戴尔易安信研究院也有相关的实践和调优经验,未来可供大家参考。比如,在32V100运行ResNet-50,这是很经典的图像分类模型。分别基于MXNetCaffe2TensorFlow,分别是达到了29倍、26倍和22倍的单GPU卡的性能加速比。针对大型的模型,用更多张GPU卡,特别是突破单卡的瓶颈,这是很多大型用户所关注的一点。

 

如果我们需要更智能化的GPU资源的切割,是否可以把一张GPU切给多个使用。对于一些GPU的使用资源,显存容量能不能做一些QUSGPU的分布式训练能不能对上层应用更透明一些,以软件来进行分配,而不需要改原代码,就可以不需要关注下层GPU究竟是来自于哪台机器。这是戴尔研究院在做的GPU池化和GPU按需分配的管理平台。

 

刚才我们谈到了很多端到端的概念。从数据流的角度来讲,深度学习在存储的领域,为了保障AI的训练性能,也是需要端到端的进行相应的考量和设计的。这里涉及到两个关键点。现在大家在做AI,绝大部分是基于GPU来做的,最终将数据打包成一个Batch,加载到GPU的显存非常有限,随机梯度下降的模式。GPU的显存有限,决定了不可能一次性将更多的数据加载到显存里。

 

  AI在过去几年取得了一些成绩,但是从学术创新和产业应用的角度,还需要我们进行探索AI的理论创新,有些层面还需要进一步突破。比如,数据瓶颈。深度学习模型太依赖于大数据,针对小数据应用场景。比如,迁移学习技术,在工业界、制造界、医疗界,大部分场景并没有那么多的数据。这种问题怎么解决?基于以往的训练模型能不能通过简单的改动训练去迁移到新的应用场景呢?这是AI领域非常热门的话题。

 

模型的可解释性是一把双刃剑。AI的好处是深度学习模型和传统的机器学习相比的特征是自学习过程,通过多层的神经网络,基于历史性的数据来做特征的自学习和自发现。它所带来的问题是模型的解释性如何来做。对于一些感知的应用,不需要这么高的解释性,yesno能够非常明确的判断。但是,对于一些高可靠性的应用场景,可能我们需要更多的解释的能力,以及模型的可靠性,以及整体的功耗。AI深度学习是模拟人大脑的行为,大脑是低功率的部件,运行的时候大概是2030WGPU运行的时候需要250W300W的训练。从功耗来讲,AI跟人脑有非常大的差异。

 

从行业应用的角度,我们现在谈到算法、数据、计算力,这是AI非常核心的三大因素。现在看来计算力的发展是最快的,算法也有很多的改进和提升。有一些场景积累了大量的数据,更多的场景还在做数据采集、数据治理工作。在实际应用场景中,我们发现大量时间是用于数据处理,最终的应用是靠可落地的行业应用场景。场景是不是能落地呢?它的核心是可否真正为企业和用户提供与投入相匹配的价值,能不能真正提高价值、提高产品质量和劳动生产率,这是非常关键的要素。


 


总结:戴尔是一个与时俱进的、不断进化的企业,整体发展脉络是从产品向IT服务转型的趋势,过程中经历了很多重大转型。现在,戴尔的业务更加丰富,紧跟云计算和AI发展潮流。并通过一系列的并购、自主创新等举措快速完成产业布局,毫无疑问戴尔公司是最积极、敏锐地拥抱数字化变革的科技公司。现在已经进入了戴尔中国4.0+的战略发展阶段。未来,希望戴尔能更好地服务于中国市场,持续深化“在中国,为中国”戴尔中国4.0战略,助力加速中国企业与社会数字化转型进程。


晕倒

感动

大哭

惊呆

口水

说点什么...

已有0条评论

最新评论...

本文作者
2018-10-22 16:30
  • 0
    粉丝
  • 230
    阅读
  • 0
    回复

工作站之家

扫描关注,了解最新资讯

联系人:Peter
电话:010=58414718
EMAIL:iws@iworkstation.com.cn
地址:北京
热门评论
排行榜

关注我们:微信订阅号

官方微信

服务热线:

010-58414718

电子邮件:iws@iworkstation.com.cn

地址:北京

Copyright   ©2007-2018  工作站之家Powered by© iworkstation.com.cn ( 京ICP备08005157号|人工智能