本文摘要:5月21日,美光公司举办了年度分析师和投资者会议。
5月21日,美光公司举办了年度分析师和投资者会议。尽管很多人都期望取得更加多关于3DXPoint技术的信息,美光的管理层仍然回应秘而不宣。
我们将在本文辩论机器学习,它意味著什么,以及哪种硬件类型最合适机器学习应用于。最后,我们将推断美光正在专门从事的工作,以及他们可以在2019年向AI领域发售什么样的电子货币解决方案。
我们指出美光认同在打算一颗大炸弹。近日,美光举办了年度分析师和投资者会议,会议上公开发表了许多令人兴奋的爆炸性信息,还包括一个100亿美元的股票买入计划,以及关于美光在DRAM和NAND市场地位和角色定位的大量辩论,随后,许多文章深度报导了此次会议的诸多信息。
在这次投资者大会上,一个显而易见的事情是,美光并没透露大家所关心的3DXPoint技术的任何细节。美光公司首席执行官SanjayMehrotra在其演说中提及了3DXPoint,并似乎称之为公司计划在2019年开始发售3DXPoint器件。3DXPoint是一项可带给10倍性能提高的激动人心的技术。
与DRAM比起,3DXPoint芯片的密度更高,耐久性能力比NAND提升了上千倍,速度也比NAND单圈千倍。这种技术特性给3DXPoint获取了一个最重要的价值主张和市场定位,它可以当作层次结构的内存和存储之间的解决方案。
我们正在与客户在产品开发方面展开合作,正如我们前面所说,我们将于2019年发售3DXPoint产品,并在2019年下半年开始销售这些产品。公司首席业务官SumitSadana也申明,因为他们现在正在和合作伙伴们一起研发3DXPoint产品,因此还没作好辩论3DXPoint技术细节的打算。我今天会就我们的3DXPoint产品获取更加多细节,因为我们明年将发售这些产品,而且,出于竞争的原因,我也不期望泄漏我们和客户正在展开的一些工作。在本文中,我们将详细说明人工智能尤其是机器学习如何在现实生活中充分发挥涉及起到,并基于我们对机器学习的了解理解和美光团队的公开发表声明,推断3DXPoint的未来。
AI和机器学习是什么?首先,我们来想到人工智能和机器学习的含义。AI是一个标准化的术语,限于于任何一种容许计算机继续执行一般来说由人类继续执行的任务的技术。这方面的例子林林总总,从对局到服务公司邮件,从辨识猫狗图片到车辆驾驶等。
机器学习(全称ML)是AI的一个分支。这种技术通过向计算机表明一组输出和预期的输入,让计算机从这些输入输出的子集中“自学”如何继续执行特定任务来创立AI。
比如,假设你想要训练一台计算机辨识猫的照片。处置这项任务的一种方法是叙述十分详尽的启发式规则,以确认某张照片是否是猫的图片。在规则中,你可能会登录猫有毛茸茸的皮、尖尖的耳朵。但是,不一定每只猫的耳朵都尖尖的,甚至有的猫皮秃毛熟。
这就使得基于规则的AI方法很难处置,特别是在是遇上特征不显著的案例时。相比之下,ML方法依赖向计算机表明成千上万张有所不同猫的图片,并让计算机自己制订猫的规则。
对于图像识别而言,当今最常用的模型基于神经网络技术。本文并不想详尽辩论神经网络是如何工作的,不过下面获取了一个这样的神经网络的修改图,它可以协助你思维一下,为什么ML和内存和存储大有关系。上面这张图被修改用来表明一张9x9像素的图片。实际案例不会牵涉到到更大的输出集,用于数十万甚至数百万个特征。
现在我们最少在概念上对神经网络的外观有了一些理解,下面让我们返回那个猫的例子上。用作训练的猫的图片被归一化为特定大小,然后分解成像素,将这些像素的值输出ML模型中。
该模型继续执行前向传播(模型考虑到给与它的输出是否是猫的照片),并输入图片是猫的可能性的概率。在训练阶段,模型不会被告诉它的问否准确。
所以,如果给模型的图片显然是一只猫,并且模型问准确,那么这个模型就不会获得强化。反之,如果模型问错误,那么通过偏移传播算法对模型展开惩罚(准确答案和模型得出的答案之间的差异),调整一些个体的权重,以期下一次问时会更佳。
硬件拒绝计算出来神经网络中等价预测的成本的数学公式,ZynathCapital获取。前向传播和后向传播的数学计算非常简单,也远超过了本文的范围,读者只必须留意一点,即这些计算出来必须数以千计的线性代数运算。如果你忘记高中或大学阶段的线性代数课程,就不会了解到,在这种数学运算中,大数据集会被的组织成矩阵和向量。这也就说明了为什么GPU在机器学习应用于中如此热门。
线性代数可以很更容易地分段化,而且GPU在分段数学计算方面十分出众。这个过程牵涉到的内存大小有点不直观。
举例来说,假设猫的照片是一张1,000x1,000像素的图片,按照今天的标准,这是一幅十分小的图片,但是,这样一幅图片也有多达一百万个分开的特征(像素),并且每个像素都必需由CPU展开处置,以便评估图片的“猫腻”。现在,您应当早已理解了所述计算出来模型在一张图片上必须做到多少计算出来和处置,想象一下,现实世界中必须在成百上千万张图片的数据集上展开完全相同操作者,数据集规模超过2TB或3TB以上的情况并不少见,特别是在我们谈论诸如遗传学和天体物理等领域的时候。为了较慢训练模型,您必须将尽量多的数据集读取到内存(RAM)中,以便功能强大的GPU和CPU可以继续执行分段简化的计算出来任务。
现在的CPU性能如此强劲,以至于向CPU提供数据这个步骤出了瓶颈。仍然以来,我们都是通过减少系统的DRAM容量,并将正在用于的数据集预先读取到DRAM中来解决问题这个问题。SumitSadana在他的讲话中谈及了这个清楚的问题:“在云公司内部,一个众所周知的事情是,处理器必须花费大量的时间等候数据。
随着这些新兴处理器内核数量在过去几年内的大幅度减少,比较来讲这些处理器的附属内存容量并没减少过于多,这就意味著每个内核可以用于的内存比特率容量是实际上升的。”DRAM还要一个明显的缺点-不易失性。想象一下,你花费了数天时间,投放了大量的CPU和电力资源来为你的新的和革命性的辨识猫ML模型计算出来新的权重,结果大楼电源断电,后者由于某些硬件或软件涉及原因必须重新启动计算机,似乎,你不会毁掉DRAM中的一切数据,你的模型不会重返到最完整的指出桌子也是一只猫的阶段(因为桌子也有四条腿)。
这正是3DXPoint的用武之地。
本文来源:必威betway体育-www.zhao-xing.com