cpu 的发展未来 cpu发展趋势是什么,将来是100核吗

作者&投稿:方诗 (若有异议请与网页底部的电邮联系)
如今CPU就象一匹脱缰的野马正以异乎寻常的速度向前发展,在短短的一段时间内我们满耳都充斥着频率提升、新品发布的消息。如果说显卡、声卡的更新是技术上的创新,那么CPU的升级换代就是技术上的革命!我们不禁要问CPU这匹脱缰的野马到底要跑向何方、到底能够跑多快?或许下面的内容会给你一个满意的答案!

在最初研发微处理器(CPU)的时候人们就对其寄予厚望,他们要求微处理器要有:体积[被屏蔽广告]
小重量轻、可靠性高、价格低廉、应用面广泛的特点。可以说现在的CPU都符合这些要求,所以要想更贴切的把握CPU的发展趋势我们就要对CPU的各个方面做一个比较全面的分析!

1、位数

期CPU和现在的CPU的一个重要的差别就是位数的巨大差异。我们来看看在位数上CPU的发展历程:4位:INTEL4004;8位:INTEL8080/8085、MOTOROLA6800/6802、ROCKWELL6502;16位:INTEL8086/8088、MOTOROLA68000;32位:INTEL80386/80486及其以后的CPU、64位:INTEL ITANIUM和AMD K8。看看这4位到16位的CPU就是“大虾”级别的人物也未必用过。不过我们还可以从一些比较老的便携式计算器上看到4位CPU的影子。从上面的例子来看CPU位数增高是一个必然趋势,那么为什么要增高CPU的位数呢?增高位数到底有哪些好处呢?我们知道随着计算机技术的发展CPU要处理更多更复杂的数据,这就需要提高CPU的数据带宽。而目前只有两种行之有效的办法:1、提高CPU I/O端口的频率。2、加大CPU数据传输端口的宽度。现在就第一种办法而言无疑是两种做法中最简单的。但是提高频率便要对生产技术提高多个数量等级,而这无疑又增加生产成本和延长了生产周期。如果采用第二种方法就好多了:CPU I/O接口带宽增加处理的数据随之增多,多个周期内可完成的任务在一个周期就可以完成了!虽然32位的PIII、P4、雷鸟、毒龙现在在我们手里是那么炙手可热,但是他们终将会面临淘汰的厄运。如果说INTEL WILLAMETTE P4和AMD Thunderbird XP的发布只是一个先兆,那么64位的INTEL ITANIUM和AMD K8就是它们真正的“终结者”!在这两款CPU中的INTELITANIUM可以说是完全脱离了俗套,它完全遵循IA(IntelArchitecture英特尔架构,英特尔公司开发的x86芯片结构)-64架构,不兼容IA-32架构。而K8虽然兼容IA-32但却是IA-32上的一种改良系统,它遵循的仍是X86-64架构。

2、封装

对于用户而言,他们对CPU使用什么封装技术并不在意。他们更为更为关系的是新品CPU的接口形式。显然大多数人已经对频繁变更CPU的接口形式所带来的额外投入感到厌烦。其实封装正是在促使CPU接口转型的重要原因之一。最为典型的例子就是赛杨从SOLT1到SOCKET370的转型了。我们可以注意到当时的SLOT1赛杨的PCB板上并没有集成二级缓存,也就是说它的二级缓存仍然是ON-DIE的形式。在转型PPGA封装的赛杨后去除了没有多大必要的PCB板,有效的减少了成本。还有一个更重要的原因就是采用PPGA封装制造赛杨可以使制造难度下降一个等级。现在不管是VIA的约书亚C3,还是INTEL PIII、WILLAMETTE P4和AMD Athlon、Thunderbird都已经抛弃原有的封装形式向Socket370、Socket 462和SocketA转移。正是由于高度的芯片集成使我们在以后的时间内很难再见到SECC2这样大型的封装形式了。所以说封装小型化将是未来CPU封装的主导思想!

3、速度

一直以来我们最关心的恐怕就要数CPU的速度了。速度的大小标志着CPU运算能力的高低。在过去因为CPU的速度低我们可以算出执行指令的平均时间,像INTERL386/486的平均指令执行时间为0.05谬秒。现在我想谁也不会无聊到去计算CPU的执行指令的平均时间了,不过这也从一个侧面反映出当今CPU已经有了令人咤舌的速度。自从1971年INTEL的1赫兹的4004问世到2001年即将取代WILLAMETTEP4而推出的2.0G赫兹TULLOCH,在三十年内居然增长了2000倍。不过我们要知道,虽然速度是提高CPU性能的法宝之一,但是单凭无止境的提速是很难使CPU有一个质的飞跃的。如果我们单纯的提高CPU的核心频率,其结果是只提高了CPU内部的带宽。而这并不能提高CPU与外部交换的数据吞吐能力。虽然我们可以通过给CPU加装L1和L2CACHE缓解相应矛盾,但由于CACHE速度已经和CPU核心速度相同,再要提升其频率已经没有多大意义了。再者生产工艺是限制CPU速度的重要因素。用0.25微米生产工艺生产的CPU理论上最高可以达到600赫兹的速率;用0.18微米生产工艺生产的CPU“理论上”最高可以达到1300赫兹左右的速率。但通过工艺的改造仍可以用0.18微米的工艺生产超过1.3G赫兹的CPU,现在的P4就是一个很好的例子。不管怎样对CPU重新设计或是升位都要比提速好得多。我们看一下366超550赫兹的老赛杨和PIII500的多媒体效能的比较测试就可以发现,550赫兹的老赛杨的多媒体效能要比比它少50赫兹的PIII500还要低。所以对CPU而言速度是重要的,但它并不是万能的!

4、CACHE

CACHE一直是CPU中不可低估的元素。那么CACHE究竟是怎样工作的呢?首先我们应该知道主存当中保存着所有要用的数据,而CACHE中保存着的部分数据是主存中数据的副本。当CPU访问主存时,首先检查CACHE。如果要存取的数据已经在CACHE中,CPU就可以很快的完成访问。我们把这种情况称为命中。如果数据不在CACHE中CPU就必须从主存中提取。看来CACHE可以有效的增加CPU读取数据的速度,那么我们为何不把主存当中的所有数据都放入如CACHE中呢?换句话说,就是我们为什么不增大CACHE的容量来多容纳一些数据呢?其实答案很简单,这就关系到我们上面所说的命中的问题。CACHE中存储的数据不但是主存中的副本而且是随机性的数据。这就是说即便CACHE里面有数据也不一定是CPU要访问的。如果CACHE很大CPU在里面又寻找不到所需要的数据,就造成了未命中的情况。可以说这一段时间就白白浪费了。换而言之如果使用小容量CACHE,即便是没有找到所需要的数据,寻找数据浪费的时间也要比大CACHE少得多。但是可能大家也注意到了,使用小CACHE的话CPU的命中率会大大降低。上面之所以说了这么多就想给大多数人纠正一个本质性的错误:CACHE不是越大越好。所以说大CACHE并不是未来CPU缓存的发展方向。实际上CPU的性能和CACHE的大小是呈负指数二项式增长。这就是说当CPU的CACHE的大小到达一定的水平后,如果不及时更新CACHE搜索算法和CACHE的轮换算法,CPU性能将没有本质上的提高!就现在的条件提高算法的效率是比较困难的,所以在其他方面INTEL和AMD都在CACHE上做了很大的文章。以INTEL的COPPERMINE PIII为例,它仍然使用老PIII KATMAI的核心,在转变为SOCKET370接口形式后去除了512KB 1/2时钟频率的L2缓存。取而代之的是ON-DIE的256KB大小的全速L2 CACHE。在这里要说明的是这256KB大小的L2 CACHE并不是ON-BOARD CACHE缓存的缩小化,也就是说它不是SDRAM,更不是三星或者NEC等存储器厂家事先做好卖给INTEL再由INTEL镶嵌进去的,而是完完全全的MADE IN INTEL。COPPERMINE在二级缓存中首先使用了ATC(ADVANCE TRANSFER CACHE)高级传输缓存机制。ATC主要负责优化CACHE到CPU核心的这一条通路。说白了就是增加了L2 CACAHE到CPU核心之间数据通道的带宽。另一个措施是使用了ASB(ADVANCE SYSTEM BUFFERING)高级系统缓存机制。ASB主要负责优化L2 CACHE到系统总线的部分。由此看来未来的CACHE在带宽和传输上还有更多的文章可做呀!

5、生产工艺和集成度

一段时间以来,0.18、微米的制造工艺让超频爱好者如鱼得水。不过在过去很长一段时间内我们都在使用0.35微米工艺制造的CPU,这包括INETL 486/586、PII KLAMMATH、AMD K5。0.25微米的替代工艺0.18微米也未得意多久,现在已经被0.13的制造工艺所取代。0.35微米和0.25微米的功耗大、发热量大、DIE的体积大是我们有目共睹的,而这些都未来制造CPU要进一步研究的问题。就现在的被我们津津乐道的0.18微米的生产工艺而言,它也并不是十全十美的。象“铜矿”这样的CPU虽然使用0.18微米的技术,但其采用的仍是传统的铝质介质,所以对CPU制造仍不是很理想。如果CPU在制造是改用铜质介质就好多了。由于铜介质芯片比铝介质具有更低的电阻系数,使得芯片的性能如运算速度和产生热量等有较使用铝质介质的0.18微米的CPU有较大进步。到目前为止还没有大规模采用铜介质芯片,英特尔公司还没有用0.18微米工艺技术生产铜介质芯片,现在英特尔已经在2001年推出0.13微米技术的铜介质芯片PIII-T。集成度的密集是促使生产工艺进步的直接原因。早期的INTEL 8080 CPU的晶体管集成度超过5000管/片,而它的换代产品INTEL 8085 CPU的集成度也只有10000管/片。在1977年以后由于超大规模集成电路的成熟,仅仅在一个硅片上就可容纳数万个管子了。就是在短短的一段时间内变化也是巨大的:象PIII的改良型产品COPPERMINE在晶体管集成度上远远超过了它的兄弟KATMAI。其中COPPERMINE有2800万个,而KATMAI只有950万个。2800万近乎是950万的三倍,如果INTEL再用制造KATMAI那样用0.25微米工艺制造COPPERMINE的话恐怕就要撑破肚皮了!另外大多数CPU厂商都已经淘汰了古老的HMOS处理技术,基本都在使用CMOS处理技术。尤其在0.25微米的进程上CMOS(Complementary Metal Oxide Semiconductor,互补金属氧化物半导体)技术应用得相当广泛.过去我们常说"有容乃大",但是现在对CPU而言这句话就说不通了。或许在不久的将来CPU真的可以达到无“微”不至的地步!

6、超低的电压和功耗

从分支标题上你就可以知道这方面CPU的发展方向了。当然电压、功耗是和生产工艺及集成度密切相关的。我们现在很难想象第一台计算机问世时的情形:体积庞大,数以万计的管件堆置在一起;有一个专门发电单元为之发电;散发出的热量使它所在的房屋活象一个大烤炉。即便是这样其运算能力也没有我们手头上的便携式的计算器强。我们现在的确体会不到“火炉”的滋味,一个侧面体现出当前CPU的低功耗。象市场上即将出现的AMD Thunderbird,其1G赫兹的功耗也只有54W。能源短缺是人类面临的重要问题,新一代CPU在这方面为我们起了典范的作用!功耗下降了,自然就不需要很大的电压了。在计算机CPU芯片小型化以后,使用过的最高电压是5V。从5V的起点上一直降到了现在赛杨二使用的1.65V乃至新型C3的1.3V。虽然下降的幅度不算是很大,但是我们要知道1.X伏特的电压已经是很小了。即便是再有下降的空间,这样的空间也不算是很大了。所以说就是只下降了0.05V也是一个重大的进步!对于台式机和便携式机而言省电低耗、超低电压的CPU必将成为它们的首选!

7、RISC和X86

说到把握CPU未来的发展方向,不对RISC指令结构和X86指令集有一个深入了解是不行的!要知道它们可是整个CPU的灵魂。那么它们到底扮演着什么角色,有什么功用呢?我们就先从X86讲起吧。在1978年INTEL公司推出了代号为8086的16位处理器,与此同时还推出了一款代号为8087的数学协处理器。因为当时这两种芯片在指令集上相互兼容,所以人们将其统称为X86指令集。随着时代的发展INETL陆续推出了更新型号的CPU,但它们都有一个共同的特点就是仍然兼容原来的X86指令集。所以在INTEL的后续产品上我们就看到了诸如以286、386、486、586等以X86形式命名的CPU产品。也就是说象486、586这样的CPU仍然延续着X86序列。实际上X86并不是已经被淘汰了,一个重要原因就是现在大多数的CPU仍然兼容和采用X86指令集。最为明显的一个例子就是AMD的K8。K8是一块以X86-32为基础改良的64位CPU。而它又是雷鸟系列CPU的继任者,所以就是在不久的将来X86还要再“疯狂”一阵。再者它已经被使用了这么多年,技术上已经相当成熟,立刻就被淘汰的命运最近恐怕不会降临在它的身上。在AMD来看他们觉得X86还是风韵犹存,不过从某种迹象表明X86已经是夕阳西下了。这种迹象从其产品K7上就可以反映出来。K7值得人们赞许的地方就是它采用了EV6总线。而实际上EV6总线就是ALPHA高性能RISC的处理器总线21264。从其中我们隐约看到了RISC的影子,而RISC几乎成了高性能CPU的代言词,它也的确是未来CPU将要采用的一个重要结构。实际上我们不是只可以从K7上才看到RISC的影子,现有的多数CPU都可以看到。因为从CPU的内部结构来说,现在大多数的CPU都是RISC CPU,只不过不是真正意义上的。为什么不是真正意义上的RISC CPU呢?以奔腾级处理器为例,其核心是一个RISC处理器。只不过它比正规的RISC处理器多了一个一级解码器。这个解码器主要负责将输入的CPU的CISC的X86指令解码为RISC的内部指令,再转移交给RISC核心来处理。当然多了一个解码步骤,速度自然要降低一些。

RISC被未来CPU采用,自然说明它有极大的优势。首先还是让我们从RISC的原理说起吧!学过汇编语言的朋友都知道计算机指令的工作流程为:取指令、译指令、执行指令。而一条指令的基本构成是操作码加地址码。由于操作码长和地址码长都不是固定不变的,所以指令就有长有短。这也就造成有简单指令和复杂指令之分。在以前多数CPU都采用传统的CISC的指令结构。也就是用复杂的指令来支持程序语言、应用程序和操作系统。但由于复杂的指令影响了CPU执行速度,所以效率低不说成本也是相当的高。随着对计算机了解程度的增加,人们发现计算机执行的指令有90%以上都是简单指令,而复杂指令少之又少。在这样的情况下人们加强了对简单指令的研究,于是“精简指令结构—RISC”诞生了。RISC优越的性能完全得益于短指令。因为RISC处理器所处理的都是等长的短指令,这样一来就大大简化了解码器的设计,省去了许多微码结构。同时RISC极大的的简化了每一个时钟周期的任务,这样一来由于每一个时钟周期所要完成的任务相对较少,它就可以尽量缩短时钟的脉冲间隔,从而提高CPU工作频率。所以在同等的制造技术下,它的时钟频率就高于CISC处理器。RISC处理器的性能之所以高人一筹就是基于以上的原因。我们知道在位数不变得情况下,提升CPU的性能有三种行之有效的办法:1、提高CPU的主频,前文已经说过这样做很难有质的飞跃;2、对处理器工程部件重新设计并更换更好的算法提高指令执行效率,但现在多数的算法已经被人们开发出来了,再想从其身上榨取一些油水恐怕很难;3、提高指令的并行处理水平,而这种方法是最现实的,我们现在使用的很多CPU都采用了这个办法提高效率。很显然要想提高处理器性能,提高指令的并行处理水平是我们首当其冲要解决的问题。解决它同样有三种方法:1、使用流水线技术;2、使用超标量技术;3使用EPIC(EXPLICITLY PARALLEL INSTRUCTION COMPUTING)显性并行指令技术,这种技术将在INTEL未来的ITANIUM得到广泛采用。超标量技术和流水线技术是现在计算机普遍采用的,而RISC流水线超标量CPU这正是它们二者结合的产物。如果说CPU一旦使用了RISC指令结构就可以一劳永逸的话,那就完全错了。因为RISC也需要解决相当多的问题。如果说CPU一旦使用了RISC指令结构就可以一劳永逸的话,那就完全错了。因为RISC也需要解决相当多的问题。RISC力求减少程序执行所需的时间,而程序执行时间的长短主要取决于三个因素:1、程序中所需执行的指令数目I;2、周期时间T;3、执行每条指令所需的周期数CPI。它们四者之间存在乘积的关系:程序执行时间=I*T*CPI。为了尽量减小I、T、CPI,RISC针对这个问题施行了五项措施:1、采用加载和存储结构;2、从指令中选取使用频率最高的简单指令和部分复杂指令;3、使用多级指令流水线结构;4、延迟加载指令和转移指令;5、采用高速缓存的结构。RISC指令结构必将成为未来CPU的重要组成部分,相信在看过上面的内容后你已经对指令集未来的发展方向一定有了大致的了解。

8、软件成了“瓶颈”?

在我们的印象中似乎硬件是造成系统瓶颈的罪魁祸首,而软件永远都不可能成为瓶颈。那么我们为什么会有这样的想法呢?我想主要是受了某些评测的影响。应该说我们不应该怀疑那些评测的准确性和权威性。从QUAKEIII为载体的测试中我们的确可以看到随着CPU速度的增长游戏的帧数也在不同程度的增加。从3DMARK 2000中的测试也可以得出相同的结论:随着CPU速度的增长CPU MARK分数也逐渐增长。上述两个例子反映了CPU是限制系统性能的瓶颈。毕竟,不管CPU频率增加多少都可通过软件来测得知其具体性能。但是随着CPU的更新换代,软件极有可能代替CPU成为限制系统性能的瓶颈。上文已经说过高位CPU是未来CPU的发展趋势之一。但是现有的软件在上很难适应位数上的提高。我们知道现在我们使用的WINDOWS NT和WINDOWS 9X、WINDOWS2000家族以及某些网络操作系统都是32位软件。而在它们之下运行的游戏、应用程序、程序编写工具也都是32位的。对于软件和CPU来说,位数上的一一对应是极其重要的。如果你用一个64位的CPU来运行一个32位的软件将不能得到一个很好的效果。这并不是存在一个大材小用的问题,而是彻头彻尾的兼容性问题。假设你用同等频率的32位和64位CPU来运行32位的游戏作对比测试后你就会发现,在某些方面64位CPU的表现远远不如32位CPU。造成这种情况的一个重要原因就是在指令级别上的不兼容。32位CPU兼容IA-32指令级别,而64位CPU就只兼容64位指令级别。虽然这个问题可以从软件和硬件两方面,但都是相当棘手的。相比较而言此问题从硬件下手更容易被解决。从软件下手的是相当大的,因为软件升位就要改变编程算法以及程序设计方法等技术。而这些决非是软件高手集中攻关十天半个月就能解决的问题。再者一个跟更为严重的问题就是对于目前软件设计技术而言,目前的CPU的流水线工位及流水线条数都已经接近极限,单凭增加流水线工位和条数很难使系统性能有一个质的飞跃。也就是说单从硬件下手只能是治标不治本!现在AMD推出的64位CPUK8在指令级别上兼容IA-32,这对32位软件来说无疑是一个福音。但是INTEL的64位CPU却拒绝兼容IA-32,这无疑给那些对INTEL CPU情有独钟的朋友一个打击。总之CPU和软件都要相互促进互相磨合才能发展的更好,少了其中的哪一个都会相互制约。所以说CPU的发展没有软件的有力支持是万万不行的!但愿在不久的将来人们不会因软件了脱CPU的后腿而造成手握高性能CPU却没有可用的软件,这样的无米下锅的情况!从整体来看CPU的前景还是比较乐观的,我们现在大可不必为此而杞人忧天,毕竟离64位CPU的推出还有很长一段时间!

INTEL的推出的P4在一开始就把频率就定在了较高的起点,目前INTEL是否能冲破工艺限制推出超过2G的P4还不清楚。最重要的是INETL已经在这款CPU上使用了新的架构以及新的SSE2多媒体指令。SSE2在原有的SSE的基础上又如多条指令,使指令总数总计达到144条。当然INTEL并没有忘记RAMBUS,这一次将系统汇流排速度定在400赫兹就是为了配和RANBUS同时使用以增加带宽。毕竟以前在RAMBUS面前PIII成了限制系统性能的瓶颈,这一次P4的推出就是也想让原来不被人看好的RAMBUS也露一把脸!总之P4和ATHLON4的推出是广大用户的福音,但是困扰我们的接口问题已是在所难免的。单凭使用转接卡的就能适应新型CPU的时代已经一去不复返了!看来要想体验使用新款CPU的急速快感不掏点银子是不行了!

CPU更新换代的速度似乎和它运行起来的速度一样快,我想用“初闻脚步声又有后来人”来形容这一切再合适不过了!

在现今的CPU出现之前,如同埃尼阿克(Electronic Numerical Integrator and Computer)之类的计算机在执行不同程序时,必须经过一番线路调整才能启动。由于它们的线路必须被重设才能执行不同的程序,这些机器通常称为“固定程序计算机”(fixed-program computer)。而由于CPU这个词指称为执行软件(计算机程序)的装置,那些最早与储存程序型计算机(stored-program computer)一同登场的装置也可以被称为CPU。
储存程序型计算机的主意早已体现在ENIAC的设计上,但最终还是被省略以期早日完成。在1945年6月30日,ENIAC完成之前,著名数学家冯·诺伊曼发表名为"First Draft of a Report on the EDVAC"的论文。它揭述储存程序型计算机的计划将在1949年正式完成(冯·诺伊曼1945)。EDVAC的目标是执行一定数量与种类的指令(或操作),这些指令结合产生出可以让EDVAC(Electronic Discrete Variable Automatic Computer)执行的有用程序。特别的是,为EDVAC而写的程序是储存在高速计算机内存中,而非由实体线路组合而成。这项设计克服了ENIAC的某些局限——即花费大量时间与精力重设线路以执行新程序。在冯·诺伊曼的设计下,EDVAC可以借由改变内存储存的内容,简单更换它执行的程序(软件)。[1]
值得注意的是,尽管冯·诺伊曼由于设计了EDVAC,使得他在发展储存程序型计算机上的贡献最为显著,但其他早于他的研究员如Konard Zuse也提出过类似的想法。另外早于EDVAC完成,利用哈佛架构制造的马克一号,也利用打孔纸带而非电子内存用作储存程序的概念。冯·诺伊曼架构与哈佛架构最主要的不同在于后者将CPU指令与资料分开存放与处置,而前者使用相同的内存位置。大多近代的CPU依照冯·诺伊曼架构设计,但哈佛架构一样常见。
身为数位装置,所有CPU处理不连续状态,因此需要一些转换与区分这些状态的基础元件。在市场接受晶体管前,继电器与真空管常用在这些用途上。虽然这些材料速度上远优于纯粹的机械构造,但是它们有许多不可靠的地方。例如以继电器建造直流时序逻辑回路需要额外的硬件以应付接触点跳动问题。而真空管不会有接触点跳动问题,但它们必须在启用前预热,也必须同时停止运作。[2]通常当一根真空管坏了,CPU必须找出损坏元件以置换新管。因此早期的电子真空管式计算机快于电子继电器式计算机,但维修不便。类似EDVAC的真空管计算机每隔八小时便会损坏一次,而较慢较早期的马克一号却不太发生故障(Weik 1961:238)。但在最后,由于速度优势,真空管计算机支配当时的计算机世界,尽管它们需要较多的维护照顾。大多早期的同步CPU,其时钟频率(clock rate)低于近代的微电子设计(见下列对于时钟频率的讨论)。那时常见的时钟频率为100千赫兹到4百万赫兹,大大受限于内建切换装置的速度。

更高的主频,更复杂的指令集。更小的发热量和功耗
以及更低的价格和更高速的运算。
集成gpu图形显示核心

我给你个网址吧
http://baike.baidu.com/view/2089.htm
去看看 讲得很好 很全面

几年以后CPU的发展趋势是什么??~

8核以后都会封顶了 以后电脑向无核化发展 未来20年后的电脑只是一块晶片 看上无就是一块玻璃 没有温度也不会有散热器 这就是以后的超级电脑 添加多核只会让笔记本发热大 笨重 耗电 用多核制造电脑估计还用一段路要走 不会太长 因为地球资源越来越少了 已经容不下人类这么疯狂消耗下去了

cpu的发展不仅仅是堆核心了。也要注重架构,材料,功耗。
日后主要的方向不是目前的硅晶片,而是更高级的材料,比如石墨烯,因为硅为材料有一个极限,比如3nm工艺可能会造成严重的电子迁移。
目前量子计算机,光处理器都在研发实验,日后有概率进入民用市场。性能是目前处理器的几十倍甚至上百倍。未来可能是融合的,把一整套都集成在一起,比如CPU可能会集成HBM当内存,显卡也能处理CPU数据等等。但是这些需要软硬件厂家合作才能实现。