CPU的变迁:从纳米向量子挺进

人气 17
标签: , ,

(http://www.epochtimes.com)
【大纪元5月18日讯】
引言

计算机的性能主要取决于处理器芯片的运算速度和内存容量的大小,而处理器芯片的运算速度和内存容量的大小又都在很大程度上取决于硅晶片加工工艺中光刻技术的曝光光源的波长、光掩膜的精度及所用材料的特性等因素。在计算机性能不断提高的过程中,光刻技术在精度上的极限最终将成为其前进道路上的难以逾越的障碍,因此,未来计算机的发展将属于机理更新的范畴。

微处理器的现状及发展的限制

微处理器从4004到80486,从经典Pentium到目前最先进的Pentium-IV,其大幅度地提高计算机的性能,基本上体现在缩小处理器芯片内晶体管的尺寸和线宽这一方法上。如Intel的微处理器,在邮票大小的硅片上晶体管数量已从其第一代4004型的2300只猛增到Pentium-IV的2200万只,性能也呈指数规律上升,从每秒执行10,000条指令上升到数百万条指令,代表当今最高水平的千兆位Pentium-IV原型处理器速度已达1.7GHz,与此同时IBM也在64位的PowerPC上跑出了1100Mhz的速度。缩小微处理器内晶体管尺寸和线宽的基本方法在于改进光刻技术,即使用更短波长的曝光光源,经掩膜曝光,把刻蚀在硅片上的晶体管做得更小,连接晶体管的导线做得更细来实现。目前使用的曝光光源主要是UV(紫外线),采用这种光刻技术生产的大多数高级芯片的线宽仅0.25m。随着超短波长UV曝光光源的采用,超亚微米光刻技术正在逐步成熟,芯片的线宽正在下降到0.18~0.13m,如Intel自Pentium-III开始已动用0.18m技术来代替0.25m技术,在最新的移动Pentium-III上更是提前采用了0.13m的制造工艺。

IBM微电子硅技术部认为:现在使用的UV光源对微处理器性能的进一步提高已无能为力了。当线宽细到0.10m或更细时,芯片进一步微型化将会遇到障碍,受到一些制约。首先是线条宽度的限制,条宽接近或小于光的波长时,光刻技术将面临失败;第二,电子行为的限制,以芯片微处理器为例,它是通过逻辑“门”起开或关的作用,开关状态,取决于有无电流;目前的微处理器需使用数百个电子来开关逻辑门,随着芯片集成度的进一步提高,所需的电子数会进一步提高;但线宽的减小却会导致单位时间流过逻辑门的电子数减少,当电子数减至几十个时,在判断“开”或“关”时,就会处于模糊状态,这时逻辑门就会失去魅力;第三,“量子效应”的限制,线宽减至0.05m时,量子效应会使电子像幽灵一般捉摸不定,会导致不可预测的事情发生。

纳米电子技术及纳米计算机突破

上述限制的办法可以采用纳米级电子技术。它是一种新的思维方式,不是单纯的尺寸减小。IBM及其它一些公司正致力于用X射线作为曝光光源来研究纳米级电子技术;Bell实验室研制的电子束光刻系统,经光掩膜来投射高能电子,在实验室条件下制造出线宽仅0.05m的电路,而且还在继续开发0.01m的电路。他们最近宣称现已制造成比目前芯片内门极氧化物绝缘层薄5倍、仅3个原子厚的,0.06m线宽仅由182个原子组成的纳米级晶体管,它比目前芯片内晶体管的体积小4倍,但运算速度快5倍,功耗仅为1/60~1/160,几乎不耗电。人们已发现碳纳米管在常温下有极好的导电性,它的强度比石墨高5~10倍,在重量与石墨相当时,强度却超出钢50倍,其直径只有人的头发丝的数千分之一,目前这种材料较稀少,一旦能批量生产,就有可能研制出纳米芯片代替硅芯片,它不仅体积小、功耗低,而且速度快、存储量大。纳米芯片计算机将比今天的台式计算机快10亿倍,也就是讲,纳米技术将给计算机制造业带来深刻的变革,引发计算机行业的革命。

另外,为进一步提高微处理器性能,目前对制作芯片的一些关键材料也进行了改进,如铜代替铝,即在线路中用铜代替铝作连接晶体管的导线。铜比铝导电性更好,能使数据传输速率更快,芯片的体积更小,造价更低,跟铝的设计相比,微处理器的性能可以提高20%~40%。据估计,如果将铜技术引入Xeon服务器中,服务器性能将提高40%。但是铜技术在适应硅芯片制造时还有一些技术难题有待进一步解决。

纳米级晶体管的出现,给微处理器性能的进一步提高带来了令人欣喜的曙光,但是制造纳米级晶体管的新的光刻技术还是试验性的,技术实现难度很大,其价格也将是极其昂贵的,而且在提高微处理器性能方面,光刻技术还并非唯一的难题,如晶体管门极氧化物的存在,将会成为缩小晶体管体积的严重障碍。因此,从制作单电子器件到制作纳米芯片,进而生产出实用纳米计算机,还有很长的路要走,有很多难题需要人们去解决,专家估计纳米电子技术的应用将在8到12年之后,我们正在迎接纳米计算机时代的到来。

并行技术的发展

进一步提高计算机性能的又一方法是采用并行技术。现在的计算机采用冯氏体系结构,其本质仅适于串行算法,也就是按规定的顺序依次执行指令,像一条自助餐流水线,在求解问题时有很多难于逾越的机理性限制,因此也限制了计算机性能的进一步提高。现在芯片制造商对此已有了共识,开始考虑能同时执行多个操作的并行处理方案。目前的台式机主要采用流水线技术,即把一个作业加以分解,不再让CPU顺序去做一个作业的每一步,同时把CPU分成若干相互协作的子单元,并把这些子单元装配成一条作业线。流水线方式本质上还是串行处理。Intel公司正进行的并行技术研究改变了这一思维模式,使用其正在研制的预计2000年中期推出的64位千兆处理器——Merced服务器芯片,Merced的后继产品将使用被Intel称为“直接并行指令计算(explicitlyparallelinstructioncomputing)”的技术。“直接并行指令计算”是一个相对简单的概念:使用软件来告诉微处理器哪些指令可以被同时或并行执行。这和广泛用于巨型机中的并行技术也不相同,并行机采用多芯片成组的方式,组中的各处理器同步工作,但是就各个芯片自身执行指令而言仍是按顺序串行执行。与此相反,单个的Merced芯片能有效地同时开启几个新的计数器给更多的用户来提供更快捷的服务。这种新的单芯片并行处理技术的关键在于正在被认识到的已存在的事实:把指令翻译为机器代码的编译程序的功能已很强大,足以区分哪些指令可以被同时执行或并行执行,即将顺序任务和并行任务加以分离。可是芯片自身恰好不具有这样的优势,所以,这一技术为计算机事业的进一步发展开辟了新的道路。

量子计算机的发展

在计算机发展的道路上,最有发展前景的是量子计算机,对它的研究正在受到许多专家学者的高度重视。电子学的远景发展应属于机理更新的范畴——量子机理,经数学证明该机理是完全可行的。量子计算机现在还处于理论研究阶段。量子计算机不是把信息定义为目前计算机使用的,经晶体管处理后的简单的开/关位,而是采用了一种全新的、更深层的基于量子理论的模型,将信息定义为物理系统中单个原子或电子的行为。量子计算机中最小的信息单位为一个量子单位或“量子位”(qubit),它可以同时有多种状态,能更好地适应计算机指令的并行处理,并且在保持量子机理固有的“状态叠加”原理上,“量子位”呈现波的特性——相互加强或相互削弱。使用量子算法的程序能充分利用量子所具有的波的这种特性,加强所期望的结果或削弱不期望的结果,与二进制算法相比,它能更迅速地对大量或更复杂的计算进行分类处理。贝尔实验室的研究人员已开发了一种这样的量子算法,用于查询大型数据库。另外,量子算法也可应用于密码学和制图学等学科。

并非所有未来的量子计算机均采用相同的方式使用量子位。LosAlamos国家实验室的一个研究小组正在开发一种使用“离子阱”器件的量子计算机,在这种器件内部,悬浮的钙离子的电子由激光控制。此外,还有其它的研究方法,如“离子点”及核磁共震等。

一些科学家认为,无论量子计算机的最终形式是什么,需要多长时间才能实现,它都是对微处理器计算机的一种继承,而且量子算法也是唯一能使计算机性能产生质的飞跃的算法。 ( 转自《 计算机世界》) (http://www.dajiyuan.com)

相关新闻
用海藻应对气候变化 日本推动蓝碳发展
Meta营收预测偏低 AI支出增 股价跌16%
玻璃般光滑 NASA在木卫一发现冷却熔岩湖
进军无人机业 台湾亚创中心加州参加国际展
如果您有新闻线索或资料给大纪元,请进入安全投稿爆料平台
评论