原帖由 Edison 于 2006-5-6 15:43 发表
你在这里给出的linkpack测试是双精度的,CELL的SPU能支持FP32(单精度)、FP64(双精度)、FX32(32位定点)。
在执行FP64的时候,SPU是SI2D,而且是非流水线的,性能会下降到FP32(SI4D、流水线设计)的1/10~1/14。 ...
原帖由 Prescott 于 2006-5-21 10:45 PM 发表
第一:Linpack没人关心什么单精度的成绩。linpack既然用于衡量科学计算中的浮点处理能力,从来默认就是指双精度。
第二:Cell上市起码要到明年了,和那时的处理器比,Cell在它的强项上也没什么优势可言。Con ...
原帖由 Edison 于 2006-5-22 15:06 发表
1、Linpack一开始出现的时候就有SGEFA和SGESL以及DGEFA和 DGESL,分别对应单双精度,出现这样的设计是因为当时的Cray系统full precision是单精度,而IBM的full precision是双精度,Linpack在当时要求只是full precision,因此你说的Linpack一开始就是把双精度作为默认的精度是不准确的,在现实中只选择双精度性能只是TOP500的要求,而对于针对游戏机平台的Cell来说,只考虑双精度的性能是违背设计初衷的。
Linpack的FAQ:
“What numerical precision is required to run and benchmark and gain an entry in the Linpack Benchmark report?
In order to have an entry included in the Linpack Benchmark report the results must be computed using full precision. By full precision we generally mean 64 bit floating point arithmetic or higher. Note that this is not an issue of single or double precision as some systems have 64-bit floating point arithmetic as single precision. It is a function of the arithmetic used.”
2、MC的CELL Blade已经推出,而IBM自己的Cell Blad根据之前的新闻稿是打算在9月份左右推出,PS3的全球上市时间是今年11月。
CELL第一版采用的是90nm工艺,3.2GHz 1PPE+8PPE全动作的时候耗电是50瓦。如果采用65nm的话,估计会降低到30瓦以内,这个工艺切换动作应该在07年就会进行。
Conroe 3GHz(E6800 2.93GHz?)耗电我目前没有什么资料,不过从Conreo 3.3GHz TDP是95瓦以及Woodcrest 3GHz TDP是80瓦来看,Conroe 3GHz的TDP是80瓦恐怕是跑不了了,你的65瓦资料是从何获得的呢?
Kentsfield 3GHz?你是如何确定出80watt的?Kentsfield就是Woodcrest MCM,依然是65nm,还能比Woodcrest低?
3、关于PC和游戏机同期的性能比较,在过去一直都是PC强于同期的游戏机,例如XBOX1是Pentium III 128KB+NV25 UMA 64MB,但是这并不能反映什么,买游戏机的依然大有人在。
SPE的DMA在初始化后是不需要PPE干预的,由MFC自主式进行的。
SPE支持整数操作,7个SPE@3.2GHz的整数性能是22.4BIPS,Conroe@3GHz是18BIPS,CELL有分支HINT指令以及256KB L1 cache来降低分支消耗的性能。
未来的处理器和GPGPU在很多方面都会有重合之处,Intel的发展路线就是如此,你在指责CELL是GPU导向设计的时候,其实也是在责备英特尔的Beyond 2008构想。
CELL和Netburst相比当然有它自己的考量,因为对于游戏开发人员来说,OOO的设计比较难以衡量指令的走向,而in-order+FGMA可以在一定程度上降低这方面的性能损失,以增加运算单元和ISSUE port的设计来增加IPC成本比多线程方式高得多,在做出这些权衡取舍后CELL可以拥有高得多的整数/浮点峰值性能,也是同期内索尼为PS3所能找到的最佳选择。
原帖由 Edison 于 2006-5-22 15:06 发表
1、Linpack一开始出现的时候就有SGEFA和SGESL以及DGEFA和DGESL,分别对应单双精度,出现这样的设计是因为当时的Cray系统full precision是单精度,而IBM的full precision是双精度,Linpack在当时要求只是full prec ...
原帖由 Prescott 于 2006-5-22 16:54 发表
FAQ说得很明显啊,想要提交Linpack,通常需要64bit或者是80bit的成绩啊。你非要提交一个32bit的成绩又有什么意义?DP本就不是Cell的设计目标,拿用于衡量HPC性能的Linpack来衡量Cell本来就不合适。
Cell的 ...
原帖由 GZboy 于 2006-5-22 20:33 发表
Kentsfield是Woodcrest MCM,80W TDP确实有点悬。
原帖由 ximimi 于 2006-5-22 21:38 发表
你用软件处理那是当然,因为p4本身不是设计来处理大批量网络处理的
现在跑大流量网络应用有卸载卡,网卡中断的影响可以忽略不计算![]()
原帖由 ximimi 于 2006-5-22 21:41 发表
cell spe之间通信用文件系统,可见数据量不是很大,而且用dma,我估计是一次中断批量处理的![]()
原帖由 pcblue 于 2006-5-22 23:39 发表
第一:Linpack没人关心什么单精度的成绩。linpack既然用于衡量科学计算中的浮点处理能力,从来默认就是指双精度。
第二:Cell上市起码要到明年了,和那时的处理器比,Cell在它的强项上也没什么优势可言。Conroe ...
原帖由 ainomushime 于 2006-5-23 01:08 发表
Prescott当年是如何捧Netburst的,现在这个死了,又开始踩了. RP立现.
原帖由 Prescott 于 2006-5-23 01:15 发表
如果不是功耗问题,Netburst又有谁能敌?Netburst设计之前卫,又岂是AMD所能比?
原帖由 Prescott 于 2006-5-22 22:02 发表
除了文件系统,Linux下还有什么其他的好办法吗?
数据量不大怎么能喂饱8个SPE?那可是每个号称每秒钟24GFLOPS 单精度浮点的。
原帖由 complexmind 于 2006-6-14 15:57 发表
不敢苟同啊 #
如果英特尔掌握了碳纳米管技术,说不定还会回归Netburst呢 #![]()
原帖由 hopetoknow2 于 2006-6-14 04:05 PM 发表
我还是说,netburst是失败了,最重要原因是:因为有更适合45nm、32nm、22nm工艺的新架构,科技和认识都在不断发展, 昔日认为的最优之外还有更优。
原帖由 Prescott 于 2006-5-22 16:54 发表
FAQ说得很明显啊,想要提交Linpack,通常需要64bit或者是80bit的成绩啊。你非要提交一个32bit的成绩又有什么意义?DP本就不是Cell的设计目标,拿用于衡量HPC性能的Linpack来衡量Cell本来就不合适。
Cell的 ...
欢迎光临 热点科技 (http://www.itheat.com/activity/) | Powered by Discuz! X3.2 |