2016-06-09

之前为玩游戏配的GTX970显卡,虽然玩游戏是用上了,但平日gpu一直闲着,这么大的计算力一直闲着,岂不是很浪费,想要利用上。

最近1080显卡问世,跑分比970要高1倍,打算入手,由此不得不先着手解决这更大的计算力利用不上的问题,不然买来只玩游戏浪费啊(更需要借口告诉我没乱花钱)。

一直在考虑如何把核心的公式系统移植到cuda进行并行计算,虽然现在已经能利用多核cpu并行的跑,但cpu的特点是延迟低而不是计算力,大概比较的话,gpu的计算能力要高40-100倍。不然怎么每秒渲染60帧图像呢。 但我这里移植并行计算会牵涉到最大的问题:

数据源不能直接使用,因为金融产品的数据有复权问题,而且需要用定点复权功能来避免前视偏差,不然你会很惨, 所以每算一列数据(时间)之前的数据都会变化。

这等于本来可以按行和列直接进行并行计算,但现在只能按行进行,列则一个个计算,预计性能会下降不少。 还有些空间换时间的方法,不知道显存是否够用,还要实际写时计算下。

另外正好cuda 8.0 rc刚刚推出了,说支持vs2015了,果断下了装上。一编译,坑爹啊!vs2015 update2 不支持!


回主页