全文总字数:9761字
1. 研究目的与意义(文献综述)
近年来,为了推动科学技术的发展,越来越多的学科领域选择使用仿真软件进行科学研究。传统仿真软件将所有计算任务部署在cpu上,cpu要兼顾指令和数值的并行运算,而且大部分的晶体管用在了 cache(高速缓冲存储器)和控制电路上,控制电路十分的复杂,内部仅有5% 的 alu(算术逻辑单元,即运算器)[[i]]。但大规模软件仿真系统中实体模型数量庞大,传统的cpu架构运行效率很低,大量资源耗费在内存调度中。相比较于 cpu 的设计, gpu 在一些需要耗费巨大运算力的问题处理上显得优势明显,它对 cache 需求不高,控制电路也较 cpu 简单许多,于是它大部分的晶体管用在了计算单元上,内部有 40% 的 alu。gpu拥有大量重复设计的计算单元,适用于实现大规模同类型数据的密集计算。
针对上述现象,本次设计一种基于cuda的大规模仿真模型优化软件。设计采用通用并行计算架构(computeunified device architecture,cuda)[[ii]],采用gpu cpu异构架构,对仿真软件实体模型进行并行化计算设计,以提升仿真软件的计算效率。
1.1国内外研究现状
2. 研究的基本内容与方案
2.1 需求说明和基本内容
本次设计应当以传统的仿真模型软件为基础,采用gpu cpu异构架构,基于cuda平台,通过并行化计算实现大规模仿真模型优化软件,以提高传统仿真软件的计算效率。以实现一种可以实用的并行仿真软件为主要目标,要求对传统仿真软件进行并行化加速升级,最终通过实验测试其加速比,以验证加速效果。
3. 研究计划与安排
第1—3周:查阅相关文献资料,明确研究内容,了解研究所需理论知识,对系统要求进行分析,确定方案;
第4—5周:完成外文文献翻译,撰写开题报告,掌握gpu的架构和基本工作原理,了解cpu和gpu的通信过程;
第6—7周:学习并行计算编程,掌握并行程序设计的基本思想;
4. 参考文献(12篇以上)
[[1]]张澳博. gpu并行计算分析[j]. 数字通信世界, 2017, (9):24,15.
[2]叶毅嘉. 浅谈cuda并行计算体系[j]. 无线互联科技, 2015, (6):56,59.
[3]kothapallik,banerjee d s,et al.cpu and/orgpu:revisiting the gpu vs cpu myth[j].arxiv,2013,1303(2171):1-20.
课题毕业论文、开题报告、任务书、外文翻译、程序设计、图纸设计等资料可联系客服协助查找。