基于Spark的大规模RNNLM系统

日期:2016.01.01 点击数:3

【类型】学位论文

【作者】李克强 

【关键词】 分布式计算 递归神经网络 自然语言处理 Spark

【学位授予单位】江苏大学

【摘要】自然语言处理作为人工智能中的重要问题,一直是研究与开发的热点;其中基于递归神经网络的语言模型(RNNLM)具有非常强大的功能和鲁棒性,但由于传统计算技术和计算系统的限制,难以构建大规模的RNNLM系统,制约了RNNLM的准确性等。本文在分析现有串行和基于GPU的RNNLM系统的基础上,针对影响RNNLM中计算量的因素,在Spark平台上,设计了面向大规模RNNLM的结构。改变了通过提高矩阵计算速度提高RNNLM系统性能的方式,模拟生物神经网络的并行特性,设计了基于并行神经元的RNNLM,以逻辑神经元为单位

【学位年度】2016-01

【学位名称】硕士

【分类号】TP183;|TP391.1

【导师姓名】蔡涛

【全文挂接】 获取全文

3 0
Rss订阅