.

半導体・FPD業界の出版社 デジタル家電 通信・ネットワーク 移動体通信/携帯電話 次世代FPD 投資/工場計画 アプリケーション FPD新製品 半導体新製品 製造装置・材料 FPD動向 半導体動向

2016年9月21日

富士通研、ニューラルネット規模を約2倍に拡大する技術を開発

 富士通研究所は2016年9月21日、学習の高精度化に向けたニューラルネットの大規模化に対応するため、GPUの内部メモリの利用効率を向上させる技術を開発し、最大で従来比約2倍規模のニューラルネットの学習を可能にした。
 大量の演算が必要なDeep Learningの学習処理において、近年、大量データの計算が得意なGPUを用いて高速に学習を行う技術が注目されている。GPUの高速な演算性能を活用するためには、一連の演算に使用するデータをGPUの内部メモリに格納する必要がるが、メモリ容量によって学習可能なニューラルネットの規模が制限されるという課題があった。
 今回、学習の開始時にニューラルネットの構造を解析して、メモリ領域を効率的に再利用できるように演算順序とデータのメモリへの配置を最適化するメモリ効率化技術を開発し、オープンソースソフトウェアのDeep Learningフレームワーク「Caffe」に実装して評価した。広く研究の領域で使用されている画像認識用ニューラルネット「AlexNet」や「VGGNet」において、GPUの内部メモリ使用量を40%以上削減できるなど、最大で約2倍規模のニューラルネットの学習が可能となることを確認した。
 富士通研究所では、今回開発した技術を富士通株式会社のAI技術「Human Centric AI Zinrai(ジンライ)」の一つとして、2016年度末までの実用化を目指ます。また、すでに発表しているGPUの並列化によるDeep Learning学習処理の高速化技術と組み合わせて、技術の改善を行っていく。

URL=http://pr.fujitsu.com/jp/news/2016/09/21-1.html








 

EDリサーチ
お問い合わせ・ご質問は webmaster@edresearch.co.jp
(c) 2001 ED RESEARCH Co., Ltd. All rights reserved.

デジタル家電 通信・ネットワーク 移動体通信/携帯電話 次世代FPD 投資/工場計画 アプリケーション FPD新製品 半導体新製品 製造装置・材料 FPD動向 半導体動向