[過去ログ] 現代数学の系譜11 ガロア理論を読む30 [無断転載禁止]©2ch.net (653レス)
上下前次1-新
このスレッドは過去ログ倉庫に格納されています。
次スレ検索 歴削→次スレ 栞削→次スレ 過去ログメニュー
269(1): 現代数学の系譜11 ガロア理論を読む 2017/04/27(木)13:52 ID:rio6lBme(19/46) AAS
>>266 関連
外部リンク[html]:eetimes.jp
2017年04月07日 14時00分 更新
機械学習に特化した「TPU」:
GoogleのAI用チップ、Intelの性能を上回ると報告
Googleが2016年に発表した、機械学習の演算に特化したアクセラレータチップ「TPU(Tensor Processing Unit)」が、IntelのCPUやNVIDIAのGPUの性能を上回ったという。Googleが報告した。
[Rick Merritt,EE Times]【翻訳:青山麻由子、編集:EE Times Japan】
Googleによると、同社の人工知能(AI)向けアクセラレータチップ「Tensor Processing Unit(以下、TPU)」が、機械学習のテストでIntelのサーバ向けプロセッサ「Xeon」とNVIDIA製のGPUを1桁以上も上回る結果を出したという。
17ページにわたる論文( 外部リンク:drive.google.com )は、TPUとベンチマークについて深く掘り下げる内容になっている。具体的には、TPUが、上記のIntelおよびNVIDIAのチップに比べて15倍の処理速度を実現し、1ワット当たりの処理性能は30倍となっていることが示されている。
GoogleがTPUを発表したのは2016年5月のことだ。TPUは、自社のデータセンター向けサーバ上の幅広いアプリケーションにおける推論プロセスを加速するために開発されたという。
Googleは現在、2017年6月に開催されるコンピュータアーキテクチャ関連のカンファレンスで発表予定の論文の中で、TPUの詳細を初めて明らかにしている。
論文では、TPUの他、Googleが取り組むさまざまなニューラルネットワークの開発について述べられている。また、機械学習についてエンジニアが学ぶべきことはたくさんあると示唆している。
著名なハードウェアエンジニアで、TPUの開発に関わった70人以上のエンジニアから成るチームを率いたNorman P. Jouppi氏は、「われわれは優秀なエンジニアを必要としている。そのため、彼らに、私たちの仕事の質がいかに高いかを知ってもらいたかった。さらに、クラウド分野の顧客に、当社の能力を知っていただきたいと思っている」と述べている。
米カリフォルニア大学バークレー校の元教授で、ベテランのプロセッサアーキテクトでもあるDavid Patterson氏も、TPU開発プロジェクトに貢献した1人だ。
上下前次1-新書関写板覧索設栞歴
あと 384 レスあります
スレ情報 赤レス抽出 画像レス抽出 歴の未読スレ AAサムネイル
ぬこの手 ぬこTOP 0.010s