[過去ログ] (情報科学)技術的特異点と科学技術等 2 (ナノテク)©2ch.net (319レス)
上下前次1-新
このスレッドは過去ログ倉庫に格納されています。
次スレ検索 歴削→次スレ 栞削→次スレ 過去ログメニュー
259(1): >>258 2018/07/30(月)07:13 ID:wOzVCFyH(43/50) AAS
BEアイコン:nida.gif
Page 43
共同開発のパターン3
? そもそもPEZY-SCは利用できそうだろうか?
? 液浸環境下でスパコン構成を試してみたい。 →菖蒲システムの利用公募
外部リンク:accc.riken.jp
こちらも十分な情報やサポートを保証できるものではありません(可能な範囲でのご提供となります)
研究開発用途で開発情報を公開可能ならばお勧め!
個人でも応募可!!
Page 44
省7
260(2): >>259 2018/07/30(月)07:14 ID:wOzVCFyH(44/50) AAS
AA省
261(1): >>260 2018/07/30(月)07:14 ID:wOzVCFyH(45/50) AAS
BEアイコン:nida.gif
Page 47
今後の展開
Page 48
今後の展開
? 新プロセッサ PEZY-SC2の開発
? 2,048コアの演算PE+MIPSプロセッサ内蔵
? TCIインタフェースによる、メモリ帯域の飛躍的拡大
省4
262(2): >>261 2018/07/30(月)07:15 ID:wOzVCFyH(46/50) AAS
BEアイコン:nida.gif
Page 49
PEZY-SC2の特徴
? CPUがMIPSとなりSC2とメモリ空間を共有する
→従来XeonとSCの間で必要であったメモリ転送が必要なくなる。
メモリ
↑ Xeon
↓ SC SC SC SC
メモリ メモリ メモリ メモリ
↓
省8
263(1): >>262 2018/07/30(月)07:16 ID:wOzVCFyH(47/50) AAS
BEアイコン:nida.gif
Page 51
外部に公開している情報
? 若干のサンプルプログラム
? Doxygenで自動生成されたAPIリファレンス
? 簡単なアーキテクチャ説明資料
? 簡単なプログラミングマニュアル
Page 52
外部に公開している情報
省7
264: >>263 2018/07/30(月)07:17 ID:wOzVCFyH(48/50) AAS
BEアイコン:nida.gif
Page 53
開発中/予定のソフトウェア
? 物理系シミュレーション
? 開発環境
? OpenACC/OpenCL/PUDA(!)・・・
? 量子計算シミュレーション
? メタゲノム解析ツール
? ニューラルネット
? Caffe/・・・
省7
265(1): >>217-264 2018/07/30(月)07:23 ID:wOzVCFyH(49/50) AAS
BEアイコン:nida.gif
>>217-264
>4 YAMAGUTIseisei 180610 0143 OGJRAL12?
>>145 オryー 180203 1039 lpGi+Bkf
> :
>> 技術流出を防ぐためにペジー社は守る!?
>>動画リンク[YouTube]
>
>
>>5 yamaguti~貸 170319 2042 cRK6Y+kv
省3
266: >>265 2018/07/30(月)07:23 ID:wOzVCFyH(50/50) AAS
BEアイコン:nida.gif
>831 オryー 180706 1751 H22QHp/d
> 第51回のTop500は米国のSummitが中国から首位を奪回 | マイナビニュース
>外部リンク:news.mynavi.jp
:
>。もし運用 ry 、20.41PFlopsでTop500 5位 ry 、幻 ry 。ExaScalerでは、暁光を設置 ry 主体を募集 ry 、きちんと運用 ry 、国内でなくても良い
>832 オryー 0706 2235 kFCxLR3J
> 中国だな
267(1): >>173 2018/08/12(日)20:42 ID:ltAhnLdz(1) AAS
BEアイコン:nida.gif
>>184-216
2chスレ:future
>153 >>152 180812 2027 ltAhnLdz?
> >>105-152
> 2chスレ:future
> >184 yamaguti 180727 0129 pBBIx/eO?2BP(0)
>> >>46 >>173 >>152-183
>> Google 翻訳
>>
省17
268(3): YAMAGUTIseisei 2018/08/20(月)01:55 ID:xpTaf9mR(1/2) AAS
BEアイコン:nida.gif
HPKY 型 汎用 AI/AL
>>179 >>152 リンク先 > 2chスレ:future JinkakuSisutemu Sikumi >105-107
>774 yamaguti~貸 171020 1534 0nNF/MoU?
> >673 \> NN ベース AI というよりもいわば設計ベース AI ( AL ) + NN という事ならば説得力
>
> 従来予想 : 超強力弱い AI ( 粒度 時間方向割当度 → 強い AI 度 ) ( >5 168 )
> >371 yamaguti~貸 171011 1322 gs4iO9ie
>>+
>>粒度さえ充分に細かければ ( + データと計算機パワー 資金力 ( +
省24
269(3): YAMAGUTIseisei 2018/08/20(月)02:36 ID:xpTaf9mR(2/2) AAS
BEアイコン:nida.gif
>>268
>>>+ データと
>>↑ 学習済高低レイヤモジュール : 充実 ( 不足致命的ならず ) ?
必ずしも充実不要 ( 一見致命的不足状態も条件次第で可 )
270(7): YAMAGUTIseisei 2018/09/08(土)00:07 ID:sHJfJTCE(1/2) AAS
BEアイコン:nida.gif
>>269
> YAMAGUTIseisei wrote:
>> HPKY 型 汎用 AI/AL
>> DSL 型 汎用 AI/AL
>> 他
>>
>>
>> >179 yamaguti 180602 1505 5+vbS3Cj?
>>> >>162 >>152 >>178 辞書ベース
省22
271(2): YAMAGUTIseisei 2018/09/08(土)00:18 ID:sHJfJTCE(2/2) AAS
BEアイコン:nida.gif
>>269
翻訳 教師データなし例 ( NN ベース ML )
2chスレ:future Sekkei
2chスレ:future Jissyou FB
272(1): YAMAGUTIseisei [sage11日降雨後放●性金属臭極微12日喉微妙] 2018/09/16(日)18:40 ID:m2szPimC(1/13) AAS
BEアイコン:nida.gif
>>189 >>267 >>184-216
YAMAGUTIseisei wrote:
>> E2ダイナミックマルチコアアーキテクチャにおける動的ベクトル化
>
> 訂正
>
>> スカラーモードでは、どの命令もブロック内の他の回路にオペランドを送信でき、電力を節約するためにALUのうち2つを除くすべてがオフになります。
>> ベクタモードでは、すべてのN個のALUはオンになっていますが、回路は同じベクタレーンの回路にのみオペランドを送信できます。
>
省2
273(2): >>270 [sage15日降雨後早朝放●性金属臭微々喉微妙] 2018/09/16(日)21:30 ID:m2szPimC(2/13) AAS
BEアイコン:nida.gif
> YAMAGUTIseisei wrote:
:
>> dahara1 氏
>> Universal Transformerを用いて翻訳を超える
>> 外部リンク:webbigdata.jp
>>> 以下、ai.googleblog.comより「Moving Beyond Translation with the Universal Transformer」の意訳です。
>> 要約
>>
>>
省13
274(1): >>270 [sage本日降雨後放●性金属臭微々→微妙] 2018/09/16(日)21:31 ID:m2szPimC(3/13) AAS
BEアイコン:nida.gif
>> 2.Transformerをより汎用的にしたUniversal Transformer
>>
>> 以下、ai.googleblog.comより「Moving Beyond Translation with the Universal Transformer」の意訳です。
>>
>> 昨年、我々は既存の機械翻訳や、その他の自然言語を扱う既存 ry よりも顕著な成功 ry 機械学習モデルであるTransformer ry
>>
>> Transformer以前のニューラルネットワークに基づく機械翻訳アプローチの大半は、文章の先頭から順番に処理をしていました。
>> これはRNN ( ry ) ry 、RNNは文章を先頭から順番に ry 、ある文を翻訳した結果を続く文を翻訳する際にインプットに利用 ry
>> 、前の段落の文脈を捉え ry 、 RNNは文書のような連続する処理( ry )において非常に強力ですが、 ry
省13
275(3): >>270 [sage本日降雨後放●性金属臭微々→微妙] 2018/09/16(日)21:34 ID:m2szPimC(4/13) AAS
BEアイコン:nida.gif
>> 2.Transformerをより汎用的にしたUniversal Transformer
>>
>> 以下、ai.googleblog.comより「Moving Beyond Translation with the Universal Transformer」の意訳です。
>>
>> 昨年、我々は既存の機械翻訳や、その他の自然言語を扱う既存 ry よりも顕著な成功 ry 機械学習モデルであるTransformer ry
>>
>> Transformer以前のニューラルネットワークに基づく機械翻訳アプローチの大半は、文章の先頭から順番に処理をしていました。
>> これはRNN ( ry ) ry 、RNNは文章を先頭から順番に ry 、ある文を翻訳した結果を続く文を翻訳する際にインプットに利用 ry
>> 、前の段落の文脈を捉え ry 、 RNNは文書のような連続する処理( ry )において非常に強力ですが、 ry
省13
276(1): >>270 2018/09/16(日)21:34 ID:m2szPimC(5/13) AAS
BEアイコン:nida.gif
>> ry 訓練速度を維持するために並列構造を構築、Transformerの異なる変換関数を
>> 複数の parallel-in-time recurrentな変換関数に置き換えました。(下図のように同じ変換関数が、
>> 複数の処理ステップにわたって並列に、全てのシンボルに適用され、各ステップの出力が次のステップの入力に
>>
>> 重要なことは、RNNがシンボルを順次処理するケースで、Universal Transformerは全てのシンボルを
>> (Transformerのように)同時に処理します。しかし同時にUniversal Transformerはセルフアテンションを使用して
>> 平行に複数回、再帰的に反復処理を行い、 ry 解釈を改善します。このparallel- in-time recurrence ry は、
>> RNNで使用されている順次処理する再帰的メカニズムよりも高速であり、 ry 標準的なフィードフォワードTransformerより強力
>>
省14
277: >>270 2018/09/16(日)21:36 ID:m2szPimC(6/13) AAS
BEアイコン:nida.gif
>> ry 単一の関数を繰り返し適用する事が制限のように見えるかも ry
>> 、特に異なる機能に異なる関数を適用する標準のトランスフォーマーと比較した場合は。しかし、
>> 1つの関数を繰り返し適用する方法を学ぶことは、アプリケーションの数(処理ステップの数)が可変
>>
>> 、Universal T ry がより曖昧なシンボルに多くの計算 ry 以外に、モデルは、 ry 関数アプリケーションの数を増減するか、
>> トレーニング中に学習された他の特性に基づいて入力の任意の部分に改良を適用することがよくあります。
>> これにより、 ry 、入力のさまざまな部分に異なる変換 ry 効果的に学ぶことができ、理論的な意味でもより強力 ry
>> 。これは、標準のTransformerでは実行できない ry 。標準のTransformerでは学習済み変換ブロックが1回だけ
>>
省11
278: >>270 2018/09/16(日)21:37 ID:m2szPimC(7/13) AAS
BEアイコン:nida.gif
>> 私達は、最近のparallel-in-time sequence modelsを開発して計算量と再帰処理の深さを高める事、及び、
>> ここで紹介した基本的なUniversal Transformerにさらなる改良を加えてより強力でよりデータ効率の良い学習アルゴリズムを構築する事、
>> それらが、現在の最先端技術を超えた学習アルゴリズムの一般化に繋がる事に情熱を燃やしています。
>> ここで紹介する ry さらなる改良が、より多くの学習アルゴリズムを構築するのに役立つことを願っています ry
>> 、現在の最先端技術を超えて一般化されています。
>>
>> 、Universal Transformerの学習と評価に使用されるコードは、オープンソースとしてTensor2Tensorリポジトリ
>>
>> 謝辞
省22
上下前次1-新書関写板覧索設栞歴
あと 41 レスあります
スレ情報 赤レス抽出 画像レス抽出 歴の未読スレ AAサムネイル
ぬこの手 ぬこTOP 0.016s