[過去ログ] (強いAI)技術的特異点/シンギュラリティ156 (1002レス)
1-

このスレッドは過去ログ倉庫に格納されています。
次スレ検索 歴削→次スレ 栞削→次スレ 過去ログメニュー
34: yamaguti 2019/04/04(木)18:59 ID:CS6nD8sb(29/62) BE AAS
BEアイコン:nida.gif
>45 名前:yamaguti E-mail:意味⇔行間sage細粒度概念層発 投稿日:2019/03/16(土) 16:19:19.98 ID:oq9O0c4s?2BP(0) \ \ \>17 yamaguti 190205 1212 X9C1Zb0H?
|| :
||||||| HPKY-UniversalTransformer 汎用仮想空間統合レンダ ( Unity ベースビジュアル DSL )
|| :
||
||>37 yamaguti 190224 2058 WFxvUogS? \>23 yamaguti 0205 1220 X9C1Zb0H? \>14 yamaguti 190123 1418:11.92 ID:mAoFHgII?
|||||>95 ー 190111 2346 AVe1zmKO
|||||>】グーグルがひと目惚 、日本の人工知能ベンチャ
|||||>外部リンク:m.newspicks.com HPKY-UniversalTransformerBERT
||||| :
|||||>ータが言葉を理解 、自然言語処 革命 \>これまでは言葉にまつわる 、作業ごとに モデル \>、それを汎用化 、あらゆるタスク 優 言語能力
||||| :
|||||>文章を要約 、 意●味 理解している
||||| :
|| :
||||||>197 ー 181112 2127 6NczvRQt
||||||>Google、言語表現事前トレーニング手法「BERT \>外部リンク[html]:www.ossnews.jp
||||| :
||||||>外部リンク:aitimes.media
||||| :
|||||||、 最大の特徴は、事前に学習したモデルをチューニン
||||| :
|||||>Universal Transformer 論文 ( Google 翻訳 )
||||||>ーケンスの異なる部分からの情報を結合するために、 すべての繰り返しステップで自己アテンショ \>、適応型計算時間(ACT)メカニズ 、シーケンス内の各位置の表現が改訂される回数をモデルが動的
|| :
||||||>682 ー 181128 1341 L5zgI8e7
||||||>論文を検証 - 第1回 - BERT (解説編 \>外部リンク:bci-tech.hatenablog.com
||||| :
||||||| * MLM、NSPの2つの手法を使って pre-train
||||| :
||||||| * 単語(sub_token)ベクトル、文ベクトル、位置ベク を加算したベ を埋め込みベクトルとし
|| :
1-
あと 968 レスあります
スレ情報 赤レス抽出 画像レス抽出 歴の未読スレ AAサムネイル

ぬこの手 ぬこTOP 0.008s