【統計分析】機械学習・データマイニング33 (977レス)
上下前次1-新
463: (ブーイモ MM03-35jY [49.239.68.226]) 2023/11/22(水)20:27 ID:mLbH07bVM(1) AAS
結局首謀者は誰だったのか
464: (アウアウウー Saa1-/c1L [106.146.15.163]) 2023/11/23(木)19:14 ID:K32BUH0oa(1) AAS
最近CNNについて勉強してるんだけどなんでCNNの進化EfficentNetで止まっちゃってるの?
ViTが出たからもうCNNはオワコン扱いなのかな
465: (ワッチョイ 2ddf-nXTY [240d:1a:632:db00:*]) 2023/11/23(木)19:26 ID:/IrV1b/40(1) AAS
なんと、ViT言葉からキーバリューで畳み込みと似たことをやってるのかと思ったら、畳み込みしないモデルなのか
466: (ワントンキン MMe3-w41H [153.154.78.128]) 2023/11/24(金)09:23 ID:qvF3qj7qM(1) AAS
畳み込みはしないけどパターン認識の基本だから
結局畳込み的なフィルタ処理はやってる
467: (ワッチョイ 4379-Julz [2001:268:c104:8774:*]) 2023/11/25(土)18:55 ID:Db2RbKpf0(1) AAS
>>448
それは会社組織・社会の機能不全の要にも思えるけどな
幕末の藩制の非効化みたいに
468: (ワッチョイ 2302-srP8 [59.138.226.58]) 2023/11/26(日)10:28 ID:59LZT78S0(1) AAS
音声合成VALL-E-Xってのを使ってみたが、評判はいいのに俺が使ったら全然似てなかった。
だれか使った人いる?
469: (ワッチョイ ed6e-+vVj [138.64.114.77]) 2023/11/30(木)09:11 ID:Pbr0EWAn0(1) AAS
llmがファインチューニングかけるとアホになるのは
ファインチューニングで使うコーパスや方針が非論理的だからだろ
470: (ワッチョイ 13bd-Bo0g [240b:c010:461:8f1c:*]) 2023/12/02(土)03:20 ID:XAS82Mg10(1) AAS
LoRAは絵ではうまく言ったけどLLMでは思ったほど成果がないらしいな
471(3): (アウアウウー Sa9d-qUbB [106.146.28.70]) 2023/12/03(日)16:40 ID:yd0YzEc7a(1) AAS
GPT-nとBERTの違いがイマイチあやふやなんだけど
TransformerのEncoderを使って事前学習して特徴量を生成するのがBERT
TransformerのDecoderを使ってBERTが生成した特徴量をもとに自然言語を生成するのがGPT-nって理解であってるのかな?
GPT-4も学習時はBERT使って学習してるのよね?
472(1): (アウアウウー Sa9d-/D3x [106.155.16.213]) 2023/12/03(日)16:59 ID:POEAPkcja(1/2) AAS
>>471
全然ちゃいまんがな
GPTとBERTはtransformers使ってるだけで中身は別だぞ
473: (ワッチョイ 8917-vBln [240d:1a:632:db00:*]) 2023/12/03(日)17:01 ID:KjJi6E/00(1) AAS
多分99%以上の人は自力で学習する事はないだろうから、その辺全部まとめてtransfomerでいい気がするww
474: (アウアウウー Sa9d-/D3x [106.155.16.213]) 2023/12/03(日)17:08 ID:POEAPkcja(2/2) AAS
あとGPTもEncoderとDecoderでモデルを分けてるわけじゃない
同じモデルを使ってるから単に用途の的な意味でしかない
コード読んだらわかるけど
475(1): (アウアウウー Sa9d-qUbB [106.146.30.14]) 2023/12/03(日)17:18 ID:tIQpSdkpa(1) AAS
>>472
GPTとBERTの立ち位置が良く分からなくて混乱してくる…
単方向か双方向かの違いなのかな?
それだと双方向に学習するBERTの方が精度高そうなのになんでGPTの方が流行ってるんだろう
論文とかコードは数式が難しくて読める気がしない…
476: (ワッチョイ 5351-Gbav [2405:6580:8220:1b00:*]) 2023/12/03(日)17:21 ID:6i/6hVjh0(1) AAS
>>471
別個の言語モデル
アーキテクチャが違う
つかbingに聞けよ😅
477: (ワッチョイ 7902-zrcD [182.166.147.105]) 2023/12/03(日)17:37 ID:EqP19IVs0(1) AAS
タスク分解を備えた自律エージェントがAGI開発の次の壁を破りそうだけど、これが完成すると設計の壁が無くなるので、コーダーだけじゃなくSEも失業危機
478: (ワッチョイ 7b89-8qzv [39.111.228.181]) 2023/12/03(日)18:45 ID:ynYZS9P30(1/2) AAS
そんなことができるなら誰も苦労はしない
479(1): (アウアウウー Sa9d-/D3x [106.146.125.1]) 2023/12/03(日)20:32 ID:PuZI2f4Xa(1/2) AAS
>>475
主に違うのは学習方法だよ
GPTはRNNみたいに次の文字を推定するように学習する
一方BERTは任意の位置の穴埋め問題を解くような推定をする
480: (アウアウウー Sa9d-/D3x [106.146.125.1]) 2023/12/03(日)20:47 ID:PuZI2f4Xa(2/2) AAS
あとBERTは最後に線形層などを追加して分類問題として使えたり
様々なタスクに使えるようにできてる
GPTはそうではないが結局プロンプトを分類問題として指定することで同じことができることが判明した
つまりGPTこそあらゆる機能に応用可能な存在だった訳だ
481: (ワッチョイ 7b89-8qzv [39.111.228.181]) 2023/12/03(日)22:08 ID:ynYZS9P30(2/2) AAS
export PS1="$ "
482: (JP 0Heb-58iW [133.106.156.113]) 2023/12/04(月)03:45 ID:GuHykRkTH(1) AAS
マイニングが今儲かるのか儲からないのかの確認方法
を調べたらマイニング爆益やんけ
上下前次1-新書関写板覧索設栞歴
あと 495 レスあります
スレ情報 赤レス抽出 画像レス抽出 歴の未読スレ AAサムネイル
ぬこの手 ぬこTOP 0.008s