【統計分析】機械学習・データマイニング33 (839レス)
前次1-
抽出解除 レス栞

471
(3): (アウアウウー Sa9d-qUbB [106.146.28.70]) 2023/12/03(日)16:40 ID:yd0YzEc7a(1) AAS
GPT-nとBERTの違いがイマイチあやふやなんだけど
TransformerのEncoderを使って事前学習して特徴量を生成するのがBERT
TransformerのDecoderを使ってBERTが生成した特徴量をもとに自然言語を生成するのがGPT-nって理解であってるのかな?

GPT-4も学習時はBERT使って学習してるのよね?
472
(1): (アウアウウー Sa9d-/D3x [106.155.16.213]) 2023/12/03(日)16:59 ID:POEAPkcja(1/2) AAS
>>471
全然ちゃいまんがな
GPTとBERTはtransformers使ってるだけで中身は別だぞ
476: (ワッチョイ 5351-Gbav [2405:6580:8220:1b00:*]) 2023/12/03(日)17:21 ID:6i/6hVjh0(1) AAS
>>471
別個の言語モデル
アーキテクチャが違う
つかbingに聞けよ😅
483: (スップ Sd73-RUNM [1.75.152.10]) 2023/12/04(月)12:42 ID:EqOxc786d(1) AAS
>>471
全然あってなくて草🌿

>>479
基本的にはそれだね、今では学習方法のバリエーションは多いけど
前次1-
スレ情報 赤レス抽出 画像レス抽出 歴の未読スレ AAサムネイル

ぬこの手 ぬこTOP 1.398s*