【統計分析】機械学習・データマイニング33 (839レス)
上下前次1-新
抽出解除 レス栞
471(3): (アウアウウー Sa9d-qUbB [106.146.28.70]) 2023/12/03(日)16:40 ID:yd0YzEc7a(1) AAS
GPT-nとBERTの違いがイマイチあやふやなんだけど
TransformerのEncoderを使って事前学習して特徴量を生成するのがBERT
TransformerのDecoderを使ってBERTが生成した特徴量をもとに自然言語を生成するのがGPT-nって理解であってるのかな?
GPT-4も学習時はBERT使って学習してるのよね?
上下前次1-新書関写板覧索設栞歴
スレ情報 赤レス抽出 画像レス抽出 歴の未読スレ AAサムネイル
ぬこの手 ぬこTOP 1.186s*