【ChatGPT】AIチャット総合 19【Copilot・Gemini】 (187レス)
【ChatGPT】AIチャット総合 19【Copilot・Gemini】 http://mevius.5ch.net/test/read.cgi/esite/1723036004/
上
下
前
次
1-
新
通常表示
512バイト分割
レス栞
167: 名無しさん@お腹いっぱい。 (ワッチョイ 8b94-C+z/) [] 2024/10/17(木) 12:03:16.58 ID:dcHpcOWv0 ps://www.itmedia.co.jp/news/articles/2410/13/news070.html 「現在のLLMに真の推論は困難」──Appleの研究者らが論文発表 2024年10月13日 08時00分 公開 [ITmedia] 米AppleのAI研究者らは10月7日(現地時間)、「GSM-Symbolic: Understanding the Limitations of Mathematical Reasoning in Large Language Models」(LLMにおける数学的推論の限界を理解する)という論文を発表した。 この論文は、LLM(大規模言語モデル)が、本当に人間のように論理的に考えて問題を解けるのか、という疑問を検証している。結論としては、LLMは今のところ、表面的なパターンを真似て答えを出しているだけで、真の推論能力は持っていないと主張している。 研究者らは、これらの問題点を検証するために、「GSM-Symbolic」という新しいテスト方法を開発した。これは、LLMの数学的推論能力を評価するためのベンチマークデータセット「GSM8K」を改良し、問題の表現や数字を柔軟に変えられるようにしたもの。また、「GSM-NoOp」という、無関係な情報を含んだ問題集も作成し、LLMの推論能力を評価した。 実験の結果、OpenAIのGPT-4oやo1-previewなどのLLMは、他のLLMと比べて高い性能を示したが、それでもGSM-NoOpのような引っ掛け問題には弱く、真の推論能力を獲得するにはまだ課題があるとしている。 論文では、実験で明らかになった「弱点」を挙げている。 数字や言い回しを変えると混乱する 例えば、ある問題をLLMが解けたとしても、その問題の数字を変えたり、少し言い回しを変えただけで、正解率が大きく下がった。 これは、LLMが問題の本質を理解して解いているのではなく、訓練データで見たパターンを単純に当てはめているだけである可能性を示唆している。 問題が複雑になると混乱する 簡単な問題なら解けても、問題文が長くなって複雑になると、LLMの正解率は下がり、さらに答えのばらつきも大きくなる。 例として、公衆電話からの通話料金に関する問題をベースに、問題の難易度を4段階に調整した結果の正解率を、米GoogleのGemma 2や米OpenAIのGPT-o1 mini、米MicrosoftのPhi-3.5で調べたところ、いずれのLLMも難易度が上がると正解率が下がった。 http://mevius.5ch.net/test/read.cgi/esite/1723036004/167
上
下
前
次
1-
新
書
関
写
板
覧
索
設
栞
歴
あと 20 レスあります
スレ情報
赤レス抽出
画像レス抽出
歴の未読スレ
AAサムネイル
Google検索
Wikipedia
ぬこの手
ぬこTOP
0.655s*