[過去ログ] プロ家庭教師による情報交換スレ part8 (1002レス)
1-

このスレッドは過去ログ倉庫に格納されています。
次スレ検索 歴削→次スレ 栞削→次スレ 過去ログメニュー
1: 2024/04/29(月)14:42 ID:ZSYleQ4r(1) AAS
社会人プロ家庭教師による情報交換スレです。
専業、兼業は問いません。
学生バイトは不可。

馬鹿の一つ覚えを繰り返す誇大妄想狂&偏執狂は、基本的にはスルーの方向で。おヒマな方は遊んであげてください。
NG推奨ワード:指導論、俺クラス、誇らしい結果、ノウハウ、エアプ、ファビョ、はよ!!、うp、♪、w、By、<`ヘ´>、(;¬_¬)、( ´,_ゝ`)、(′・_・`)、( ´△`)、(^-^)
NG推奨ワードを書く人間は基本的にスルー
※前スレ
プロ家庭教師による情報交換スレ part7
2chスレ:edu
2: 2024/04/29(月)15:23 ID:esvuStmC(1/3) AAS
9割が「家庭教師よりChatGPTのほうが優秀」と回答
外部リンク:president.jp
 ChatGPTを用いて学習を進めるのは、非常に楽しく効率のよい方法だ。しかし、この実行にあたって、乗り越えなければならない大きな問題がある。

 それは、ChatGPTなど生成AIが出力する結果が、正しいとは限らないことだ。時々間違った回答をする。これは「ハルシネーション」(幻覚)と呼ばれる現象であり、深刻な問題だ。

◆ChatGPTは数学が得意でない

 この問題が最もはっきりした形で現れるのが、数学だ。数学は、様々な学問分野の中でも最も厳密に確立された分野であり、ChatGPTはそれに関する大量の文献を学習しているはずだから、数学の問題について間違えることはないだろうと、多くの人が考えているに違いない。
 ところが、ChatGPTは、他分野よりもむしろ数学において間違えることが多いのだ。人々が信頼しているにもかかわらず、実際には間違った答えが多いのは、大問題だ。
例を挙げれば、きりがない。例えば、「円周率πが3.05より大きな数字であることを証明せよ」という問題がある。これは、2003年に東京大学の入学試験で出題され、様々なところで引用される有名な問題だ。

 この問題をChatGPTに解かせたところ、奇妙な答えが返ってきた。また、ピタゴラスの定理の証明もできない。ツルカメ算の答えを間違えたり、連立方程式で間違った答えを出したりする。
1-
あと 1000 レスあります
スレ情報 赤レス抽出 画像レス抽出 歴の未読スレ AAサムネイル

ぬこの手 ぬこTOP 0.008s