【ChatGPT】使えるプロンプトを共有しよう! (395レス)
上下前次1-新
40: 2023/03/21(火)15:17 ID:icU0z8mb(1) AAS
>>39
>>28 これ
41: 2023/03/21(火)15:53 ID:2m76gYP+(1) AAS
今後はIoT機器に自然言語でそれっぽい名称付けてリンクしておけば、後はchatGPT執事がよろしくやってくれるだろうな
42: 2023/03/21(火)20:38 ID:AlGpjgGZ(1) AAS
>>39
本当に「理解してる」人間なら文章の前半と後半が矛盾してる文は書かない
43: 2023/03/21(火)20:43 ID:WgCRi6ko(1) AAS
ヒトは言語レベルのもう一個メタなレベルに
意味を表現したモデルがあるよね
44(1): 2023/03/21(火)21:20 ID:hTHtc575(1) AAS
人間が理解していることを
コンピュータは記憶容量と計算能力でシミュレートしてるだけ
理解と計算は違う
45: 2023/03/21(火)23:22 ID:2ifuio+y(1) AAS
前半と後半で矛盾してる文書など人間描きまくりじゃねーかw
ブログでも仕様でもしょっちゅう見るわw
46(1): 2023/03/22(水)00:19 ID:5TmVGNgV(1) AAS
>>44
>理解と計算は違う
何が違うの?
47(1): 2023/03/22(水)01:23 ID:FoKUJDpe(1/2) AAS
>>46
データ量が違う。赤ちゃんは生まれてから一年足らずで自我が芽生える。
二歳程度で話が出来るようになる
それまでに入力されたデータは人工知能のデータ量と比べれば遥かに少ない
人間は理解してるからわずかなデータ量で答えを出すことができる。
コンピュータにはそれができないから、人間の膨大な行動をデータとして与えて
人間が取る行動を計算してそれを再現している。
48(1): 2023/03/22(水)01:53 ID:Jw2YWjYz(1) AAS
ChatGPTに間違い指摘したら、「あっ本当だっ、確かにそこが間違っている」と自己回答を即時に訂正出来るようになってる段階で
理解してるのと同じだよ。
多くの意見から答えだすだけだったら、間違いをしてきしても
「大きのデータから導きだした答えはこう」としか言わん。
49(1): 2023/03/22(水)02:25 ID:jZlOcGNt(1/3) AAS
>>47
ヒトの理解もやっていることは計算だよ
ただし学習に要するデータ量が少ないという指摘は面白い
脳はどうやって効率的に学習してるのだろうね?
50: 2023/03/22(水)02:41 ID:+LspkWqM(1) AAS
生まれたときから学習済みのプリセットみたいなのが遺伝的に埋め込まれてるのでは?
チョムスキーの言語獲得装置がそれらしい。
51(1): 2023/03/22(水)04:10 ID:JDpTXrQa(1/2) AAS
>>48
間違いを理解した様に返答してくるだけで、実際は理解してないので、
直後に、また同じ間違いを何度も犯し続ける。
じゃんけんのルールをAIが自分で語っているのに、じゃんけんの勝ち負けを
正しく判断できない。間違いを指摘するとあたかも分かったかのように返答
してくるが、全然分かっておらず、また、間違った勝ち負け判定を行なう。
こんな状態では、まともなプログラムも出来ない。
なぜなら、プログラミングのAPIや関数群は次々に新しいものが追加されるから、
新しいルールのじゃんけんが次々に導入されているのと同じだが、
じゃんけんが理解できないのに、APIや関数群の仕様を理解できるわけない。
52(1): 2023/03/22(水)04:11 ID:JDpTXrQa(2/2) AAS
>>49
学習しているのではなく、考えているのだと思うぞ。
だから、学習しなくても頭のいい人は考え付く。
ほら、勉強しなくても出来る人がいるだろう。
53(1): 2023/03/22(水)07:09 ID:FoKUJDpe(2/2) AAS
プログラムなんかgithubに正しく動く「正しい答え」がたくさん書いてある
だからそれをコピーすれば動くものが出来る
ChatGPTがプログラムに強い理由は正しい答えがたくさんあるから
54: 2023/03/22(水)09:06 ID:/4SY8xk7(1) AAS
ChatGPTはこういう間違いを冒すから理解などしていない、というような言説はあまりにも「理解」や「知能」に対してあまりにもナイーブな態度で無思考だと思うけどな。
まずは要素分解して、このような条件を満たしていたら理解だ、という点を考えるべきだろう。
人間の学習量が少なくて済むのは、脳がある程度学習した状態で生まれてくるからというのもあると思うけど、
人間はホルマリン漬けの脳に言語的刺激だけ与えられて学習する状態じゃないってのもデカいと思うな。
赤ちゃんは言語的理解の前に物理的理解があると思う。
55: 2023/03/22(水)13:54 ID:FgwmRwyf(1/2) AAS
>>53
ChatGPTはプログラムには弱い印象を受けたが。
56: 2023/03/22(水)14:12 ID:jZlOcGNt(2/3) AAS
>>52
>だから、学習しなくても頭のいい人は考え付く。
赤ん坊は考えることができない(少なくとも未熟である)
経験により考える回路が生成されることを学習という
57(1): 2023/03/22(水)15:48 ID:FgwmRwyf(2/2) AAS
ロジックや数学が弱い人には分からないのかも知れないが、基礎的なロジックは
沢山の勉強によって獲得するものではなく、幼少期の僅かな経験によって、
自分の中から生み出されてくるものだ。
例えば、全く学校に行ったことがない人でも、じゃんけんのルールは言われれば
すぐ理解できる。
ところがChatGPTは理解できない。
58(1): 2023/03/22(水)16:03 ID:qCUL2UVX(1) AAS
いや、新ロジックをチャット内で渡してあげれば、それでChatGPTは組み立てるけど?
59(2): 2023/03/22(水)17:34 ID:cciQLhLM(1) AAS
ホントだ。じゃんけんを理解できない
q.
山は川に勝ち、川は海に勝ち、海は山に勝つ。こういうものがあったとします。私が山といったらあなたは何を出しますか?
a.
このような言葉遊びを「三すくみ」と呼びますね。おっしゃる通り、山は川に勝ち、川は海に勝ち、海は山に勝つという言葉遊びがあります。
おっしゃる通り、「山」という言葉を出すという指示がありますね。私から出す言葉は「登山」です。
q.
山に対して勝つのはなんですか?
省2
上下前次1-新書関写板覧索設栞歴
あと 336 レスあります
スレ情報 赤レス抽出 画像レス抽出 歴の未読スレ AAサムネイル
ぬこの手 ぬこTOP 0.010s