【ChatGPT】使えるプロンプトを共有しよう! (395レス)
1-

91
(2): 2023/03/23(木)23:01 ID:NhbsK42j(3/14) AAS
>>90
でも、初心者のころでも、「やり方が分からない」とか
「効率のよいやり方が分からない」ということはあっても、
自分が考えたロジックそのものは特に間違ってなかったし、
間違っていたら、間違いがはっきり分かって、正確に直すことも出来た。
じゃんけんの判定間違いを指摘されてもいっこうに直らないようなことは
有り得なかった。
92: 2023/03/23(木)23:03 ID:NhbsK42j(4/14) AAS
>>91
まともなプログラマが間違うのは、もっと複雑な場合。
何万行レベルになると、「摺り合わせ」の部分や記憶違いや
考え違い、修正忘れ、などで間違いが起きることがある。
ChatGPTは、数行のプログラムでも根本的に間違っているので
全然違う。
93
(2): 2023/03/23(木)23:05 ID:mBtK7sgT(5/9) AAS
>>91
じゃんけんをプログラム学ぶ前に一才知らなかったらその理屈も成り立つかもしれないが…
例えば、将棋の3手詰めを解くアルゴリズムを考えろというような課題を、問題なく解くことができるのか、実装できるのかと考えてみるとどうだろう?
探索空間が広くてルールも複雑で難しいだけでロジックの塊だよね
94
(1): 2023/03/23(木)23:07 ID:aGomThyA(1/2) AAS
>>93
ルール書いて、総当たりすれば良くね?
95
(1): 2023/03/23(木)23:08 ID:NhbsK42j(5/14) AAS
>>93
詰め将棋のアルゴリズムは、すぐには分かりにくいものでは有るが、
ChatGPTの犯す初歩的な間違いとはレベルが違いすぎる。
96
(1): 2023/03/23(木)23:10 ID:NhbsK42j(6/14) AAS
そもそも、ChatGPTは、テトリスが何たるものかも理解してなくて、
ネットに「テトリスを作るソース」という記事が上がっているものの
本質を「まとめている」に過ぎない。
人間は、まず、テトリスを頭の中で創造するか、動画などから目で見て、
それをどうやってプログラムすればいいかを考えるのだから、結構開きがある。
97
(1): 2023/03/23(木)23:15 ID:mBtK7sgT(6/9) AAS
>>94-95
だからさ、その実装が間違ってたときに、3手詰めの実装が超簡単だと思ってるプログラマから
「次元が低すぎる。本当に知能ある?コピペしかできんの?」って言われたときと構図が一緒なんだって。
定量的な基準で区別したいなら、どのように量るかを明記しなきゃならないってこと。
こうすれば出来るだろう、やってないけど。だからやれて当然だよな?って試してもない営業が言ってきたらキレるでしょ?
なんで立場を相対化できないのか。
98
(1): 2023/03/23(木)23:17 ID:NhbsK42j(7/14) AAS
人間の場合は、プログラムコードでも、1行ずつ実行を辿っていって、
変数に何が入るかをシミュレーションできる。だから、根本的に間違っているコードは
自分でも分かる。
バグが入るのは、シミュレーションに間違いや勘違いが紛れ込むから。
でも、指摘されればちゃんと分かる。
ChatGPTの場合は、指摘されてもちゃんと訂正できてない。
また、明らかに間違っているコードを平然と出してくる。
人間の場合だと、それが間違っていることが分かるから「分かりません」と言う。
99
(2): 2023/03/23(木)23:19 ID:mBtK7sgT(7/9) AAS
>>96
あなたはそう「考えて」いるのかもしれないけど、結果だけ持ってこられたら、外部からはコピペしてるだけなのかどうかわからないよ。
思考実験としては、GPTが「考えて」いるが、それを外部から観測できないだけという可能性は排除できない。
勿論、今、現実的にそうだろうという主張ではない。
仮にGPTに実行環境のエミュレータが接続されて、試行錯誤するようになったらどうなる?という話だ。
今はIT企業でよくある、ホワイトボードに書くコーディングテストをやらされてるみたいな状態だろ。
100
(1): 2023/03/23(木)23:21 ID:NhbsK42j(8/14) AAS
>>97
そういうことじゃない。
人間の場合は、1行単位のコードはミスがない限りはとても正確にシミュレーション
できる。100行とかになると、ミスが少し入りだしてくるから、結果がずれてくる
ことがある。
ところが、ChatGPTは、じゃんけんのような「1回のステップ」で既に
間違いを犯しているので、1ステップレベルでのシミュレーションができてない。

その状態ではテトリスの様な数百行あるようなプログラムは本来全然出来ない。
にもかかわらず出して来れるのは、ネットに答えが載っているから。
つまり、考えているのではなく、覚えているだけ。
省2
101: 2023/03/23(木)23:22 ID:NhbsK42j(9/14) AAS
>>99
>仮にGPTに実行環境のエミュレータが接続されて、試行錯誤するようになったらどうなる?という話だ。
でも、現状それは出来てない。
まともな人間のプログラマは脳内で、それが既に出来ている。
102: 2023/03/23(木)23:22 ID:NhbsK42j(10/14) AAS
>>99
>仮にGPTに実行環境のエミュレータが接続されて、試行錯誤するようになったらどうなる?という話だ。
でも、現状それは出来てない。
まともな人間のプログラマは脳内で、それが既に出来ている。
103
(1): 2023/03/23(木)23:24 ID:aGomThyA(2/2) AAS
chatGPTは、言って見れば、文系のサイエンスライターなんだよね
中身はよく分からないけど、それらしい言葉を繋げてもっともらしい文章をでっち上げるのは得意
104
(2): 2023/03/23(木)23:28 ID:mBtK7sgT(8/9) AAS
>>100
あなたの書いている言語が、CPUのレジスタがどのように使われるかレベルでシミュレーションできますか?
出来ないならある程度のところまでは思考してるかもしれないが、ある程度から先のローレイヤは「覚えてるだけ」だろう。
あなたニュー速にいつも思考型記憶型とか書いてるやつか?そんなに思考の精度が高いとも思えないけどな。単なる一方的な感想で申し訳ないが。
105
(1): 2023/03/23(木)23:30 ID:NhbsK42j(11/14) AAS
>>104
他のプログラマはできないこともあろうが、個人的には、マシン語まで落とした
レベルまでシミュレーションできる。レジスタがどうなるか、フラグレジスタが
どうなるかまで。
106
(1): 2023/03/23(木)23:31 ID:NhbsK42j(12/14) AAS
>>104
一行単位の動作は、言語のルールなわけだから、覚えているだけで十分。
問題は、それを組み合わせられるかと、ルールを言われた時に正しく理解できるか。
ChatGPTは、じゃんけんのルールを何度言われても理解できない。
107
(1): 2023/03/23(木)23:33 ID:NhbsK42j(13/14) AAS
それにもっといえば、ChatGPTに、どんなプログラムを作ってほしいか、
自然言語で伝えるのがとても難しいということもある。
108
(1): 2023/03/23(木)23:53 ID:mBtK7sgT(9/9) AAS
>>105
やるやん
>>106
言語のルールだから動作原理は考えずに覚えればいいというのは場合によっては思考停止でしょ。
計算量を考慮しなければならない場合、本当に思考に思考を重ねて実装を決定しているのか?ある程度は過去の経験でこうしたら80点みたいなことをやっているでしょ。
テトリスの作り方など、ソースコードを覚えているだけで十分という見方もできるのでは。人間とは粒度が違うという結論にしかならんでしょ。
>>107
それは人間だって一緒だよね。会ったことないクライアントとプログラマーが10分のMTGでまともなプログラム一発で書いてもらうの無理だろ。
109
(1): 2023/03/23(木)23:57 ID:NhbsK42j(14/14) AAS
>>108
どっちにしろ、ChatGPTは、いまの段階では「プログラマー」としては使い物にならない。
110
(1): 2023/03/24(金)00:00 ID:l2RKIzBo(1/2) AAS
>>109
それは同意するけど、「知能」についてはどうなんですか?
1-
あと 285 レスあります
スレ情報 赤レス抽出 画像レス抽出 歴の未読スレ AAサムネイル

ぬこの手 ぬこTOP 1.614s*