【ChatGPT】使えるプロンプトを共有しよう! (395レス)
1-

84: 2023/03/23(木)22:31 ID:NhbsK42j(2/14) AAS
テトリスやブロック崩しなどは、ネットにそっくりそのままの例が書いてある。
そして例が複数あるからそれらのエッセンスを合成したようなコードを出してくる
ようだ。エッセンスのまとめ方は機械の割には上手いと思うが。
しかし、新しく出来たWindowsAPIなどに対して、サンプルが全く無いような
場合は同様のレベルのコードは造れないのではないか。
テトリスやブロック崩しでは、ネットに上がってる人間が考えたコードを
「まとめ」ているに過ぎないのだから。
85: 2023/03/23(木)22:37 ID:kB82dtis(2/4) AAS
>>82
何が言いたいのかさっぱりわからん

高速な計算にコンピュータを使うのは当たり前だし
今までもそれはやってきたこと

AIは人間のように理解してるんじゃなくて
会話のような返答するプログラムでそれっぽく見せてるだけって話だ

人間と違う方法で高速な計算ができる電卓が便利なのは当たり前
86: 2023/03/23(木)22:40 ID:qBpx1Wc1(1) AAS
高度なサイコロシステムだ
87
(2): 2023/03/23(木)22:41 ID:kB82dtis(3/4) AAS
ネットという膨大なデータベースを使えば
知能がなくても、人間が話すような文章を
計算で作り出せるってことがわかったということだよ
88: 2023/03/23(木)22:42 ID:kB82dtis(4/4) AAS
ネットには人間が「ああ言えばこう言う」という例がいくつも有る
そこから適切なものを見つけ出し、それっぽく加工しているだけ
89: 2023/03/23(木)22:51 ID:mBtK7sgT(3/9) AAS
>>87
あなたが特に定義もせず使っている「知能」とは何のことを指すのですかという質問だよ
90
(1): 2023/03/23(木)22:54 ID:mBtK7sgT(4/9) AAS
>>83
そりゃまともなプロのプログラマと比較してGPTが勝ってたらプロがやばいだろ。そればっかり何年もやってきた人間なんだから
初心者の頃、何もわからず手を動かしてた頃みたいなものかもしれないぞって指摘
いきなり仕様書やリファレンスだけ読んでプログラム書けるようになった人、そんなにいないでしょ
(そういうタイプの人の存在を否定しているわけではないよ)
91
(2): 2023/03/23(木)23:01 ID:NhbsK42j(3/14) AAS
>>90
でも、初心者のころでも、「やり方が分からない」とか
「効率のよいやり方が分からない」ということはあっても、
自分が考えたロジックそのものは特に間違ってなかったし、
間違っていたら、間違いがはっきり分かって、正確に直すことも出来た。
じゃんけんの判定間違いを指摘されてもいっこうに直らないようなことは
有り得なかった。
92: 2023/03/23(木)23:03 ID:NhbsK42j(4/14) AAS
>>91
まともなプログラマが間違うのは、もっと複雑な場合。
何万行レベルになると、「摺り合わせ」の部分や記憶違いや
考え違い、修正忘れ、などで間違いが起きることがある。
ChatGPTは、数行のプログラムでも根本的に間違っているので
全然違う。
93
(2): 2023/03/23(木)23:05 ID:mBtK7sgT(5/9) AAS
>>91
じゃんけんをプログラム学ぶ前に一才知らなかったらその理屈も成り立つかもしれないが…
例えば、将棋の3手詰めを解くアルゴリズムを考えろというような課題を、問題なく解くことができるのか、実装できるのかと考えてみるとどうだろう?
探索空間が広くてルールも複雑で難しいだけでロジックの塊だよね
94
(1): 2023/03/23(木)23:07 ID:aGomThyA(1/2) AAS
>>93
ルール書いて、総当たりすれば良くね?
95
(1): 2023/03/23(木)23:08 ID:NhbsK42j(5/14) AAS
>>93
詰め将棋のアルゴリズムは、すぐには分かりにくいものでは有るが、
ChatGPTの犯す初歩的な間違いとはレベルが違いすぎる。
96
(1): 2023/03/23(木)23:10 ID:NhbsK42j(6/14) AAS
そもそも、ChatGPTは、テトリスが何たるものかも理解してなくて、
ネットに「テトリスを作るソース」という記事が上がっているものの
本質を「まとめている」に過ぎない。
人間は、まず、テトリスを頭の中で創造するか、動画などから目で見て、
それをどうやってプログラムすればいいかを考えるのだから、結構開きがある。
97
(1): 2023/03/23(木)23:15 ID:mBtK7sgT(6/9) AAS
>>94-95
だからさ、その実装が間違ってたときに、3手詰めの実装が超簡単だと思ってるプログラマから
「次元が低すぎる。本当に知能ある?コピペしかできんの?」って言われたときと構図が一緒なんだって。
定量的な基準で区別したいなら、どのように量るかを明記しなきゃならないってこと。
こうすれば出来るだろう、やってないけど。だからやれて当然だよな?って試してもない営業が言ってきたらキレるでしょ?
なんで立場を相対化できないのか。
98
(1): 2023/03/23(木)23:17 ID:NhbsK42j(7/14) AAS
人間の場合は、プログラムコードでも、1行ずつ実行を辿っていって、
変数に何が入るかをシミュレーションできる。だから、根本的に間違っているコードは
自分でも分かる。
バグが入るのは、シミュレーションに間違いや勘違いが紛れ込むから。
でも、指摘されればちゃんと分かる。
ChatGPTの場合は、指摘されてもちゃんと訂正できてない。
また、明らかに間違っているコードを平然と出してくる。
人間の場合だと、それが間違っていることが分かるから「分かりません」と言う。
99
(2): 2023/03/23(木)23:19 ID:mBtK7sgT(7/9) AAS
>>96
あなたはそう「考えて」いるのかもしれないけど、結果だけ持ってこられたら、外部からはコピペしてるだけなのかどうかわからないよ。
思考実験としては、GPTが「考えて」いるが、それを外部から観測できないだけという可能性は排除できない。
勿論、今、現実的にそうだろうという主張ではない。
仮にGPTに実行環境のエミュレータが接続されて、試行錯誤するようになったらどうなる?という話だ。
今はIT企業でよくある、ホワイトボードに書くコーディングテストをやらされてるみたいな状態だろ。
100
(1): 2023/03/23(木)23:21 ID:NhbsK42j(8/14) AAS
>>97
そういうことじゃない。
人間の場合は、1行単位のコードはミスがない限りはとても正確にシミュレーション
できる。100行とかになると、ミスが少し入りだしてくるから、結果がずれてくる
ことがある。
ところが、ChatGPTは、じゃんけんのような「1回のステップ」で既に
間違いを犯しているので、1ステップレベルでのシミュレーションができてない。

その状態ではテトリスの様な数百行あるようなプログラムは本来全然出来ない。
にもかかわらず出して来れるのは、ネットに答えが載っているから。
つまり、考えているのではなく、覚えているだけ。
省2
101: 2023/03/23(木)23:22 ID:NhbsK42j(9/14) AAS
>>99
>仮にGPTに実行環境のエミュレータが接続されて、試行錯誤するようになったらどうなる?という話だ。
でも、現状それは出来てない。
まともな人間のプログラマは脳内で、それが既に出来ている。
102: 2023/03/23(木)23:22 ID:NhbsK42j(10/14) AAS
>>99
>仮にGPTに実行環境のエミュレータが接続されて、試行錯誤するようになったらどうなる?という話だ。
でも、現状それは出来てない。
まともな人間のプログラマは脳内で、それが既に出来ている。
103
(1): 2023/03/23(木)23:24 ID:aGomThyA(2/2) AAS
chatGPTは、言って見れば、文系のサイエンスライターなんだよね
中身はよく分からないけど、それらしい言葉を繋げてもっともらしい文章をでっち上げるのは得意
1-
あと 292 レスあります
スレ情報 赤レス抽出 画像レス抽出 歴の未読スレ AAサムネイル

ぬこの手 ぬこTOP 0.008s