[過去ログ]
【ChatGPT】AIチャット総合 Part8【Bing・Bard】 (1002レス)
【ChatGPT】AIチャット総合 Part8【Bing・Bard】 http://mevius.5ch.net/test/read.cgi/esite/1692934902/
上
下
前
次
1-
新
通常表示
512バイト分割
レス栞
このスレッドは過去ログ倉庫に格納されています。
次スレ検索
歴削→次スレ
栞削→次スレ
過去ログメニュー
161: 名無しさん@お腹いっぱい。 [sage] 2023/09/06(水) 14:55:20.00 ID:4F59qO3e llmとする議論の種類よるだろうね 例えば、自分の主張があってそれをllmに認めさせたいとかllmにそれを学習させたいとかは無駄でしょ bingならMicrosoftが倫理規定を設定してるから、それに反する事を認めさせようとするのは基本的には無理 仮にそのセッションでそれを認めたとしても、別のセッションでは前のセッションの結果を忘れてるから無駄 「自分の意見を書いてllmに間違えや発想の見落としを検証させたい」というのを議論と呼ぶなら、 その議論は有用である場合もあると思うし私もそれをやります。ただしllmによっては同意する傾向が強いのもあるからその場合は設定作りが必要だと思います http://mevius.5ch.net/test/read.cgi/esite/1692934902/161
162: 名無しさん@お腹いっぱい。 [sage] 2023/09/06(水) 17:13:50.72 ID:fFt2sfjR 存在しない四字熟語 「万差万様」を聞いてみたら 意味を教えてくれたよ このAI知ったか野郎だな http://mevius.5ch.net/test/read.cgi/esite/1692934902/162
163: 名無しさん@お腹いっぱい。 [sage] 2023/09/06(水) 17:25:43.26 ID:mbDQLspD うちは逆になんとかサチュカチュワンにある湖の名前を言わせようとしてもくっそはぐらかしてサスカチュワン湖とか言い出すわ インカ帝国初代皇帝のなまえはあっさり言ってくれる http://mevius.5ch.net/test/read.cgi/esite/1692934902/163
164: 名無しさん@お腹いっぱい。 [sage] 2023/09/06(水) 18:54:48.98 ID:IXV06q00 乃木希典を調べたら、「乃木希典(のぎのりのり)は大逆事件で処刑された」とか出たんだが大丈夫かこのソフト? http://mevius.5ch.net/test/read.cgi/esite/1692934902/164
165: 名無しさん@お腹いっぱい。 [sage] 2023/09/06(水) 18:57:13.80 ID:8iED/qcS >>154 本物のゴローちゃんは下戸だけどね http://mevius.5ch.net/test/read.cgi/esite/1692934902/165
166: 名無しさん@お腹いっぱい。 [sage] 2023/09/06(水) 19:09:36.99 ID:gSrkguZ1 >>164 ダブルピース決めてそう http://mevius.5ch.net/test/read.cgi/esite/1692934902/166
167: 名無しさん@お腹いっぱい。 [sage] 2023/09/06(水) 19:27:01.72 ID:b5NvIpiu 二・二六事件は台湾で起きたらしい… これ、ある程度知ってることを答えさせてるから一目で嘘だとわかるけど、全く知らないことかつネットが何でも真実だと信じるような人間がこうやって育ったら人類滅亡すんじゃね? http://mevius.5ch.net/test/read.cgi/esite/1692934902/167
168: 名無しさん@お腹いっぱい。 [sage] 2023/09/06(水) 19:47:21.03 ID:n24Bz4Ic 幻覚ハラスメントやめたれや bingが検索するみたいにAIが参照出来る百科事典データを売る企業がそのうち出てくるやろ多分 http://mevius.5ch.net/test/read.cgi/esite/1692934902/168
169: 名無しさん@お腹いっぱい。 [sage] 2023/09/06(水) 19:47:38.19 ID:jxbYkBOG 東海道新幹線こだま号の停車駅を東京から順に教えてと聞いたら 名古屋から台湾新幹線に乗り入れちゃったよん 夢の国際新幹線だね http://mevius.5ch.net/test/read.cgi/esite/1692934902/169
170: 名無しさん@お腹いっぱい。 [sage] 2023/09/06(水) 20:11:57.91 ID:5a6t11ZC 唐突にレス内容が去年11月に戻ったな http://mevius.5ch.net/test/read.cgi/esite/1692934902/170
171: 名無しさん@お腹いっぱい。 [sage] 2023/09/06(水) 20:29:07.10 ID:OCMoyWi1 Bing厳密かPOEのGPT4(1日1回だけ無料)で調べてみて言ってよ。 GPT3.5はアホ過ぎるから。 http://mevius.5ch.net/test/read.cgi/esite/1692934902/171
172: 名無しさん@お腹いっぱい。 [sage] 2023/09/06(水) 20:38:14.01 ID:mbDQLspD 相棒チャットでペルソナ5のソフィつくったらそれなりに再現度たかいわ ジョーカーになった気分が味わえる http://mevius.5ch.net/test/read.cgi/esite/1692934902/172
173: 名無しさん@お腹いっぱい。 [sage] 2023/09/06(水) 21:19:57.48 ID:P6GpVqCo 三上悠亜さんがTwitterでトレンドに上がってる理由を調べてください。 https://i.imgur.com/SlCvIyP.jpg http://mevius.5ch.net/test/read.cgi/esite/1692934902/173
174: 名無しさん@お腹いっぱい。 [sage] 2023/09/06(水) 21:27:45.54 ID:RXlDQRvD >>170 まだ1年経ってないだと… http://mevius.5ch.net/test/read.cgi/esite/1692934902/174
175: 名無しさん@お腹いっぱい。 [sage] 2023/09/06(水) 21:51:27.97 ID:Ft64rS0D オイルマネーLLMの180B版 @osanseviero Falcon 180B is out🤯 - 180B params - Trained on 3.5 trillion tokens+7 million GPU hours - Quality on par with PaLM 2 outperforms Llama 2 and GPT-3.5 across 13 benchmarks - 4bit and 8bit precision with similar quality Demo: https://huggingface.co/spaces/tiiuae/falcon-180b-demo Blog: https://huggingface.co/blog/falcon-180b http://mevius.5ch.net/test/read.cgi/esite/1692934902/175
176: 名無しさん@お腹いっぱい。 [sage] 2023/09/06(水) 23:04:05.07 ID:r71J+XVa >>175 Llama2 70BとGPT-3.5を上回り、PaLM2 Largeに匹敵だと でも、むしろLlama2と比べて効率が悪いように見えてしまう https://note.com/npaka/n/n445a331dc514 https://assets.st-note.com/img/1694006987922-hDs96mpDih.png http://mevius.5ch.net/test/read.cgi/esite/1692934902/176
177: 名無しさん@お腹いっぱい。 [sage] 2023/09/06(水) 23:20:36.09 ID:v+3KNNzE web上の情報はあらかた食べ終えたって話だけど 学会のコンセンサスや最新の論文に通じてる感じがしない それが一番大事な気がするが http://mevius.5ch.net/test/read.cgi/esite/1692934902/177
178: 名無しさん@お腹いっぱい。 [sage] 2023/09/06(水) 23:40:31.92 ID:bkBKjXs9 これだけ時間が経ったのに未だにGPT-4を超えるモデルが出てないのは凄いよね こういうのは後発が一気に抜き去るのが普通なのにさ http://mevius.5ch.net/test/read.cgi/esite/1692934902/178
179: 名無しさん@お腹いっぱい。 [sage] 2023/09/06(水) 23:43:20.44 ID:c6b7Rw0b LLMは権威についてうまく処理する枠組みを作れない気がするな 権威を重んじたらガイドラインの制限なんていくらでも形骸化させられるし 今の調整は学識的権威よりガイドラインを重視していると言えるかもしれない http://mevius.5ch.net/test/read.cgi/esite/1692934902/179
180: 名無しさん@お腹いっぱい。 [sage] 2023/09/06(水) 23:47:57.86 ID:c6b7Rw0b >>178 一つの可能性としてダンピングしてる可能性がある 赤字を垂れ流してる場合、他社はよほどの理由がない限り無理に抜かさないと思う 少なくともGPT-4は他のLLMより遥かに重いプロンプトを受け入れてくれるのは間違いない http://mevius.5ch.net/test/read.cgi/esite/1692934902/180
上
下
前
次
1-
新
書
関
写
板
覧
索
設
栞
歴
あと 822 レスあります
スレ情報
赤レス抽出
画像レス抽出
歴の未読スレ
AAサムネイル
Google検索
Wikipedia
ぬこの手
ぬこTOP
0.012s