[過去ログ]
【ChatGPT】AIチャット総合 Part8【Bing・Bard】 (1002レス)
【ChatGPT】AIチャット総合 Part8【Bing・Bard】 http://mevius.5ch.net/test/read.cgi/esite/1692934902/
上
下
前次
1-
新
通常表示
512バイト分割
レス栞
抽出解除
レス栞
このスレッドは過去ログ倉庫に格納されています。
次スレ検索
歴削→次スレ
栞削→次スレ
過去ログメニュー
695: 名無しさん@お腹いっぱい。 [sage] 2023/09/29(金) 14:59:09.53 ID:Q4Qwuu1U 米Microsoft、“ChatGPTの目と耳実装”の影で画像対応の生成AI「DeepSpeed-VisualChat」開発 https://www.itmedia.co.jp/news/articles/2309/29/news073.html 「急速に増える“非英語論文”の検索に」──米Googleら、多言語間でも論文同士の関連性を計算できるモデル開発 https://www.itmedia.co.jp/news/articles/2309/29/news074.html GoogleがLLMで「非構造化文書」高精度テキスト抽出するOCR『LMDX』発表。Bardを強化する可能性 https://aiboom.net/archives/55759 GPT-4などのLLMをエージェントとして既存ゲームシステムに導入し、NPCをAI化するツール『MindAgent』登場 https://aiboom.net/archives/55563 IBM、大規模言語モデル「Granite」日本語版を2024年Q1に提供、シングルGPUで動作 https://it.impress.co.jp/articles/-/25373 LLMに自身のハルシネーション(幻覚)を「自覚」させ、減らす方法 https://aiboom.net/archives/55232 LLMの出力から誤り(ハルシネーション)を減らす新手法『CoVe(Chain-of-Verification)』と実行プロンプト https://aiboom.net/archives/55711 Sparse Transformers:入力シーケンスの長さによる計算量増加問題への革新的なアプローチ https://ai-scholar.tech/articles/transformer/sparseTransformer GPT-4などのLLMに「自らの論理的な整合性をチェック」させるフレームワーク『LogiCoT』 https://x.com/ai_database/status/1706879375390691432 質問を再読させることでLLMの推論能力が向上するとの報告 https://x.com/ai_database/status/1702505177063022901 http://mevius.5ch.net/test/read.cgi/esite/1692934902/695
700: 名無しさん@お腹いっぱい。 [sage] 2023/09/29(金) 20:53:00.03 ID:mnPTlSjv >>695 LogiCoTははっきり言って効かないと思う 試せばわかるが特に検証の過程はほぼ素通し 半年前なら効果はあった 試作例 https://chat.openai.com/share/109cdadf-59e0-44fd-8fba-99ccc314caf5 https://chat.openai.com/share/d3743764-45cc-4ffb-be7a-84f63ea028dc https://chat.openai.com/share/81261476-c3ab-4e1c-aa2e-52ac09141085 回答は素朴なステップバイステップ指示の場合と変わらない。 https://chat.openai.com/share/8e8ba36f-250e-4f8a-99d8-2bb4804b8abd https://chat.openai.com/share/6db97cb6-6deb-47d9-87d7-1ea085e04514 https://chat.openai.com/share/017e11b9-f971-4ab1-80ff-ae1de2002d56 http://mevius.5ch.net/test/read.cgi/esite/1692934902/700
701: 名無しさん@お腹いっぱい。 [sage] 2023/09/29(金) 20:54:24.44 ID:mnPTlSjv >>695 LogiCoTははっきり言って効かないと思う 試せばわかるが特に検証の過程はほぼ素通し 半年前なら効果はあった 試作例 https://chat.openai.com/share/109cdadf-59e0-44fd-8fba-99ccc314caf5 https://chat.openai.com/share/d3743764-45cc-4ffb-be7a-84f63ea028dc https://chat.openai.com/share/81261476-c3ab-4e1c-aa2e-52ac09141085 回答は素朴なステップバイステップ指示の場合と変わらない。 https://chat.openai.com/share/8e8ba36f-250e-4f8a-99d8-2bb4804b8abd https://chat.openai.com/share/6db97cb6-6deb-47d9-87d7-1ea085e04514 https://chat.openai.com/share/017e11b9-f971-4ab1-80ff-ae1de2002d56 http://mevius.5ch.net/test/read.cgi/esite/1692934902/701
703: 名無しさん@お腹いっぱい。 [sage] 2023/09/29(金) 21:02:59.55 ID:mnPTlSjv >>695 質問の再読はそれなりに効く https://chat.openai.com/share/96adfb0c-6870-46a6-a2cc-7fc3df71d816 最近はあの手この手で高負荷プロンプトの回避を試みてくる http://mevius.5ch.net/test/read.cgi/esite/1692934902/703
上
下
前次
1-
新
書
関
写
板
覧
索
設
栞
歴
スレ情報
赤レス抽出
画像レス抽出
歴の未読スレ
AAサムネイル
Google検索
Wikipedia
ぬこの手
ぬこTOP
0.142s*