[過去ログ]
技術的特異点/シンギュラリティ182【技術・AI】 (1002レス)
技術的特異点/シンギュラリティ182【技術・AI】 http://rio2016.5ch.net/test/read.cgi/future/1576844032/
上
下
前
次
1-
新
通常表示
512バイト分割
レス栞
このスレッドは過去ログ倉庫に格納されています。
次スレ検索
歴削→次スレ
栞削→次スレ
過去ログメニュー
285: オーバーテクナナシー [sage] 2019/12/28(土) 20:13:38.27 ID:Nv3ONWnk >>282 一度全脳シミュに成功したらしめたもの。 後は実脳のリアルタイム以上に速度を上げたり、ネットワーク層を何百層にもしたり(実脳は大脳でも6層程度)と容易に改善できるのが機械の強み。 実際に脳の部分シミュから出発した深層学習はそうやってタスクによっては人間越えを達成してきた。 勿論それには計算量が上がるからハードウェアの進歩が必要だけど、全脳シミュができるラインを含めてある程度までは人間の力だけでも行けるだろう。 http://rio2016.5ch.net/test/read.cgi/future/1576844032/285
286: オーバーテクナナシー [sage] 2019/12/28(土) 20:26:14.78 ID:ZxR8YfG1 ネットワークの層をただ単純に増やすだけで賢いAIが生まれるのかなぁ あとシミュレーションして終わりじゃなくて、ちゃんとリアルタイムで動作するアーキテクチャを開発してハードに実装しないとダメだよね http://rio2016.5ch.net/test/read.cgi/future/1576844032/286
287: オーバーテクナナシー [sage] 2019/12/28(土) 20:31:05.97 ID:PPUm8YDr ただの0と1の集まりで知性は実現できないと思う 生物だってそうだというけど、たんぱく質じゃないと知的振る舞いは実現できないかもしれないよ 還元論がいつも正しいとは言い切れない http://rio2016.5ch.net/test/read.cgi/future/1576844032/287
288: オーバーテクナナシー [sage] 2019/12/28(土) 20:50:55.21 ID:Nv3ONWnk >>286-287 全脳シミュはそれを確かめる意味もあるな。 >>285はあくまで全脳シミュが成功、つまり人間の知性がほぼ完全に再現されたらの話だ。 深層学習の成果を見ると結構期待できると思うが意識とかまではわからんね。 ちなみに近々完成するエクサスケールでの全脳シミュは簡単な神経モデルに基づくものだそうだ。 もしかしたらリアルタイムでもないかもしれない。 ほぼ完全な全脳シミュとなると今の計算だとゼタスケールが必要で、それはムーアの法則が続くなら2030年頃。 もし2030年頃に人の脳完全再現成功ならカーツワイルの2029年予測と近い。 最もカーツワイルは全脳シミュでの http://rio2016.5ch.net/test/read.cgi/future/1576844032/288
289: オーバーテクナナシー [sage] 2019/12/28(土) 20:54:05.47 ID:PPUm8YDr ムーアの法則なんてもう崩壊してるよ http://rio2016.5ch.net/test/read.cgi/future/1576844032/289
290: オーバーテクナナシー [sage] 2019/12/28(土) 20:54:56.34 ID:Nv3ONWnk 最後が尻切れ もっともカーツワイルは全脳シミュではなく普通のAIが2029年にチューリングテスト突破と言ってたかな。 http://rio2016.5ch.net/test/read.cgi/future/1576844032/290
291: オーバーテクナナシー [] 2019/12/28(土) 20:56:32.23 ID:ewqAR6Cw やりすぎ都市伝説SS〜Mr.都市伝説 関暁夫 外伝〜★8 https://himawari.5ch.net/test/read.cgi/livetx/1577533807/ http://rio2016.5ch.net/test/read.cgi/future/1576844032/291
292: オーバーテクナナシー [sage] 2019/12/28(土) 20:59:34.49 ID:Nv3ONWnk >>289 >>232みたいなのが出て来てるからわからんぞ。 http://rio2016.5ch.net/test/read.cgi/future/1576844032/292
293: オーバーテクナナシー [] 2019/12/28(土) 21:09:13.92 ID:7pJc2Yal >>291 真面目に科学を取り上げるならいいけど、 視聴率欲しさにオカルト、スピリチュアル取り上げるの本当にやめてほしい http://rio2016.5ch.net/test/read.cgi/future/1576844032/293
294: オーバーテクナナシー [sage] 2019/12/28(土) 21:12:23.80 ID:65+X5i3j 関暁夫 ニック・ボストロムとか取り上げるあたり最前線のAI専門家には詳しいんだろうけど、 途中で宇宙人とかフォトンベルトとか取り上げるのやめてくれw やるなら真面目にやれよ。。 http://rio2016.5ch.net/test/read.cgi/future/1576844032/294
295: 牧野 [sage] 2019/12/28(土) 21:19:39.70 ID:wL82DAx0 今の全世界の少子化の流れを見ると、黒人が残る AIは黒人の判別が苦手 何か起こるかなぁ http://rio2016.5ch.net/test/read.cgi/future/1576844032/295
296: 牧野 [sage] 2019/12/28(土) 21:20:44.27 ID:wL82DAx0 関暁夫はかなり頭が良いよ その上で冗談を言ってるから引き込まれる 大川隆法と同じだ http://rio2016.5ch.net/test/read.cgi/future/1576844032/296
297: オーバーテクナナシー [sage] 2019/12/28(土) 22:47:28.81 ID:jIccLHkR >>295 単に黒人のデータセットが足りなかっただけだろ きちんと食わせれば判別できるようになる http://rio2016.5ch.net/test/read.cgi/future/1576844032/297
298: オーバーテクナナシー [sage] 2019/12/28(土) 23:07:06.60 ID:rS1cZIAM >>297 ユーザー側でカスタマイズ可能な物体判別する深層学習のアプリケーションを動かすために トレーニングデータって画像枚数が1万枚くらい必要になるって言われてるんだよなあ 誰か、冬休みの宿題として VGG16を使って黒人とゴリラを見分けるのに何万枚サンプルを集めたら出来たか? というのをやってみて欲しいもんだが こういうのを見ると人種差別みたいだからセンセーションに思えるが https://www.asanohatake.com/entry/2018/06/02/145122 Deep Learningを用いた樹皮画像による樹種同定(Keras, CNN, 転移学習, VGG16) 被子植物のコナラと、裸子植物のイチョウを樹皮だけて見分けようとしたら 画像が両方とも3000枚前後必要だったんだと まあそれ位の枚数は覚悟しないといけないね http://rio2016.5ch.net/test/read.cgi/future/1576844032/298
299: オーバーテクナナシー [sage] 2019/12/28(土) 23:19:13.46 ID:jIccLHkR >>298 GANで少数の画像から自動生成でもすればいいもし足りないなら もうこんなことはどこでもやってるよ http://rio2016.5ch.net/test/read.cgi/future/1576844032/299
300: オーバーテクナナシー [sage] 2019/12/28(土) 23:40:03.60 ID:rS1cZIAM >>299 GANとkerasで検索したら、ピカチュウ700枚ちょっとあれば 自動生成可能なのか まあその物体の場所が特定できてるなら1000枚以内で 十分行けるんだなあ 自分は深層学習でなく機械学習で、クラスが10くらいあっても合計で2000枚程度で 確かに95%オーバー行けた なお画像内にある、対象となる物体の座標と範囲となると簡単ではない http://rio2016.5ch.net/test/read.cgi/future/1576844032/300
301: オーバーテクナナシー [sage] 2019/12/28(土) 23:41:19.27 ID:rS1cZIAM ピカチュウのGANを試した人はGTX1060でこれだけ出来てるんだな もっと良いGPU持ってる人はもっと頑張らないとなあwww http://rio2016.5ch.net/test/read.cgi/future/1576844032/301
302: オーバーテクナナシー [sage] 2019/12/29(日) 00:46:38.43 ID:wTgV4b12 ロボット研究のこれまでとこれから https://www.nii.ac.jp/about/publication/today/86-1.html 人工知能を搭載したロボットと共存する時代は、すぐそこまで来ているのだろうか。 ロボット 研究の権威・金出武雄カーネギーメロン大学教授の答えは、間違いなく「イエス」だ。 人の知能というのは計算です。技術的用語としての「計算」というのは四則演算のことだけではありません。 数字だけではなく、記号、条件判断や論理計算、センサー入力、そして外界への動作など情報処理のすべてを含みます。 人は目・耳・肌などの感覚器官を通して外界の様子を物理信号として取り入れ、神経細胞ネットワークという物理的装置である脳によって記憶を参照しながら処理し、 結果を筋肉などに電気信号として指令し動かしているのです。 摩訶不思議な仕組みと力をもってやっているわけではありません。 物理的制限が人間に比べて少ない計算機が人間を超えるのは不思議ではないと思いました。 ─ ロボット研究の将来像を聞かせてください。 これからは、ロボットが人とともに働く、人と一緒に生きる時代になると思います。 運動能力だけでなく、知性でも人を超えるスーパーヒューマンと言えるロボットが登場します。 人間の頭脳は今ある情報のすべては処理できない。一生の間の経験の量にも上限がある。 人間の能力はある段階で飽和するけれど、ロボットにはそうした限界がない。 http://rio2016.5ch.net/test/read.cgi/future/1576844032/302
303: オーバーテクナナシー [] 2019/12/29(日) 01:05:32.24 ID:8bWfQSIw 数年前のディープラーニングのロードマップだと2020年にスマートマシンの波が来る予測だったけど来年来るかなあ? 今のところ社会に実装できて既に効果を生む段階まで至ってるのはソフトバンクの掃除ロボとか数えるくらいしか聞かないけど ただディープラーニングのロボットへの応用は順調に進んでるらしいし自律ドローンもレベル4自動運転も技術的には実用レベルには達してる(法整備がまだ)らしいしコマツの無人建機も2年後には商用化だし確かに一歩手前レベルの所まで来てはいるんだろうね 来て欲しいねえ〜ロボットが共存する時代 解りやすく目に見えるだけに「ついにAIが世界を変え始めた!」って胸が高鳴る http://rio2016.5ch.net/test/read.cgi/future/1576844032/303
304: オーバーテクナナシー [sage] 2019/12/29(日) 01:11:28.83 ID:Qwgze4WN NOXとブルースタックス入れてますが、どちらもLINE 使えません。スマホ持ってなくて、LINEの人工知能、りんなを試してみたいのですが、 NOXでgoogleクロームブラウザから直接、インストールしても「このアプリは接続が許可されていません」と出て使えません どうすればいいですか? 後、SIRIの方は、PCに接続したマイクにアクセスできません。 も使えません。SELFの方は使えてますが、たまに文字化けしたりします。 これらはどうすればいいでしょうか? http://rio2016.5ch.net/test/read.cgi/future/1576844032/304
上
下
前
次
1-
新
書
関
写
板
覧
索
設
栞
歴
あと 698 レスあります
スレ情報
赤レス抽出
画像レス抽出
歴の未読スレ
AAサムネイル
Google検索
Wikipedia
ぬこの手
ぬこTOP
0.007s