[過去ログ]
(強いAI)技術的特異点/シンギュラリティ144 (1002レス)
(強いAI)技術的特異点/シンギュラリティ144 http://rio2016.5ch.net/test/read.cgi/future/1545018277/
上
下
前次
1-
新
通常表示
512バイト分割
レス栞
抽出解除
レス栞
このスレッドは過去ログ倉庫に格納されています。
次スレ検索
歴削→次スレ
栞削→次スレ
過去ログメニュー
30: yamaguti [sage] 2018/12/17(月) 20:33:43.85 ID:wTQbtxsi BE:138871639-?2BP(0) sssp://img.5ch.net/ico/nida.gif 位置信号がどのように生成されるかはわかりませんが、理論的 要件 挙げることができます。 列はオ ry ト上の現在の位置を知る必要がありますが、移動が完了した後に新しい位置 予測 必要もあります。 ? エコーセントラルモーター信号を予測された割り当て位置に変換するためには、列は移動 ry 。 自己視点座標的運動信号を予測されたアロケート位置に変換する為には、カラムは移動を行っている身体部分に対するオ ry トの向きも知っていなければならない。 ? ry 移動?予測された新しい場所 ry 。 これは、擬似方程式[現在の位置+オブジェクトの向き+移動 = 予測された新しい場所]で表すことができます。 これは、ニューロンが実行するための複雑な作業です。 幸運 、それはグリッドセルが行うことと非常に似ています。 グリッドセルは、ニューロンがこれらのタイプの変換を実行できるという証拠であり、皮質の列 メカニズムを示唆 。 1。 ? 嗅内皮質(Hafting et al。、2005; Moser et al。、2008)の格子細胞は、 ry をコード化する。 嗅内皮質の格子細胞 ( Hafting et al。、2005; Moser et al。、2008 ) は、外部環境に対する動物の身体の位置をエンコードする。 感覚皮質柱は、動物の体の一部(感覚パッチ)の位置を外部物体に関連してコード化する必要がある。 2。 グリッドセルは、経路統合を使用して、移動による新しい場所を予測します(Kropff et al。、2015)。 ? 列は、移動のために新しい ry 。 カラムも、移動に伴う新しい場所を予測するためにパス統合を使用する必要 3。 ? ry は、現在の位置と移動方向を頭部方向のセルと組み合わせる(Moser et al。、2014)。 新しい位置を予測するために、グリッドセルは、現在の、位置、動き、頭部基準向き、のセルを一纏めにする(Moser et al。、2014)。 頭の方向のセルは、 「動物」の「向き」を表します。 列には、外部物体に対する「感覚パッチ」の「向き」の表現が必要 4。 グリッドセルを使った空間表現は無次元です。 ? ry マッピングされるかによって決まります。 それらが表す空間の次元は、格子セルのタイリングと、タイリングがどのように動作にマッピングされるか、との統合によって決まります。 同様に、我々のモデルは、次元のない位置の表現を使用する。 http://rio2016.5ch.net/test/read.cgi/future/1545018277/30
36: yamaguti [sage] 2018/12/17(月) 20:41:57.85 ID:wTQbtxsi BE:138871639-?2BP(0) sssp://img.5ch.net/ico/nida.gif ? 複数のオブジェクトが同時に検出された ry ? 複数のオ ry トに同時に触れた場合はどうなりますか? 我々のモデルでは、感覚アレイの1つの部分が1つの物体を感知することができ、感知アレイの別の部分が異なる物体を感知することができる。 ? 親指と中指が別のオブジェクトに触れている間にインデックスや薬指が1つのオブジェクトに触れた場合など、2つ以上のオブジェクトからの感覚がオーバーレイ ry 。 人差指や薬指が1つのオブジェクトに触れている間に親指と中指が別のオブジェクトに触れた場合など、2つ以上のオブジェクトからの感覚が単一リージョン上でオーバーレイされたり、散在したりすると、問題が発生します。 このような状況では、システムは1つの解釈または他の解釈で解決されると考えられます。 感覚情報はパラレル経路で処理され、時には「何」および「どこ」経路と呼ばれる。 ? オブジェクト認識モデルは、オブジェクトを認識する能力に関連する「どの領域」に存在するかを提案する。 オブジェクトを認識する能力に関連する「何」リージョン内に我々のオブジェクト認識モデルが存在する事を提案する。 ? どのように我々のモデルに照らして「どこで」の経路を解釈 ry ? 「どこ」の経路を我々はどの様に我々のモデルに照らし解釈するのだろうか? 第1に、2つの経路における解剖学的構造は類似 。 これは、「what」と「where」領域が同様の操作を実行するが、異なるタイプのデータを処理することによって異なる結果を達成することを示唆 。 例えば、我々のネットワークは、位置信号が自我中心の位置を表す場合に、自我中心空間のモデルを学習 できる。 ? ry 運動行動を割り当て場所に変換するために、何処、どこの領域が必要であるかという双方向性のつながりがあると考えている。 第二に、我々は、自我中心の運動行動をアロケートロケーションに変換する為に、お互いに双方向性の繋がりがある、何とどこ、の 2 つのリージョンが必要であると考えている。 私たち 、これらのアイデアを模索 。 http://rio2016.5ch.net/test/read.cgi/future/1545018277/36
116: オーバーテクナナシー [sage] 2018/12/17(月) 23:36:36.85 ID:x8myIJi1 >>112 6kRiBVNLも少し前まで不老不死スレで荒らしてた奴だからな 荒らしが荒らしを批判する矛盾 はやくワッチョイ入れてほしいな http://rio2016.5ch.net/test/read.cgi/future/1545018277/116
147: オーバーテクナナシー [sage] 2018/12/18(火) 12:20:05.85 ID:rR6CoecS 20年までに都市間通信 欧州で動き出した 量子インターネットへの道 https://www.technologyreview.jp/s/109811/inside-europes-quest-to-build-an-unhackable-quantum-internet/ 量子力学の原理を利用することで、ハッカーによる盗聴から完全に安全な「量子ネットワーク」を2020年末までに構築しようとするプロジェクトがオランダで進んでいる。 困難な技術的課題は多いが、成功すれば、後のインターネット誕生につながった米国防総省(DoD)のアーパネットのように、将来の量子インターネットへの道を切り拓くかもしれない。 深層学習AIをエッジで動かす、東芝と理研がスパース化現象でパラメータ8割削減 http://monoist.atmarkit.co.jp/mn/spv/1812/18/news047.html 東芝と理化学研究所(以下、理研)は2018年12月17日、深層学習(ディープラーニング)によって得られるAI(人工知能)である「深層ニューラルネットワーク(DNN:Deep Neural Networks)」のコンパクト化技術を開発したと発表した。 DNNの性能を維持したままで、学習した結果であるパラメータを80%削減できる。 これにより、エッジデバイス上で高精度な音声や画像などの認識処理を動作させられるようになるという。 自動運転向け画像認識システムなど組み込み機器やエッジデバイスにおける高度なDNNの活用に向け、2020〜2021年ごろをめどに実用化を目指す。 大学病院に自律走行ロボがやってきた https://newswitch.jp/p/15700 聖マリアンナ医科大とNECネッツエスアイが検体・薬剤の搬送を実証 セラミックス応用市場が活気を帯びてきた https://newswitch.jp/p/15696 積層造形を本格化など http://rio2016.5ch.net/test/read.cgi/future/1545018277/147
185: オーバーテクナナシー [] 2018/12/18(火) 20:40:33.85 ID:VPKeWyK8 2020年が当たれば2029年は必然。 2020年が当たらなければ一旦レイ先生を忘れます。 http://rio2016.5ch.net/test/read.cgi/future/1545018277/185
710: オーバーテクナナシー [] 2018/12/25(火) 19:33:52.85 ID:vfI6Kbet >>708 銀行の話のAIは融資のための評価の計算ができる開発済のアプリなんだろうか。 だとするとなんかAIらしく無い気がする。 http://rio2016.5ch.net/test/read.cgi/future/1545018277/710
743: オーバーテクナナシー [] 2018/12/26(水) 00:41:12.85 ID:Da+XMzbY スモールブロックの真の意味 http://doublehash.me/the-true-objective-of-small-block/ http://rio2016.5ch.net/test/read.cgi/future/1545018277/743
946: オーバーテクナナシー [sage] 2018/12/28(金) 20:59:16.85 ID:Fvyjlc7z 画像認識の「Googleレンズ」、10億以上の製品を認識可能に https://japan.cnet.com/article/35130751/ http://rio2016.5ch.net/test/read.cgi/future/1545018277/946
上
下
前次
1-
新
書
関
写
板
覧
索
設
栞
歴
スレ情報
赤レス抽出
画像レス抽出
歴の未読スレ
AAサムネイル
Google検索
Wikipedia
ぬこの手
ぬこTOP
0.041s