[過去ログ]
【統計分析】機械学習・データマイニング22 (1002レス)
【統計分析】機械学習・データマイニング22 http://mevius.5ch.net/test/read.cgi/tech/1547338417/
上
下
前
次
1-
新
通常表示
512バイト分割
レス栞
このスレッドは過去ログ倉庫に格納されています。
次スレ検索
歴削→次スレ
栞削→次スレ
過去ログメニュー
374: デフォルトの名無しさん (ササクッテロ Spf1-tzNq) [sage] 2019/01/30(水) 20:43:28.89 ID:AMhQjvKip >>373 回帰問題であっても分類問題であっても、訓練はRBFカーネルがaccuracyは高い けれどもそれをテストデータに適用しても、RBFが勝つとは限らない http://mevius.5ch.net/test/read.cgi/tech/1547338417/374
375: デフォルトの名無しさん (ワッチョイ df02-zGAl) [sage] 2019/01/31(木) 08:45:36.99 ID:j1saZfoH0 単に、背景にある関数が線形に近いなら線形カーネルの方が成績が良くなるってことだよな 無駄にカーネルの表現力が高いとノイズに影響されやすくなる 関係ないが、多項式カーネルは次元を高くするほどフィッティングの成績は良くなると思ってたんだが 高くしすぎると悪化することもあるのを見て驚いた サポートベクトルや素性の数に比べて次元を高くしすぎると逆に制約になるってことかね http://mevius.5ch.net/test/read.cgi/tech/1547338417/375
376: デフォルトの名無しさん (アウアウエー Sa7f-eDu2) [] 2019/01/31(木) 10:56:31.70 ID:/c3SvgTga 制約というよりオーバーフィッティングでは http://mevius.5ch.net/test/read.cgi/tech/1547338417/376
377: デフォルトの名無しさん (スッップ Sd9f-xJpY) [sage] 2019/01/31(木) 11:01:19.54 ID:pd4BsQTXd フィッティングの成績だから学習時の話だと思うが http://mevius.5ch.net/test/read.cgi/tech/1547338417/377
378: デフォルトの名無しさん (アウアウウー Saa3-MxjG) [sage] 2019/01/31(木) 12:26:27.71 ID:S6N+PD6ia フィッティングの成績が各点の二乗誤差の和とかなら多項式だと次数上げれば上げるほど誤差は減って、 データ点数以上の次数なら全ての点を通る曲線が作れるから誤差はゼロになるんじゃないか? http://mevius.5ch.net/test/read.cgi/tech/1547338417/378
379: デフォルトの名無しさん (スッップ Sd9f-xJpY) [sage] 2019/01/31(木) 14:12:11.17 ID:Bzc7eYfkd SVMはサポートベクターとの内積(=カーネル)をとってその一次合成でスコア出してるのは知ってる? 多項式で項数が増えてもそれぞれに自由に係数を指定できるわけではないから、 サポートベクターが都合の悪い配置だと次数の多さが制約になることはあるかも http://mevius.5ch.net/test/read.cgi/tech/1547338417/379
380: デフォルトの名無しさん (アウアウウー Saa3-1cI/) [sage] 2019/01/31(木) 14:12:40.10 ID:0ecmyy2fa 話変わるんだけど 例えば5次元のデータでsvm学習しました。accuracy、A%でした。 そのデータのうちの3変数使って3次元のデータを作ってsvm学習しました。accuracy、B%でした。 AよりBの方が高くなっちゃうってケースが起きてるのですが、たぶんAとBは同じくらいになるのがsvmの性質上普通になると思うのですがなぜなのですかね。 http://mevius.5ch.net/test/read.cgi/tech/1547338417/380
381: デフォルトの名無しさん (スッップ Sd9f-xJpY) [sage] 2019/01/31(木) 14:23:54.00 ID:Bzc7eYfkd ソフトマージンSVMは境界面近くのうまく分類できないサンプルを無視する その数がそのまま学習データでaccuracy測ったときの残差となる たぶん3次元で見たときの方が境界面近くのノイズが多かったんだろう http://mevius.5ch.net/test/read.cgi/tech/1547338417/381
382: デフォルトの名無しさん (ワッチョイ 7f79-1cI/) [sage] 2019/01/31(木) 14:57:55.14 ID:yUcU76L10 >>381 すあません、もう少しわかりやすくお願いします 不勉強で申し訳ないのですが http://mevius.5ch.net/test/read.cgi/tech/1547338417/382
383: デフォルトの名無しさん (スッップ Sd9f-xJpY) [sage] 2019/01/31(木) 15:09:15.35 ID:Bzc7eYfkd >>381 は想像なんであってるかわからんがw SVMはなるべく二つのクラスの距離(マージン)を広く取れるような境界を選ぶ性質がある ソフトSVMは多少誤差があってもマージンを広く取る方を優先する 5次元の場合、SVMは誤差が大きい代わりにマージンが広い境界を見つけることができたのではないかということ 5次元モデルの方が汎化性能は高いかもよ 誤差とマージンのバランスはパラメータCで調整できる http://mevius.5ch.net/test/read.cgi/tech/1547338417/383
384: デフォルトの名無しさん (ワッチョイ 7f79-1cI/) [sage] 2019/01/31(木) 17:39:00.02 ID:yUcU76L10 >>383 訓練精度も汎化性能もどっちも3次元の方が良かったんですよね… http://mevius.5ch.net/test/read.cgi/tech/1547338417/384
385: デフォルトの名無しさん (スッップ Sd9f-xJpY) [sage] 2019/01/31(木) 17:50:37.95 ID:m2hyZCA/d まあマージンが広くても上手く行くとは限らないしね Cを大きくしてみ、100倍とか 5次元の方が3次元より学習時の誤差は小さくなるはず なんにせよ結果を信じるなら残りの2次元が余計だったって話になると思う http://mevius.5ch.net/test/read.cgi/tech/1547338417/385
386: デフォルトの名無しさん (ワッチョイ dfb3-Q9zh) [] 2019/01/31(木) 17:54:19.80 ID:P0SGHmWv0 実はデータ数が多過ぎて学習回数が全然違うとか http://mevius.5ch.net/test/read.cgi/tech/1547338417/386
387: 数おたさらり (ワッチョイ ffda-bL3o) [sage] 2019/02/01(金) 00:31:59.27 ID:4ECfKB/20 β http://mevius.5ch.net/test/read.cgi/tech/1547338417/387
388: デフォルトの名無しさん (ワッチョイ df02-zGAl) [sage] 2019/02/01(金) 01:01:45.93 ID:gQj2ZZAq0 >>375-379 曖昧ですまん。そう、SVMで学習に使ったデータをそのまま分類したときの精度の話だ。 多項式カーネルでdimension=2 → 5までは順調に精度が上がったんだ でもそれ以上次元を上げても精度は98%のまま上がらなくなった ぐっと上げたら100%になるかなと思ってdimension=100にしてみたら50%に下がったんで意外だったって話 オーバーフィッティングさせようと思ったのに逆の結果になってしまった http://mevius.5ch.net/test/read.cgi/tech/1547338417/388
389: sage (ササクッテロル Spb3-9Pyw) [] 2019/02/01(金) 06:38:29.24 ID:Vx0Z/hmbp >>388 データの量がパラメータの個数と比べて少ないからじゃね 連立方程式で方程式の個数が未知数の個数より少ない感じ http://mevius.5ch.net/test/read.cgi/tech/1547338417/389
390: デフォルトの名無しさん (スッップ Sd9f-xJpY) [sage] 2019/02/01(金) 08:32:41.57 ID:cgFfgfk1d >>375 で「サポートベクトルや素性の数に比べて次元を高くしすぎると逆に制約になる」と 書いてるからそれはわかってるんだろう なんつーか、機械学習って仕組みをよくわかってないと陥る罠が多いよな http://mevius.5ch.net/test/read.cgi/tech/1547338417/390
391: デフォルトの名無しさん (ワッチョイ ff68-S1Ul) [sage] 2019/02/02(土) 12:22:14.52 ID:kCHJSmHN0 脱衣をcycleganで学習させようとしたが、着衣ができるようになったが脱衣は崩壊した 道は長い・・・ 着せた https://i.imgur.com/FrioFmb.png https://i.imgur.com/DqnT0NT.png https://i.imgur.com/8VLUQU9.png https://i.imgur.com/rxHFpgZ.png 脱がせた(グロ) https://i.imgur.com/5uGCIHh.png https://i.imgur.com/yOovTQs.png http://mevius.5ch.net/test/read.cgi/tech/1547338417/391
392: デフォルトの名無しさん (ササクッテロル Spb3-hTzZ) [sage] 2019/02/02(土) 12:25:07.36 ID:O32WGO0hp >>391 すごいじゃん! 脱衣はDeep Dream状態だなww http://mevius.5ch.net/test/read.cgi/tech/1547338417/392
393: デフォルトの名無しさん (ワッチョイ ff68-S1Ul) [sage] 2019/02/02(土) 12:36:34.43 ID:kCHJSmHN0 ほんまDeep Dreamやで・・・ 特に顔がぐちゃぐちゃになるからオカズとして使うのは難易度高すぎる 4日も回したのにorz http://mevius.5ch.net/test/read.cgi/tech/1547338417/393
上
下
前
次
1-
新
書
関
写
板
覧
索
設
栞
歴
あと 609 レスあります
スレ情報
赤レス抽出
画像レス抽出
歴の未読スレ
AAサムネイル
Google検索
Wikipedia
ぬこの手
ぬこTOP
0.008s