[過去ログ] 【統計分析】機械学習・データマイニング22 (1002レス)
上下前次1-新
このスレッドは過去ログ倉庫に格納されています。
次スレ検索 歴削→次スレ 栞削→次スレ 過去ログメニュー
374: (ササクッテロ Spf1-tzNq) 2019/01/30(水)20:43 ID:AMhQjvKip(1) AAS
>>373
回帰問題であっても分類問題であっても、訓練はRBFカーネルがaccuracyは高い
けれどもそれをテストデータに適用しても、RBFが勝つとは限らない
375(2): (ワッチョイ df02-zGAl) 2019/01/31(木)08:45 ID:j1saZfoH0(1) AAS
単に、背景にある関数が線形に近いなら線形カーネルの方が成績が良くなるってことだよな
無駄にカーネルの表現力が高いとノイズに影響されやすくなる
関係ないが、多項式カーネルは次元を高くするほどフィッティングの成績は良くなると思ってたんだが
高くしすぎると悪化することもあるのを見て驚いた
サポートベクトルや素性の数に比べて次元を高くしすぎると逆に制約になるってことかね
376(1): (アウアウエー Sa7f-eDu2) 2019/01/31(木)10:56 ID:/c3SvgTga(1) AAS
制約というよりオーバーフィッティングでは
377(1): (スッップ Sd9f-xJpY) 2019/01/31(木)11:01 ID:pd4BsQTXd(1) AAS
フィッティングの成績だから学習時の話だと思うが
378(1): (アウアウウー Saa3-MxjG) 2019/01/31(木)12:26 ID:S6N+PD6ia(1) AAS
フィッティングの成績が各点の二乗誤差の和とかなら多項式だと次数上げれば上げるほど誤差は減って、
データ点数以上の次数なら全ての点を通る曲線が作れるから誤差はゼロになるんじゃないか?
379(1): (スッップ Sd9f-xJpY) 2019/01/31(木)14:12 ID:Bzc7eYfkd(1/3) AAS
SVMはサポートベクターとの内積(=カーネル)をとってその一次合成でスコア出してるのは知ってる?
多項式で項数が増えてもそれぞれに自由に係数を指定できるわけではないから、
サポートベクターが都合の悪い配置だと次数の多さが制約になることはあるかも
380: (アウアウウー Saa3-1cI/) 2019/01/31(木)14:12 ID:0ecmyy2fa(1) AAS
話変わるんだけど
例えば5次元のデータでsvm学習しました。accuracy、A%でした。
そのデータのうちの3変数使って3次元のデータを作ってsvm学習しました。accuracy、B%でした。
AよりBの方が高くなっちゃうってケースが起きてるのですが、たぶんAとBは同じくらいになるのがsvmの性質上普通になると思うのですがなぜなのですかね。
381(2): (スッップ Sd9f-xJpY) 2019/01/31(木)14:23 ID:Bzc7eYfkd(2/3) AAS
ソフトマージンSVMは境界面近くのうまく分類できないサンプルを無視する
その数がそのまま学習データでaccuracy測ったときの残差となる
たぶん3次元で見たときの方が境界面近くのノイズが多かったんだろう
382: (ワッチョイ 7f79-1cI/) 2019/01/31(木)14:57 ID:yUcU76L10(1/2) AAS
>>381
すあません、もう少しわかりやすくお願いします
不勉強で申し訳ないのですが
383(1): (スッップ Sd9f-xJpY) 2019/01/31(木)15:09 ID:Bzc7eYfkd(3/3) AAS
>>381 は想像なんであってるかわからんがw
SVMはなるべく二つのクラスの距離(マージン)を広く取れるような境界を選ぶ性質がある
ソフトSVMは多少誤差があってもマージンを広く取る方を優先する
5次元の場合、SVMは誤差が大きい代わりにマージンが広い境界を見つけることができたのではないかということ
5次元モデルの方が汎化性能は高いかもよ
誤差とマージンのバランスはパラメータCで調整できる
384: (ワッチョイ 7f79-1cI/) 2019/01/31(木)17:39 ID:yUcU76L10(2/2) AAS
>>383
訓練精度も汎化性能もどっちも3次元の方が良かったんですよね…
385: (スッップ Sd9f-xJpY) 2019/01/31(木)17:50 ID:m2hyZCA/d(1) AAS
まあマージンが広くても上手く行くとは限らないしね
Cを大きくしてみ、100倍とか
5次元の方が3次元より学習時の誤差は小さくなるはず
なんにせよ結果を信じるなら残りの2次元が余計だったって話になると思う
386: (ワッチョイ dfb3-Q9zh) 2019/01/31(木)17:54 ID:P0SGHmWv0(1) AAS
実はデータ数が多過ぎて学習回数が全然違うとか
387: 数おたさらり (ワッチョイ ffda-bL3o) 2019/02/01(金)00:31 ID:4ECfKB/20(1) AAS
β
388(1): (ワッチョイ df02-zGAl) 2019/02/01(金)01:01 ID:gQj2ZZAq0(1) AAS
>>375-379
曖昧ですまん。そう、SVMで学習に使ったデータをそのまま分類したときの精度の話だ。
多項式カーネルでdimension=2 → 5までは順調に精度が上がったんだ
でもそれ以上次元を上げても精度は98%のまま上がらなくなった
ぐっと上げたら100%になるかなと思ってdimension=100にしてみたら50%に下がったんで意外だったって話
オーバーフィッティングさせようと思ったのに逆の結果になってしまった
389: sage (ササクッテロル Spb3-9Pyw) 2019/02/01(金)06:38 ID:Vx0Z/hmbp(1) AAS
>>388
データの量がパラメータの個数と比べて少ないからじゃね
連立方程式で方程式の個数が未知数の個数より少ない感じ
390: (スッップ Sd9f-xJpY) 2019/02/01(金)08:32 ID:cgFfgfk1d(1) AAS
>>375 で「サポートベクトルや素性の数に比べて次元を高くしすぎると逆に制約になる」と
書いてるからそれはわかってるんだろう
なんつーか、機械学習って仕組みをよくわかってないと陥る罠が多いよな
391(5): (ワッチョイ ff68-S1Ul) 2019/02/02(土)12:22 ID:kCHJSmHN0(1/6) AAS
脱衣をcycleganで学習させようとしたが、着衣ができるようになったが脱衣は崩壊した
道は長い・・・
着せた
画像リンク[png]:i.imgur.com
画像リンク[png]:i.imgur.com
画像リンク[png]:i.imgur.com
画像リンク[png]:i.imgur.com
脱がせた(グロ)
画像リンク[png]:i.imgur.com
画像リンク[png]:i.imgur.com
392(1): (ササクッテロル Spb3-hTzZ) 2019/02/02(土)12:25 ID:O32WGO0hp(1) AAS
>>391
すごいじゃん!
脱衣はDeep Dream状態だなww
393: (ワッチョイ ff68-S1Ul) 2019/02/02(土)12:36 ID:kCHJSmHN0(2/6) AAS
ほんまDeep Dreamやで・・・
特に顔がぐちゃぐちゃになるからオカズとして使うのは難易度高すぎる
4日も回したのにorz
上下前次1-新書関写板覧索設栞歴
あと 609 レスあります
スレ情報 赤レス抽出 画像レス抽出 歴の未読スレ AAサムネイル
ぬこの手 ぬこTOP 0.014s