F1の式とかやな
100%じゃないなんてのは当たり前の話でそんな話が出てくる事自体もうダメだし 当たり前がわかってない奴が社内にいる状況で前提知識を揃えるという話ね サンプル数より95か99か...
まあ君の上司が完全に無知なのを君のせいにするのは確かに酷だが 評価の際には不均衡データではダメ、なんてのはそれこそわかりきった話だろ 不均衡でダメだと現場で使えないだろ...
ちゃんと評価の方法があるよ、じゃねぇんだよ 大抵はclassification reportとかAUCを出力すればそれなりに評価は可能だろ、そんなのは常識レベルの話、お前の初心者知見など求めてない
評価の際には不均衡データではダメ、なんてのはそれこそわかりきった話だろ 大抵はclassification reportとかAUCを出力すればそれなりに評価は可能 内容分かってないでscikit learn弄って...
分かるって何が?
F1の式とかやな
それ、classification reportって単語がわかってればF1の式をわかってる前提で話していると思わない?
評価の際には不均衡データではダメ、なんてのはそれこそわかりきった話だろ 普通不均衡だしだからアキュラシーじゃなくてF1使うわけなのでね
だからclassification reportを使えばF1出るだろ?
それ単なるライブラリの機能なので 何やってるか分かってれば 評価の際には不均衡データではダメ、なんてのはそれこそわかりきった話だろ って言葉は出ないんですよ
不均衡に関しては、テストデータを作る際のラベルの分量のバランスを気をつけろという話ね いくらAUCやF1で良い精度が出たと言っても、実データの分布で実用レベルの結果が出ないと...
いやバランス弄ってテストデータ作ってる時点でテストデータじゃないから 実データを分けるんだよ
お前、ホールドアウト分割したところで実用のテストにならんのまず理解してる? 訓練データの分布で話してるよねそれ
だからバリデーションと分けるんだけど 謎のテストデータがどこかにあったら一回しか使えないだろ
コンペみたいにリーダーボードで評価するようにするんだよ、知らんのか? テストデータを「1回しか利用できない」なんてことはなく、ラベルを開発者にバラさなければいい
だからそれで評価されるまで性能上げてったらオーバーフィッティングやろ まして100パーセントの上司だろ?
君Kaggleしかやった事ないのでは? ブラックボックスのテストデータはプロダクションではあり得ないぞ あるとすれば新たに入ってくる生データ
ブラックボックスのテストがありえない?何いってんだお前? むしろブラックボックス以外のテストはできないだろ、頭おかしいのか? 開発者がテストデータのラベルを見れる時点で、...
あー やっぱコース受けた方がいいよ
ライブラリの機能にしろ、F1を出力することがわかってるなら、F1について事前知識があると考えるのが妥当である。
横だけど、なんか相手を否定したいがために必死になってるのがわかりますなぁw コテハンに誹謗中傷すると訴えられるからほどほどにねw
はいはい
評価の際には不均衡データではダメ は、まともにやったことある人なら完全におかしいのわかるけどね
訓練データの分布が、99%がTrueで1%がFalseってタイプのやつだとするだろ? それでそのまま評価するにしろ、F1を使うにしろ、実用の精度の評価は難しいんよ なぜって?「ほぼTrueでいける...
それ「評価の際には不均衡データではダメ、なんてのはそれこそわかりきった話だろ」ってなりますかね?
「わかりきった話」という言葉のチョイスは間違えたかも知れないが、テストデータが不均衡だと不都合すると言いたかった
そうじゃなくて、正規のテストデータを作る場合はラベルのバランスをある程度気をつけろという話だと思うが...
ん? ラベルの「バランス」って? 手動で合わせるの?
はいはいそうですね