NSFW画像
nsfwは「Not Safe for Work」の頭文字をとったもので、日本語では「仕事に安全ではない」といった意味合いがあります。 つまり、一般的にはアダルトコンテンツや卑猥な内容、暴力的な映像、残酷な表現を含む画像や動画など、職場環境で視聴や閲覧が適切でないとされるコンテンツを指す
google cloud vision apiなんぞ使っていたら破産する。
自前で用意する。
現時点でどの方法がいいのか検討する。
結論を先に書く:
さくっと行うには下記が良かった。軽いし。
https://github.com/platelminto/NudeNetClassifier?tab=readme-ov-file
トレーニング済みモデルを使う場合
https://github.com/yahoo/open_nsfw
以下は代表的なモデル
https://huggingface.co/google/vit-base-patch16-224-in21k
https://huggingface.co/facebook/deit-base-distilled-patch16-224
https://huggingface.co/facebook/convnext-base-224-22k
以下は代表的なモデル
https://www.kaggle.com/code/ggsri123/implementing-resnet18-for-image-classification
https://medium.com/@nina95dan/simple-image-classification-with-resnet-50-334366e7311a
https://keras.io/examples/vision/image_classification_efficientnet_fine_tuning/
AIがやたら2012を押してくる。なんで?
名称 枚数 カテゴリ数
ImageNet ILSVRC 2012 約128万枚 1,000
open_nsfw 約580万枚 80
0 件のコメント:
コメントを投稿