2024年2月28日水曜日

2024年時点で、不適切な画像かどうかを検知する仕組みを、安く作るにはどうするべきか?

NSFW画像

nsfwは「Not Safe for Work」の頭文字をとったもので、日本語では「仕事に安全ではない」といった意味合いがあります。 つまり、一般的にはアダルトコンテンツや卑猥な内容、暴力的な映像、残酷な表現を含む画像や動画など、職場環境で視聴や閲覧が適切でないとされるコンテンツを指す


google cloud vision apiなんぞ使っていたら破産する。

自前で用意する。


現時点でどの方法がいいのか検討する。



結論を先に書く:

さくっと行うには下記が良かった。軽いし。

https://github.com/platelminto/NudeNetClassifier?tab=readme-ov-file







トレーニング済みモデルを使う場合

https://github.com/yahoo/open_nsfw



以下は代表的なモデル

https://huggingface.co/google/vit-base-patch16-224-in21k

https://huggingface.co/facebook/deit-base-distilled-patch16-224

https://huggingface.co/facebook/convnext-base-224-22k


以下は代表的なモデル

https://www.kaggle.com/code/ggsri123/implementing-resnet18-for-image-classification

https://medium.com/@nina95dan/simple-image-classification-with-resnet-50-334366e7311a

https://keras.io/examples/vision/image_classification_efficientnet_fine_tuning/



AIがやたら2012を押してくる。なんで?

名称 枚数 カテゴリ数

ImageNet ILSVRC 2012 約128万枚 1,000

open_nsfw 約580万枚 80



open_nsfwは古いので、最近の手法で作られたオープンソースはないのですか?
ChatGPT
ChatGPT

最近のオープンソースの画像モデレーションツールとして、いくつかの選択肢があります。

  1. NudeNet: TensorFlow.js と NodeJS を使用した NSFW オブジェクト検出ツールです。これは open_nsfw と比較して、現代の技術を利用しており、JavaScript ベースで開発されています​​。

  2. AI Playground: これは Node.js、OpenCV、React を用いた実験的なセットアップで、ユーザー生成画像の自動モデレーションを目的としています。このプロジェクトは Yahoo の Open NSFW モデル (Caffe) と Inception5h (TensorFlow) を使用して画像をスコアリングおよび分類します​​。

  3. NSFW JS: クライアントのブラウザ上で動作する、シンプルな JavaScript ライブラリです。このツールは、不適切な画像を迅速に識別するのに役立ちます​​。

これらのツールは、open_nsfw に代わる現代的な代替品として利用することができます。それぞれのツールは、異なる技術スタックやアプローチを取っているため、ご自身のニーズに合わせて選択することが重要です。また、これらのツールを使用する際は、適切な法的および倫理的ガイドラインに従うことも忘れないでください。









0 件のコメント:

コメントを投稿