8月30日LAION-5BからCSAMを除去したreーLAION-5Bがリリースされました。
昨年検索して問題のある画像が見つかったpornやloli pornで検索しても何も出てきません。CSAMを描いた漫画もイラストも削除されています。CSAM除去に関しては徹底していると思います。データ数は58億5000万から55億に減っています。昨年スタンフォード大学がPhotoDNAで特定したCSAMを含め、専門組織と協力して2236件のリンクが削除されています。
しかしCSAMとして報告されていない児童のヌードは残っています。昨年検索した写真家の名前で検索するとソフトな少女ヌード(1点は上体、もう1点は全身が露出)が見つかりました。別の写真家で検索すればまだ見つかる可能性はあります。
またヌーディストの写真も昨年同様残されていました。
ヌーディズムの表現はポルノではありません。ネットで公開されている写真は自由に閲覧できます。PhotoDNAでポルノと一致すれば削除されますが、そうなっていません。公開は表現の自由です。
しかしネットにはヌーディストの写真がポルノサイトに無断転載されていますし、少女ヌード写真集がヌーディストの写真と偽って無断転載されています。ポルノでなくてもポルノ同様に享受されているのが現実です。悪用されるリスクが高いと思います。
データセットに入れるには配慮が必要です。顔の見える幼児の写真もあります。成長すれば変わる可能性もあります。写真を削除したくなるかもしれません。
低年齢の児童の顔の見える写真も、例えば「子ども食堂」で検索すると多数出ます。悪用されては困ります。
こちらのサイトで「子ども食堂」で検索してください。
モデルの特定できる写真は海外でも問題にされています。
https://gigazine.net/news/20240611-laion-5b-misused-childrens-personal-photos/
個人の顔の見える写真の利用を無条件に認めることは止めるべきだと思います。生成された画像が酷似していなくても本人や知り合いにはわかる場合があります。知らないところでポルノに改変され、時間がたってから気づいても取り返しがつきません。
re-LAION-5Bリリースと同日の8月30日、安全策が施されておらずCSAMの生成に寄与していると批判を浴びているStable Diffusion1.5がHugging FaceでDLできなくなりました。
理由は公開されていません。ただしCivitaiではDLできます。
それに関する記事です。
記事によるとStable Diffusion1.5は2024年8月の1か月の間にHugging Faceで600万回以上DLされた最も人気のあるモデルだそうです。最新版の方が画質は良く、アルファベットもかなり生成できますが、それでもStable Diffusion1.5が使われていることに驚きます。画質が悪いため淘汰されるだろうというコメントを見たことがありますが、今のところそうなっていません。
ポルノを始めNSFWコンテンツを生成できることが支持される理由ではないかと思います。他に思い当たる理由がありません。
これを放置すれば、いくらプラットフォームで規制したところでローカル環境でのCSAMの作成を止められません。
記事中で対策として挙げられているデータセットからのCSAMの削除、CSAMでトレーニングされたモデルのプラットフォームからの削除、ヌード化アプリの削除、作成者への支払い停止、検索結果からの除外などはぜひ実現していただきたいと思います。
re-LAION-5Bがそれに応えるべく努力したことはわかります。
しかし前述したように日本の子ども食堂の写真も多数見つかるなど、個人情報、プライバシーに関わる問題も残っています。児童に限らず成人も同じリスクがあります。ポルノだけではなく、広告や政治キャンペーンへの無断利用にも問題があります。
トレーニングデータセットがクリーンになり、権利問題がなくなっても、利用者が無許諾で追加学習できれば自浄作用は期待できません。
またre-LAION-5Bでもやはり海賊版や有料で販売されている著作物が見つかるなど著作権に関わる問題も残っています。
日本は海賊版と知りつつ学習に使うことは認めない方針ですし、個人情報保護についても検討中です。企業の自主規制に任せては営利目的の権利無視を止められません。
学習元のプライバシー、個人情報、知的財産権を保護するため、学習に許諾を必要とする法規制を求めます。