Blueskyに絵をポストしたらポルノ扱いされたんですけど!ラベルの話
はじめに
Bluesky の成人向け(ポルノ等)扱いは内外でいろんな人が話題にしているのですが説明するのが大変なのでこれをとりあえず書きました。
児童ポルノに関する話
児童ポルノ(またはそう海外が思ってるもの)は許されません。
Bluesky がではなく Bluesky の所在地の法律がそれを許しません。Apple も Google もそれを許しません。
Bluesky では児童ポルノの検出に Thorn の Safer というものを利用しているようです。
たとえば、Bluesky は CSAM (Child Sexual Abuse Material(児童性的虐待のコンテンツ))を見つけて削除するために、児童安全非営利団体 Thorn のツールである Safer を使用しています。 10 年以上にわたり、テクノロジー業界は既知の CSAM のハッシュを収集して共有し、業界や同業者がサイトから CSAM を簡単に削除できるようにしてきました。 Safer はそれらのハッシュを Bluesky に提供し、独自の機械学習ツールで強化します。 このツールは、これまで検出されなかった CSAM も検出できます。CSAM が発見されると、Safer は関連する投稿をモデレーターにルーティングし、Bluesky が事業を展開している国の児童安全当局と共有できるレポートを作成します。(Google 翻訳)
情報元 : Inside Bluesky’s big growth surge PLATFORMER
とりあえずダメそうなものは https://misskey.io にポストしましょう。(X もそのようなものは本来規約違反ですが通報が多すぎて処理しきれず雑な凍結で済ましているだけです)
モデレーターによる介入
誰かがあなたのポストを「通報」したときに Bluesky のモデレーターに連絡が届き運営がそのポストへの対処を判断します。このモデレーションシステムを「Ozone」といいます。
出典: https://github.com/bluesky-social/ozone
モデレーターはそのポストを削除するかもしれませんしラベルを変更するかもしれません。
何度も削除されるようなものをポストし続けているとアカウントが Takedown (一時停止) になる可能性が高いです。
よほど悪質ではない限りアカウントの削除は稀です(過去の例により)。水着騒動の際は結果的には Untakedown によってそのアカウントは停止解除されました。
(アカウントの削除と Takdown は違います。Bluesky におけるアカウントの削除と Takedown については説明は省略します。ユーザーからするとわからないので)
違反コンテンツ削除の通達
児童ポルノのような違反コンテンツが運営により削除になった時、登録時のメールアドレスにそのポストを削除したと記載されたメールが Bluesky 運営より送信されます。
通達を無視して同じようなコンテンツを含むポストを続けているとアカウントは Takedown(凍結) されます。
Bluesky からのメールが迷惑メール扱いになっている場合も多いので必ず確認しましょう。
また Takedown 状態の場合は異議申し立てにより Untakedown (凍結解除) してもらえる可能性もあります。
画像などをすべて表示する設定
ios 版 Bluesky は Apple の規定によりエロっぽい画像を表示する設定ができないようになっています。(Android 版はそのまま設定からできるそうです)
ブラウザ版の Bluesky https://bsky.app から設定を変更します。
設定 -> モデレーション -> コンテンツのフィルター
ここでコンテンツの表示ルールを変更できます。 さらに追加のフィルターは以下の Bluesky Moderation Service から変更します。
画像以外のものがやたらあるもののほとんど見かけることはないはず
絵をポストしたら成人向け(ポルノ等)扱い もう終わりだよこの SNS
ポストに画像を添付するとき
ポストする画像を選んだ後にユーザーはラベルからコンテンツの警告を以下の中から選ぶことができます。
↓
成人向けコンテンツ (この中から1つ)
- 「きわどい(Sexually Suggestive)」 性的示唆 性的挑発 裸体は含まれない
- 「ヌード(Non-sexual Nudity)」 美術的な裸体
- 「成人向け(ポルノ等)(Adult Content)」 ポルノ画像 性行為
その他 (上記の3つに加えて追加可能)
- 「生々しいメディア(Graphic Media)」 人によっては閲覧に注意する画像(基本的に流血・グロを表す ショッキングなもの等)
これで他の人に配慮したポストにすることができます。
成人向けコンテンツラベルを選ばずに全年齢対象投稿とすることもできます。
いずれにせよポストをしたあとにこのようなラベルが勝手についていることがあります。
これを押してみると
!?
「検閲だ!左派だ!ポリコレだ!Bluesky 運営はポストを監視し、キリスト教的価値観によって我々の言論を封じ表現の自由を奪い国家をひいては日本民族を弱体化させようとしているんだああああ!!」
ちがいます
ラベルはラベラーが貼っている
すべてのポストに添付された画像や動画は即座に Hive AI (Skeb が AI 判定にも使っているサービス)に通され、そこで成人向け(ポルノ等)やヌードの判定が行われます。
Hive AI の画像内容検出サービス(Image and Video Detection)
その判断を元に Bluesky Moderation Service というラベラー(そういうサービス)がポストに対して選ばれたラベルを貼り付けます。
自動的にラベルが貼られる基準はとにかく Hive AI の判断になっています。Bluesky の思想でラベルが決まっているわけではありません。 (Hive AI の判定の厳しさ設定は Bluesky 運営が設定しています)
なんでこんなことやってるの
当初 Hive AI は ラベルの貼り忘れの事故などを防ぐために導入されました。ラベルを貼りましょうと言っても貼らない人だらけなのは言うまでもないことです。そして判断基準は人それぞれです。人が増えるほどモデレーションは大変なので結果的にこの Hive AI が自動モデレーションすることになりました。
現在では検閲システムのように思われていますがこの自動ラベリングは適切なラベリングのために存在しています。 Hive AI の判断は適切とは言えませんがそこはそれを見たくない人のために最低限ラベルを貼っていると考えてください。
自分で「成人向け(ポルノ等)」ラベルを選んで投稿しても Hive AI の判断によってもっと軽いラベル「きわどい」「ヌード」が貼られることもあります。
Hive AI は何を見ているのか
正確には Bluesky とは関係ないのですが今までの傾向から見て Hive AI は
- グラビアにあるようなポーズか
- 水着か
- 服を着ているか
- 乳首があるか
- 肌色(褐色でも黒でも)が多いか
- 性器があるか
- 女性的なお尻のシルエットか
- 性行為の構図か
- 血が出ているか
- 美術的ヌードか
- アメコミとかの漫画絵か
という部分を見ています(多分)。特に Sexually Suggestive (きわどい) は範囲が広く胸元が見えていたりするとよく適用されます。 「ふーん、えっちじゃん」は Sexually Suggestive(きわどい) だと考えるのがよいでしょう。
Sexually Suggestive (Cartoon) が付いていたんだけど
このラベルも Bluesky Moderation Service によって貼られるラベルですがこのラベルは自分では選べません。 これも HiveAI の判断で「えっちな雰囲気がする二次元の絵」という扱いになったときに選ばれるラベルですが正直選ばれる基準がわからなさすぎるので特に気にしないでください。
Sexually Suggestive (Cartoon) の表示設定は 設定 -> モデレーション -> 高度な設定 Bluesky Moderation Service -> ラベル Sexually Suggestive (Cartoon) にあります。
Hive AI の勝手なラベルが気に食わないので変えたい
「異議を申し立てる」で運営の判断により別のラベルに変えてくれる場合があります。以下は自分で「成人向け(ポルノ等)」としてポストしたものの「Sexually Suggestive(Cartoon)」と判断された画像です。
プロフィールが成人向け(ポルノ等)扱い もう終わりだよこの SNS
プロフィールに使うアバターやヘッダー画像も当然 Hive AI に通されます。
それによってプロフィール自体にラベルが貼られ、モデレーション設定によりアバター画像やヘッダー画像がぼやかされたりします。(プロフィールが非表示になるのではなく画像がぼやかされる)
プロフィール画面は誰でもアクセスできる場所なので基本的には安全な画像を使うようにしましょう。(アバター画像がぼやけていると本当に誰だか認識しづらい)
結論
とりあえずポストに添付する画像は全部「成人向け(ポルノ等)」にしておくのはあれこれ悩まずに済みます。(Misskey io がなんでも NSFW にする人が多いのと同様)
一般イラストを投稿するユーザーは HiveAI の判断に悩むかもしれませんが Sexually Suggestive (きわどい) はとにかく適用されやすいのでそこはそういうものだと思いましょう。
Bluesky はユーザー自身が見るものをコントロールするのが基本なのでラベルはどうしても必要なのです。
これはあなたを通報するユーザーを減らすことにもつながります。
更新履歴
日付 | 内容 |
---|---|
2024-11-26 | Thorn の Safer による児童ポルノ検知の説明を追記 |
2024-11-20 | アップデートに伴い画像を差し替え Hive AI とのラベルの重複の項目を削除(二重に貼られたことを確認) ラベル名修正 Adult → 成人向け(ポルノ等) |
2024-11-10 | 生々しいメディアの説明変更 |
2024-11-09 | アップデートに伴い選択できるラベル名を修正 ポルノ->Adult 「生々しいメディア」追加 |
2024-11-05 | 投稿 |