https://bsky.social/about/blog/01-29-2026-transparency-report-2025
概要
2025年、BlueskyのTrust & Safety活動は「ソーシャルメディアは利用者のために存在すべきだ」という前提に基づいて進められた。有害コンテンツへの露出削減、プライバシーを尊重した未成年保護、新たな被害への迅速対応が可能なシステム構築を目指した。モデレーション体制は大規模かつイベント駆動型の流入にも対応できるよう拡張され、規制対応、安全システム、プロダクト改善への投資を重ねた。
Blueskyは2025年に約60%成長し、ユーザー数は2594万から4141万に達した。Blueskyのインフラ上のアカウントに加え、AT Protocolネットワーク上で第三者が独立運用する数千のPersonal Data Serverも含まれる。この分散型アーキテクチャは、ソーシャルウェブを「プラットフォームからプロトコルへ」移行させるというミッションの中核だ。
2025年には14.1億件の投稿が作成された。これはBluesky全投稿の61%に相当する。メディア共有も急増し、2025年には2.35億件の投稿に画像・動画等のメディアが含まれた。これは全メディア投稿の62%を占める。
Blueskyは2025年を通じて24時間365日のモデレーション体制を維持し、児童安全などの重要領域には専門チームを配置した。自動化システム(リアルタイムでスパムを検出・対処するルールエンジン等)と包括的な人的監視を組み合わせたハイブリッドアプローチを採用している。
注:日本への言及
レポート内で日本に直接言及している箇所は1か所のみだ。
法的要請の地理的分布(25ページ)
要請の大部分はドイツ、アメリカ、日本からだった。イギリス、フランス、ブラジル、韓国、オーストラリア、オランダからも追加の要請があった。
日本固有のデータ(要請件数の内訳、年齢確認の実装状況など)は記載されていない。日本はドイツ・アメリカと並んで法的要請の主要な発信国として挙げられているが、具体的な数値は開示されていない。
年齢確認の実装対象法域はイギリス、アメリカ、オーストラリアの3か国のみで、日本は含まれていない。
第I部:2025年の主要施策
有害性フィルタリング
有害性は大規模ソーシャルアプリにとって普遍的な課題だ。コミュニティが成長するにつれ、友好的な会話と激しい議論の両方を許容する空間を維持するには、意図的な設計が必要になる。
2023-2024年、嫌がらせ・荒らし・不寛容といった反社会的行動は、ユーザーからの苦情の上位を常に占めていた。こうしたコンテンツは、攻撃や集団攻撃を恐れて人々がつながりを形成したり、投稿したり、関与したりすることを妨げる。
2025年4月、リスト機能から着手した。リスト名を使った標的型嫌がらせが増加傾向にあったためだ。ユーザーがリストを報告すると、タイトルと説明文の明白な有害性を自動評価し、該当する場合は!hideラベルを適用する。これによりリスト作成者以外には非表示となり、名前と説明を修正すれば申し立てによりラベルは解除される。
2025年10月、返信の会話品質向上の実験を開始した。有害、スパム、的外れ、または悪意のある返信を特定し、Blueskyアプリ内での可視性を低下させる仕組みだ。ただしコンテンツへのアクセス自体は維持される。この検出機能の実装後、反社会的行動に関する日次報告は約79%減少した。
認証システム
2025年、ドメインハンドル認証(30.9万以上のアカウントが使用)に加え、視覚的な認証バッジを導入した。
Blueskyの認証は、Bluesky自身による直接認証と、Trusted Verifier(信頼できる認証者)のネットワークによる認証の両方を含む。Trusted Verifierは独立した組織であり、それぞれの専門領域内でアカウントを認証できる。報道機関は記者を、大学は教員を、スポーツリーグは選手を認証できる。2025年、WiredやCNNから欧州委員会やトロント市まで、18の組織がTrusted Verificationを付与された。
2025年末時点で、合計4,327アカウントを認証した。Blueskyによる直接認証が3,567件、21のTrusted Verifierによる認証が777件だ。
年齢確認
特定の法域における新たな規制要件に対応し、Blueskyアプリに初めて年齢確認措置を実装した。
異なる国や州が、プラットフォームによる年齢確認と未成年のオンライン保護について、異なる—時に相反する—見解を持っている。単一の画一的ソリューションは使えなかった。代わりに、特定の現地規制要件を満たしつつ、ユーザーのプライバシーとオープン性を最大化する複数の年齢確認アプローチを構築した。
Epic Gamesの Kids Web Services(KWS)と連携し、年齢確認を必要とする法域で認証オプションを提供している。
2025年8月にミシシッピ州の年齢確認法が施行された際、適切なシステムを実装するための技術インフラと運用能力がまだ整っていなかった。当初、ミシシッピ州でのBlueskyへのアクセスを完全に遮断するという困難な決定を下した。12月までに、他の法域向けの年齢確認システム構築作業により能力が成熟し、ミシシッピ州の18歳以上の成人にソリューションを提供できるようになった。
コミュニティガイドラインの更新
2025年3月、コミュニティガイドライン更新のための6か月のプロセスを開始し、複数の段階でコミュニティからのフィードバックを募った。14,000件以上の意見が寄せられた。10月に実装された最終版ガイドラインは、安全性、コンプライアンス、そしてBlueskyの中核的価値観のバランスを取りながら、このフィードバックを反映している。
更新されたガイドラインは、ポリシーを4つの基本原則に整理している。
Safety First(安全第一)
Respect Others(他者を尊重)
Be Authentic(真正であれ)
Follow the Rules(ルールを守れ)
報告システム
公開されているコミュニティガイドラインの背後には、アプリ全体で潜在的被害をどのように理解・分類するかを構造化する分類システムがある。この内部フレームワークは、16の異なるコミュニティガイドラインポリシーを39のユーザー報告理由、ラベリングシステム、エンフォースメントアクションと接続し、すべてのモデレーション決定に一貫性をもたらす。
ユーザーにとって最も目に見える変化として、この構造により報告オプションが6つの大まかなカテゴリから39の具体的な理由に拡大された。
ストライクシステム
2025年11月、一貫性と比例性をBlueskyのルール適用にもたらすストライクシステムを導入した。
このシステムは、各ポリシーに4段階の重大度(低・中・高・重大)を割り当てる。低リスクの違反は警告と一時的なクールオフ期間を優先し、深刻な被害を引き起こす高リスクの違反はより強い結果に直面する。違反が蓄積すると、アカウントレベルのアクションは短期間の停止からより長期の停止、そして永久BANへとエスカレートする。重大な違反—サイトの悪用意図や即時の現実世界への被害を示すもの—は初回で永久削除となる。
第II部:モデレーション指標と運用
報告
2025年、ユーザーは997万件の報告を提出した(2024年の648万件から54%増加)。この増加は同期間の57%のユーザー成長とほぼ一致している。報告は124万人のユーザーから寄せられ、ユーザーベースの約3%が懸念のあるコンテンツにフラグを立てた。
2025年を通じて、ユーザー報告は月ごとに減少した。月間アクティブユーザー(MAU)1,000人あたりの報告数は、1月から12月にかけて50.9%減少した。有害性への取り組みにより、ハラスメントおよび反社会的報告は急速に79%減少した。
スパム:436万件の報告のうち、スパム単独で249万件を占めた。
ハラスメント:199万件の報告のうち、「ハラスメント-その他」が186万件と大部分を占める。これは旧「反社会的行動」カテゴリからのレガシーマッピングと、報告される行動がしばしばグレーゾーンに該当するという現実を反映している。
性的コンテンツ:152万件の報告は主にラベル付けの問題に関するものであり、深刻な被害ではなかった。11月に「ラベルなし成人向けコンテンツ」の報告オプションを導入したところ、わずか6週間で8.33万件の報告があり、最も使用されるカテゴリの一つとなった。
プロアクティブ検出
自動検出システムは、ユーザーがコンテンツに遭遇したり報告したりする前に、潜在的な違反を特定する。2025年、自動化システムはアカウントと投稿全体で254万件の潜在的違反にフラグを立てた。
影響力工作:報告期間中、影響力工作への関与を理由に3,619アカウントを削除した。これらのアカウントの大部分は、ロシアから活動している可能性のあるアクターを含む外国の国家関連アクターに関連していると評価された。
ラベル
2025年、Blueskyはアカウントと個別コンテンツ全体で1649万件のラベルを適用した。2024年の550万件から200%増加だ。一方、アカウント削除は104%増(102万から208万)にとどまった。この乖離は、コンテンツを完全に削除するのではなく、適切な警告付きでより多くのコンテンツをアプリ上に保持していることを示している。
適用されたラベルの95.34%は自動化システムによるものだ。
rude(29.54万件)が人的モデレーション作業量の最大部分を占める。intolerant(6.02万件)とthreat(1.59万件)はすべて人的レビューを経ている。
テイクダウン
2025年、244.6万件のアイテムを削除した。アカウントとコンテンツの両方を含む。
エンフォースメント哲学は被害を対象とし、人を対象としない。違反が特定のコンテンツに関わる場合、問題のある素材を削除しつつアカウントは保持する。違反が悪意のあるアクター—なりすまし、スパムネットワーク、協調的操作—に関わる場合、アカウントレベルのアクションが必要となる。
ゼロトレランスカテゴリ:協調的な不正行為、スパムネットワーク、なりすましが、「Be Authentic」ポリシー3つにわたる手動エンフォースメントの81%を占めた。Trust & Transparency(78.2万件)、Account Authenticity(4.85万件)、Site Security(3.35万件)だ。
BAN回避に対しては、2025年に14,659件の永久削除を実施した。
一時停止は13,192件発行し、69%が24時間、29%が72時間、わずか2%が7日間だった。
申し立て
ユーザーベースの1%未満(267,509ユーザー)が2025年に少なくとも1件の申し立てを提出した。すべての申し立ては人的レビューを受ける。
第III部:法務と安全
法的要請
2025年、法執行機関、政府規制当局、法定代理人から1,470件の法的要請を受けた。2024年の238件から大幅に増加した。
有効な要請1,334件に対応し、コンプライアンス率は90.7%だった。
要請の大部分はドイツ、アメリカ、日本からだった。
著作権と商標
2025年、1,546件の著作権・商標案件を受理した。2024年の937件から65%増加だ。
児童安全
児童安全には専門システム、専門知識、そして揺るぎないコミットメントが必要だ。2025年、ポリシーの拡充、ユーザー報告経路の改善、モデレーターが目にする前に違法コンテンツを削除する自動検出システムの継続使用を通じて、児童安全インフラを強化した。
以前のコミュニティガイドラインは未成年の性的描写や搾取をゼロトレランスで禁止していたが、2025年にこのフレームワークを包括的な独立した児童安全ポリシーに拡張した。
報告オプションも専用のものを設けた:児童性的虐待素材、グルーミングまたは略奪的行動、未成年のプライバシー侵害、未成年へのハラスメントまたはいじめ、「その他の児童安全」。
2025年、自動化システムは12,647件のコンテンツにフラグを立て、専門家レビューのために隔離した。人的評価の後、National Center for Missing and Exploited Children(NCMEC)に5,238件の報告を提出した。
2025年、Blueskyで作成された14.1億件の投稿のうち、児童安全違反で6,502件の投稿を削除した。全コンテンツの0.001%未満だ。
第IV部:結論
2026年のTrust & Safetyロードマップは3つの領域に焦点を当てる。コア安全機能の構築、ユーザー体験の向上、そしてより広いエコシステムへの投資だ。
2025年は、より健全なソーシャルメディアを大規模に構築することが可能であることを示した。プロアクティブなシステムが有害コンテンツを削減できること、年齢確認がプライバシーを尊重しながら複数の法域で機能できること、そしてモデレーションが一貫性と文脈認識の両方を持ちうることを示した。