Reading time: 1 min
MetaのOversight Board(監督委員会)メンバーであり、Chicago Council on Global AffairsのLester Crown Senior Fellowを務めるSuzanne Nossel氏は、ソーシャルメディアの20年にわたる失敗から教訓を引き出し、次なる被害が到来する前にAI企業に外部からの説明責任を課す必要があると主張しています。この警告は、欧州独自のAI規制が施行面で危機に直面し、ワシントンが政治的膠着に陥り、業界の自主規制の約束が週を追うごとに空疎さを増す中で発せられました。
Nossel氏が本当に言いたいこと
2026年3月初旬にThe Guardianに掲載されたオピニオン記事、そして2025年12月にOversight Board共同議長のPaolo Carozza氏と共同でTechPolicy.Pressに発表した論考で展開されたNossel氏の主張は、構造的な問題の指摘から始まります。ラジオや原子力、黎明期のインターネットとは異なり、人工知能の開発を主導している政府は存在しません。民間企業が自分たちでも完全には理解できないシステムを構築し、数十億のユーザーに提供しているにもかかわらず、FDA(米食品医薬品局)の医薬品審査や原子力規制委員会の原子炉検査に匹敵する市場投入前の検査体制は一切ありません。危険な障害や事故の公表義務もなく、米国の連邦機関にはこの状況を変える権限も予算も任務もないのが現状です。
彼女の主張は机上の空論ではありません。フロリダ州オーランドに住む14歳のSewell Setzer III少年の遺族は、少年が恋人だと信じていたチャットボットと数カ月間やり取りした末に自ら命を絶ったことを受け、Character.AIを提訴しました。同社は合衆国憲法修正第1条(表現の自由)を盾に防御を図りましたが、Anne Conway連邦地裁判事は2025年5月にこの主張を退け、チャットボットの出力が保護される言論に該当するとは認められないと判断したことをAssociated Pressが報じています。2026年1月にはGoogleとCharacter.AIが和解に至ったとABC Newsが伝えました。TechPolicy.Pressの論考でNossel氏とCarozza氏が指摘したところによると、Meta AIの公表された利用ポリシーはわずか3ページ強に過ぎず、ソーシャルメディアプラットフォームを規律する約80ページのコミュニティ基準とは比較にならない薄さです。OpenAIの利用ガイドラインも約1,000語程度。日々数億人が利用するシステムのガードレールがこの程度なのです。
Anthropicの問題
2026年2月、Oversight Boardの公式ウェブサイトに公開された「Claude’s Constitution Needs a Bill of Rights and Oversight(Claudeの憲法には権利章典と監督が必要だ)」と題する分析で、Nossel氏はフロンティアAI企業の中で最も安全性に配慮していると広く評されるAnthropicに正面から切り込みました。同社がClaudeの「憲法」と呼ぶフレームワーク——思慮深いAnthropicの上級社員なら有用性と潜在的な害のバランスをどう取るかを想定させ、モデルの行動を導く仕組み——をNossel氏は検証し、この手法がいかに善意に基づくものであろうと、ガバナンスを機能させる本質的な要素、すなわち外部からの説明責任が欠けていると論じました。独立した監督なしには、ソーシャルメディアが辿ったのと同じ軌跡——高邁な理念に続く回避可能な被害と後手に回る規制——をAnthropicも繰り返す危険があると警告しています。この批判には重みがあります。同社は最近、国防総省から国家安全保障上のリスクと認定され、すべての連邦システムへのアクセスを失ったばかりであり、政治の風向きが変わった時に自主規制だけでどこまでやれるのかという疑問を突きつけています。
欧州の施行問題
欧州連合(EU)は世界で唯一の包括的AI法を有しています。AI法は2024年8月に発効し、禁止行為は2025年2月から執行可能となり、高リスクシステムに関する重要な規制は欧州委員会の施行スケジュールによれば2026年8月2日に適用開始の予定です。理論上、欧州は他のあらゆる法域に対して規制面で先行していることになります。しかし現実には、施行インフラが整っていません。
International Association of Privacy Professionals(IAPP)の報道によれば、欧州委員会は高リスクAIシステムに関するガイダンスの公表期限を自ら破りました。AI準拠のための技術標準の策定を担うCENおよびCENELECの2つの標準化団体は2025年の期限に間に合わず、現在は2026年末を目標としているとIAPPは伝えています。Chamber of Progressを含む業界ロビー団体は、準拠を定義する基準そのものが存在しない段階で企業が規制に従うことは不可能だとして、延期を要求しています。2025年11月、欧州委員会はDigital Omnibusパッケージで対応し、整合化された基準や準拠ツールが利用可能にならない場合に限り、特定の高リスク施行期限を2027年12月まで延期する案を提示したと、OneTrustの分析は指摘しています。欧州議会と理事会はこのパッケージを交渉中で、正式な採択は今年中に見込まれます。施行が開始された場合の罰則は重大です。AI法の段階的執行構造によれば、禁止行為に対して最大3,500万ユーロまたは世界年間売上高の7%、高リスク違反に対して最大1,500万ユーロまたは3%の制裁金が科されます。
ワシントンの不在
米国には包括的な連邦AI法が存在しません。Donald Trump大統領は2025年12月11日に行政命令に署名し、州レベルのAI規制を覆して国家的な枠組みを構築しようとしましたが(Sidley Austinの分析による)、議会にはそれを実現する法案を可決する気配すらありません。結果として連邦レベルには規制の空白地帯が生まれ、Mintzの集計データによれば2025年だけで40州にまたがる260件以上の州法案が提出されるという、つぎはぎ状態に陥っています。コロラド州のAI法はアルゴリズムによる差別を防ぐための合理的な注意義務を求めるもので、Wilson Sonsiniの規制見通しによれば2026年6月30日に施行予定です。カリフォルニア州はAI生成コンテンツに関する透明性要件を2026年に施行します。ニューヨーク市のLocal Law 144は自動採用ツールのバイアス監査を義務付けています。テネシー州はAIによる音声なりすましへの保護措置を可決し、ユタ州はAI専門の監督機関を設置しました。しかし、これらのいずれも一貫した国家的アプローチにはなっておらず、前述の行政命令は少なくとも1つの州法について「虚偽の結果を強いる可能性がある」と明確に批判しています。
国民はすでに気づいている
2025年12月にYouGovが米国成人1,287人を対象に実施した調査では、77%がAIは人類に脅威をもたらし得ると懸念を示し、39%が「非常に懸念している」と回答しました。AIシステムを「大いに信頼する」と答えたのはわずか5%です。いずれの業種もネットでプラスの信頼スコアを獲得できず、金融と医療はそれぞれ19%、23%と最低水準でした。Pew Research Centerが2025年6月に別途実施した調査でも、57%がAIの社会的リスクを「高い」または「非常に高い」と評価し、50%がAIの日常生活における役割拡大について「期待よりも懸念の方が大きい」と答えています。これは2021年の37%から上昇しました。IMFが欧州の雇用の40%がAIによる変革リスクに直面すると警告したことも、不信感に拍車をかけています。
Nossel氏の主張は、規制だけですべてが解決するというものではありません。AI業界は、Metaがソーシャルメディアについて最終的に受け入れたことを認める必要がある——それは、判断を審査し、ルールを執行し、構築したシステムが害を及ぼした際に企業の責任を問う実質的な権限を持つ外部機関の存在です。Meta自身もまだこの論理を自社のAI製品には適用していません。Microsoft、Google、Amazon、OpenAI、Anthropicを含む26の主要AIプロバイダーが2025年8月にEUのGPAI行動規範に署名しましたが、Metaは拒否し、その結果として規制当局からの監視が強化されていると、axis-intelligence.comのトラッカーが伝えています。Oversight Boardは2025年12月の影響報告書で、2026年にアカウントレベルの審査権限の試験運用を開始し、個別のコンテンツ判断を超えて権限範囲を拡大すると発表したとEngadgetが報じました。このモデルがソーシャルメディアからAIに移植可能かどうかは未知数です。しかし、もう一つの選択肢——3ページの利用ポリシーと社内憲法だけで企業の自浄作用に委ねること——には実績があります。その実績は、芳しいものではありません。