盗まずに創る、という原点回帰
「盗みはイノベーションではない」。この一文が、世界中のクリエイターに火をつけました。
俳優や作家、音楽家が連名で、生成AIの無断学習に異議を唱える新キャンペーンを立ち上げています。
米主要紙に全面広告を打ち出すなど、メッセージは大きく広がり始めました。
呼びかけは、権利を守るためにAI開発を止めるのではなく、透明性・同意・ライセンス・対価という最低限のルールを徹底しよう、というものです。
これまで「技術の進歩」と一括りにされがちだった議論に、著作権と合意の軸が戻ってきました。
キャンペーンの全体像と背景
“Stealing Isn’t Innovation”は、Human Artistry Campaignが主導する共同アクションです。
2026年1月22日に始動し、紙面・デジタル・SNSを横断して、AIモデルの学習に無断で著作物を用いないことを求めています。
賛同署名は数百人規模に達し、分野を越えた連帯が特徴です。
“Artists, writers, and creators of all kinds are banding together with a simple message: Stealing our work is not innovation. It’s not progress. It’s theft — plain and simple.”
日本でもこの動きは紹介され、ITmediaは、ニューヨーク・タイムズ紙などへの全面広告掲載や、800人以上の著名クリエイターの参加を報じています。
拡張するAI活用の現実と、創作物の扱い方をめぐる規範の再設計が同時に進んでいるのです。
広がる賛同者の輪
賛同者には、スカーレット・ヨハンソン、ケイト・ブランシェット、R.E.M.、チャカ・カーン、Questlove、Commonなど、映画・文芸・音楽の第一線が名を連ねます。
報道によれば、その数は700〜800人規模に及びます。
背景には、SAG-AFTRAやWGA、RIAAといった組織の後押しもあります。
英ガーディアンは、キャンペーンがHuman Artistry Campaignにより組織され、WGA・RIAA・SAG-AFTRAなどが支える枠組みを伝えています。
米YahooやComplexなど複数媒体でも、無断学習を「大規模な窃盗」と位置づける論旨が確認できます。
- The Guardian(組織基盤と支援団体)
- Yahoo News Canada(大規模な賛同者)
- Complex(声明の核心)
- ITmedia(日本語まとめ)
主張の核:同意・ライセンス・対価・透明性
このキャンペーンのメッセージはシンプルです。
AI開発において、著作物を学習に使うなら、権利者の同意を取り、適切なライセンス契約を結び、正当な対価を支払い、データの出所と用途を透明化するべきだということ。
「無断で大量収集して競合する生成物を作る」行為こそ、創作のエコシステムを壊すという危機感があります。
実務で求められる最低ライン
- データセットの出所開示と監査可能性(何を、どこから、どの条件で集めたか)
- オプトイン/オプトアウト設計と、権利者の同意管理(撤回権含む)
- ライセンス料や収益分配の制度化(用途別・市場規模に応じたレート)
- コンテンツ認証(C2PA等)による帰属表示と検証可能な出自情報
これは「技術か権利か」の二者択一ではありません。
責任あるAIを実現するための、当たり前の土台作りです。
なぜ「無断学習=窃盗」と言うのか
生成AIの学習は、作品の特徴や文体、音色といった創作的要素を抽出し、再現可能にする過程です。
このとき、権利者の合意なく大量の著作物を収集・複製し、モデル内に統計的表現として組み込む行為が、実質的に市場で競合する生成物を生むなら、倫理・法の両面で重大な問題が生じます。
米国ではフェアユースの適用範囲、EUではAI規制とテキスト・データマイニングの権利管理、日本ではデータ利用の例外規定など、各法域で論点は異なります。
共通して重要なのは、創作の市場代替の有無、出所の透明性、権利者の制御可能性です。
キャンペーンは、これらの基準を実装レベルに落とし込むことを迫っています。
AI企業が今日からできる実装チェック
「ルールが整うまで待つ」のでは遅すぎます。
開発側が先に標準を作り、信頼を積み上げるべきです。
以下は、すぐに取り入れられる実務指針です。
- データ・プロベナンス台帳:収集元URL、ライセンス条件、取得日、権利者IDを紐付けた監査可能な台帳を整備
- 同意管理API:権利者が用途別に許諾・拒否・撤回を操作できる仕組みを公開
- 収益分配ルール:用途(商用/非商用/広告/合成音声など)別に、透明な課金・分配を定義
- モデルカード/データカード:学習データの概要、既知リスク、除外方針、評価指標を公開
- C2PA/コンテンツクレデンシャル:生成物に改変履歴・出自情報を埋め込み、検証可能にする
- 独立監査:第三者機関によるデータガバナンス監査と是正プロセス
これらは倫理だけでなく、長期的には法令順守やブランド毀損回避の観点でも合理的です。
日本のクリエイターと企業へのインパクト
日本では、研究・分析目的のデータ利用が認められる一方、生成物が市場を侵食する場合の線引きが課題です。
海外プラットフォームと取引する企業は、国際的な規範(透明性、ライセンス、対価)に合わせた社内基準を先行整備する必要があります。
それは輸出可能な「日本発のガバナンス実装」の強みにもなります。
クリエイターにとっては、無断学習の可否を意思表示できる手段(メタデータ、利用規約、リポジトリのポリシー)が鍵になります。
加えて、作品の出所を証明できる仕組み(ブロックチェーンやタイムスタンプ、C2PA)を活用することで、交渉力を高められます。
参加と実務の「使い方」ガイド
クリエイターが今すぐできること
- 作品に利用条件を明記し、メタデータで機械可読の同意/不許可を宣言
- コンテンツ認証(C2PA等)やタイムスタンプで出所証明を付与
- 所属団体やレーベルと連携し、ライセンス窓口を明確化
- キャンペーンの趣旨を共有し、署名や声明に参加(公式サイト)
企業・プロダクト側の実務
- データ収集の同意フローをプロダクト要件に組み込み、ログと監査証跡を保存
- 社内AIガバナンスポリシーに、出所開示・権利者対応SLA・苦情処理を明記
- ベンダー評価で、モデル/データカードと監査証跡の提出を必須化
ユーザー/チームの基本姿勢
- 生成物の商用利用前に、ライセンスと出所を確認
- 外部モデルを使う場合は、利用規約の学習データ項を必ずチェック
一次情報と報道から読み解く
複数の一次情報・報道が、同じメッセージを繰り返し示しています。
技術進歩は歓迎しつつ、無断学習ではなく、合意と対価にもとづく連携へ。
- The Authors Guild:HACによるキャンペーン告知
- ITmedia:日本語での包括的な解説
- The Guardian:組織体制と支援団体
- Complex:声明の核心文言
- Yahoo News Canada:賛同者と活動概要
- stealingisntinnovation.com:賛同者一覧と素材(随時更新)
結び——イノベーションの条件を取り戻す
創作と技術は共犯関係にあります。だからこそ、盗まずに創ることがイノベーションの前提です。
学習データの出所を明かし、合意を得て、価値に対価を支払う。
この当たり前の循環が戻れば、AIは創作の敵ではなく、強力な相棒になります。
“Stealing Isn’t Innovation”は、対立の旗ではなく、共創の新しい契約書です。
私たちが署名すべきは、未来の可能性に対して。
責任あるルールをともに作り、盗まずに、もっと創る時代へ進みましょう。

コメント