AWS Clean Rooms ML のアイコン

AWS Clean Rooms ML

Clean Rooms 内でプライバシーを保護しながら ML モデルを構築するサービス

何ができるか

AWS Clean Rooms ML は、複数の企業がそれぞれのデータを直接共有することなく、共同で機械学習モデルを構築できるサービスです。各社のデータはプライバシーが保護された状態で分析に使用され、生データが他社に公開されることはありません。広告効果の予測やオーディエンスの類似モデル (Lookalike Model) の作成など、データコラボレーションを安全に実現します。

どのような場面で使うか

広告主とパブリッシャーが互いの顧客データを直接共有せずに、広告のターゲティング精度を向上させるケースで活用されています。また、小売業者とメーカーが購買データを安全に組み合わせて需要予測モデルを構築する場面や、金融機関同士が不正検知モデルを共同で訓練する場面でも利用されます。 この分野について体系的に学びたい方は、関連書籍 (Amazon) も参考になります。

身近な例え

複数の会社が共同で料理を作る場面を想像してください。各社は自分の秘伝のレシピ (データ) を他社に見せたくありません。Clean Rooms ML は、各社が材料を密封した箱に入れて渡し、ロボットシェフ (ML モデル) だけが箱の中身を使って料理を完成させる仕組みです。完成した料理 (分析結果) は全員が受け取れますが、他社のレシピは誰にも見えません。

Clean Rooms ML とは

AWS Clean Rooms ML は、AWS Clean Rooms の機能を拡張し、プライバシーを保護しながら機械学習モデルを構築するサービスです。従来、複数の企業がデータを組み合わせて ML モデルを作るには、データを 1 か所に集める必要がありました。Clean Rooms ML では、各社のデータを移動・共有することなく、安全な環境内で ML モデルのトレーニングや推論を実行できます。

Lookalike Model の活用

Clean Rooms ML の代表的な機能が Lookalike Model (類似オーディエンスモデル) です。たとえば、広告主が自社の優良顧客リストを元に、パブリッシャーのユーザーベースから類似した特徴を持つユーザーを見つけ出せます。広告主の顧客データもパブリッシャーのユーザーデータも互いに公開されず、プライバシーが守られたまま高精度なターゲティングが可能になります。

プライバシー保護の仕組み

Clean Rooms ML では、差分プライバシーや暗号化技術を活用して、個々のレコードが特定されないよう保護しています。コラボレーションのルール (どのデータをどの範囲で使えるか) を事前に設定でき、ルールに違反するクエリや分析は自動的にブロックされます。データの所有者は常に自分のデータに対するコントロールを維持できます。

はじめかた

Clean Rooms ML を使い始めるには、まず AWS Clean Rooms でコラボレーションを作成し、参加メンバーとデータの利用ルールを定義します。次に、Clean Rooms ML の設定で ML モデルの種類 (Lookalike Model など) を選択し、トレーニングデータのソースを指定します。モデルのトレーニングが完了すると、結果をエクスポートしてマーケティング施策に活用できます。

注意点

  • Clean Rooms ML は AWS Clean Rooms の追加機能であり、先に Clean Rooms のコラボレーション設定が必要
  • Lookalike Model の精度はトレーニングデータの量と質に依存するため、十分なデータ量を確保すること
  • 利用可能なリージョンが限定されているため、事前に対応リージョンを確認すること

さらに詳しく知りたい方は、関連書籍 (Amazon) で理解を深められます。