記事の内容を音声で聞きたい方はこちら↓
AIが生成した画像か否か、もはや肉眼で判別するのは不可能に近い。そこでGoogleやOpenAIといった巨人が打ち出したのが、ピクセルに直接刻み込む「見えない署名」だ。特にGoogleのSynthIDは既に100億件以上のコンテンツに導入されており、ディープフェイク対策の急先鋒として存在感を強めている。
ネットに氾濫するAI画像には、我々の目には見えない秘密が隠されている。Google、Meta、OpenAIといった大手研究所は、創業当初からデジタル透かしをソフトに組み込んできた。
これは画像の品質を一切落とさず、特定の数学的パターンをピクセルに散りばめる技術だ。専用の検出ソフトを通せば、どんなに本物らしく見えても「人工物」である証拠が即座に浮き彫りになる。
中でもGoogleが主導するSynthIDの堅牢性は特筆に値する。画像の周波数領域に手を加えるこのシステムは、トリミングやリサイズ、色味の変更といった一般的な加工を施しても、署名が消えにくい。
対するOpenAIなどが推すC2PA規格は、画像の作成履歴をメタデータに記録する手法をとる。情報の詳細さは勝るが、スクリーンショットを撮られただけで履歴が消滅する脆弱さを抱えているのが現状だ。
こうした技術の背景には、深刻化する偽情報への危機感がある。誰でも精巧な偽造画像を作れる今、コンテンツの出所を追跡できる仕組みはプラットフォームの信頼性を左右する。ただ、課題も多い。オープンソースのAIモデルはこの枠組みの外にあり、悪意あるユーザーが署名のない偽画像を生成する抜け道は残されたままだ。
見えない透かしは、決して万能の盾ではない。しかし、AI生成物が日常に溶け込む中で、情報の真贋を見極めるための最初の一歩として、その重要性は増すばかりだ。今後は各社の技術を統合した、業界標準の確立が急務となるだろう。
Source:Deepmind Google

