あなたが見ているその写真、本物ですか? 進化するAI画像生成技術、悪用も活用も 依頼に応え、調査しました【NEXT特捜隊】

木が住宅に密着して生えているなど、木と住宅の位置関係が不自然。住宅の屋根の形も不自然にひしゃげている。
木が住宅に密着して生えているなど、木と住宅の位置関係が不自然。住宅の屋根の形も不自然にひしゃげている。
住宅と住宅の間に不自然な線が通っている。水面に不自然な影ができている。
住宅と住宅の間に不自然な線が通っている。水面に不自然な影ができている。
激しい水流がある箇所とない箇所が不自然に接している。建物の形が崩れている。
激しい水流がある箇所とない箇所が不自然に接している。建物の形が崩れている。
木が住宅に密着して生えているなど、木と住宅の位置関係が不自然。住宅の屋根の形も不自然にひしゃげている。
住宅と住宅の間に不自然な線が通っている。水面に不自然な影ができている。
激しい水流がある箇所とない箇所が不自然に接している。建物の形が崩れている。

 静岡県内に9月、深い爪痕を残した台風15号に伴う豪雨。インターネット上には人工知能(AI)でつくられた偽の水害画像が出回り物議を醸した。 読者の疑問に応える静岡新聞社「NEXT特捜隊」にも、島田市の主婦のRさん(44)から「フェイクニュースがあり何をシェアしたら良いか困惑した」との声が届いた。急速に進化するAI。 容易に本物と見分けがつかない画像や動画「ディープフェイク」の悪用事例と注意すべきポイントとともに、技術の活用例も取材した。

作成から投稿3分 「静岡水害」SNSで物議

  photo01 物議を醸したツイッター投稿
 

 画像生成AIによる偽画像がツイッターに投稿されたのは9月26日未明。「ドローンで撮影された静岡県の水害。マジで悲惨すぎる…」とコメントが添えられた。6000件近くリツイート(転載)され物議を醸した。
 投稿者は都内在住の成人で、静岡県とのゆかりはないという。静岡新聞社の取材に、画像生成AI「Stable Diffusion(ステーブル・ディフュージョン)」で作成したと認めた。文章を入力すると、適した画像が生成される仕組み。投稿者は「flood(洪水) damage(被害) Shizuoka(静岡)」と入力したという。
 作成の動機は「実際に災害が起こったらどのような景色なのか見ようと思った」。画像作成から投稿までに要した時間は「3分に満たなかったはず」と振り返った。
 投稿が物議を醸したことについては「直接自分に向けられた反応はほとんどなく、思うことは特にない」とする一方、「迷惑をおかけした方々へ謝罪する気持ちはある」とコメントした。
 

AIの脅威知り、情報に向き合って

  photo01 越前功教授
 

 偽AI画像に出くわし、真偽の判断に迷った人も多いはず。ディープフェイク問題に詳しい国立情報学研究所の越前功教授(51)に情報を入手する際の注意点や偽情報対策について聞いた。

 >>>不自然な点 いくつも
 木が住宅に密接していたり、住居と住居の間に不自然な線が通っていたり。今回投稿された画像をよく見ると、不自然な点がいくつも見つかる。
 ただ、AI技術は日々進歩していて、本物そっくりの画像や動画を作ることも可能になっている。スマートフォンや交流サイト(SNS)が普及し、特別な機材や設備を持っていない人も、ディープフェイクの作成・拡散ができるようになった。偽情報により社会が混乱する「インフォデミック」のリスクが高まっている。

 >>>幅広い情報源 確認を
 コンテンツを注意深く見ることに加え、情報源の信ぴょう性を確認することも必要だ。例えば、投稿者の過去の投稿を閲覧したり、行政や報道機関が類似する情報を公表しているかをチェックしたりすると良い。閉鎖的なコミュニティーでやりとりを繰り返すことで、偏った考え方が強まる現象「エコーチェンバー」も知られている。幅広い情報源に当たってみてほしい。
 画像検索の機能を使い、同じ画像がこれまでに投稿されたことがあるか調べるのも一手。ディープフェイク画像は使い回されるケースが多いためだ。

 >>>悪用技術と見破る技術 いたちごっこ
 AIによる合成技術を知り、偽情報を検知するとともに、人々が正しく意思決定できる社会を目指すため、国の研究プロジェクトも進めている。この研究ではフェイクメディアについて、本物そっくりだが本物でないディープフェイクに代表される「メディアクローン型」▽世論操作を目的に意図的に生成・編集された「プロパガンダ型」▽AIを作動・誤判定させる「敵対的サンプル型」―に分類した。2018年には世界に先駆け、真贋[しんがん]判定技術も開発した。
 しかし、悪用の技術と見破る技術はいたちごっこ。AIは、まるで本物のような風景や人物の写真も動画も生成できる。また、写真1枚あれば実在する人物の表情を変え、動画を作成することもできる。こうした脅威を知った上で、情報に向き合うことが大切だ。

越前功教授
えちぜん・いさお 1971年、横浜市出身。国立情報学研究所教授。フェイクメディア技術を研究し、検知や被害防止に役立てる国のプロジェクト「インフォデミックを克服するソーシャル情報基盤技術」の研究代表者を務める。 顔検出を失敗させる眼鏡「プライバシーバイザー」や、指紋読み取り・複製を防止する特殊シールなどユニークな研究を手掛けている。 静岡県内に親戚がいて、台風15号被害や偽AI画像騒動に関心を寄せていた。

 

ポルノ、政治、エンタメ… 多分野で悪用

  photo01  

 AI技術を使った本物そっくりの画像、動画、音声、文章などのコンテンツ「ディープフェイク」。コンピューターが物事を理解する学習方法の一つ「ディープラーニング」と、偽物という意味の英単語「フェイク」を組み合わせた造語とされる。
 「ディープフェイクス」をかたる匿名の人物が2017年、アメリカのインターネット掲示板に、女性俳優の顔に差し替えられたポルノ動画を公開したことで注目された。
 国内でも20年、AIを使って女性芸能人のわいせつ偽動画を作成しネットで公開したとして、警視庁が名誉毀損[きそん]と著作権法違反の疑いで、熊本市の大学生と兵庫県三田市のシステムエンジニア=ともに当時=を逮捕した。
 民間シンクタンク「みずほリサーチ&テクノロジーズ」が総務省の研究会で提出した資料によると、20年12月にはオランダの情報セキュリティー調査会社により8万5000件のディープフェイク動画が検出されたという。ディープフェイク動画は年々増加傾向にあり、分野もエンターテインメント、ファッション、政治など多岐にわたる。内容はポルノが多いとされ、プライバシーや肖像権の観点から問題となっている。
 

技術進歩で恩恵も

 

 AIによる画像や動画の生成技術は、社会に恩恵ももたらしている。京都大発のスタートアップ企業「データグリッド」(京都市)は、人間そっくりの「デジタルヒューマン」生成やオンライン試着のサービスなどを展開している。サービスを支えるのは、敵対的生成ネットワーク(GAN)という技術。本物そっくりの画像をつくるAIと、真偽を見分けるAIを競わせ、作り出す画像の精度を高めているのだという。

 ■デジタルヒューマン

photo01 まるで本物の人間のようなアバター「デジタルヒューマン」(画像はデータグリッド提供)
 

人種、性別、年代などの属性を自由に指定し、まるで本物の人間のようなアバター(分身)をつくる技術。画像に自由に動きをつけるモーション操作も可能だ。実在する人間を起用しないため、企業側には報酬費の削減やスキャンダルのリスク回避などの利点があるという。相模鉄道(横浜市)のPR動画で活用されていた。



 ■オンライン試着 photo01 洋服を試着したイメージ写真を生成できるサービス「kitemiru」(画像はデータグリッド提供)  

 服装など人物の外見を自由に変換する外見操作技術を使ったサービス。利用者がスマートフォンで撮影した全身写真を専用ウェブページにアップロードすると、洋服を試着したイメージ写真を最短5秒で生成できるサービス「kitemiru(キテミル)」が複数のアパレルECサイトで実用化されている。



 

 

いい茶0
あなたの静岡新聞 アプリ
地域再生大賞