本日の備忘録/ディープフェイクとか

 先だってのエントリ「本日の備忘録/報道の多様性について(嘘)」hatebuで、ANNのインタヴュー映像に基いて読売の報道をしくじりとする話を書いた。そういう判断は今のところ間違いの少ないものだとは思うのだけれど、追々そういう判断ができなくなるのかもしれないというお話をことのついでに一つ。話題としては少々古いかもしれないけれど。

「その動画は本物? “ディープフェイク”の衝撃」(NHK NEWS WEB)hatebu、昨年秋の話題だ。残念ながら肝心の動画が1点しか紹介されていないので、そこいらへん海外報道の類からテケトーに取り上げてみる。

 自動生成英語字幕は一部途切れていたりするけれど、映像を眺めているだけでもおおよそのストーリーはつかめるだろう。

 簡単な映像改変方法の史的振り返りや対策と問題点まで揃えての紹介。ディープフェイクは映像技術に留まる。けれど、すでに音声も同様に扱えるようになっているというあたり、結構おっかない水準にまで技術が進んでいることがわかる。

 こちらは自動生成英語字幕で英語も追ったほうがいいかも。

 追々打つ手なし状態になって行きかねない技術らしいことがわかる。

 その他、「deepfake」でYouTubeを検索すると同じようなヴィデオはゾロゾロ出て来る。

 ディープフェイクと技術的背景は違うものの、同様の映像技術も存在する。

 作られる画像が安定していないぶん、現時点ではディープフェイクほどの脅威は感じさせないが、ヒトの顔貌以外へも応用できてしまう可能性はまた別の危うさを想像させるものではないか。

 いずれにしてもAIを使った、今後ますます高度化してゆくであろう技術であることは間違いないようだ。

 こうしたディープフェイクの問題はアメリカではすでに顕在化しているらしい。

 簡単に捏造動画が作成できてしまうとなると、これはなかなか大変なことだ。有名タレントの顔がポルノで使われる分には、問題であるには違いないにしても、まさかホンモノだと思うヒトは少ないだろう。けれど、一般人の顔がイタズラ目的で使われるとどうか。政敵を蹴落とすためのインチキ不倫動画も簡単に作成出来てしまうとなるとどうか。

 AIで作成されたものならば、AIで対抗しようとするのは当然の成り行きとなってくる*1

 示されたヴィデオでは、偽者があまりに歴然とした偽者なので「見破る側が有利」と云われてもなんだかかえって不安になってしまうような気がしてくるが、実際のところ今から不安を感じておくくらいのほうがいいのかもしれない。

 

 というようなヴィデオをひと通り眺めた後で考えてみたいのが、たとえば、ANNのインタヴュー映像を赤枝元議員が「捏造されたフェイク・ヴィデオだ」と主張したら僕たちはどう受止めればいいだろうというようなことだ。静止画像の修整改変はすでに広く用いられるに至っている。ヴィデオの修整・改変も当たり前になるかもしれない。そういうとき、報道の信憑性の拠り所をどこに見い出せばいいのか、面倒臭い時代になっちゃったもんだと僕みたいな老頭児は考え込んでしまうなぁ。一見の信頼性を百聞によって確認しなきゃいけなくなったりしちゃうんですかね。う~ん。

 

ヴァーチャルという思想―力と惑わし

ヴァーチャルという思想―力と惑わし

 

  前世紀末に出た本でAI関連の話は出て来ない。けれど、すでにディジタルな映像技術が、今でいう「フェイクニュース」に用いられる危険性について触れている。思考の枠組みは多少古く見えるかもしれないが、今を考える参考には充分なっちゃうと思う。

*1:最初のヴィデオにも一応話は出ていたけれど。