23年の今年も話題沸騰の生成AI、製造元のOpenAIのCEO解任騒動もあって、いまだにChat-GPTが知名度が高いですね。
でも、他にもGoogleのbardやAnthropicのclaude、日本人が作ったものとかもあるのです。
私は個人的に倫理を重んじているAnthropicのclaudeがお気に入りです。
会話のやりとりが滑らかで、ハルシネーション(もっともらしい嘘)が少ないとのことです。
Google bard:https://bard.google.com/chat
Anthropic claude:Anthropic \ Claude 2
日本勢:生成AIを開発・提供する日本企業と団体11選 | DEKIRU.AI(デキルエーアイ)
そして、生成AIには画像生成AIもあります。
挙げたらきりがありませんが、有名どころはAdobeのFireflyやOpenAIのDALL-Eあたりです。
個人的にはLeonardo.aiがお好みです。
この非常に便利な画像生成AIですが、この技術によって、将来、自分の記憶が書き換えられるんじゃないかって話です。
以下の動画を見てもらいたいです。
英語ですが、動画を見るだけで理解できます。(全部見なくても大丈夫です)
これは、最初に表示される写真がリアルな写真で、その後、写真が拡張されます。
この拡張された部分の画像は生成AIで生成されたものであり、本物ではありません。
写真によっては違和感があるものもありますが、偽物と全く見分けのつかないものもあります。
何が言いたいかというと、将来、こういったオリジナルの写真が拡張されていった場合(誰かしらの意図や自分の意志で?)、事後に生成された写真がリアルと思い込み、例え事実そうでなかったとしても、そのように記憶が書き換えられていくのではないかということです。
人間の記憶は曖昧で頼りない代物です。
程度の差はあれど、日常的に記憶間違えを起こしているのは皆さんも実感していることと思います。
そんな中、リアルのような写真を見せられれば、それが真実だと思ってしまいますよね。
「あ、そういえばそうだったな」と、いとも簡単にそれが事実として定着してしまう。
もしこれが意図的に行われるとしたらこわいですよね。
また、SNSを利用している殆どの人は写真をアップしていますよね。
あらぬ加工を施され、Fake newsの自分版を作られてバラまかれる可能性もありますね。
痴漢でもないのに、「このひと痴漢です!」とか濡れ衣を着せられるのと同じくらいこわい。
いや、痴漢疑いの場合は逃げれば何とかなるけど、Fake画像のバラマキはどうしようもない。
もう手遅れだと思いますが、ネットに投降した写真や動画は削除しましょう。