先週、SNSの「中毒性」による被害を訴える訴訟についてBSニュースで見ました。
対象に挙がっているのはFacebook・Twitter・YouTube・Ticktok、Snapchat等。
これらプラットフォーマーはアルゴリズムによってその個人の興味、関心のあるコンテンツをどんどんリコメンドし、プラットフォームに居続けさせるように仕向け、それにより広告収入を上げています。
昨今、こうしたビジネスモデル自体が批判を浴びていて、社会問題、訴訟にまで発展しています。
ニュースでは、あるアメリカ人の家庭がインタビューされていました。
そのティーンエイジャーは、SNSを利用できない年齢(当時11歳)にもかかわらず、親に隠れて友人のiPadを借りてSNSを利用していました。
そして、13歳でスマホを親にもらってからは、夜中までSNSを利用するようになったと。
そして問題はここから。
彼女は最初、セレブをフォローしたのだとか。
そこから、美容、ダイエット、薬等々、延々と関連するコンテンツが出てきて離れなれなくなりました。
そして、痩せられない自分は生きている資格がないのだと思い込むようになり、自殺未遂まで起こします。
訴えを起こしたのはその親ですが、娘がこうなったのはSNSプラットフォーマーのアルゴリズムのせいだと主張しています。
ここは意見が分かれるところだと思いますが、私はこの訴えはちょっとおかしいのではないかなと思いました。
そもそも、親の管理不行き届きではないか。
そして、娘も単に自己制御ができていないだけだろうと。
どのように使うかで道具にも凶器にもなりますよね。
使う前に使い方を学ばないといけません。
これはChat-GPTに代表される生成AIも同様と思います。
関連するコンテンツを表示してくれるのは便利ですよね。
それをどこまで利用するかは本人次第では?と思ってしまいます。
私はリコメンドはほとんど使いません。
なので、買い物も調べ物もたいていピンポイント。
アルゴリズムは集合知の賜物であり、時には効率的だと私も思います。
でも、逆に偏ってしまう。
現アルゴリズムは過去のデータによって作られているものなので、それを逸脱するような新しいひらめきやエウレカ(Eureka)が減ってしまうのではないかなと。
でも、生成AIは違いますね。
考えもしないアイデアがポンポン出てきます。
そういえば、日本でも同じような裁判ありましたね。
食べログの点数問題。
点数評価のアルゴリズムに実際の顧客の点数以外の要素(チェーン店は点数下げるとか)を入れたことによって、店舗から「ふざけるな!」って言われた件です。
でもでも、顧客として利用する側から言ったら、「そうだよね。そのほうが顧客の視点に合ってるよね」ってなりませんか?
別にチェーン店をコケにするつもりはないですが、たいていこういうサービスを使うときってそれなりの店を探すのに使うわけで、チェーン店ならそのサイトで調べるわってなるかと思いますし。
またアメリカの訴訟の話に戻っちゃいますが、この訴訟でプラットフォーマーは通信品位法230条で下記のようにうたわれていて、プラットフォーマーは法的責任を原則負わないと主張しています。
[通信品位法230条]
・プラットフォーマーがコンテンツに手を加えたり削除するなどの権限を有している
・違法なコンテンツが書き込まれた場合は削除義務が生じるが、「発見次第」で構わない(つまりコンテンツ自体の責任をプラットフォーマーは一定の条件の下で回避できる)
しかし、こうしたブラックボックス化したアルゴリズムによる社会への影響は拡大しているのは事実で、今後法改正がなされる可能性はありますね。
AIにおいても、同様の議論があります。
そこでAI Allianceという組織が設立されます。(日本は出遅れていたのですが・・・)
この組織の目的は
AI Allianceは、科学的厳密性、信頼性、安全性、セキュリティ、多様性、経済競争力を確保しながら、オープンなコミュニティを育成し、開発者や研究者がAIの責任あるイノベーションを加速できるようにすることに注力する。
です。
要するに、AIを取り巻く諸所の課題について企業や有識者で議論し、ルールを作っていきましょうというものです。
私が思うに、AIに倫理というものを植え込む必要があると思っています。
その倫理AIが他のAIを監視するようにするとか、どういう運用をするのかはおいておいて、AIを活用していくうえで必要な要素だと思っています。
ただ、この「倫理」というのは国によってバラツキがありますよね。
米国のそれと、欧州のそれと、アジアのそれと、中東のそれと、ましてや日本のそれなんてかなり異なる。
こういったものをどう定義していくのか。
倫理の再定義の時期かもしれない。