俺じゃなくてAIが責任取れ!

AIに人間を代替させて、それから?

 

本記事は

ごめんなさいのきほん - とふろんが何度も同じことを考えないで済むためのブログ

と、

意識意識うるせーなあ!?!!? - とふろんが何度も同じことを考えないで済むためのブログ

の続編的なオーラをまとっています。先にこれを読んだほうがいいかもしれません。

 

 

もっとも人間を殺した概念(※)、責任。

責任から人間を遠ざけることで人々を救いたい……

そんな純粋な思いで考えていく。

 

(※適当)

 

本記事でAIと言った場合、ChatGPTやClaude、Geminiなどのような対話型のLLM(大規模言語モデル)というよりは、それらを内部に置いた、ある程度自律的に動くAgentタイプのAIや、それに近いSFに登場するロボットのようなものを想像している。

AIに責任を取らせるにあたって、責任とは何か、まずそれについて考えを述べておく。

ここでは責任を、二者間の取り決めの一種であって、一方がもう一方に対し、失敗しうる何らかの計画を実行し、失敗した場合には人為的に不利益を被ることになること、とする。

たとえば、AがBに対し、「お金を払うから商品を納品してくれ」と言い、Bがそれを請け負う。契約するとその約束のうちに責任が発生しており、Bが納品不能となった場合には責任によってBは取り決めに基づく人為的な不利益であるところの違約金や、信用の失墜などを起こす。という感じ。

人為的な不利益を代償と呼ぶことにし、AIに代償を払う能力があるか検討する。

 

代償にもとづく責任分類

  1. 金銭的な代償を伴う責任
  2. 法的・権利的代償を伴う責任
  3. 人間関係の代償を伴う責任
  4. 精神的な苦痛を伴う責任
  5. 労力の代償を伴う責任

 

ChatGPTとおしゃべりして、いい感じのリストができた。MECEではないが、おおむね網羅的ではないかと思う。

1.金銭的な代償を伴う責任

現在:AI自体は財産を持たないので責任取れない

将来的:法人格を与えればできるかも?

 

違約金や賠償金などでは金銭的な代償を支払い責任をとることがある。

現在、AIは法的に私有財産を持つことができない。疑似的に財産を持つものとしてとらえ、AIの所有者が代行して決済したりできるが、それは所有者が責任を負っていることと変わらない。勝手にAI用の口座として決めて作って、一定額預けて、そこにあるお金はAIのものと強く思い込めば、実質的なAI所有のお金かもしれない。

将来的に、AIの判断力が人間と比較して十分なレベル(自分自身ができることとできないことの峻別ができる程度?)に達したとき、AIに決裁権をもたせた法人を設立すれば、法的に訴訟能力や契約能力が認められ、法人格の所有する財産としてのお金を持つことができるだろう。制度的には今すぐでもできるが、実際人間がだいぶ動かないと維持できないだろう。AI単体で金銭的に自立してもらうためには、稼得能力も必要だ。AIが働いて金稼げ!

 

2.法的・権利的代償を伴う責任

現在:AIは法的処罰をほとんど受けられないし、そもそも権利を持たない

将来的:これも法人格与えればいける気がする

 

人間は、違法行為をすると、懲役などによって権利が制限されることがある。著作権法に反した作品を公開している場合、その公開の差し止めが求められることもある。

これらのような処罰のうち、懲役はAIにとってあまり意味のないことだと思われる。AIのモデルに寿命はないし、時間をかけたからといってより良くなるかは疑わしい。他の権利の停止などは有効だろう。もちろん、法人格かそれに類する法的な行動能力などがあるという前提の話だ。

 

3.人間関係の代償を伴う責任

現在:人間関係とかは無い

将来的:個性的なAIたちの登場によって可能となるか

 

これらは個人間の取引(取引というと大げさならちょっとした約束などでもよい)において、嘘や裏切り、非難されるべき言動、ナメくさった態度など信頼を損なうことをしてしまった場合のことを考えている。たいていの代償は距離を置いたり、絶縁、ということになる。

現行のAIに人間関係などはなく、したがって信頼関係などもない。なので責任はとれない。

将来的なことを考えると、人間関係と言ったときに、人間とAI、AIとAI、という関係性が考えられるが、「人間とAI」について現状からの延長線で考えると、AIがしくじって人間が失望して、その人間はAI全体を見放すことになりそうである。なぜなら、基本的に最高性能のAIにしか過剰な期待はしないし、最高性能だと思っているAIがしくじったらほかのAIは全部だめだと思うだろう。だから、対人間のように「こいつダメだ、離れよう」となるのとは違って「AIダメだ、やっぱ人間だな」になる。違うAIに置き換えてもその人にとっては意味がないのだ。「AIとAI」については、一個体と複数個体のモデルの区別が無い以上協力が大した意味を持たない。

更に想像力を膨らませて、AIの性能について個性が出てくるということを考えよう。「違うAIに置き換えたら、うまくいくかもしれない」そう思えるような状況になれば「人間とAI」「AIとAI」のどちらの関係でも人間同士のような関係性ができるかもしれない。

 

4.精神的な苦痛を伴う責任

現在:無理

将来的:疑似的にはできるかも

 

人間関係とも近い部分だが、人間は恥という概念や罪悪感によって統制されている部分が少なからずある。これを受けたくないために行動したり、これを受けて言動を改めたりする。

現状では精神も何もないので、AIにはそういった統制や改善は見込めない。だが、RLHFなどの人間のフィードバックによる倫理道徳の学習によって出力の統制が行われている。行動の改善などについては、強化学習的なアプローチを組み込むことができれば可能だろうと思うが、そんなのは言うまでもなく組み込まれていくだろう。

このタイプの責任を負うために人間の精神そのものを模倣する必要はないので、罪悪感のようなパラメータをいくつか用意して、それが一定の範囲にあるように行動を計画する、のような仕組みで解決できる話だろうと考える。

 

5.労力の代償を伴う責任

現在:やってくれてます、お金はこっちが出すけど

将来的:かなり自律的に稼働するAIができたら

 

原状回復措置などがこれにあたる。また、金銭的な代償が払えなかったりするときに代替案として労力をもって代償とすることもある。

AIがしくじったら、こちらは「直せ!」という内容のプロンプトを送りまくればいろんな案を出して対処に全力を尽くしてくれる。計算のためのお金はこちらが払っているが。

将来的には、AIがミスに気づいたら、謝罪を入れて自動的に直すようになる。さらに加えて、大きな損害を出したときには、被害者に対し、被害者の指揮下に入ってタダ働きするということも可能だ。

 

 

おわりに

責任があるからしっかりやる、というのは人間の理屈だ。AIは常に全力でしっかりやるのが当たり前だからだ。なので責任のその効果については書かなかった。

さて、責任をどうとるかについて雑に論じてきたが、やっぱり法人格を与えるのが最速でAIに責任をもたせるルートになるだろう。まさに責任あるAI、なんつって。

しかし現状のAIでは、自分は何が得意で稼げるのか、何が確実にできるのかといった推論が不十分であり、無理やり法人格を与えてやっても失態と代償と計算機代で採算つかなくなり人間の管理下に置かれるのがオチだろう。

したがって、LLMやそれを用いたAgentはさらなる能力の強化、高効率化の技術の発展が望まれる。その上で、法人格を与えたり、AIを多様化させて協力して物事に取り組めるようにしたり、人間中心的な倫理道徳を植え付けたりすればAIにも責任が取れる。

さあ、道は示された。さっさと責任をとってくれんかね、AI君。そんでお金をくれたまえ。