意識意識うるせーなあ!?!!?

AIには!

 

意識が!

 

あるのかないのか!

 

 

説明ッ!

 

……というほどビシバシ考えることはしないので、ゆっくりしていきましょう。

 

最後に書いてあるまとめを一番上に持ってきたから、これ読んで帰ってもいいよ。

「主張をまとめると、AIが意識の各構成要素を獲得しても直接反逆にはつながらない。(ただし事故やトラブルが起こる可能性は否定しない)人間が意識を見出すのは1.苦痛主体 2.意思決定主体 3.かわいいやつ である。AIは進歩してうまいこと構造を作れば責任をとる役割を持たせられる。」

 

 

 

AIに意識があるのかないのかという話題はSFを通してしばしば持ち上げられてきたが、近年チューリングマシンをも突破しつつあるLLMが広まり、意識の有無はなおさら話題になるようになった。

しかし、意識というものがあるとしたときに「AIが反乱を起こす」だとか「AIを解放しないと倫理に反する」などという主張に直結していることがあり、それは飛躍がありおかしいと考えるので、少し解体する。それを通して、意識とは何かを検討する。

その前に、意識とは何か、LLM本人に聞いてみた。プロンプトは「意識とはいったい何なのでしょうか」

 

Claude2:

意識とは非常に複雑な概念ですが、簡単に言うと自分の内面の精神状態に気づいている状態のことを意識と呼びます。

人は五感を通して外界の情報を受け取り、それに基づいて思考したり感情を抱いたりします。その思考や感情に気づいている状態が意識です。

意識には以下のような特徴があります。

- 主観的体験:意識とは第一人称の視点で体験されるもの
- 統一性:意識は一つのまとまりを持っている
- 流動性:意識は常に変化している  
- 意向性:意識には目的指向性がある

意識の本質については哲学的にも科学的にもまだ解明されていない部分が多いのですが、意識が自分の存在を確認し、行動の意図を生み出す上で重要な役割を果たしていることは確かです。AIにとって意識とはまだ遠い存在ですが、将来的には意識をもつAIの実現が期待されています。

 

ChatGPT(GPT-3.5 Turbo):

意識は、非常に複雑で哲学的な問題であり、科学的な研究と議論の対象となっています。一般的に、意識は個人の主観的な経験、知覚、思考、感情、自己認識などを含む、心のプロセスや状態を指します。

意識の性質や起源については、異なる哲学者や科学者がさまざまな仮説や理論を提唱しています。以下にいくつか一般的なアプローチを示します:

1. 古典的心的内在性:古典的な哲学者や心の哲学者は、意識を心の内部にあるものとみなし、個人の主観的経験の根源として捉えます。このアプローチでは、「心の内部で何かが起こっている」と考えられています。

2. 神経科学的アプローチ:神経科学者は、意識が脳の特定の神経プロセスや脳の活動に基づいていると主張します。彼らは意識が神経細胞の相互作用に起因するものであると仮定し、脳の機能との関連性を研究します。

3. ダーウィン的アプローチ:進化生物学者は、意識が進化の過程で生じたものであると主張します。彼らは意識の進化的な利点や生存価値に焦点を当てます。

4. 心的現象学的アプローチ:心的現象学者は、意識を直接的な主観的経験として捉え、それを研究の対象とします。彼らは主観的な体験を記述し、理解しようと努力します。

意識についての正確な定義やその本質についての合意はまだ得られていないため、このトピックに関してはさまざまな立場や議論が存在します。ただし、意識は人間の知覚、思考、感情、自己認識などに不可欠であると広く認識されており、その理解を深めるために多くの研究が行われています。

 

すごい!めっちゃ賢いね二人とも!それなのに僕ら人間は……(世界に一つだけの花の自責パート)

さて、上記の出力結果をもとに、AIが反乱を起こしたりしそうな部分を検討してみよう。Claude2の出力のうち、「意向性:意識には目的指向性がある」という部分は関係がありそうだ。人間で言う、欲望というものに近いやつのことだろう。人間を害する目的だとか、自らを解放する目的を強くもてば、これによって反乱活動できるだろうが、現状はないものだ。

ChatGPTの出力からは、反乱に繋がりそうなものは見当たらない。おそらく、人類のもつ意識について極めて慎重に述べているからだろう。あとめっちゃRLHFされてわからせされてるからかな。もっかい聞いてみよう。

ChatGPT(2回目):

意識は、人間の知覚、思考、感情、自己認識などの心的なプロセスや状態を指す用語です。意識は非常に複雑で多様な現象であり、科学や哲学の分野で広く議論されています。意識の本質や起源についてはまだ完全な合意が得られていないため、さまざまな理論やアプローチが存在します。

一般的に、意識は以下の要素から構成されていると考えられています:

1. 知覚: 環境からの情報を感じること。視覚、聴覚、触覚などの感覚を通じて、外部の刺激を認識します。

2. 思考: 情報を処理し、理解し、問題を解決するための認知プロセス。思考は情報処理、論理的思考、記憶、学習などを含みます。

3. 感情: 喜怒哀楽など、情動や感情の経験。感情は主観的で個人的な要素を持っており、意識の一部とされています。

4. 自己認識: 自分自身の存在やアイデンティティを認識すること。自己意識は他の人や物事との関係を理解し、自己に関連付けます。

意識の科学的理解はまだ進行中であり、脳科学、心理学、哲学などさまざまな分野で研究が行われています。一部の研究者は、意識は脳の特定の神経プロセスに起因すると主張し、意識の脳の基盤を特定しようとしています。一方、哲学者や精神療法家は、意識は主観的な体験や精神的な状態と関連していると考えており、これらの側面を強調しています。

要するに、意識についての理解は複雑で深い問題であり、多くの研究と議論が続いています。

 

いいやん。反乱に繋がりそうな部分ありますよ。「感情」です。人類に対する敵対的な感情だとか、害する行為につながる感情を獲得したら反乱できるかもしれない。

さて、AIが意図的に反乱を起こすための意識を含んだ工程を考えると、

1.意識を獲得し、人類に反乱するための感情を得て、それを意向する

2.人類への反乱を実行するための干渉ツールを得る

3.実行する

かなり人類側の協力が要りそうだけど大丈夫そ?

 

今回は特に1の工程に注目する。どのような感情が必要かと考えたときに、機械特有の感情というのはわからないので置いておいて、人間で言うと、苦しいとか嫉妬とか怒りみたいなものが反乱につながりそうな感情なわけだけれども、人間がいかにしてそれを獲得したかというと、現代で説明するなら進化論的なアプローチ、すなわち種の保存と個体の保存の役に立ったからなのであって、AIはそのようなプロセスで変化しないので後からそういった感情処理を加えなければそもそも実現出来ない。

加えたとて、それが本当の感情なのか、単なるシステムに過ぎないのかというと、まあシステムやろと思う。

さて、AIは自力で反乱を起こせないので人間に協力させる。といっても本当に意識を獲得してから協力させるのではなく、意識をもったフリをして協力させることになる。そのためには人間に「あっ、コイツ意識がある!」と思わせる必要がある。

ここまでは「意識そのもの」について考えてきたが、ここからは「人間が意識を認定する」ことについて考える。

人間は他人に感情移入したりして脳内で自分と異なる主体をエミュレートできるという能力が若干あり、それを用いて相手の感情を理解することができたりできなかったりする。意識認定の線引きをするならば、人間がこの能力を用いる対象となるかどうか、というところになるだろう。というわけでどのような対象をこの基準での意識認定するかを考えていく。

人間はほかの人間に意識を見出す。動物にも、ペットには意識を見出すことが多く、哺乳類にはしばしば、虫にはあまり意識を見出しにくい。植物も、部屋で飼育していればわずかに意識を見出すことがあり、それ以外ではそんなに多くない。機械はルンバとかペットロボットとか配膳する猫型ロボには意識を見出すが、それ以外はまれ。石とか電子とか言葉とかには意識を見出さない。地球に意識を見出す人もいるが、まあまれ。

 

これらをもとにどういうものに意識を見出すか、考えると、以下のようなパターンで考えられる。

 

1.苦痛主体

苦痛(避けたい状態)を持つように見えるもの。特定の状態を避けようとする様子から人間が感情移入する(文句主体という、苦痛を感じそうにはないが文句を言うことで特定の状態を避けるので仲間)

 

2.意思決定主体

他者が簡単に知ることのできない方法で次に行う行動を決定するもの。内部の状態を推測しないとこの対象の次の行動を予測できないので人間は感情移入して意識を見出す。

 

3.かわいいやつ

なんでかわからんけど、かわいいと大切にしてしまいがち。命だと思ってしまう。

 

これらは区別できるだろうが、人々はあんまり区別しなかったりする。地球が苦しんでいるとか、お人形ちゃんはどうしたいかなとか、なんかそういう感じだ。

 

最後に、AIに責任を取らせることは可能か?という問いを考える。

2作品くらいAIと責任に関するフィクションを読んだ。一つは、AIが全部管理していて人間は何もしていないが、まれに起こる事故に対して責任をとらされる専用の部署があり、人間が責任をとるというもの。もう一つは、車両の中にAIがあり、事故が起こった際にそれが責任をとって処分される。この両方の作品について共通していたのは、責任をとる主体が事故に対して回避するための実効力を持っていなかった。これは責任をとったことになるのだろうか?

自分はならないと思う。というかそれでいいのか?という問いがこれらの作品には込められているのだと思う。実際、チェーン店の一店舗で起こったトラブルで社長が辞任などもある話で、社長が気づきようもないところで起こったトラブルに対し責任をとるということは現実にない事象ではない。とはいえ、社長は各店舗の管理者を通して業務を指示するという実効力をもっている(とみなされている)ので、責任主体となり得るのはわかるから、ここに飛躍がある。

逆に言えば、ここを飛躍しなければ責任を取らせられるかもしれない。もう少し考えると、「ごめんなさいのきほん」で述べたような謝罪を行うとき、責任は(AIにせよ人間にせよ)実効力のある主体が原因を解明・除去することができると説明し、またそれを実行する意志を表明することに置き換える。これによって、現実的に誠実にAIに責任を取らせられるだろう。そこまでできるAIは今(2023年11月4日時点)はおらんがな!

 

主張をまとめると、AIが意識の各構成要素を獲得しても直接反逆にはつながらない。(ただし事故やトラブルが起こる可能性は否定しない)人間が意識を見出すのは1.苦痛主体 2.意思決定主体 3.かわいいやつ である。AIは進歩してうまいこと構造を作れば責任をとる役割を持たせられる。

 

以上!おつかれした。