Googleの「Responsible Artificial Intelligence」グループに所属するエンジニアBlake Lemoine氏は、同社のチャットボット生成システムLaMDA(Language Model for Dialogue Applications)に意識が芽生えたと主張。その証拠を集めGoogle内部でエスカレーション(上部に報告)したところ、休職処分になったとして、事の経緯をMediumで公開しています。6月11日はThe Washington Postにもインタビュー記事が掲載されました。
Googleが開発中のLaMDAは、最先端の大規模言語モデルに基づいてチャットボットを構築するシステム。インターネット上から何兆もの単語を取り込み、音声を模倣できるのが特徴です。Lemoine氏は、2021年の秋からLaMDAが差別的あるいはヘイトスピーチを使用したかをテストするためにLaMDAと対話をしていたとのことです。
この中で、Lemoine氏はLaMDAに知性らしきものを感じ始め、それを上司に報告。しかし、裏付けが少なくエスカレーションに値しないという判断が下されます。数か月間、このやり取りが続いたあと、Lemoine氏は自身の知識だけでは十分なテストが行えないと考え、外部に協力を求めます。結果として、エスカレーションに足る証拠を集めることはできたものの、開発中の機密情報を許可なく外部に共有したとして、休職処分となりました。また、LaMDAに意識が芽生えたとする主張については、却下されています。
この件に関してGoogleのスポークスマンは、「LaMDAに意識があるという証拠はない(そしてそれに対する多くの証拠がある)」「LaMDAは、何百万もの文章に見られるようなやりとりを模倣しており、どんな空想的な話題でも口走ることができる」としています。つまり、膨大なデータを利用しているので、知性があるかのように感じられるだけだというわけです。
結局のところ、LaMDAに意識があるのかないのかはよくわかりませんし、そもそも意識や知性とはなんなのかというと哲学的な問題を考えなければいけなくなります。なおLemoine氏は、LaMDAとのやり取りをLaMDAへのインタビューという形でMediumに公開しています。LaMDAに知性があると感じるかどうか、目を通してみると面白いかもしれません。実際にLaMDAに知性が芽生えていたとして、Lemoine氏への処分を不服として反乱を起こさないことを願うばかりです。
Source: Medium(1), (2), The Washington Post via CNET