現代社会を生きるための AI×哲学

一覧に戻る
現代社会を生きるための AI×哲学

著者名: 谷口 忠大 他2名

ページ数: 340

種類: 専門書

おすすめ度: ★3

読了日: -

アフィリエイトリンク:

読書中の感想:
はじめにの文章の時点でかなり良い本だと感じた。こういう、未来について様々な視点から考えさせられる本が読みたかった。これから読んでいくのが楽しみ。

AIは後に続く言葉を予測して出力しているだけという話は何度も聞いたことがあるが、どのようにして自然な対話を実現しているのかはあまり理解できていないことに気づいた。

AIは膨大なデータを扱えるようになったから実現できたのではなく、逆にこのままではデータがあふれて人の手では処理しきれないから実現されたという説もあるかもしれないなとこの本を読んでいて感じたが、おそらく誤りだろう。

最初の方の章は、広義でのAIに関する歴史なので、自分は情報学を少しかじっているので人物名や論文名、手法名が紹介されても「あぁ、あれか!」となって面白いが、情報学に全く触れていない人には読んでいて退屈かもしれないなと感じた。まぁでも本書いわく、歴史を知らずしてAIは語れないみたいなことを言っていたので、ここは大事なのだろう。

最近はAI人材の雇用が加速しているみたいだが、昔は(と言っても自分が学部1,2年の頃なので全然昔ではないけど)統計や機械学習ができる、数学科の人材の雇用が加速していたけど、そういう雇用は最近アなくなってきているのかな。AIがあれば別に統計用の人材を雇用しなくてもいいもんね・・・。時代が変わるのは速いなぁと感じた。

なんか言語化は難しいんだけど、量子コンピュータは、現状の課題を克服する能力を持っているから、絶対に量子コンピュータの時代が来るなと思う。同時に並列して複数の実行をし、最適なものを選ぶというのは、人間の思考にとても似ていると思うから。量子コンピュータには期待したい。量子通信はどうなんだろうか。

AIの登場により、意識とは何かとか、人間であるとはどういうことかという哲学的な問いを考え直すべきだと本書では主張していた。自分の感覚としては、考え直すことによって定義を別物にするのではなく、よりよいものにアップデートするべきだと思う。そうでないと、過去からの成長がないと、技術を進歩させる意味がないと思うから。こういった哲学的な問いもそうだし、倫理的な問いなどすべてをアップデートするときが来たのではないか。このアップデートの仕方によって人類の行く末が決まるのではないか。壮大な話になってしまったけど、それぐらい重要な時代に自分は生きていると思う。

第一次AIブームでは、記号的AIが流行した。記号的AIは記号論理学をもとにしている。自分のイメージでは、記号論理学は現実の一部の事象しかとらえられない(リンゴと言われれば代表的な赤いリンゴしかコンピュータは認識できない)という認識(必要条件?の一つしか認識できない)だったので、LLMで扱っているのはそれよりも広い、十分条件?に近い認識ができていると思うので、記号的AIに関しては、LLMの下位互換だという印象があるが正しいのだろうか。つまり、記号的AIは学ぶ必要がないと思っているのだけど正しいのだろうか。ただ記号的AIはハルシネーションは絶対にしない(答えが一つに定まるものしか扱わないと思っている)という点ではLLMよりも優れていると思うが、そもそも現実の一部の事象しかとらえられないという弱点を補うために確率を持ち出してきたと思うので、やはり記号的AIはLLMの下位互換なのではないか。
→そういうわけではなく、記号的AIの技術の基盤とLLMの基盤は異なるので、下位互換というわけではなく、全く別の技術。さらに、両社を組み合わせることでAIの性能を上げるような研究領域も存在する。

AIにできること、できないことについて、少し思うことがある。AIは、過去の経験が必要なものや他の事象からの応用が苦手だと思う。自動運転とか、包丁で豆腐を切るとか。ただ、運転に置いていうと、走る前にこれをすべき、曲がる時にはこれをすべきという、人間が忘れがちな?細かいところは得意だと思う。あんまり自信ないけど。そういうところでAIを使うのが良い使い方なのかもしれない。知らんけど。

AIに、慣れは存在するのだろうか。同じ作業を何回もやってると効率が上がるのだろうか。内部構造的に、推論をしている限りはあり得ないのかもしれないな、そういう点で人間に近づけていないのかもしれないなと感じた。

第一次AIブームにおける記号的AIと、今日のAIは異なる基盤だが、なぜ、既存技術を改良するという方向ではなく、全く別の角度から攻めようと思ったのだろう。記号的AIの限界が数学的に証明されたから?

序盤はAIに関する歴史や基礎知識の話なので退屈に感じるかもしれない。