AIの起源
――AIがここまで騒がれるようになったのはここ数年のことだと思うんですけど、そもそもAIというのはどのようにして生まれたんですか。
AIの理想形は「AGI(Artificial General Intelligence)=汎用人工知能」ですが、これはコンピュータが誕生したときに初めて構想されました。宇宙(世界)が秩序だった論理的構成物であるとするなら、論理操作を高速で実行するコンピュータは宇宙の「真理」を自動的に導く「知能」に他なりません。
こうして起きたのが1950年代~60年代の第一次AIブームです。このブームでは「論理」がキーワードだったのですが、現実の応用分野はゲームやパズルくらいで、実用的な価値が乏しかったため、たちまち下火になってしまいました。
そこで、医療や法律といった現実の社会におけるさまざまな分野の知識を論理命題の形で表し、コンピュータに高速演算させて「正解」を得ようとしたのが、1980年代の第二次AIブームです。このときのキーワードは「知識」で、当時私が留学していたスタンフォード大学はその中心地でしたが、このブームも90年代には下火になってしまいました。
――何が駄目だったんですか?
平たく言うと、コンピュータができる論理操作には限界があったというのが理由です。
コンピュータにできる論理操作は、「演繹」が中心で、あとは「帰納」の一部です。「演繹」というのは前提と一般法則から結論を出すやり方です。たとえば医者がある患者をチフスだと診断した場合を考えてみましょう。このとき仮に「チフスにかかると発疹が出る」という一般法則があるとすると、この一般法則と「この患者はチフスである」という診断(前提)から、「この患者には発疹が出てくる」という症状(結論)が導かれる。
これに対して、前提と結論から一般法則を導くのが「帰納」です。「この人はチフスにかかっているようだ」という診断(前提)、そして、「この人には発疹が出ている」という症状(結論)。この二つがたくさんの患者について成り立つとき、「チフスにかかると発疹が出る」という一般法則が導かれるというわけです。たくさんの事例の収集整理にコンピュータは役に立つでしょう。
――なるほど。
演繹や帰納であればコンピュータに任せても問題ないんですけど、実際に医者がやっているのは「仮説推量」というものなんです。仮説推量は、一般法則(知識)と患者の症状から病名を推量するというもので、これが診断です。つまり、「チフスにかかると発疹が出る」(知識)と「この患者には発疹が出ている」(症状)から、「この患者はチフスだ」という診断(前提)を行うわけです。重要なのはこれが仮説であり、誤り(チフスでない可能性)をふくむという点です。
当然ですが、発疹はチフスに特有の症状ではありません。食中毒でも、虫刺されでも、発疹が出ることはあります。医者はそういったさまざまな可能性を考慮したうえで診断を下すわけですが、その過程のすべてを(コンピュータが処理できる)論理命題の形に落とし込むことは不可能です。なぜならその過程には、個々の医者の経験にもとづく主観的な意味解釈が、多少なりとも関与しているからです。
われわれが「知識」と呼ぶ一般法則のなかにも必ず意味的なあいまいさがあり、だからこそ、医者によって診断結果が異なるということも起きるわけです。そうなると、コンピュータに診断を任せるということはとてもできません。
――仮に診断ミスが起きたときに誰が責任をとるんだということにもなりますね。
その通りです。ここで強調しておきたいのは、第一次・第二次のブームにおいてAIとは「論理的に正しい結論(命題)を自動的に導くための技術」だったということです。その前提があったからこそ、第二次ブームは挫折したわけです。にもかかわらず、そのような「AI信仰」はいまも根強く残っています。
真の情報学的転回へ
――第一次・第二次があったということは、現在のAIブームは第三次ということですか。
そうです。現在のブームは、「深層学習」というパターン認識技術をベースにして2010年代の後半に起きました。この技術自体は20世紀末から存在していましたが、ハードウェアとソフトウェアの改良によってようやく実用化されました。これによって、たとえば、空港の搭乗ゲートを通る乗客の顔パターンを瞬時に読み取り、指名手配犯を拘束する、といったことが可能となったわけです。
ただしこの操作には「誤り」が生じ得るということに気づかなければいけません。パターン認識というのは膨大なデータの中からある種の類型や規則にもとづくパターンを見つけ出す技術ですが、その正しさは確率的に予測することしかできません。いまの例で言うと、捕まえた乗客が100%犯人であるとは言い切れないわけです。
――顔がそっくりの別人かもしれない。
AIの判断によって無関係の乗客が誤って拘束されるという事件は、海外で実際に起きています。PCR検査だってそうですよ。検査で陽性になったからといって、確実にコロナにかかっているわけではない。「かかっている確率が非常に高い」ということしか言えないんです。
このことから言えるのは、第三次AIブームのキーワードが「統計」であるということです。つまり、「たとえAIの出す答えが100%ではないにしても、およそ合っていて、処理効率が上がればいいじゃないか」という発想が前提になっている。この発想自体が間違いだというつもりはありません。むやみに薬をばらまくより、かかっている確率が高い人に処方した方がいいですからね。
ただ問題なのは、現代のAIが統計的に作動していること自体ではなく、一般の人々がそのことを知らないという点なのです。誤りが必ず生じるにもかかわらず、一般社会には第一次・第二次ブームに由来する「AIの結論はつねに正しい」という信仰が広まっている。このことは改めて強調しておかなければいけません。
――私もその一人でしたが、AIが「路線変更」したことをほとんどの人は知らないと。
「生成AI」も同じです。文章を生成するチャットGPTのようなAIは、データベースにある大量の文章データを分析して単語列のパターンを分類し、出現確率の高い単語列をつなげて文章を作る。なので、一見もっともらしい文章を上手に出力します。でもAIは、それが何を意味する内容かはまったく理解していません。著者の意図も、事実かどうかも関係なく、ただ確率にしたがって文章を作っている。したがって、表面的にはなめらかな文章であっても、内容的にはとんでもなく誤った情報を出力する可能性があるわけです。
――データベースがフェイクニュースだらけだったらどうしようもない。
AI技術史から言うと、今の生成AIの重点はユーザーインターフェースを親しみやすくした、ということなんです。キーワードを入れたら関連するページのURLがずらっと表示されるだけではなく、噛んで含めるように易しい言葉で教えてくれる。親和性向上のためにものすごい資本と労力を費やしたわけです。つまり、第三次AIブームにおいては、「正しい論理命題(真理)を導出する」代わりに、「AIで消費者の興味を惹き、アテンション・エコノミーの勝者となる」ことが目的となっている、と言っても過言ではないでしょう。
生成AIについては著作権侵害や個人情報保護の観点から批判がなされていますが、最大の問題点はネットでとんでもない偽情報が流布してしまい、しかもそれを多くの人が正しいと信じてしまうことです。AIは、自分が生成した文章の意味も、正確な情報かどうかもわからない。そんなAIがスーパー機械として社会的判断をおこなうようになったとしたら、失策や誤りの責任はいったい誰がとるのか。生成AIによって効率化される応用分野もあるかもしれませんが、まずはその弊害の恐ろしさについて、よくよく考慮する必要があります。
――個々の生物が生きていく上での重要性こそが「意味」だというお話がありましたが、その「意味」を理解しない(できない)AIによってわれわれが統制されるとしたら、そこはまさに「生なき世界」ですね。
AIを操作できる一握りのエリート(ホモ・デウス)から見れば、一般の人々は「劣ったアルゴリズム」なのだから、何も考えずにAIの指示に従っていればいい、となります。現在進行しつつあるこのような事態は、基礎情報学からすると「偽の情報学的転回」なのです。これに対して私は、コンピューティング・パラダイムと個々の人間の主観世界を尊重するサイバネティック・パラダイムを架橋することで、「真の情報学的転回」を実現したいと望んでいるのです。そのための知が基礎情報学は他なりません。
「○○的転回」というのは、その○○をもとに知の枠組み全体がガラガラと変わっていくことです。20世紀に起きた「言語学的転回/言語論的転回(linguistic turn)」は、人間をとりまく現実(意味をもつ世界)が客観的で普遍的なものではなく、言語によって形づくられるという考え方への大転換でした。日本語、英語、フランス語といったあらゆる言語は、それぞれ独自の宇宙(世界)を形成する。それらの言語にもとづく価値観は相対的であり、したがって地球上の多様な文化や言語のあいだに優劣はない。こうした議論が20世紀後半のポスト・モダニズム思想の根幹となり、西欧の近代思想によって有色人の「遅れた文化」を打破し啓蒙すべきだという進歩主義は払拭されたわけです。
「真の情報学的転回」は、この言語学的転回をさらに発展させたものであるはずです。言語だけでなく、画像や舞踏などの身体知も含めた、より広い「情報」という概念をもとにして、知の枠組みを根本からとらえ直すこと。地球上にあらたに平等な情報社会を構築すること。そこでは当然、文化的・言語的な多様性が重んじられます。
――あらゆる物事をデジタルデータに還元して序列化し、さらには商品化していく現代のやり方とは真逆の方向性ですね。
日本の産官学のなかには、未だに後進国根性から抜け出せず、情報とは機械情報(データ)のことであり、アメリカ流のデジタル化を迅速に進め、経済活動を効率化することが「社会的進歩」だと信じる「偽の情報学的転回」支持者が少なくありません。だからこそ今、ネオ・サイバネティクス/基礎情報学による情報社会の根本的とらえ直しが切実に求められているのです。
(取材日:2023年6月20日、27日)