INDEX

  1. 古代ギリシア哲学が現代を照らす?今と昔をつなぐ哲学
  2. AIと共存していくために、哲学が必要な理由とは
  3. 現代社会の「倫理的枠組み」が通用しなくなる?誰がAI倫理問題の責任を負うのか

INTERVIEWEE

松浦和也

MATSUURA Kazuya

東洋大学 文学部哲学科 教授
専門分野は古代ギリシア哲学、人工知能の哲学。平成29年10月~令和3年3月には、国立研究開発法人科学技術振興機構(JST)社会技術研究開発センター(RISTEX)委託事業との共同研究である「自律機械と市民をつなぐ責任概念の策定」の研究代表者として人工知能の円滑な実装に向けた研究活動を実施。著書に『アリストテレスの時空論』(知泉書館)、編著に『ロボットをソーシャル化する』(学芸みらい社)など。

▶東洋大学入試情報サイト「TOYOWebStyle」で松浦先生のWeb体験授業の動画コンテンツをご覧いただけます。
動画で見るWeb体験授業「ソクラテスは聖人か?」

▶東洋経済オンラインでは、松浦先生の「『自動運転社会』の責任の所在」に関する記事をご覧いただけます。
自動運転車の事故はだれが責任をとるべきか ―哲学者が考える「自動運転社会」の責任の所在

古代ギリシア哲学が現代を照らす?今と昔をつなぐ哲学


――はじめに、先生のご専門について教えてください。


主に、古代ギリシア哲学について研究しています。特に興味・関心があるのは、古代ギリシア哲学者たちの「思考のあり方」です。たとえば、物事を語ろうとするときに、その言葉が何を意味するか、つまりその語の定義を説明することがありますよね。もちろん、すべての言葉が定義できると考える人はもはやいないでしょうが、それでも語の定義が必要な場合はあるでしょう。語を定義することの重要性を発見し、それに対して並々ならぬ関心を持っていたのが古代の哲学者たちなのです。このように、いま、私たちが思考するときの「モノの考え方」は、ギリシア哲学者たちの思考に由来することが数多くあります。ただし、私たちは彼らの「考え方」にあまりにも馴染んでしまっていて、空気を吸って吐くように自然に、当たり前のように思考しているのです。しかし、その「モノの考え方」はどんなときでも本当にうまくいくのか。彼らが実践し、規定した「考え方」の枠組みによって、私たちは偏った思考の習慣を身につけてしまっているのかもしれない。だからこそ、彼らの哲学を研究することで、私たちの「考え方」のあり方を改めて客観視することができる。ここに古代ギリシア哲学の面白さがあると思っています。

――現代に生きる私たちの思考のあり方を考えるには、古代まで立ち返ることが重要になってくるのですね。先生が人工知能について研究されているのも、古代ギリシア哲学の視点が役に立つからなのでしょうか。

そうですね。AIの利活用によって引き起こされる倫理問題を考えるときに、古代ギリシア哲学の視点を持つことによって、ユニークなアプローチをとることができます。AIやロボットの倫理の問題を語るとき、人格や権利がどのようなものであるかを考えることから始めようとする研究があります。何故なら、人間とAIを峻別する指標として「人格と権利の有無」がある、と考えるからです。しかし、ギリシア哲学には「人格」や「権利」という考えが希薄です。すると、ギリシア哲学の視点からは、人格や権利がどのような歴史的経緯をもって形成されてきたかを考えなくてはならなくなるし、人格や権利に訴えかけないAIの社会的位置づけの可能性も見えてくる。ギリシア哲学の知見を深めるほど、人間とAIの関係性を“俯瞰”的に捉えた状態でAIとの向き合い方を考えることができるのです。

――人間とAIの関係性を俯瞰で捉えた上でAIについて考えることは、どのような利点があるのでしょうか。

完全自動運転車など、ある一つの工学製品を社会に実装するときを例にしてみましょう。世に出てから実際にその製品に触れるのは、開発者や技術者といった工学者ではなく、法律や「権利」といった社会的概念に明るい法曹人でもなく、私たちのような一般人が大多数です。俯瞰で捉える、というのは、専門知識のない一般人が持ちうる視点で見てみる、ということでもあります。そうしたときに、工学製品を適切な形で実装できるとはどういうことなのか、実装できるとしたらどのような条件が必要か、あるいはこのような実装の仕方もあるのではないか、というような問いを立てることができるようになると思うのです。
    

AIと共存していくために、哲学が必要な理由とは


――AIを考える上で哲学的な視点が重要であることが分かってきたのですが、そもそもなぜ私たちは AI倫理について考えなければならないのでしょうか。


AIやロボットはおそらく“使う側”よりも“造る側”の方が慎重にならなければなりません。しかし、AIなどの新技術が及ぼす影響については、それを作る過程では必ずしもすべてを予見することはできません。つまり、必ずしも作る側の思い通りにいくとは限らないのです。

実際に起こった出来事を基に、詳しく説明しましょう。アラブ地方では、ラクダによるレースが行われています。このレースでは、かつてはスーダン人の少年奴隷たちがラクダに乗る騎手を務めていたのですが、十数年前から遠隔操作できるロボットを導入し、騎手の代わりとしました。その結果、少年たちは奴隷という身分からはたしかに解放されましたが、根本的な問題は解決されませんでした。そもそも少年たちはなぜ奴隷にならなければいけなかったのか。それは、少年たちやその家庭が経済的に貧しく、年少者であろうと働かなければ生きていけないからです。結局、このロボットは、失業や貧困の助長といった新たな課題を生んだのです。

このラクダレースの事例が示すのは、私たちが思っているよりも「技術は中立ではない」ということです。技術の社会実装は、もちろん何らかの善いことを社会に生じさせるでしょう。しかし、それにはたいていの場合、デメリットも同時に生むことになります。そのデメリットを社会実装に先立って把握するためには、ものを造り始める時点からじっくりと倫理について“俯瞰的”に考えるべきだと思います。

――新技術を無批判に「良いモノ」として受け止めてはいけないとも言えますね。

その通りです。技術の発展によってあらゆる問題が解決するという発想はSociety5.0やSDGsにも垣間見えますが、その考え方を鵜呑みにするのは安直すぎると考えています。ロボット騎手のように、技術革新の裏側にはデメリットが潜んでいることも往々にしてあるからです。

また、開発者や技術者、あるいはベンダーは、開発した技術が及ぼすデメリットについて多くを語らないという点も私たちは留意すべきでしょう。プラトンも述べていることですが、開発した当事者は新技術に対する愛着を持っているがために、物事を宣伝するときにはメリットの側面を強く打ち出すのではないでしょうか。

例えば、近年話題になっている自動車の自動運転技術について考えてみましょう。私たち人間が運転する自動車と比較して、完全自動運転車はコンピューターを「余計に」積載しており、消費電力も増えるため、「燃費が悪い」ともいえますね。これはデメリットのひとつでしょう。また、交通事故を起こしてしまった際には、私たちは運転していてもすぐに自動車を停めて救護活動を行うことができますが、自動運転システムではすぐに救護に参加することはできません。これもデメリットとして挙げていいでしょう。自動運転技術は免許を持たない人の移動範囲の向上やヒューマンエラーの防止など、良い面ばかりが宣伝されていますが、このような良い面は極端に言ってしまうと「人間にできること」です。AIは、領域によって人間より効率的に作業を進めることもできますが、まだ人間を超える万能さを持ち得てはいないと考えています。さまざまな宣伝によってAIをはじめとした新技術は「素晴らしい技術だ!」と思ってしまいやすいですが、表面のメリットだけにフォーカスせずに少し視点を変えて考えてみても良いのではないでしょうか。

――確かに、「新技術」という言葉にばかり目が留まってしまいますが、元々は人間が行っていたことと言われると、その通りだと感じます。

「AIがようやくできるようになったことが、人間は簡単にできる。人間ってすごいな!」と考えても良いかもしれませんね。先ほどは技術者がAI倫理について考える重要性を話しましたが、もちろん技術を享受する立場の私たちも、AI倫理を考えることも大切です。新しい技術が生まれたときには、それらができないことや、実用によって発生するデメリットといった「裏側」にまで私たちも思考を巡らせることが必要になります。

こうした「裏側」を考えるときには、哲学的な発想が求められます。新しい技術が生まれ、一つの製品に実装されたとき、果たして「便利そうだな」という感想だけで済ませて良いのでしょうか。自然環境破壊や雇用の減少、治安悪化など、さまざまな問題が起こりうる未来を想定し、その状況に自分を重ね合わせた上で、新技術を社会に導入すべきか改めて考えてみる。こうした考察の中どこかで、私たちと私たちの社会に対して自己反省をしなくてはならない。この自己反省を重視する工程は「哲学的なアプローチ」の一部です。今後次々と生まれるであろう技術を適切に取捨選択しようとすれば、必ず哲学的なアプローチが求められると思います。

――近年GAFAなどの大企業において哲学者が積極的に登用されているのは、哲学的なアプローチが重要だからなのでしょうか。

その側面もあると思いますが、技術の裏側を考えるためだけではないと予想できます。AIやロボティクスをモデリングするときには、私たち人間の活動について深く理解しておく必要があります。「私たちは、普段どのような思考をもってどんな行動を取るのか」という問いに対する理解を基にして、はじめて人間を模した製品や、人間の持つ能力を強化したりアシストしたりする製品を作ることができるからです。人間の思考や行動に対する理解については哲学がこれまで古代から担ってきた領域であり、その知見を活用するというのがGAFAなどのねらいであると考えられます。哲学の知見が企業的活動に有用である、とGAFAなどは気づいているとも言えます。人間社会において新たに何かを生み出すためには、人間を知ること、すなわち哲学の知見が必要なのです。これから、哲学の知見を活用した新しい事業や製品がたくさん生まれてくると思いますよ。
    

現代社会の「倫理的枠組み」が通用しなくなる?誰がAI倫理問題の責任を負うのか


――今後、AIや新技術はますます私たちの生活に浸透していくと考えられます。AIが身近になることで生まれる問題などはあるのでしょうか。

AI倫理問題が現代社会の倫理的枠組みでは捉えきれなくなってしまうことだと考えています。現代社会は、「個人は理性的能力を備えていて、その理性的能力がある限り社会の中で個人であると見なす」という考えのもとで成り立っています。この根幹にあるのは、「その人の行為はすべてその人の意思に基づくものである」という発想です。例えば、法システムは、たいていの場合、事件や事故はある人の意思によって引き起こされたものであり、その意思を持った人を責任主体と考え、罪を負わせるシステムになっているように、行為と意志の結びつきという枠組みがあるからこそ、私たちは事件や事故の責任を定めることができています。

しかし、AIが引き起こすであろう事件や事故を扱うときにはこの枠組みが通用しません。たとえば、完全自動運転車の問題で最も話題に挙がるのが、「事故の責任は誰が取るのか」ということです。なぜこの話題が取り沙汰され、また私たちの頭を悩ませるかというと、人とAIの協調動作による倫理問題に対応できる枠組みがまだ確立されていないからなのです。

これまでの社会では、先ほど述べたように理性を持った個人の意思に事件や事故の責任を帰属させてきました。しかし、AIが事件や事故に積極的に関わることになると、必然的に製造元や販売元、部品を作った下請け会社などにも事件や事故を引き起こした人間の意志を認めることになります。こうなると、たくさんの「個人」が現れてくることになるのです。すると、「事故を引き起こした意志は誰のものなのか」すなわち「誰に責任を帰属させれば良いのか」という判断は常に難しくなります。もしかすると、倫理的問題を語る上で根本としてきた「理性を持った個人の意思」という発想自体を修正し、社会の枠組みを根本から変更しなければならない時が来るかもしれません。

――社会の枠組みを変更するとなると、まずは私たちがAI倫理問題について深く考えることが大切になってきますね。

その通りです。先ほど述べたように、「メリットだけでなくデメリットについても思考を巡らせること」と「AIや新技術が用いられた社会に身を置き、広く実装すべきか考えること」が肝心だと思います。これから、AIが搭載された製品や新技術に触れたときは、この2点を頭において想像力を働かせ、私たちの今のあり方を反省し、私たちのこれからのあり方に思いめぐらすことで、「哲学する」ことを多くの人が意識してほしいと願っています。
     

この記事をSNSでシェアする