top of page
ARTICLES

記事

AIとの共存を試みる

ユアン・カルロス・デル・リオ著・長谷川涼子訳

違いを認め.jpg

AIは新しい現象ではありません。人類はその当初から、機械や自動装置を発明してきました。あるものは我々の暮らしを便利にし、また別のものは人間の可能性を拡張しました。こうした話題の多くはこれら創作物への賞賛を反映したものであり、同時に、発達した技術の制御を失うことへの恐れの表れでもあります。ここで、いくつかギリシャ神話を思い出してみましょう。例えば、メディアに倒されたタロスの青銅の巨人や、ピグマリオンが命を吹き込んだ象牙のガラテア像といった話です。中世においては、テンプル騎士団の謎めいたバフォメットや、パラケルススのホムンクルスなど、生命の創造についての別の伝説があります。魔法の儀式で命を与えられた粘土のゴーレムにまつわるユダヤの言い伝えをこれに加えてもいいでしょう。現代においては、メアリー・シェリーの小説中のヴィクター・フランケンシュタイン博士の醜い創造物や、カルロ・コッローディの小説中の職人ゼペットに作られたピノッキオが挙げられます。どちらにおいても、科学の責任と、倫理の指針の中に留まろうとする人間の行動がクローズアップされています。これらは、今から目にすることになる基本的な要素なのです。

オートマトン(訳注・自動機械)――ギリシャ語から作られた言葉ですが――は、この他にも発明されています。これらは時計のメカニズムのように機能する技巧や装置で、自立している、あるいは知性を持っているかのように振る舞います。最初の「ロボット」――チェコ語の「強制労働」から派生した用語――は20世紀に登場しました。興味深いことに、アリストテレスは著書『政治学』(※1)の中で、奴隷制を無用化し、廃止に導けるとして、機械的作業を担うオートマトンの開発を提唱しています。

人工知能(AI)の開発は1950年代に始まりました。この時から、AIは人間の知性をまねることを目的としてきました。初めは特定のゴールに辿り着くためにアルゴリズムや論理演算命令を用い、次には取り込んだ知識に従ったエキスパートシステムが使われました。機械学習システムが導入されるに従って、限られた知識への依存はなくなりました。そして、複雑なデータや非線形関係を制御するために神経ネットワークが開発される一方、人工視覚システムは環境と人間の相互作用のパターン認識を可能にしました。最後に、自然言語処理が導入され、人間との相互作用が可能になりました。まだ高度に発達したとは言えないにしろ、このテクノロジーの急速な進歩には驚かされるばかりです。今や人間を模した声、画像、そして動画でさえも作り出すことが可能になっており、近い将来には現実とAIの手になるフィクションの違いを見分けることもできなくなるかもしれません。

ここまで見てきた発明のいくつかは恐怖を引き起こします。つまり、それらは我々よりも力を持つ可能性を秘めている、あるいは我々に取って代わったり、世界の支配に悪用されたりする、という恐れです。加えて、機械のいくつかは我々と非常によく似ているということも落ち着きません。こうしたずれは、機械との共存に対する試練を突きつけてきます。

倫理上の問題

AIに関して、我々はいくつかの倫理上の問題に直面しています。例えば:

アルゴリズムの差別:この問題は、文化的・社会的バイアスを含んだデータを学習させられたAIシステムによって引き起こされ、就職、住宅供給、ローンなどの分野で差別的・不平等な結果となります。アルゴリズムのバイアスの例は数え切れず確認されています(※2)。

アルゴリズムの透明性の欠如:この問題は、多くのAIアルゴリズムが出した決断が不明瞭であり、理解困難であることから引き起こされ、AIの使用への監査を難しくしています。これは、AIの決定が個人の健康や幸福にいちじるしく影響する、医療などの分野において懸念されています。

AIのアルゴリズムが悪い決断をしたら、誰の責任なのでしょう? プログラマーか、AIを導入した企業か、あるいはアルゴリズム自身でしょうか? 「責任を取る」とは自分の義務感の高まりから確立された基準に従って、自分の行動の良い影響も悪い影響の責任を負うことだったら、責任と意識の間に結びつきがあることが明らかになるのです。よってここでも、AIの行動に問題が見出せます。

ドローンなどの自律兵器は、警察や軍事の任務の遂行を許可されるべきでしょうか? これを許可することで、紛争の激化を招き、人間が軍事力の使用を制御できなくなります。アメリカ軍の所有兵器を単独で制御できる「スカイネット」的なシステムが出現すれば、おとぎ話だったターミネーターシリーズが現実のものとなるのです。

医療、社会的正義、国家の安全保障、国防など、人間の幸福や命に関わる重要分野で、人間が制御と責任を持ち続けるのは重要なことです。AIに行動の自由を無制限に与えることはおすすめできません。

AIは、私たちが越えられないと思っていた私たち自身の領域に侵入しつつあります。私たちは、自らを唯一の理性的な存在だと考えてきました。多くの文化や伝統にまたがって、心は他の動物と私たちを区別する典型的なポイントとされてきました。しかし、機械は少しずつ人間の能力を模倣し、追い越しており、それはもはや力や身体能力にとどまりません。当初は数学の計算に始まり、今では私たちより初歩的な計算機やスマホの方が10ケタの割り算を早くできるのは常識です。次は記憶で、小さなチップが今では有名なアレクサンドリア図書館よりも多くの本を記憶しておけるのです。AIはまた、驚くべきパターン認識能力を示しており、例えば地図を処理する際のより良い空間的定位などの際に、共通点や違いを素早く認識できます。最近では、AIは自然言語の発達の分野で技術革新に達し、人間よりも高度な翻訳・要約・書き起こし技術を示しました。加えて、私たちは画像作成や芸術能力においてもAIの力を目の当たりにしています。つまり、すでにある様式を学んで絵画や音楽や詩を作ったり、学習した要素を組み合わせて小説を書き出したりといった、私たちの創作行為のような能力です。

人間の知性

AIに対する批判として、AIの使用は読解、内省、記憶、描写などといった人間の感性面の能力を妨げる、というものがあります。精神(またはマインド)が人間の発達にとって根本的な要素であることは認めねばなりません。秘技における伝統では、「神のひらめき」つまり精神のひらめきが人間の本質にとって重要であること、魂の鍛錬と真実の探究によってこの能力を発見・鍛錬するのが人間の責務であることが示唆されています。しかし、機械はそうした目的・超越の概念を持ち合わせていません。もし私たちが自らの精神の素質を失ってしまったら、私たちは「人間以下」になることでしょう。

私たちは長いこと、自分たちを唯一の知的存在とみなしてきました。動物については、知的なふるまいを見せたとしても、知性に目覚めてはいないとしてきたのです。これは、私たちと他の生物の間の根本的な違いです。AIが高度に知的になり、特定の分野で私たちを追い越したとしても、AIには自覚や、独立した決定をする能力はありません。AIは人間が特定の目的に達するのを手助けするために設計された道具ですが、自分自身や身の回りの世界を理解する能力は持ちません。AIは人間にとって代わるものではなく、高度に発達したプログラムを使った、私たちの能力の拡張なのです。人間の精神はコンピューターではないので、AIは人間の知性の形ではありません。

AIの知的な能力に世間は熱狂していますが、これは抽象性と論理的思考に焦点を当てる反面、感情的な知性や社会的な知性といった人間のその他の能力を無視しているためです。この意味において、知性を「異なった選択肢や状況から選びとり、それらを理解し、情報を総合的に扱って最良の結論を出すこと」と定義した場合、機械は本当の意味で知的ではないと言えるでしょう。人間は、創造性、想像力、共感力、批判的思考、好奇心、情熱といった、AIにはない能力を持っているのです。

AIは、一連の論理的・数学的手順に沿って情報を処理します。これは答えの定まったものであり、プログラムされた能力を超えて自立した、あるいは創造的な決定をすることはできません。人間は主観的な経験と探検を経て学習しますが、AIは数学的・統計的なパターンを使うにすぎません。さらに、機械は意図や目的を持たず、与えられた指示に沿って働くことしかできません。機械は人間のような目標や願いを持ちません。

社会におけるAIの誤用は悪い影響をもたらす可能性があります。例えば、ケンブリッジ・アナリティカ社とフェイスブックの事件では、AIが選挙と国民投票の結果を操作するのに使われました。加えて、特定のAIを利用した検索エンジンは「真実マシン」となり、人々が情報を解釈・理解する方法に影響を及ぼしています。中国の「社会的信用システム」の設計も懸念のもとです。このAIシステムは、金融、教育、安全、健康、モラルといった、市民やビジネスの日常の動きの中の様々な側面における振る舞いを評価・追跡し、それに従ってポイントを与えるものです。そうしたポイントは、公共サービスやローン、雇用、旅行などの恩恵を受ける際に使うことができます。

そして、私たちの懸念とは別に、AIの客観性、膨大なデータを扱う能力、決定に際して多くの要素を考慮する能力が、社会を営むのに大きな助けになっていることは認めねばなりません。AIシステムは、その優れた知性・合理性、そして主観性・偏見の欠如によって、人間より公平になり、さらには我々の社会の統治に関わる可能性があります。AIはまた、人間のドライバーより事故が少ない、安全な輸送システムを動かしうるかもしれません。

さらに、AIはいつでも私たちとコミュニケーションが取れるため、私たち、少なくともこの無縁社会に住んでいる無数の高齢者の伴侶となり得ます。例を挙げれば、これは日本ではすでに実現しています。興味深いことに、社会の極端な技術化は私たちをさらに孤立化させ、単独の存在にしましたが、その対策はまさしく、さらなる技術の導入なのです。

結論として、私たちには、その行動と決定の結果を長期にわたり検証した「フレンドリーAI(※4)」が必要です。その目的は、単に有能なだけでなく、社会にとって安全で利益をもたらすシステムを作り出すことです。そのためには、システムを、倫理的価値に沿ってデザインし、使われるたびに学習・適応できるようにしなければなりません。加えて、個人の権利を保護し、AIの誤用に対して法的な縛りをかけるために、立法に際して科学のコミュニティーと協働するよう、各政府に求めねばなりません。これは、この技術をあらゆる側面から検討することを保証するため、企業に対して学会や政府、心理学者、哲学者、人権団体との協調を求めるものです。


原注

[1] “For if every instrument could accomplish its own work, obeying or anticipating the will of others, like the statues of Daedalus, or the tripods of Hephaestus, which, says the poet, “of their own accord entered the assembly of the Gods;” if, in like manner, the shuttle would weave and the plectrum touch the lyre without a hand to guide them, chief workmen would not want servants, nor masters slaves.” Politics, Ch. II “On Slavery.”

※1 何故ならもし道具がいずれも人に命じられてか、或は人の意を察してか自分の為すべき仕事を完成することが出来るなら、例えば人のいうダイダロス作の彫像や詩人が「ひとりでに神の集いに入り来りぬ」と言っているヘパイストスの三脚架が自ら動くように、梭(ひ)が自ら布を織り琴(キタラー)の撥が自ら弾ずるなら、職人の親方は下働人を必要とせず、また主人は奴隷を必要としないであろう。
アリストテレス著『政治学』山本光雄訳
岩波文庫、38~39頁



※2 キャシー・オニール著 ”Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy“(数学的破壊兵器・ビッグデータによる格差拡大と民主主義への揺さぶり)、サフィヤ・ウモジャ・ノーブル著 “Algorithms of Oppression: How Search Engines Reinforce Racism” (弾圧のアルゴリズム・サーチエンジンによる人種差別レイシズムの加速)、クリス・シャファー著 “Data versus Democracy: How Big Data algorithms shape our opinions and alter the course of history” (データVS民主主義・ビッグデータのアルゴリズムが我々の意見を形成し、歴史の流れを変える方法)という明確なタイトルの本による。

※3 その他の興味深い本として、ジャン・ノエル・ジャンヌネー著 “Google and the Myth of Universal Knowledge” (Googleと普遍的な知の神話)、ケン・オーレッタ “Googled: The End of the World as We Knew it” (ググる・我々の知る世界の終焉)がある。

※4 エリーザー・ユドコウスキーの作った用語。詳細はリンク先より https://www.kurzweilai.net/what-is-friendly-ai

元記事URL
https://library.acropolis.org/the-challenge-of-coexisting-with-ai/

生きるための哲学.png
哲学カフェ.png
event calendar.png
bottom of page