The Green Catalyst
The Green Catalyst
Creating futures we can believe in

AI (Artificial Intelligence - 人工知能)とは何か、私たちは恐れるべきなのか、という本質的な問い

Yoko Marta
28.10.22 03:06 PM Comment(s)

AI (Artificial Intelligence - 人工知能)とは何か

AI (Artificial Intelligence - 人工知能)について、イギリスの国営放送BBCのStuart Russel(スチュアート・ラッセル)さんが行った講義について。

AI (Artificial Intelligence - 人工知能)とは何か、私たちは恐れるべきなのか、という本質的な問いについての講義。4回の講義のうちの1回目。

人工知能の領域での成功とは何を指すのでしょう?

これは、明らかに「機械をもっとインテリジェントにする」ということですが、実際にそれは何を意味するのでしょう?

人工知能の領域では、1950年代ぐらいの、広く受け入れられている、Human Intelligence 人間の知性)という定義を借りています。Human Intelligenceの定義は以下の通りです。

人間は、私たちの行動が、私たちの目的を達成することを期待できる範囲で知的です」(目的の達成と知性の同一性)

他に、Inteligence(知性)として考えることは何でしょう?

  • 知覚

  • 思索

  • 学ぶこと

  • 発明・創造すること

  • 講義を聞いたりすること 等々

上記の目的の達成と知性の同一性については、長い歴史があります。

紀元前に生きたギリシャの哲学者アリストテレスは、下記のように述べています。

「私たちは目的ではなく、手段について審議します。医師は、患者が治癒するかどうか、また演説家は、聴衆が説得されるかどうかを審議しません。彼らは終わりを想定し、それがどのように、何を意味するかによって、それが達成され、それによって簡単かつ最良につくりだされたかどうかを考慮します」

16世紀と20世紀の間には、ギャンブリング・ゲームを解析する目的で、数学者は、行動の結果についての不確実性をゆるし、複数の意思決定の相互作用に対応する為に、「終わりを達成する手段」という決定論的見解を洗練させました。

人工知能の黎明期から、機械のインテリジェンスは人間のインテリジェンスと同じように規定されています。

行動が、目的を達成することを期待できる範囲で知的

人間との大きな違いは、機械は自分で目的を持っていないことです。

人間が、目的を達成する機械を作り、機械に目的を入力/供給する、または、特定の目的のために機械を特殊化します。

近年、機械は経験・実験を通して目的を達成する能力を向上しています。

1980年代にはじめての人工知能の商業アプリケーションができ、1980年の終わりには、世界で初の自動運転のメルセデスが高速道路を試運転し、1990年代には、人工知能は、複雑なシステムにおいて、確率と因果関係について表現し、推論するための新しい方法を開発しました。これによって、人工知能は、サイエンスのすべての領域にひろがりました。この10年ぐらいは、Deep learning(ディープ・ラーニング)システムが、人間のスピーチをとてもよく認識することを学んだように見受けられます。人工知能は、自動翻訳や、自律配達飛行機等、さまざまな場面で、私たちの生活により重要になってきています。

ただ、人工知能が私たちの現実に入り込んでくると、良いことも悪いことも起こってきます。

人工知能に伴うリスクは何でしょうか?

例えば、人間を殺すことを決定するアルゴリズムで、実際に物理的に殺人を行えるものは既に市場で売られています。人工知能を「殺人」という目的に使うのは大きな間違いです。
また、他には、Disinformation(意図的に広められる虚偽もしくは不正確な情報)Deep fakes(人工知能に基づく人口画像合成技術で、実際には起こっていない行動について偽の映像を生み出す人種とジェンダーの偏見サイバー犯罪
既に様々な場面で、犯罪に使われたり、憎しみ・暴力的な行動を誘発・助長することに使われています。

これらのリスクは、何が原因なのでしょうか

ラッセルさんは、以下のように説明しています。

単純で、狭義な、アプリケーション固有のアルゴリズムがリスクを引き起こす原因

アルゴリズムという言葉は聞いても、実際に何なのか、何をするものなのかは具体的に分かりにくいかもしれませんが、既に日常の中でよく使われています。
例えば、ルートファインダー(目的地にどうやって行くか)や、乗り換えサービス、ソーシャルネットワークのフェイスブックやツイッターで表示されるフィードや情報等(※1)にも使われています。

(※1)フェイスブックは、アルゴリズムを公開せず、人々の間で憎悪を増長するようなアルゴリズムを使用している、ということで、(いわゆる炎上するような投稿には、反射的に反応してしまう人が多く、リツイートする人やコメント等を書き込みする人々のおかげで、フェイスブックの広告収入が増える)、昨年Frances Haugenさんが内部告発を行いました。ガーディアン紙の記事は、ここより。

アルゴリズムは、問題を解決するために従うルールのリストです。

コンピューターやロボットは、何を目的にして何を行うのかを決めることはできません。コンピュータやロボットに何かをするように指示したい場合は、コンピュータに段階的に、何をしたいのか、どのようにやってほしいかを正確に、正しい順序で伝えるコンピュータプログラムを書く必要があります。この段階的なプログラムは、計画が必要になり、これを行うには、アルゴリズムを使用します。 コンピュータは、与えられたアルゴリズムと同じくらい優れているだけです。コンピュータに馬鹿げたアルゴリズムを与えると、馬鹿げた結果がはじきだされるだけです。 アルゴリズムは、計算、データ処理、自動化など、さまざまなものに使用されます。

※イギリスの国営放送BBCのWebsiteに分かりやすいアニメーションと説明があります。ここより。

ラッセルさんが、人工知能が目指すゴールとして挙げているのは、汎用人工知能であり、「汎用人工知能を使って、既に人間が知っていることを、もっと効率的に、もっと少ないコストで、もっと大きなスケールで行う」ということです。

ただ、汎用人工知能を実現させるには、物理的にはもっと多くのデータや、もっとパワフルなコンピューターが必要ですが、それよりも大事なのは、いくつかの概念的な突破が必要なことです。そのため、汎用人工知能の実現にどの程度時間がかかるのかを予測するのは難しいとしています。

ただ、忘れてはいけないのは、物理的な面(パワフルなコンピューター等)が飛躍的に向上したとしても、人間が馬鹿げたアルゴリズムを人工知能にフィードすると、素早く馬鹿げた答えが返ってくるだけで、何の役にも立ちません。

20世紀半ばに活躍したイギリスの数学者、アラン・チューリングは、汎用人工知能を作ることにより、人間よりもパワフルなものを作ることになると警告しました。

私たちは、どのように機械が私たちをコントロールすることがないことを確保できるでしょうか?
結局は、現在は、私たち人間の個人・集合的なインテリジェンスが他の種族や世界をコントローする力を与えてくれているのだから。

アラン・チューリングは汎用人工知能について、警告を以下のように残しています。

「どこかの時点で、機械がサミュエル・バトラーのエレホンという小説で述べたようなやり方で、機械が人類をコントロールすることを予期するべきだろう」
(19世紀の作家サミュエル・バトラーは「エレホン」という小説の中で、悲惨な市民戦争の後にすべての機械を禁止した世界を描いています。)

本当に世界は終わりなのでしょうか?

私たちは、なぜ人工知能を良くすれば良くするほど、人類にとっての結果が悪くなるのかを理解する必要があります

多くの映画、例えば「ターミネーター」等は、機械がConsiousness(意識/知覚/思考)を持つことが問題だと信じ込ませるかもしれません

ここには、2つの問題があります。

  1. 機械に対して、Consiousnessをどう作るのか、Consuiousnessを持つことを防ぐのか、或いはそれをどう検出するのかは、誰にもわかりません。人間に対してさえ、Cousiousnessがどう機能しているのか、どう検知できるのかはわかっていません。

  2. Counsiousnessを持っているかどうかは問題ではなく、コンピテンシー(与えられた仕事を正確に高いクォリティーでこなす)が大事。

人工知能を良くする本当の問題を理解するためには、私たちは、人工知能の基礎、「標準モデル」=「機械は、行動が、目的を達成することを期待できる範囲で知的」を検証しなければなりません。

例えば、自動運転については、現在は、「ヒースロー空港へ私を連れて行って」と入力すると車は、ヒースロー空港を目的として適応します。そのように、人間がデザインしているからです。

問題は、実験の場から、一般の道路に出たときです。
私たちは、目的を、完全に、正しく設定することができないことを発見します。

例えば、自動運転車の他の目的、スピード・同乗者の安全性・法律・快適性・礼儀正しさ等のバランスをどのようにとるかを設定するのは非常に難しいことです。

これは驚くべきことではありません。
私たちは数千年以上にわたって知っています。

例えば、古代ギリシャの物語、ミダス王は、神々に自分のさわったものすべてを金に変えてほしいと頼みました。これは、彼の「目的」でした。ここでは、「神々」を「人工知能」と読み替えましょう。神々は彼の目的を果たします。彼の食べるもの、飲み物、彼の家族はすべて金に代わり、ミダス王は飢えと惨めさのなかで亡くなります。
似たようなプロットは、ゲーテの「魔法使いの弟子」にも見られます。
魔法使いの見習いはほうきに水を運ぶのを手伝うよう頼みますが、どのぐらいの水が必要かを言っていませんでした。
水浸しになり、見習いはほうきを刻んで水を運んでくるのを止めようとしますが、ほうきは既に「水を運ぶ」という目的を与えられているので、刻まれたほうきの一つ一つのパーツがさらに水を運び続けます。
他には、精霊が「3つの願いをかなえてあげる」といいます。
あなたの3つ目の願いはなんでしょう?
それは、いつも、「最初の2つの願いをキャンセルしてください。自分は世界を滅ぼしてしまったから

「世界を滅ぼす」という話では、ソーシャルメディアでのContents Selection (どの記事やポスティングをニュースフィードに表示するか、次に見るべきビデオの提案等)のアルゴリズムを見てみましょう。

これらのアルゴリズムは、全く知的ではないのに、どんな歴史上の独裁者よりも大きな力をふるっています。

このアルゴリズムの目的は、通常は「Click throughを最大化する、つまり表示されたものについて、ユーザーがクリックする確率を最大限に高める」

このアルゴリズムをデザインした人は、恐らく、このアルゴリズムがユーザーの好きそうなものを表示することを学ぶだろうと思っていたのでしょう。しかし、アルゴリズムには別のアイディアがありました。

アルゴリズムは、どのように環境の状態を変更・修正するかを学びます。この場合は、ユーザーのマインド(心、精神)ですが、自分たちへの報酬を最適化する為に、ユーザーをもっと予測可能に操作します。

より予測可能な人間は、彼らがクリックする可能性が高いものを表示され、それゆえ、多くの利益を生み出します。極端な傾向を持っているユーザーほどさらに予測可能となります結果は、世界中で急成長・増加している過激派の存在です。

ソーシャルメディアのアルゴリズムは知的ではなく、人間の存在も、人間に心があることも知りません。前述したゲーテの話の中にあった魔法のほうきとは違って、自分を守ることすらできません。しかし、このアルゴリズムには大企業がついています。

実際、企業はそれ自身がすでにスーパー・インテリジェントな機械であると議論している人たちもいます。企業には、人間という要素も含まれますが、企業は、利益を最大化するアルゴリズムとして動作しています。

過去百年ぐらいにわたり、地球の温暖化を引き起こしてきたものは、確実に人類を出し抜きました。そして、私たちはこれらの作用について介入することができないように見えます。ここでも、「外部に与える影響を無視した利益」という目的が間違っています

私たちがこれらのレッスンから見えるのは、人工知能の標準モデルと誤って指定した目的とで、良くなった人工知能システムが、悪い結果を生み出すということです。もっと進化した人工知能システムは、与えられた「間違った指定された目的」を果たすために、もっと大きな障害を世界にもたらす可能性があります。しかも、ゲーテの魔法のほうきのように、人間が介入しようとする試みをブロックすることをとても上手にやってのけるでしょう。

ただ、人工知能の領域での専門家の意見はさまざまに分かれています。

イーロン・マスクは、「スーパー・インテリジェントな人工知能をつくること」は「悪魔の召喚」だというたとえを用いたと報じられたことがあります。それについて、マーク・ザッカバーグの返答は、「人工知能に反対する議論というのは、より安全な車や、人々が病気になったとき原因をつきとめることに反対する議論だ」だったそうですが、イーロン・マスクが反対しているのは、制御不能な人工知能についてです。

この脅威に対抗する一つの手段として上がるのは、人工知能を完全に禁止するということで、19世紀の作家サミュエル・バトラーは「エレホン」という小説の中で、悲惨な市民戦争の後にすべての機械を禁止した世界を描いています。他の小説の中では、機械のコントロールから闘って、人類を守り、(キリスト教の十戒にかけて)11番目として、「人間の心・精神・考えに似た機械を作ってはならない」を設けました。

しかし、10兆ポンド以上の賞金(儲け)を人工知能の領域で得ることを狙っている企業や国々を考えると、それは現実的ではないでしょう。

正しい答えは、人工知能が良くなれば良くなるほど、問題がどんどん悪くなるというのであれば、私たちは、すべてを間違っていたといえるでしょう。私たちは、私たちが機械に与えた目的を獲得することを求めていますが、実際には、私たちは何かちがうものを求めています。後日の講義で、「何かちがうもの」が何かを説明しますが、それは、人類と、人工知能について私たちの将来に挙がってくるだろうすべての質問についても有用かもしれない、人工知能の新しい形でしょう。

Yoko Marta