皆さん、
AIが文明を破壊するという予測をニュースで耳にしたことがあるだろう。AIの "ゴッドファーザー "であるジェフリー・ヒントンでさえ、グーグルを辞め、AIのリスクを警告せざるを得ないと感じている。
私は最近、ボストンで開催されたバイオ2023でこのテーマについて講演した。最近ChatGPTで示されたようなAIの目覚ましい進歩を過小評価するつもりはない。しかし、その文明に対する脅威は、悪く言えば微妙なものだ。
しかし、私たち教育関係者は、ChatGPTが教育に与える影響を懸念している。ChatGPTは、間違いはよくあるが、どんなトピックでもかなり良い論文を書くことができる。しかし、試験での活躍は目を見張るものがある。ChatGPTは弁護士の司法試験に90%台で合格することができ、ChatGPT4はSAT、AP、GRE、さらにはソムリエのためのテストなど、さまざまな標準化されたテストにも合格することができます!このようなChatGPTのようなAIのスキルは、学歴詐称や若者の学習の妨げになることを懸念させる。
ニューヨーク・ポスト紙の記事は、こうした懸念を要約している:「テスラのCEOイーロン・マスコンは月曜日、AIの潜在的な危険性についての警告で知られている。(NYポスト2023年5月2日)
もうひとつの懸念は犯罪である。犯罪者は非常に賢く、AIを使って人々を詐欺にかける。詐欺の方法のひとつにディープフェイクがある。典型的なディープフェイクとは、人の声やビデオ画像をデジタルファイル化した偽物のことだ。犯罪者がディープフェイクを使って金銭を脅し取る方法は枚挙に暇がない。
だから、最新のAI技術は実に不安だ。しかし、AIが完全に失敗し、おそらく何世代にもわたって失敗し続けるであろう分野がある:物理的具現化チューリングテストだ。このテストは、基本的にAIロボットがIKEAの家具のようなものを説明書付きのキットから組み立てることに挑戦するものだ。AIの開発状況は、この課題がサイエンス・フィクションになってしまうほど、この体制から大きく遅れている。2019年、当時8歳だった私の孫のネイト・スーは、アポロ宇宙船の1969年の部品(図1参照)を4時間で組み立てた。AIはこれに近づくことはできない。AIが人類にとって物理的な脅威となるためには、物理的な世界での相互作用において大きな進歩が必要となる。
図1.8歳のネイト・スーは、1969年のアポロロケットの部品を4時間で組み立てた。どのAIもこの偉業には近づけない。
AIが物理的世界でこれほど貧弱なパフォーマンスを発揮する理由のひとつは、AIには身体がないからだ。人間と物理的世界との相互作用の多くは、身体と味覚、触覚、視覚、聴覚を通して行われる。加えて、人間には物理的世界に関する長年の文脈があり、AIロボットはそれを学ばなければならない。例えば、この記事を書いている今、リビングルームを見渡すと、カーペットに覆われた硬いフローリングの床、家具、マンフォードの暖炉、テレビ、電話などが延々と目に入る。これらのアイテムにはそれぞれ長い物語がある。AIが私たちの物理的世界をナビゲートするためには、その無数の側面について「学習」する必要がある。
だから、 M3gan(図2.)のようなAIロボットが登場しても、心配する必要はない。AIの世界にとってさらに屈辱的なのは、食器洗い機を空にできるAIは存在しないというスティーブン・ピンカーの 格言だ。
図2.ミーガンのようなロボットが登場するのは数十年先のことだろう。
乾杯
ロン博士