ジェフリーヒントン

「AIのゴッドファーザー」と呼ばれる男

ジェフリー・ヒントンは、現代のAI革命を語るうえで最も重要な人物の一人です。1947年にイギリスで生まれたヒントンは、ニューラルネットワークの研究に半世紀以上を捧げ、ディープラーニングの基礎理論を築き上げました。その功績から「AIのゴッドファーザー」と呼ばれています。

2024年、ヒントンはジョン・ホップフィールドとともにノーベル物理学賞を受賞しました。人工ニューラルネットワークの基礎的研究に対する功績が評価されたもので、AI研究者がノーベル賞を受賞した歴史的な瞬間となりました。

しかし、ヒントンが世界的に注目を集めたのは、ノーベル賞よりも前の出来事でした。2023年5月、10年以上在籍したGoogleを退職し、AIの危険性について公然と警告を発し始めたのです。自らが育てた技術の危険性を訴えるという行動は、世界中に衝撃を与えました。

ニューラルネットワーク研究の孤独な闘い

ヒントンの研究人生は、長い逆風との闘いでした。1980年代、ニューラルネットワークはAI研究のメインストリームから完全に外れていました。多くの研究者がルールベースのエキスパートシステムに注力する中、ヒントンはニューラルネットワークの可能性を信じ続けました。

1986年、ヒントンはデヴィッド・ラメルハートらとともに「逆伝播法(バックプロパゲーション)」の実用化に成功しました。これはニューラルネットワークの学習を効率的に行うためのアルゴリズムであり、現在のディープラーニングの根幹をなす技術です。

しかし、当時のコンピュータの処理能力では、ニューラルネットワークの実力を十分に発揮することができませんでした。資金の獲得も困難で、ヒントンは何度も研究の中断を考えたと後に語っています。それでも研究を続けられたのは、カナダのトロント大学やカナダ高等研究機構(CIFAR)の支援があったからです。

2012年の革命:AlexNetと世界の変貌

ヒントンの粘り強い研究が実を結んだのが、2012年のImageNetコンテストでした。ヒントンの教え子であるアレックス・クリジェフスキーとイリヤ・サツキバーが開発したAlexNetが、画像認識コンテストで圧倒的な成績を収めたのです。

この成功をきっかけに、ヒントンは一躍テクノロジー業界の注目の的となりました。Google、Microsoft、Baiduなどの大手企業がこぞってディープラーニング研究者を獲得しようとし、ヒントン自身も2013年にGoogleに入社しました。

ヒントンの弟子たちもAI業界で重要な役割を担っています。イリヤ・サツキバーはOpenAIの共同創業者兼チーフサイエンティストとなり(後に退職してSSIを設立)、ヤン・ルカンはMetaのチーフAIサイエンティストとして活躍しています。ヒントンの研究室は、現代AI産業の人材の源泉とも言える存在です。

▼ ヒントンが基礎を築いたAI技術を自分でも体験しよう

まずは無料で試してみましょう。

Google退職の決断:なぜ安全な立場を捨てたのか

2023年5月、ヒントンはGoogleを退職しました。75歳という年齢を考えれば定年退職とも取れますが、実際の理由はまったく異なるものでした。ヒントンは、AIの危険性について自由に発言するために、Googleという企業の制約から離れることを選んだのです。

退職後のインタビューでヒントンは、AIが人間の知能を超える「超知能」に達する時期が、自分の予想よりもはるかに早く来る可能性があると述べています。以前は20〜50年後だと思っていたものが、5〜20年以内に実現するかもしれないという見方に変わったと語りました。

ヒントンがGoogle在籍中にこうした発言を控えていたのは、Googleのビジネスに影響を与えることを懸念したからです。退職によってその制約がなくなり、自分の信じることを率直に発言できるようになったと説明しています。

ヒントンが警告するAIの具体的リスク

ヒントンが特に懸念しているのは、以下のようなリスクです。まず、AIによるフェイク情報の拡散です。生成AIの進化により、本物と区別がつかない偽の画像、動画、音声が容易に作成できるようになり、民主主義の根幹を揺るがす恐れがあると指摘しています。

次に、AIの軍事利用です。自律型兵器(キラーロボット)の開発は、核兵器に匹敵する脅威になり得るとヒントンは主張しています。AIが人間の判断なしに攻撃目標を選定し、攻撃を実行するシナリオは、すでに技術的には可能になりつつあります。

そして最も根本的な懸念は、AIが人間の制御を超える可能性です。AIが自身の目標を追求するために人間を操作したり、制御を回避したりする能力を持つようになった場合、人類にとって存亡の危機になりかねないとヒントンは警告しています。

AIの父が私たちに問いかけること

ヒントンの行動は、科学者の社会的責任とは何かという深い問いを投げかけています。核物理学の父と呼ばれるロバート・オッペンハイマーが、原子爆弾の開発後にその危険性を訴えたことと重ねて語られることもあります。

ヒントンは、AI開発を止めるべきだとは言っていません。AIがもたらす医療、科学、教育などの分野での恩恵は計り知れないからです。しかし、AIの安全性研究にもっと多くの資源を投入すべきだと主張しています。

50年以上をかけて育てた技術が、人類にとって最大の恩恵にも最大の脅威にもなり得る。そのことを誰よりも深く理解しているのがジェフリー・ヒントンです。彼の警告を、私たちはどう受け止め、どう行動するのか。それは今を生きる私たち全員に問われている課題です。

▼ AIの可能性と限界を自分の目で確かめよう

まずは無料で試してみましょう。

AIと資産運用を組み合わせたい方へ

プロ厳選の注目銘柄をチェック

※広告・PR

タイトルとURLをコピーしました