Blog

【AIの歴史7】ニューラルネットワークの再評価:ブレインの模倣から深層学習へ

  • AI
  • AIの歴史

AIの歴史は、時に冬の時代を経て、忘れ去られた技術が再評価されるというドラマを繰り返してきました。その最たる例が、人間の脳の構造を模倣したニューラルネットワーク(Neural Network)です。

ニューラルネットワークのアイデアは、1940年代にウォーレン・マカロックとウォルター・ピッツが神経細胞のシンプルなモデルを提唱したことに遡ります。彼らは、神経細胞が電気信号を受け取り、閾値を超えると発火するというメカニズムを数学的にモデル化しました。

1958年には、フランク・ローゼンブラットが、このモデルを元にした最初のニューラルネットワークである「パーセプトロン(Perceptron)」を開発しました。パーセプトロンは、パターン認識(例えば、特定の図形を認識する)に成功し、AI研究に大きな期待を抱かせました。しかし、1969年にマービン・ミンスキーとシーモア・パパートが著書『Perceptrons』の中で、パーセプトロンが単純な論理演算(XOR問題)すら解けないことを数学的に証明しました。この指摘は、ニューラルネットワーク研究にとって大きな打撃となり、研究資金が途絶えるなど、「最初のAIの冬」の一因となりました。

その後、1980年代に入ると、この停滞を打ち破るブレイクスルーが訪れます。ポール・ワーボスが「バックプロパゲーション(誤差逆伝播法)」アルゴリズムを再発見し、デビッド・ルーメルハートらがその重要性を広めました。バックプロパゲーションは、多層のニューラルネットワーク(多層パーセプトロン)において、出力層の誤差を逆方向に伝播させながら各層の重みを調整することで、より複雑な問題も学習できることを示しました。これにより、ニューラルネットワークは再び脚光を浴び始めます。

しかし、当時の計算能力の限界や、大量の訓練データが不足していたこと、そして「勾配消失問題」と呼ばれる深い層での学習の難しさなどから、ニューラルネットワークは依然としてその真の能力を発揮できませんでした。

状況が劇的に変化したのは、2000年代後半から2010年代にかけてです。

  • 計算能力の向上: グラフィックス処理装置(GPU)の登場により、ニューラルネットワークの計算を高速に実行できるようになりました。
  • ビッグデータの出現: インターネットの普及により、画像、音声、テキストといった大量のデータが利用可能になりました。
  • 新たな学習アルゴリズムと技術: 制限ボルツマンマシン(RBM)による事前学習や、ドロップアウトなどの正則化手法、ReLUなどの活性化関数の発見が、深いニューラルネットワークの学習を可能にしました。

これらの要素が組み合わさることで、「ディープラーニング(深層学習)」という新たなフェーズが幕を開けます。2012年の画像認識コンペティションILSVRCで、ジェフリー・ヒントン率いるチームがディープラーニングモデル「AlexNet」を用いて圧倒的な性能を示したことは、その後のAIの歴史を決定づける出来事となりました。

ニューラルネットワーク、特にディープラーニングの復権は、画像認識、音声認識、自然言語処理など、AIの多くの分野に革命をもたらしました。かつては不可能と思われたタスクが次々とクリアされ、AIは再び社会の中心的な技術として注目されるようになったのです。

業務効率化、AI導入支援、AI人材育成、AI戦略策定コンサルティング、補助金・助成金活用支援はAIパートナーズ合同会社にお任せください!