F-nameのブログ

はてなダイアリーから移行し、更に独自ドメイン化しました。

単純パーセプトロンとAIの起源(AIシステムと人・社会との関係第1回)#放送大学講義録

ーーーー講義録始めーーーー

 

ディープラーニングの起源と単純パーセプトロン

現代のAI技術を支えるディープラーニングは、多層ニューラルネットワークを基盤としています。しかし、その研究の起源は、1958年にフランク・ローゼンブラットによって提案された単純パーセプトロンにさかのぼります。この研究はニューラルネットワークの原点とされ、多くの研究者が参入する新しい分野を切り開きました。


単純パーセプトロンの構造と動作

単純パーセプトロンは、以下の要素で構成されています(印刷教材図1.10参照):

  • 入力値(x₁, x₂, x₃):特徴量を表します。
  • 重み(w₁, w₂, w₃):各入力に割り当てられる重み。
  • 閾値(θ):判定の基準値。

計算プロセスは次の通りです:

  1. 入力値 x1,x2,x3x₁, x₂, x₃ に重み w1,w2,w3w₁, w₂, w₃ を掛けた総和を計算します: f(x)=(x1w1)+(x2w2)+(x3w3)
  2. 総和 f(x)f(x) と閾値 θθを比較します:
    • f(x)θf(x) \geq θ の場合、出力は1。
    • f(x)<θf(x) < θ の場合、出力は0。

このシンプルなモデルで、データを分類することが可能です。


具体例:猫とその他の動物の判別

印刷教材図1.10に基づく具体例を以下に示します。ここでは、「猫」と「猫以外の動物」を分類する単純パーセプトロンを考えます:

  • 特徴量:
    • x1x₁:ヒゲの長さ(cm)
    • x2x₂:耳の長さ(cm)
    • x3x₃:顎の長さ(cm)
  • 重み:
    • w1=0.3,w2=0.2,w3=0.5w₁ = 0.3, w₂ = 0.2, w₃ = 0.5
  • 閾値:θ=7θ = 7

データ例

  1. データ1(猫)x1=10,x2=4,x3=10x₁ = 10, x₂ = 4, x₃ = 10

    f(x)=(100.3)+(40.2)+(100.5)=8.8f(x)=8.87f(x) = 8.8 \geq 7 のため、「猫」と判定。
  2. データ2(猫以外の動物)x1=6,x2=2,x3=5x₁ = 6, x₂ = 2, x₃ = 5

    f(x)=(60.3)+(20.2)+(50.5)=4.7

    f(x)=4.7<7f(x) = 4.7 < 7 のため、「猫以外」と判定。

このように、特徴量を数値化し、重みと閾値を設定することでデータを分類します。


学習プロセスと応用

単純パーセプトロンは誤った判定を行う場合があります。その際、**重み(w₁, w₂, w₃)**を調整することで判定精度を向上させます。この調整を繰り返すプロセスが学習であり、ニューラルネットワーク研究の基礎を築く重要なステップとなりました。


ニューラルネットワークの発展

単純パーセプトロンの提案により、ニューラルネットワークは記号主義AIとは異なる新しい研究分野として認識され、1960年代にブームを迎えました。その後、単純パーセプトロンでは解けない問題が指摘されるようになり、多層構造を持つディープラーニングへと進化しました。