パーセプトロンの実装

数値例用のデータセット作成

In [1]:
%matplotlib inline
import numpy as np
import pandas as pd
import matplotlib.pyplot as plt
In [2]:
# シードを固定して再現性の確保
np.random.seed(0)
In [3]:
x1 = np.random.randn(100, 2)
x1 = x1 - 3
x2 = np.random.randn(100, 2)
x2 = x2 + 3

データはプロットして確認するとミスを防げます。

In [4]:
plt.scatter(x1[:, 0], x1[:, 1], label='x1')
plt.scatter(x2[:, 0], x2[:, 1], label='x2')
plt.legend()
Out[4]:
<matplotlib.legend.Legend at 0x28dfa856a90>
../_images/src_03_perceptron_6_1.png

教師データ作成

In [5]:
# 1 0r -1 のラベルを付ける
t1 = [1] * len(x1)
t2 = [-1] * len(x2)
In [6]:
# 縦向きに連結
x = np.r_[x1, x2]
t = np.r_[t1, t2]
In [7]:
x.shape
Out[7]:
(200, 2)
In [8]:
t.shape
Out[8]:
(200,)

CSVファイルにデータセットを保存

In [9]:
# バイアス項も考慮して、すべてが1の列x0も追加
df = pd.DataFrame({
    'x0': [1] * len(x),
    'x1': x[:, 0],
    'x2': x[:, 1],
    't': t
})
In [10]:
# 先頭3件
df.head(3)
Out[10]:
t x0 x1 x2
0 1 1 -1.235948 -2.599843
1 1 1 -2.021262 -0.759107
2 1 1 -1.132442 -3.977278
In [11]:
# 末尾3件
df.tail(3)
Out[11]:
t x0 x1 x2
197 -1 1 2.708163 2.238508
198 -1 1 3.857924 4.141102
199 -1 1 4.466579 3.852552

Pandasでは簡単にCSVファイルへ保存することができます。引数でindex_labelFalseにしておかないと、一番左の行番号まで入ってしまうので注意です。

In [12]:
df.to_csv('sample_perceptron.csv', index_label=False)

データの読み込み

今回は必要ありませんが、データの受け渡しがあった前提で読み込みも行いましょう。

In [13]:
df = pd.read_csv('sample_perceptron.csv')
In [14]:
df.head()
Out[14]:
t x0 x1 x2
0 1 1 -1.235948 -2.599843
1 1 1 -2.021262 -0.759107
2 1 1 -1.132442 -3.977278
3 1 1 -2.049912 -3.151357
4 1 1 -3.103219 -2.589401
In [15]:
t = df.iloc[:, 0].values
X = df.iloc[:, 1:].values

プロット用に各カテゴリのデータも抽出しておきましょう。

In [16]:
x_1 = df[df['t'] == 1].iloc[:, 2:].values
x_2 = df[df['t'] == -1].iloc[:, 2:].values

データの可視化

パラメータ\(w\)の調整に入る前に、現状どの程度の識別の結果が得られているのか確認できるような可視化の関数を作成しておきましょう。

パーセプトロンでは識別の境界線を入力が二次元の場合、以下のように定式化しています。

\(w_{1}x_{1} + w_{2}x_{2} + w{0} = 0\)

縦軸\(x2\)に関して整理すると以下のようになります。

\(x_{2} = - \dfrac{w_{1}x_{1} + w_{0}}{w_{2}}\)

In [17]:
w = np.array([[0], [-1], [1]])
print(w)
[[ 0]
 [-1]
 [ 1]]
In [18]:
x1 = np.linspace(-4, 4)
x2 = - (w[1] * x1 + w[0]) / w[2]
In [19]:
x1[:10]
Out[19]:
array([-4.        , -3.83673469, -3.67346939, -3.51020408, -3.34693878,
       -3.18367347, -3.02040816, -2.85714286, -2.69387755, -2.53061224])
In [20]:
x2[:10]
Out[20]:
array([-4.        , -3.83673469, -3.67346939, -3.51020408, -3.34693878,
       -3.18367347, -3.02040816, -2.85714286, -2.69387755, -2.53061224])
In [21]:
plt.plot(x1, x2, label='wx+b=0')
plt.scatter(x_1[:, 0], x_1[:, 1], label='x1')
plt.scatter(x_2[:, 0], x_2[:, 1], label='x2')
plt.legend()
# 最大値と最小値の領域も追加
plt.xlim([-5, 5])
plt.ylim([-5, 5])
Out[21]:
(-5, 5)
../_images/src_03_perceptron_29_1.png

こちらのように可視化ができました。今の重みだと全然分類がうまくできていないことがわかります。そのため、パラメータを調整していくことで、うまく識別ができるかをこの後に確認していきましょう。

また、最後にプロットを行う関数にひとまとめにしておきましょう。

In [22]:
def plot_result(w, x_1, x_2):

    x1 = np.linspace(-4, 4)
    x2 = - (w[1] * x1 + w[0]) / w[2]

    plt.plot(x1, x2, label='wx+b=0')
    plt.scatter(x_1[:, 0], x_1[:, 1], label='x1')
    plt.scatter(x_2[:, 0], x_2[:, 1], label='x2')
    plt.legend()
    plt.xlim([-5, 5])
    plt.ylim([-5, 5])
In [23]:
plot_result(w, x_1, x_2)
../_images/src_03_perceptron_32_0.png

損失関数の計算

まずは損失関数の定義から行いましょう。

ヒンジ損失関数

\(\displaystyle \mathcal{L} = \sum_{n=1}^{N} \max (0, -t_{n}y_{n})\)

ポイントとしては、各サンプルごとに計算できるようにしておきましょう。ここで気を付ける点として、\(x\)が数学上は縦向きのベクトルで扱いますが実装上はXの各行に格納されているため、横向きのベクトルになります。無理やり縦向きにしても良いのですが、\(x^{T}w\)のような計算のケースだと横向きのまま扱って、np.dot(x, w)としてしまう方が楽です。

In [24]:
def hinge(t, x, w):
    y = np.dot(x, w)
    return max(0, -t * y)

関数の定義ができれば、まず動作するかの確認を行いましょう。

In [25]:
x = X[0]
print(x)
[ 1.         -1.23594765 -2.59984279]
In [26]:
_t = t[0]
print(_t)
1
In [27]:
hinge(_t, x, w)
Out[27]:
array([1.36389514])

このように動作できることを確認しました。

損失関数の勾配を計算

次は損失関数の勾配 \(\dfrac{\partial}{\partial w} \mathcal{L}\) を計算する関数を定義していきましょう。

In [28]:
def grad_loss(t, X, w):

    # 勾配を格納するゼロベクトルを初期化
    grad = np.zeros((1, len(w)))

    for (_t, x) in zip(t, X):
        loss = hinge(_t, x, w)
        # 不正解の時は足し合わせる
        if loss > 0:
            grad += - _t * x

    return grad.T

損失関数の勾配も同様に確認していきます。

In [29]:
grad = grad_loss(t, X, w)
print(grad)
[[  5.        ]
 [225.81531709]
 [332.56056004]]

最急降下法を実装

最急降下法に基づきパラメータを更新する関数 update を作成しましょう。alphaはハイパーパラメータとしてデフォルトの値を設定しておくと便利です。

\(w \leftarrow w - \alpha \dfrac{\partial}{\partial w} \mathcal{L}\)

In [30]:
def update(w, grad, alpha=0.001):
    w = w - alpha * grad
    return w

パラメータ更新の様子を確認

まずは初期値を設定します。

In [31]:
np.random.seed(100)
In [32]:
w = np.array([[0], [-1], [1]])
print(w)
[[ 0]
 [-1]
 [ 1]]
In [33]:
plot_result(w, x_1, x_2)
../_images/src_03_perceptron_48_0.png

初期値では全然うまく分類できておらず、下記の3手順を繰り返しながらパラメータの更新を行っていきましょう。

  • 損失関数の勾配を計算
  • パラメータのアップデート
  • 結果の可視化

更新1回目

In [34]:
grad = grad_loss(t, X, w)
w = update(w, grad)
print('grad:\n', grad)
print('w:\n', w)
plot_result(w, x_1, x_2)
grad:
 [[  5.        ]
 [225.81531709]
 [332.56056004]]
w:
 [[-0.005     ]
 [-1.22581532]
 [ 0.66743944]]
../_images/src_03_perceptron_50_1.png

更新2回目

In [35]:
grad = grad_loss(t, X, w)
w = update(w, grad)
print('grad:\n', grad)
print('w:\n', w)
plot_result(w, x_1, x_2)
grad:
 [[ 4.        ]
 [37.07200501]
 [94.28825842]]
w:
 [[-0.009     ]
 [-1.26288732]
 [ 0.57315118]]
../_images/src_03_perceptron_52_1.png

100回更新する

In [36]:
for i in range(100):
    grad = grad_loss(t, X, w)
    w = update(w, grad)
In [37]:
w
Out[37]:
array([[-0.039     ],
       [-1.34672437],
       [ 0.13553265]])
In [38]:
grad
Out[38]:
array([[0.],
       [0.],
       [0.]])
In [39]:
plot_result(w, x_1, x_2)
../_images/src_03_perceptron_57_0.png

実際にパーセプトロンのアルゴリズムによって境界を決める識別線を求めることができました。