AI入門AI入門

YSEトップAI入門 / 第3回 機械学習(回帰)

第3回 機械学習(回帰)

機械学習(回帰)

前回は「機械学習」について話をしました。「教師あり学習」「教師なし学習」「強化学習」の3つに分類することができ、AIが進化していくことが分かりました。今回は「機械学習」を実現するためにどんな方法があるのかについて紹介をします。

皆さんも何かしら問題にぶつかった時、どうやって解決しようかと考えることがあると思います。過去と同じ問題に直面したときには、あの時はああやって解決したな…と思い出して同じ行動をとりますね。プログラムの世界では問題を解決するための手順を表現したものをアルゴリズムと言います。もちろん機械学習にもアルゴリズムがあり、現在も研究がすすめられています。回帰、決定木、ベイズ、クラスタリング、ニューラルネットワーク、深層学習、アンサンブルと分類方法のアルゴリズムが多岐にわたっています。今回は回帰による分類について話をします。

回帰とは一般的に元の位置や状態に戻るということですが、ここでは回帰分析という意味です。多くのデータから傾向を調べ、お互いがどのような関係であるかの予想式を求めます。同じ状況で、新たなデータに出会ったときや将来の予測をするときに予想式をもとに結果を予測することになります。身近な例で言うと、数学の一次関数や二次関数のようなものです。

この予想式を使って、式より上だとAグループ、下だとBグループといったように分類していきます。しかし、データの入力と出力が1対1の関係であれば簡単に求めることができますが、実際にはいろいろなことが絡み合っているのでとても複雑になってきます。そのなかで開発されたのがサポートベクターマシン(SVM)で、現在でも比較的多く使われています。このサポートベクターマシンはAIの第一次ブームに開発され、第二次ブームのときに改良されました。この改良されたサポートベクターマシンがとても優れていて、いろいろなデータに対しても対応できたため、当時はサポートベクターマシン一色になったそうです。

教師あり学習

このサポートベクターマシンは前回説明をした「教師あり学習」の仲間で、データをもとにAグループ、Bグループと分けていきます。このグループ分けするときに「マージン最大化※」になるように式を決めます。これはグループ間の中間に線を引く感じです。感覚的には当たり前ですが、他の手法だとできなかったりします。あとは直線でしかグループ分けができなかったものを、「カーネル関数」を使って曲線でもできるようになり、どのようなデータも分類できるようになりました。

今回はサポートベクターマシンについて大まかに話をしましが、実際はとても奥が深いです。もし興味が湧いたら調べてみてください。


「YSeye14号」掲載