線形回帰のまとめ(その1、数式で解く)
こんにちは、デジタルイノベーターのTakum!です!
Googleさんに粋なお祝いをしていただきました。Google Mapのストリートビューに立つ人間のアイコンがパーティーモードになりました。時差の関係で翌日の今日気づいたのですが。こういう遊び心は好きです。ちなみに昨日は特別なこともなく普通に酔っぱらって寝ました。はい。
さて、AIを謳っておきながら日常の多忙にかまけてろくなブログ書いていませんでしたが、たまにはきちんと理論をまとめておきたいなと思い、重い腰を上げました。今日は、機械学習の基本中の基本、「線形回帰」についてまとめたいと思います。
xy平面に散らばった点を直線で近似しようというのが線形回帰。やりたいことは下のグラフみたいなことです。各点と直線との間の誤差が最小になる直線を求めます。誤差はyの差の二乗で考えます(最小二乗法)。
Googleさんに粋なお祝いをしていただきました。Google Mapのストリートビューに立つ人間のアイコンがパーティーモードになりました。時差の関係で翌日の今日気づいたのですが。こういう遊び心は好きです。ちなみに昨日は特別なこともなく普通に酔っぱらって寝ました。はい。
誕生日のストリートビューのアバターはパーティー! |
さて、AIを謳っておきながら日常の多忙にかまけてろくなブログ書いていませんでしたが、たまにはきちんと理論をまとめておきたいなと思い、重い腰を上げました。今日は、機械学習の基本中の基本、「線形回帰」についてまとめたいと思います。
はじめに、線形回帰とは?
xy平面に散らばった点を直線で近似しようというのが線形回帰。やりたいことは下のグラフみたいなことです。各点と直線との間の誤差が最小になる直線を求めます。誤差はyの差の二乗で考えます(最小二乗法)。
考え方
さて、ここからはLaTEXの数式がきれいに貼れないので画像で勝負します。。。
まずは、数式で解く
となります。どこかで見たことがあるような、美しいような美しくないような微妙な形をしていますね。