线性回归(linear regression)是利用数理统计和归回分析,来确定两种或两种以上变量间相互依赖的定量关系的一种统计分析方法。与之前的分类问题( Classification )不一样的是,分类问题的结果是离散型的;而回归问题中的结果是连续型(数值)的。

数据特征

数理统计中,常用的描述数据特征的有:

  1. **均值(mean):**又称平均数或平均值,是计算样本中算术平均数:
    <mover accent="true"> x </mover> = <munderover> i = 1 n </munderover> x i n \overline{x} = \frac{\sum_{i=1}^{n}x_i}{n} x=ni=1nxi

  2. **中位数(median):**将数据中的各个数值按照大小顺序排列,居于中间位置的变量。当n为基数的时候:直接取位置处于中间的变量;当n为偶数的时候,取中间两个量的平均值。

  3. **众数(mode):**数据中出现次数最多的数。

  4. **方差( variance ):**一种描述离散程度的衡量方式:

s 2 = <munderover> i = 1 n </munderover> ( x i <mover accent="true"> x </mover> ) 2 n 1 s^2 = \frac{\sum_{i=1}^{n}(x_{i}-\overline{x})^2}{n-1} s2=n1i=1n(xix)2

  1. **标准差 (standard deviation) ?*将方差 s 2 s^2​ s2开方就能得到标准差。

简单线性回归

算法

简单线性回归(Simple Linear Regression ),,也就是一元线性回归,包含一个自变量x 和一个因变量y 。常被用来描述因变量(y)和自变量(X)以及偏差(error)之间关系的方程叫做回归模型,这个模型是:
y = β 0 + β 1 x + ϵ y = \beta_0 + \beta_1x + \epsilon y=β0+β1x+ϵ
其中偏差 ϵ \epsilon ϵ 满足正态分布的。因此它的期望值是 0 。 ϵ \epsilon ϵ 的方差(variance)对于所有的自变量 x 是一样的。

等式两边求期望可得:

E ( y ) = β 0 + β 1 x E(y) = \beta_0 + \beta_1x E(y)=β0+β1x
其中,β0 是回归线的截距,β1 是回归线的斜率,E(y) 是在一个给定 x 值下 y 的期望值(均值)。

假设我们的估值函数(注意,是估计函数):
<mover accent="true"> y ^ </mover> = b 0 + b 1 x \widehat{y} = b_0 + b_1x y =b0+b1x
b0是估计线性方程的纵截距,b1是估计线性方程的斜率,ŷ是在自变量x等于一个给定值的时候,y的估计值。b0和b1是对β0和β1的估计值。

线性回归的分析流程

如何寻找最佳回归线


寻找的回归方程,要求与真实值的离散程度是最小的:

m i n <munderover> i = 0 n </munderover> ( y i <mover accent="true"> y ^ </mover> ) 2 min\sum_{i=0}^{n}(y_{i}-\widehat {y})^2 mini=0n(yiy )2
b 1 = ( x i <mover accent="true"> x </mover> ) ( y i <mover accent="true"> y </mover> ) ( x i <mover accent="true"> x </mover> ) 2 b_1 = \frac{\sum(x_{i}-\overline{x})(y_{i}-\overline{y})}{\sum(x_{i}-\overline{x})^2} b1=(xix)2(xix)(yiy)
b 0 = <mover accent="true"> y </mover> b 1 <mover accent="true"> x </mover> b_0 = \overline{y} - b_1\overline{x} b0=yb1x

上面方法类似于数值分析中的最小二乘法,详细推导可见https://zh.wikipedia.org/wiki/最小二乘法

代码实例

#简单现行回归:只有一个自变量 y=k*x+b 预测使 (y-y*)^2 最小
import numpy as np

def SLR(x:list,y:list):
    n =len(x)
    fenzi = 0
    fenmu = 0
    #按照上面推导的公式计算出估计回归方程中的b0,b1
    for i in range(n):
        fenzi += (x[i]-np.mean(x)) * (y[i]-np.mean(y))
        fenmu += (x[i]-np.mean(x)) **2
    #print("fenzi: " + str(fenzi))
    #print("fenmu: " + str(fenmu))
    b1 = fenzi/fenmu  # 斜率
    b0 = np.mean(y) - b1 * np.mean(x) # 截距
    return b0,b1

#测试
def predict(x,b0,b1):
    return b0 + b1*x

if __name__ == "__main__":
    x = [1,3,2,1,3]
    y = [14,24,18,17,27]
    b0,b1 = SLR(x,y)
    y_predict = predict(6,b0,b1)
    print("y_predict: " + str(y_predict))

多元线性回归

算法

当自变量有多个时,回归模型就变成了:

E ( y ) = β 0 + β 1 x 1 + . . . + β n x n E(y) = \beta0 + \beta_1x_1 +...+\beta_nx_n E(y)=β0+β1x1+...+βnxn
估值函数的自变量也变多:
<mover accent="true"> y ^ </mover> = b 0 + b 1 x 1 + b 2 x 2 + . . . + b n x n \widehat {y} = b_0 + b_1x_1+ b_2x_2+...+b_nx_n y =b0+b1x1+b2x2+...+bnxn
令矩阵:

函数可以转换为:
h ( x ) = B T X h(x) = B^TX h(x)=BTX
如果有训练数据:
D = ( x ( 1 ) , y ( 1 ) ) , ( x ( 2 ) , y ( 2 ) ) , . . . , ( x ( m ) , y ( m ) ) , D = (x^{(1)},y^{(1)}),(x^{(2)},y^{(2)}),..., (x^{(m)},y^{(m)}), D=(x(1),y(1)),(x(2),y(2)),...,(x(m),y(m)),
损失函数( cost function ),寻找的目标函数应该尽可能让损失函数小,这个损失函数为:
J ( B ) = 1 2 m <munderover> i = 1 m </munderover> ( h ( x ( i ) ) y ( i ) ) 2 = 1 2 m ( X B y ) T ( X B y ) J(B) = \frac{1}{2m}\sum_{i=1}^{m}(h(x^{(i)})-y^{(i)})^2 = \frac{1}{2m}(XB-y)^T(XB-y) J(B)=2m1i=1m(h(x(i))y(i))2=2m1(XBy)T(XBy)
目的就是求解出一个使得代价(损失)函数最小的 B。

利用梯度下降求解估值函数
梯度下降算法是一种求局部最优解的方法,详见https://www.cnblogs.com/pinard/p/5970503.html ,今后的博客也会详细介绍。B 由多个元素组成,对于损失函数可以求偏导如下:

B j = 1 m <munderover> i = 1 m </munderover> ( h ( x ( i ) ) y ( i ) ) x j ( i ) \frac{\partial}{\partial{B_j}} = \frac{1}{m}\sum_{i=1}^{m}(h(x^{(i)})-y^{(i)})x_{j}^{(i)} Bj=m1i=1m(h(x(i))y(i))xj(i)
更新B:
B j = B j α B j J ( B ) B_{j} = B_{j} - \alpha\frac{\partial}{\partial{B_j}}J(B) Bj=BjαBjJ(B)
其中α 表示学习率,决定了在梯度下降迭代的过程中,每一步沿梯度负方向前进的长度。

最小二乘法求解估值函数
多元多项式的情况一样可以利用最小二乘法来进行求解,将m条数据都带入估值函数可以得到线性方程组:

向量化后可以表示为:

我们要让
<munderover> i = 1 m </munderover> = ( y i <mover accent="true"> y ^ </mover> ) 2 \sum_{i=1}^{m} = (y_i-\widehat{y})^2 i=1m=(yiy )2
的值最小,则系数矩阵中,各个参数的偏导的值都会0,因此可以得到 n 个等式:

得到正规方程组:

写成矩阵表示为:
X T X B = X T Y X^TXB = X^TY XTXB=XTY
解得:
B = ( X T X ) 1 X T Y B = (X^TX)^{-1}X^TY B=(XTX)1XTY

代码实例

本部分我们会用2种方式实现多元线性回归(Multiple Linear Regression ),一种是sklearn库包中自带的方法,一种是我们依据最小二乘法实现的求解方法。
应用实例:
一家快递公司送货:X1: 运输里程 X2: 运输次数 Y:总运输时间
将其数据存储为csv文件如下:

sklearn实现

from numpy import genfromtxt
from sklearn import linear_model

datapath = 'G:/PycharmProjects/Machine_Learning/Linear_Regression/data1.csv'
data = genfromtxt(datapath,delimiter=',')
x = data[:,:-1]
y = data[:,-1]
# print(x)
# print(y)

mlr = linear_model.LinearRegression()
mlr.fit(x,y)

# print (mlr)
# print ("coef: " + str(mlr.coef_) )
# print ("intercept: " + str(mlr.intercept_))

x_predict = [50,3]
y1_predict = mlr.predict([x_predict])
print("y_predict: " + str(y1_predict))
#output [4.95830457]

最小二乘法实现

import numpy as np
from numpy import genfromtxt

class MyLinearRegression(object):
    def __init__(self):
        self.b = []

    def fit(self, x: list, y: list):
        # 为每条训练数据前都添加 1
        tmpx = [[1] for _ in range(len(x))]
        for i, v in enumerate(x):
            tmpx[i] += v

        x_mat = np.mat(tmpx)
        y_mat = np.mat(y).T
        xT = x_mat.T
        self.b = (xT * x_mat).I * xT * y_mat

    def predict(self, x):
        return np.mat([1] + x) * self.b

datapath = 'G:/PycharmProjects/Machine_Learning/Linear_Regression/data1.csv'
data = genfromtxt(datapath,delimiter=',')
x = data[:,:-1]
y = data[:,-1]

test_row = [50, 3]
linear = MyLinearRegression()
linear.fit(x, y)
print(linear.predict(test_row))
#output[ 4.95830457]

补充:
上面实例中,x的特征都是连续数值,如果有离散型的特征(车型),我们可以采取如下方法,将车型特征进行one-hot编码,代码不需要变化。

参考资料
多元线性回归及其优化算法
多元线性回归分析理论详解