根据矩阵的投影,machine learning中的normal equation算法想法在于n个样本的y所组成的向量是否在nm这一矩阵中也就是说是否在这m个n维向量的column space中。显然很大概率是不在的,那么我们将y向量的投影当做对y的近似,这时对m个n维向量的组合方式就是我们想要的theta的值。