Vectorization for Logistic Regression Gradient

本文对比了使用向量化操作和for循环在Logistic回归中的性能差异,通过实例演示了向量化如何显著加速计算过程,特别是在大规模数据集上的表现。文章还深入探讨了向量化在Logistic回归梯度计算中的应用,展示了如何利用np.dot等内置函数优化计算,减少循环使用,提高代码执行速度。

使用内置函数通常要比使用for循环更快,所以能不用for循环就不要用!

1.Vectorization for logistic regression

import numpy as np
import time

w = np.random.rand(1000000)
x = np.random.rand(1000000)

#Vectorization version
tic = time.time()
z = np.dot(w,x)
toc = time.time()
print(z)
print("Vectorization :" + str(100*(toc-tic)) + "ms")

#loop version
z = 0
tic = time.time()
for i in range(1000000):
    z += w[i]*x[i]
toc = time.time()
print(z)
print("Loop: " + str(100*(toc-tic)) + "ms")

result:

250025.05451000776
Vectorization :0.07700920104980469ms
250025.05451001957
Loop: 62.82768249511719ms

以下这些内置函数对每个元素进行操作,避免了for循环

  • np.exp(V)
  • np.log(V)
  • np.abs(V)
  • np.maxinum(V,0)
  • V**2
  • 1/V

在这里插入图片描述

  • 向量化将两个循环简化为一个循环,剩下一个循环是对m个样本的遍历。
    在这里插入图片描述

  • 将样本作为一个矩阵X输入,则没有显式for循环
    b是实数,广播b给每个向量
    Z= np.dot(w.T,X)+b

2.Vectorizing Logistic Regression’s Gradient Computation

向量化计算m个训练数据的梯度(同时计算)

  • dz,dw,db的计算过程如下:
    在这里插入图片描述
    在这里插入图片描述
    dz(i)=a(i)−y(i)dz^{(i)}=a^{(i)}-y^{(i)}dz(i)=a(i)y(i)
    dw=x(i)(a(i)−y(i))=x(i)dz(i)dw=x^{(i)}(a^{(i)}-y^{(i)})=x^{(i)}dz^{(i)}dw=x(i)(a(i)y(i))=x(i)dz(i)
    db=a−y=dzdb=a-y=dzdb=ay=dz

  • 可以用这种方式对反向传播进行向量化:
    在这里插入图片描述


最后没有显式使用for循环实现了一次梯度下降,但是如果要实现多次迭代,那么还是需要循环的。
在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值