向量化

注,本文是在学习吴恩达老师(Andrew Ng)网易公开课课程的的学习总结和理解,希望与君共勉!

先看一个例子

       import numpy as np

       import time

a = np.random.rand(1000000)
b = np.random.rand(1000000)
tic = time.time()
c = np.dot(a,b)
toc = time.time()
print("Vectorized version:" + str(1000*(toc-tic))+"ms" + " c =" + str(c) )
c = 0
tic = time.time()
for i in range(1000000):
    c += a[i]*b[i]
toc = time.time()
print("For loop:" + str(1000*(toc-tic))+"ms" + " c =" + str(c) ) 

执行结果:

Vectorized version:3.00002098083ms c =250202.521816
For loop:653.000116348ms c =250202.521816



从执行结果来看向量化的程序运行速度要比非向量化的程序块250倍左右,为什么是向量化的程序运行速度会快很多呢?


可扩展深度学习是在GPU上做的,但是GPU和CPU都含有并行化指令有时也叫SIMD(single instruction multiple data)指令。如果你使用这样的内置函数np.dot 或者np.functions,或者其它能让你去掉显式for循环的函数,这样python的numpy能够充分利用并行化能更加快速的计算这点对GPU和CPU上面计算都是成立的,GPU更加擅长SIMD计算但是CPU实际上也不差,
只是没有GPU擅长而已。
实际编程的法则是只要有可能就不能显式的使用for循环。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值