- 博客(8)
- 资源 (1)
- 收藏
- 关注
原创 opencv获得视频时长
import cv2 cap = cv2.VideoCapture(file_path.encode('utf-8')) # file_path是文件的绝对路径,防止路径中含有中文时报错,需要解码 if cap.isOpened(): # 当成功打开视频时cap.isOpened()返回True,否则返回False # get方法参数按顺序对应下表(从0开始编号) rate = ca...
2020-04-21 09:54:52
1307
原创 tensorflow中的一些函数
两个loss函数 tf.nn.sparse_softmax_cross_entropy_with_logits () logits.shape:[batch_size, num_classes] labels.shape:[batch_size, num_classes] tf.nn.softmax_cross_entropy_with_logits_v2() logits.shape:[b...
2020-03-22 17:09:45
160
原创 tf.train.Example()
def read_file(file_name): outputs = [] with open(file_name, 'r') as f: for line in f: outputs.append(line.strip()) return outputs def create_tfrecord(outputs, out_file)...
2020-02-17 14:31:25
278
原创 重新安装anaconda及tensorflow
1. anaconda创建tensorflow1.14环境 conda create --name tensorflow python=3.6 2. 激活环境,指定源安装tensorflow: pip install tensorflow==1.14 -i https://pypi.tuna.tsinghua.edu.cn/simple 3. 在激活TensorFlow之后安装ipyt...
2020-01-30 14:03:10
963
原创 course 2 week2
深度学习需要大量的样本来训练网络,所以需要一些优化算法来提高训练速度,之前用的方法:向量化,X=[x1, x2,…, xm],当m很大时,比如500万,训练起来依旧会很慢,所以有了下面的方法 mini-batch gradient descent 将整个训练集m(假设为500万)分为一个个小的mini-batch,每个mini-batch有1000个样本,这个时候我们有了5000个mini-...
2019-09-05 17:52:20
120
原创 np.random.randn()和np.random.rand()的区别
np.random.randn():从标准正态分布中返回一个或多个值 np.random.rand():从 [ 0, 1 ) 中返回随机值 代码: a_randn = np.random.randn(1,10) print("a_randn: ") print(a_randn) print(’-----------------------------------------------------...
2019-09-01 22:51:15
1622
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人