- 博客(7)
- 收藏
- 关注
原创 听来的一个段子
有后选后,无后选前,无后无前,算法也甜,条件允许,无脑后端,前途无量,预定高管,其次前端,需求频繁,温饱有余,人上人难,算法数据,收入可观,最好硕博,高端饭碗,测试开发,也可一战,随手一点,月入过万,走投无路,回家种田,日出日落,生活美满,鬼迷心窍,来客户端,表面繁荣,实则内卷,工作清闲,面试火箭,不到三年,全部玩完,65在后,绿帽在前,苦口婆心,金玉良言,奉劝诸位,擦亮双眼,有则改之,无则加勉...
2021-07-18 22:28:35
214
原创 无法从静态上下文中引用非静态变量、方法
原文见:https://blog.youkuaiyun.com/wen_binobject/article/details/84957301?ops_request_misc=%257B%2522request%255Fid%2522%253A%2522162660383716780269876219%2522%252C%2522scm%2522%253A%252220140713.130102334..%2522%257D&request_id=162660383716780269876219&biz
2021-07-18 18:28:38
464
原创 静态变量和普通变脸的区别
1静态变量和普通变量静态变量和普通变量在内存中的存储位置是严格区分开的,以保证使用静态变量的效率.静态变量:是应用程序级别的变量,它的生命周期是整个应用程序的生命周期,所有的会话都可以访问的变量,在程序结束后才释放内存空间普通变量:它只是在当前会话有效,在离开会话、或者页面后,它就无效,空间也会被自动的释放。2.静态局部变量和普通局部变量普通局部变量在定义它的函数内有效,函数执行后自动释放空间下一次调用时会被重新分配;静态局部变量只在定义它的函数内有效,只是程序仅分配一次内存,函数返回后
2021-07-18 18:26:19
669
原创 吴恩达深度学习笔记2 python与向量化
1 深度学习算法中,数据量很大,在程序中应该尽量减少使用loop循环语句,多使用向量运算来提高程序运行速度。向量化(Vectorization)就是利用矩阵运算的思想,大大提高运算速度。为了加快深度学习神经网络运算速度,可以使用比CPU运算能力更强大的GPU。事实上,GPU和CPU都有并行指令(parallelization instructions),称为Single Instruction Multiple Data(SIMD)。SIMD是单指令多数据流,能够复制多个操作数,并把它们打包在大型寄存.
2021-07-12 20:41:16
175
原创 吴恩达深度学习笔记1
学习笔记11 什么是神经网络2 逻辑回归2.1 激活函数:sigmoid2.2 loss function:衡量错误大小,当然越小越好1) L(y^,y)=12(y^−y)2 这个函数是非凸(non-convex)的,容易造成局部最优解。2) L(y^,y)=−(ylogy^+(1−y)log(1−y^)) 这个函数是凸(convex)的,所以选这个当做loss function。这个函数是经过推导得来的,并不是不是凭空捏造。2.3 Cost function :l...
2021-07-12 20:14:43
91
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人