- 博客(83)
- 资源 (3)
- 收藏
- 关注
原创 拜读:kubernetes权威指南(1)
总结一下今日的学习过程上午继续调试院里的机房机器,不论怎么改,镜像TensorFlow-GPU运行后,就是不能加载cuda。。。接着看书,看了20页。。。创建mysql-rc.yaml mysql pod怎么都不成功。。。崩溃 最后还来一个mysql RC竟然不能删除,辛亏备份了系统,明天重来,错误总结如下错误Error creating: No API to
2018-01-19 21:56:15
3622
原创 拜读:docker容器与容器云(7)
总结一下今天的学习过程今天将书本的第五、六、七三章阅读完毕,进一步了解了容器云的理念看了三剑客与fleet看了flynn和deis算是这本书暂时看到这里 接下来准备继续学习kubernetes权威指南晚上调试了院里的机房的深度学习机器美好的一天 明天加油
2018-01-18 22:08:05
401
原创 拜读:docker容器与容器云(6)
总结一下今天的学习过程悲催两次今天吧书本的第一部分终于看完了,感觉有点失望,或许是自己对容器监控那一块想了解更深一点吧下午莫名其妙的拉肚子,四次,四次,四次 真是无语了docker容器的监控手段docker容器化的应用构建的基础,etcd下了一个数据集悲哀的一天 明天加油
2018-01-17 23:03:53
313
原创 拜读:docker容器与容器云(5)
总结一下今天的学习过程今天看了30页的书、pipework原理解析、pipework跨主机通信OVS划分VLANOVS隧道模式下午以及晚上去院里机房安装一系列软件去了充实的一天 明天希望能早起
2018-01-16 22:39:52
310
原创 拜读:docker容器与容器云(4)
总结一下这两天的学习过程昨天 和今天办了些杂事(答谢了同届哥们以及师妹在论文写作上的帮忙,请客吃了饭),两天才看了书本的50页了解了docker的网络管理了解了docker与容器安全看了第四章的4.1 容器化思维看了4.2.1的玩转Linux network namespace尴尬的两天 明天该正式启动假期学习
2018-01-15 22:49:54
301
原创 拜读:docker容器与容器云(3)
总结一下这两天的学习前天一半在忙着实验室留校的申请的事,头大。。。看的少,就没有写这两天看了书的第三章的前7小节,那叫一个头疼啊,感觉本科学的操作系统都白学了了。。。。勉强理解了内核以及docker的工作流程算是明白了镜像的管理算是明白了存储管理算是明白了数据卷以及共享的使用总之来说算是咬牙的一天,明天继续
2018-01-13 21:58:19
478
原创 拜读:docker容器与容器云(2)
总结一下docker的学习搭建过程看了3.1讲的内核,比较懵逼看了网上的挑一挑外挂,基于python和模拟器的,试了试,都整好了,结果模拟器上微信的挑一挑打不开了。。。1,获取镜像docker pull haproxydocker pull redisdocker pull django2,分别启动六个容器三个redis(一主两从)docker run -i
2018-01-11 23:41:40
3205
原创 拜读:docker容器与容器云(1)
时隔七七四十九天,再次开启博客之旅总结以前搁置缘由1,写了两篇论文并已投稿,且一篇已见刊(EI、sci)2,参加第四云计算应用创新大赛,并进入初赛3,参加助教4,和企业洽谈一个小项目,基于ssh的后台、Android、ios,当然这不是我一个人完成的,我们的一个团队5,参加几次学校组织会议或论坛,并积极参与帮忙,贡献自己一份力量6,杂七麻八其他项等---------
2018-01-11 00:10:16
411
原创 巩固与修炼(八)
总结一下昨天与今天的学习程序前天使用TensorFlow的分布式函数编写分布式程序,一直困惑不能结束死循环,不能在设定的步骤范围内停止昨天调了半天CNN架构的mnist程序,一直不能分布式执行,在那个配置比较差的机器上跑ps与wk,单个来跑CNN程序,结果失败,导致容器崩溃,姑且认为是内存与CPU配置过低不能承载程序换个思路,找了一个简单的mnist程序,改变成分布式程序,两个都能分布
2017-11-21 21:07:15
198
原创 巩固与修炼(七)
总结一下近五天的学习周三调了一天的参数,并尝试将单机式的CNN测试mnist数据集的程序修改成分布式的程序,结果不理想,没能成功周四出差去了一趟南宁周五接待Aneka平台工程师,并学习关于Aneka云平台的使用周六继续周三的事情,接续调代码,感觉自己好戳,,,,今天去老校区参加我们院里第一届人工智能大会,听了五场报告,并在其中一场进行了与教授的互动,提出了自己的疑惑,不过好像没
2017-11-19 23:20:52
172
原创 巩固与修炼(六)
总结一下今天的学习过程今天将网易云课堂的关于容器云与kubernetes结合的有关监控的Prometheus视频,感觉白交一张緑票了,讲的跟念书似的,重点一个没讲明白。。下午继续做相关的实验及学习了解在kubernetes中的常见的yaml文件编写的规则及语法看了一下kubernetes的文章有关容器会自动关闭的问题:在从节点跑程序,会自动终止,容器也会相应的退出,程序是没有问
2017-11-14 23:48:30
160
原创 巩固与修炼(五)
总结一下今日的学习过程碰到一个问题,不能解决:使用yaml部署四个pod,两个ps,两个worker,分布在一个集群两台机器上,分别为一个ps一个worker部署在一台机器上,使用docker exec命令进入四个pod中,运行Python程序,神奇的是:从节点运行一段时间后,两个pod莫名其妙的从从节点中消失了,又转义到主节点上了??????奔溃看了网易云公开课的视屏,看了一讲云计算
2017-11-13 23:57:07
166
原创 巩固与修炼(四)
总结一下今天的学习过程小注:前天由于一些杂事以及听报告和参见研一的迎新晚会(虽然我已经研二了,哈哈),昨天由于61周年校庆,在老校区听了讲座并学习今天算是颓废的一天吧,睡到日上三竿。。。(弥补前两天的睡眠不足)看了好几篇文章、博客踩了三个坑:1,jupyter几乎在语法上不区别Python2.X还是Python3.X,代码都能运行,但是在容器内部,使
2017-11-12 22:28:17
198
原创 巩固与修炼(三)
总结一下今天的学习过程上午继续试验昨天的找到的文章,使用prometheus监控kubernetes中的进程与容器,中午又请教了师兄,给我一篇文章,参考之后,搭建成功文章地址:http://blog.youkuaiyun.com/zqg5258423/article/details/53119009 非常感谢下午看了Prometheus网站的query语法,操作符、函数、样例等晚上和另外一个对
2017-11-09 22:31:38
172
原创 巩固与修炼(二)
总结一下今天的学习过程五个字:崩溃的一天看prometheus与Grafana官方文档,有点晕,不过还好,大致学会了基本使用,能像监听进程似的将数据pull下来,进行查询与现实结合Grafana将prometheus收集的数据,进行筛选显示重要的失败的是:不能使用prometheus与Grafana监听kubernetes中运行的pod,也可以说是容器太无奈了,去了ku
2017-11-08 23:12:20
170
原创 巩固与修炼(一)
总结一下这两天的学习过程昨天研究了TensorFlow镜像,并根据官方镜像修改了jupyter notebook中的文件目录与默认密码的修改注:这里从尝试使用脚本来完成,结果失败,由于需要使用Python,在打开的命令中设置密码,并将生成的hash键值即sha1值提取(这里失败了好久好久),并将其放置jupyter的配置文件中运行镜像并在jupyter中进行pyth
2017-11-07 23:13:43
248
原创 Tensorflow学习与应用五
总结一下今天的学习过程学习了训练的模型的保存于使用了解了Google的inception-v3,并学习了基本原理与相关使用,以及代码的抄写与揣摩了解基本已有的模型增加自己想要的分类,这一块还没有详细学习尝试安装TensorFlow-GPU版,由于网络问题,pip install TensorFlow-GPU中途失败平凡的一天,明天加油
2017-11-05 22:45:42
221
原创 Tensorflow学习与应用四
总结一下今天的学习过程1,又一次理解了CNN的基本原理:卷积层操作、池化层操作传统的神经网络缺点:权值太多,计算量太大;需要大量的样本进行训练CNN通过感受野和权值共享(局部映射神经元)减少了神经网络需要训练的参数卷积核、卷积窗口、特征图、滤波器、采样池化层的三种操作:max-pooling、mean-pooling、随机池化same paddingvalid padd
2017-11-04 23:16:55
1649
1
原创 Tensorflow学习与应用三
总结一下今天的学习今天主要是抄代码,看程序TensorBoard3-mnist-可视化.ipynbTensorBoard2-mnist-网络参数.ipynbTensorBoard1-mnist.ipynb简单测试mnist集.ipynb加入学习率以及Dropout.ipynb优化器1测试.ipynbDesktopTensorBoard3-mn
2017-11-03 23:32:28
201
原创 Tensorflow学习与应用二
总结一下今天的学习过程今天看了交叉熵在TensorFlow中的使用,又一次理解了交叉熵的原理,并编辑了代码进行的调试拟合的三种状况:欠拟合、正拟合、过拟合使用Dropout处理过拟合,并编辑了代码进行的调试::::收敛变得比较慢,所以需要增加训练次数,但可以很好的解决过拟合,并且在模型数据相对较少的情况下有很好的效果下午办了一些杂事晚上帮同学使用ideaIC 编辑了spark中
2017-11-02 22:47:35
191
原创 Tensorflow学习与应用一
总结一下这几天的学习吧五天没有写博客啦,感觉生命好空虚啊也不知为啥,感觉好迷惑好迷茫前几天做的事:一直调试代码测试mnist数据集的在docker中运行TensorFlow镜像看利用TensorFlow框架的代码写的检测mnist数据集,看的一脸懵逼外加迷惑、烦躁前天和昨天听了,参加了一个会议和听了几场报告,无聊的人生--------------------
2017-11-01 22:11:03
313
原创 深度纸质学习与实验(四)-将TensorFlow加入kubernetes完成与minist数据集初试
总结一下今天的学习过程上午将TensorFlow加入kubernetes中,参考链接:http://www.cnblogs.com/xuxinkun/p/5983633.htmlregistryHostname=cloud2connect#搜索TensorFlowdocker search tensorflow#注意变量声明赋值不能有空格nic=`docker search t
2017-10-26 22:41:16
637
原创 深度纸质学习与实验(三)-将TensorFlow加入kubernetes初试
总结一下今天的学习过程1,今天代导师接待了机械华章的唐老师,也准备了书展,第一次看到那么多的 “黑皮书“以及这两年比较火的 “”棕色“” 的书籍,正式倍感亲切啊,重要的是和唐老师的交谈让我学到了很多很多,倍感收益颇丰2,今天看了一些TensorFlow融入到kubernetes的文章、博客。看着好多利用yaml启动服务的脚本,有点慌,还没有尝试3,在docker中pull 了Tenso
2017-10-25 21:52:01
237
原创 深度纸质学习与实验(二)-真机搭建docker与kubernetes(补更)
总结一下昨天的学习过程昨天利用脚本一键式安装了docker集群与kubernetes集群bug:利用mac地址启动远程主机时命令:shell.run("wolcmd " +machine.MAC+ " 255.255.255.255 255.255.255.255 255", 1);注意三点:1,机器断电或者强制关机后,需要手动启动一次2,在使用命令关闭
2017-10-25 21:38:31
213
原创 深度纸质学习与实验(一)-准备
总结一下今天的学习过程上午看了TensorFlow的书籍看了两章重新在新的一台机器上安装了centos系统,准备搭建集群下午看了ICRM2017年收录的论文题目,寻找写论文的资料随后去运动,打了乒乓球、羽毛球美好的一天,明天加油
2017-10-23 22:15:27
174
原创 深度学习深理解(八)- 结构化机器学习项目
总结一下今天的学习过程昨天由于装双系统,耽误了一天,打断这周暂时学习结束吴恩达老师的前三部分的课程(因为后期两部分没有开课)幸运的是,今天学习比较努力 哈哈哈,将计划两天的课程今天一天学习完了机器学习的策略:收集更多的数据增加训练集的多样性增加使用梯度下降法的训练时间尝试其他优化算法:比如Adam算法等扩大或者缩小神经网络的规模尝试dropout或者L2正则化修改神经网
2017-10-22 22:44:21
1418
原创 重新安装双系统win10+centos7
总结一下今天的学习1,今天早上来到实验室,惊喜,昨天走时安装了centos7桌面版,由于时间长,所以就回去了,早上看到安装好了,满心欢喜的打开试了试,感觉挺好惊吓的是Windows10启动项不在了,奔溃一顿找原因呀,结果失败,用了同学的大白菜PE启动盘,将centos7的EFI删除了,使用cmd下:使用:bcdboot C:\Windows /l zh-cn命令修复,重新安装cento
2017-10-21 21:58:43
2054
1
原创 深度学习深理解(七)-改善深度神经网络-第三周
总结一下今天的学习过程超采纳数的选择原则 学习率、或者采用衰减的学习率 hidden unit num 、 mini-batch-size layers num、momentum β(默认0.9) Adam β1,β2 E(默认 0.9,0.999,10e-8) 采用随机均匀取值 根据机器的性能:采用一种照看一个模型、同时实验多中模型
2017-10-20 22:18:43
268
原创 深度学习深理解(六)-改善深度神经网络-第二周
总结一下今天的学习过程mini-batch梯度下降法指数加权平均数momentum梯度下降法RMSprop算法Adam算法学习率衰减法局部最优问题晚上再一台机器上安装了双系统:ubantu的美好的一天,明天加油
2017-10-19 22:49:30
312
原创 深度学习深理解(五)-改善深度神经网络
总结一下今日的学习过程偏差方差权衡问题最有误差、贝叶斯误差正则化两种dropout训练集扩充加速训练的方法权重值得初始化梯度校验美好的一天,明天加油
2017-10-18 23:02:49
261
原创 深度学习深理解(四)-深度网络与深度学习第一部分完结
总结一下今天的学习过程今天看了吴恩达老师的第一部分的视屏课的最后一周以及三节的视屏采访,感觉视界开阔了好多好多美好的一天,明天加油
2017-10-17 23:22:54
248
原创 深度学习深理解(三)-浅层神经网络
总结一下今天的学习过程理解了神经网络的基本概念学习神经网络的四个激活函数以及他们的区别与用法sigmoid函数:比较适合用于二元分类中tanh函数:相比于sigmoid函数更为实用relu函数:修正性线性单元leaky Relu函数:带泄露的Relu以及梯度下降算法和反向传播算法美好的一天,明天加油!
2017-10-16 22:49:50
279
原创 深度学习深理解(一)-logistic回归深理解与BP反向传播算法
总结一下今天的学习过程上午以及中午将吴恩达老师的第二周的视屏学习完,对logistic回归与梯度下降以及反向传播算法有了更深一层的理解,似乎有了柳暗花明的感觉,感觉前几天的学的似乎通了又似乎乱了,哈哈,继续加油吧下午以及晚上写了上学期的一门课程作业美好的一天,明天加油!
2017-10-15 22:51:37
1152
原创 深度学习深理解(一)-logistic回归与梯度下降法
总结一下今天的学习过程感谢吴恩达老师今天看了吴恩达老师讲的的深度学习基础概念进一步理解了logistic回归与梯度下降法
2017-10-14 22:23:53
606
原创 深度学习进阶(七)--复习(二)
总结一下今天的学习今天将近阶段深度学习进阶总结完毕,并做了笔记下午继续结合笔记查看了代码,进一步理解神经网络算法
2017-10-13 22:31:32
232
原创 深度学习进阶(七)--复习(一)
总结一下今天的学习过程今天上午帮室友在win10上装了一次,不过好多问题在win7上不同,有一部分是相同的下午继续复习了近阶段对深度学习进阶深度学习概念环境配置神经网络结构梯度下降算法backpraprotion算法平凡的一天,明天加油
2017-10-13 00:01:33
231
原创 深度学习进阶(六)--CNN卷积神经网络调试,错误历程总结
总结一下今天的学习过程(注:我此刻的心情与刚刚三分钟前的心情是完全不一样的)(昨天在想一些错误,今天又重拾信心重新配置GPU环境,结果很失败,不过现在好了,在寻思着今天干了什么的时候,无意间想到是不是自己方法入口不对啊。结果果然很幸运的被我猜到了,,,哈哈哈,我的心情又好了)总结最大的体会:有的时候在代码不能运行的时候,可是尝试先看看学习代码,起码从代码的入口调用看起、看清、看
2017-10-11 22:29:03
4065
4
原创 深度学习进阶(五)--卷积神经网络与深度置信网络以及自动编码初识(补昨天博客更新)
总结一下昨天的学习过程(注:这几天老不在状态,貌似进入了学习激情的瓶颈期,动力以及平静心严重失控,Python3.X与Python2.X之间的代码调试,尤其是环境配置搞得头昏脑胀)昨天了解接触的内容CNN卷积神经网络的基本原理以及在CPU中测试以及代码调试(又是失败)Restricted Boltzmann Machine:Deep Brief Network: 多个Restr
2017-10-11 22:09:44
4299
原创 深度学习进阶(四)--深度神经网络中梯度消失以及卷积神经网络初识
总结一下今日的学习过程1,上午学习了解了深度网络中的难点2,了解了经常听到又不知所云的梯度消失问题的概念以及原理 认识到了Rectified Liner Unit激活函数可以很好的减少梯度消失问题,但没有具体的深入的理解及学习3,认识到了卷积网络CNN,理解了其大致原理以及实现过程 结合GitHub上的neural-networks-and-deep-le
2017-10-09 22:28:53
1779
原创 深度学习进阶(三)--BackPropagation算法的影响因素(补充昨天的博客更新)
总结一下昨天的学习过程学习了解了影响神经网络中的一些参数:1,层数以及每层神经元的个数(感觉层数越多BackPropagation算法效果越不怎么好)2,权重以及偏向的初始化方法,比如说均值为1的正态分布,或者除以示例平方的正太分布或者除以2n的开根号的正态分布3,目标cost函数的设置,二次cost函数以及log形式的函数公式4,正规化(Regularization)的技术解
2017-10-09 22:16:08
348
pipework-master 容器中可以固定IP地址的神器
2017-08-29
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人