- 博客(14)
- 收藏
- 关注
原创 JavaSE 巩固 多态的细节研究
多态是 Java 成为高级语言的特性之一,它可以实现运行时动态绑定,正是因为如此,在使用多态的时候有许多细节的地方需要注意。
2017-06-06 15:43:26
363
原创 JVM 学习笔记(四) CMS GC日志详解
GC 日志参数JVM的GC日志的主要参数包括如下几个: -XX:+PrintGC 输出GC日志 -XX:+PrintGCDetails 输出GC的详细日志 -XX:+PrintGCTimeStamps 输出GC的时间戳(以基准时间的形式) -XX:+PrintGCDateStamps 输出GC的时间戳(以日期的形式,如 2013-05-04T21:53:59.234+0800) -X
2017-05-19 21:29:02
6328
转载 一位资深程序员大牛给予Java初学者的学习路线建议
原文地址 http://blog.youkuaiyun.com/x_iya/article/details/60464931,这篇文章很好的给出了 Java 学习路线,可以让我们少走一些弯路。引言 其实本来真的没打算写这篇文章,主要是LZ得记忆力不是很好,不像一些记忆力强的人,面试完以后,几乎能把自己和面试官的对话都给记下来。LZ自己当初面试完以后,除了记住一些聊过的知识点以外,具体的内容基本上忘得一
2017-05-14 12:40:43
1442
转载 IntelliJ IDEA2016 优化设置和常用快捷键
> 本博客内容来自互联网。[IntelliJ IDEA 高效率配置](http://www.cnblogs.com/huaxingtianxia/p/5868252.html),[IntelliJ IDEA15优化设置](http://blog.youkuaiyun.com/u012690435/article/details/50392839),这两篇文章。# 优化设置代码提示不区分大小写代码提示是一个很重要
2017-04-30 10:40:49
13765
原创 JVM学习笔记(二) 实战OutOfMemoryError异常
在 JVM 中,除了程序计数器外,虚拟机内存的其他几个运行时区域都有可能发生 OutOfMemoryError 异常。本博客通过若干实例来验证 OOM 发生的场景。写本博客的目的,希望在以后的工作中遇到 OOM 时,能根据异常的信息快速判断出是哪个区域的内存溢出,知道是什么代码引起的,以及该如何处理。本博客代码部分摘自《深入理解Java虚拟机 第二版》
2017-04-17 21:11:50
739
原创 Standford 机器学习—第四讲 神经网络的表示
神经网络的表示神经网络的表示一 神经网络的引入Nonlinear hypothesis二 神经元与大脑Neurons and Brain三 神经网络的表示形式四 怎样用神经网络实现逻辑表达式五 分类问题 Classification 一、 神经网络的引入—Nonlinear hypothesis我们之前学的,无论是线性回归还是逻辑回归都有这样一个缺点,即: 当特征太多时,计算的负荷会非常
2017-03-26 13:25:20
548
原创 Standford 机器学习—第三讲 Logistic Regression 逻辑回归
本栏目(Machine learning)包括单参数的线性回归、多参数的线性回归、Octave Tutorial、Logistic Regression、Regularization、神经网络、机器学习系统设计、SVM(Support Vector Machines 支持向量机)、聚类、降维、异常检测、大规模机器学习等章节。所有内容均来自Standford公开课machine learning中An
2017-03-19 09:40:28
371
原创 Standford 机器学习—第二讲 Linear Regression with multiple variables(多变量线性回归)
Linear Regression with multiple variables – 多变量线性回归1. 假设函数hθ(x)=θ0+θ1x1+θ2x2+θ3x3 h\theta(x)=\theta_0+\theta_1x_1+\theta_2x_2+\theta_3x_3 模型表示: 参数 含义 n 特征的个数 m 训练集的个数
2017-03-18 08:58:12
833
原创 Standford 机器学习—第一讲 Linear Regression with one variable(单变量线性回归)
Linear Regression with one variable(单变量线性回归)Linear Regression with one variable单变量线性回归什么是线性回归代价函数 cost function公式作用Gradient Descent 梯度下降算法Batch gradient descent 批量梯度下降公式学习率alpha的大小对代价函数求导本栏目(M
2017-03-11 16:29:07
430
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人