自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

葡萄数的博客

个人学习记录

  • 博客(16)
  • 收藏
  • 关注

原创 对比梯度下降和正规方程解性能

初学者学习线性回归时, 对于正规方程解和梯度下降法的性能没有直观的认认识, 这里做了一下对比

2018-12-27 00:49:16 607

原创 sklearn 中的GridSearchCV网格搜索

sklearn 中的网格搜索同样的以kNN算法距离, 其中kNN中的k取值直接影响了结果的准确率,在调参过程中, 网格搜索是常用的方式之一先看一下常规代码:import numpy as npfrom sklearn import datasetsdigits = datasets.load_digits()X = digits.datay = digits.targetf...

2018-12-10 23:33:59 944

原创 实现sklearn中的train_test_split测试集训练集拆分

实现sklearn中的train_test_splitsklearn.model_selection里面有个方法-> train_test_split其作用是把数据集按训练集和测试集拆分, 为后面做调参(炼丹)做准备先看下sklearn中的使用:# Jupyter Notebookfrom sklearn.model_selection import train_test_sp...

2018-12-09 16:44:59 5648

原创 KNN算法

KNN算法KNN算法是机器学习算法中的一个很特殊算法角度1: knn算法不用fit操作就能直接预测角度2: knn的数据集其实就直接是fit后的结果, 可以直接预测数据先手动实现一个knnimport numpy as npfrom math import sqrtfrom collections import Counterclass KNNClassifier: ...

2018-12-09 16:27:17 237

原创 python3实现softmax + 函数曲线绘制

python3实现softmax + 函数曲线绘制import numpy as np# 实现方法1def softmax(x): return np.exp(x)/np.sum(np.exp(x), axis=0)# 是想方法2def softmax2(x): """Compute softmax values for each sets of scores in ...

2018-12-04 23:27:55 9972 2

转载 斯坦福cs224n教程--- 学习笔记1

一、前言自然语言是人类智慧的结晶,自然语言处理是人工智能中最为困难的问题之一,而对自然语言处理的研究也是充满魅力和挑战的。 通过经典的斯坦福cs224n教程,让我们一起和自然语言处理共舞!也希望大家能够在NLP领域有所成就! 二、先修知识(学习的过程中可以遇到问题后再复习)了解python基础知识 了解高等数学、概率论、线性代数知识 了解基础机器学习算法:梯度下降、线性回归、逻...

2018-12-01 00:26:01 1390

原创 python3 实现线性回归(绘图说明)

线性回归是最基本的预测, 先随机生成一堆大概线性相关的数据,然后通过最小二乘法算出斜率和偏移值, 线性模型就能求出来了, 也能预测数据了 import numpy as npimport matplotlib.pyplot as plt#数据集大小, 数据越多 a b就越准确dataset_size = 100000#干扰幅度, 干扰越小, ab越准确amplitute ...

2018-10-20 12:13:30 12823 2

原创 leetCode 1号题详解, 两数之和的key , python3三种方法实现

原题如下给定一个整数数组和一个目标值,找出数组中和为目标值的两个数。你可以假设每个输入只对应一种答案,且同样的元素不能被重复利用。示例:给定 nums = [2, 7, 11, 15], target = 9因为 nums[0] + nums[1] = 2 + 7 = 9所以返回 [0, 1]第一种解法:暴力方式   复杂度是O(n^2)class Solutio...

2018-09-24 20:59:50 1089

转载 斯坦福cs224n教程--- 学习笔记2-11

一、每周学习时间安排每周具体学习时间划分为4个部分:· 1部分安排周一到周二· 2部分安排在周四到周五· 3部分安排在周日· 4部分作业是本周任何时候空余时间· 周日晚上提交作业运行截图· 周三、周六休息_(以下的部分链接在手机端无法正常显示,请复制链接到电脑浏览器打开)二、分节学习内容第1部分学习任务:(1)高级L...

2019-01-01 21:57:42 433

原创 梯度下降法实现线性回归, 实例---预测波士顿房价

本文先手动实现一个线性回归模型, 然后用sklearn的线性回归模型作对比import pandas as pddf = pd.read_csv('house_data.csv') #数据集可到网上下载,波士顿房价df.head()Out[1]:  CRIM ZN INDUS CHAS NOX RM AGE DIS RAD...

2018-11-19 23:41:25 4997

原创 jieba/pyhanlp分词简单操作

jieba/pyhanlp分词简单操作content = "现如今,机器学习和深度学习带动人工智能飞速的发展,并在图片处理、语音识别领域取得巨大成功。"content = jieba.cut(content, cut_all=False)print('/'.join(content))content2 = "现如今,机器学习和深度学习带动人工智能飞速的发展,并在图片处理、语音识别领域取...

2018-10-18 01:22:11 676

原创 leetCode 349号题目详解 两个数组的交集 ,python3两种方式实现, 复杂度分别为O(n^2) 和 O(n)

给定两个数组,编写一个函数来计算它们的交集。示例 1:输入: nums1 = [1,2,2,1], nums2 = [2,2]输出: [2]示例 2:输入: nums1 = [4,9,5], nums2 = [9,4,9,8,4]输出: [9,4]说明:输出结果中的每个元素一定是唯一的。我们可以不考虑输出结果的顺序。原题如上:第一种暴力方法,双层遍历如代码 复杂...

2018-09-24 14:09:47 403

原创 python3 递归实现二分查找, 区分边界信息, 复杂度O(log(n)), 大概能算到10^7规模数据

def binarySearch(arr, l, r, target): #[l,n] 前闭后闭范围内查找target #如果不在里面 if (target < arr[l] or target > arr[r]): return -1 mid = (l + r)//2 #注意整型益处, 偶数个, 取小, 不影响效果 ...

2018-07-23 18:29:50 366

原创 从代码结构优化redis缓存的方式, 还在为多人开发项目时混乱的redis key烦恼嘛?

我们目前数据层次按照性能来分    顶层 : redis     中间层: es     底层: mysql目前针对一些比较繁琐棘手的, 但是可以花点时间就能解决的问题, 就是在redis中的缓存问题虽然目前业务量不是很大, 但是代码中会看到大家习惯性的为了提升性能而写出如下的代码  ! 其中出现过一次redis崩溃事故问题点: 1.为了不被缓存影响, 很多时候会在if的时候加上...

2018-07-22 18:24:03 814

原创 从工作中的出错谈语言的进化

今天工作出现了一个以外的错,   产品让我今天配置完成, 后天生效然而我配置成了今天生效:其中我的思维是这样的:      看了邮件后接收到的信息:      要配置一个围栏     在线支付+干线配置     试点    7月11号      大脑产生的反应:                  要配置一个围栏在线支付+干线配置的试点, 7月11号生效结果就出错了, 好在产品及时发现, 我改了回来...

2018-07-11 13:10:54 182

原创 我的第一篇博客和其中的思考

大四在杭州同花顺实习,转正后,  然后一年后离开了杭州 到了成都以前不写博客也是因为觉得, 技术水平还么有达到  写的时间可以学习更多的东西, (每天除了工作10小时, 平均有2小时在自学)由于工作地方的转变, 团队的变化, 整个人的思维也会变化,     心理对环境接受程度不停的变化,...

2018-07-11 12:54:25 155

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除