自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

郭川川

1826274824@qq.com

  • 博客(81)
  • 收藏
  • 关注

原创 L10_卷积神经网络之CIFAR图片识别

刘二大人第九课卷积神经网络

2022-12-30 10:52:01 621 1

原创 L10_卷积神经网络之手写数字识别

刘二大人第十课卷积神经网络

2022-12-30 10:50:56 291

原创 L09_多分类问题之手写数字识别

刘二大人第九课多分类问题实战

2022-12-30 10:21:30 257

原创 L08_Dataset和DataLoader

刘二大人pytorch实践第八课

2022-12-27 12:20:22 128

原创 L07_多维输入(糖尿病分类预测)

刘二大人第七课代码

2022-12-27 12:19:08 163

原创 L06_逻辑斯蒂回归

刘二大人第六课代码

2022-12-27 10:45:47 184

原创 L05_课后练习_波士顿房价预测

线性回归练习

2022-12-26 18:22:17 422 2

原创 L05_用pytorch实现线性回归

刘二大人第五课代码

2022-12-25 18:08:32 111

原创 L04_利用反向传播来求梯度

刘二大人第四课反向传播代码

2022-12-25 11:57:33 104

原创 L03_自写梯度下降算法来求权值2

刘二大人pytorch实战第三课代码

2022-12-24 11:51:37 140

原创 L03_自写梯度下降算法来求权值1

刘二大人pytorch实战第三课代码

2022-12-24 11:51:30 158

原创 刘二大人_L02_穷举法求权值

刘二大人第二课代码

2022-12-23 20:47:56 105

转载 anaconda prompt发现cuda是true,而jupyter是false的解决办法

2022-10-02 10:58:42 1336

原创 在anaconda下安装pytorch出现的问题应对方法

2022-09-23 16:49:23 1198

原创 P02-HTTPS原理解析

1.对称加密(不安全)加密:f1(k, data) = X解密:f2(k, X) = data2.非对称加密(不安全)加密:f(pk, data) = X解密:f(sk, X) = data加密:f(sk, data) = X解密:f(pk, X) = data3.对称+非对称(也不安全)黑客可以伪装服务器。...

2022-04-03 22:47:27 119

原创 P01基础入门-概念名词

1.什么是域名?例如:www.baidu.com2.什么是二级域名、三级域名?顶级域名:com二级域名:baidu三级域名:www总结:根据长度判断是几级域名。3.DNS是什么?负责域名到IP地址的转换4.本地host文件重定向域名的IP地址。(例如host添加:1.2.3.3 www.baidu.com。那么ping www.baidu.com后解析的地址就会变成1.2.3.3 原因是ping的时候会首先查看本机host文件有没有对应的IP地址,如果没有才请求DNS解析)5.CDN是

2022-04-03 20:40:06 4668

原创 考研复习代码004数据结构线性表

1.顺序表的实现,静态分配#include<stdio.h>#define MaxSize 10typedef struct{ int data[MaxSize]; int length;}SqList;//基本操作-初始化一个顺序表void InitList(SqList &L){ int i; for(i =0; i<MaxSize; i++) { L.data[i] = 0; } L.length = 0;} //打印 void

2020-08-22 18:24:34 196

原创 考研复习代码003用户建立自己的数据

086.把一个学生的信息(包括学号、姓名、性别、住址)放在一个结构体变量中,然后输出这个学生的信息。#include<stdio.h>int main(){ struct Student { long int num; char name[20]; char sex; char addr[30]; }student1={1713010948,"guochuanchuan",'M',"software college of NUC"}; printf("NO:%

2020-08-16 14:56:14 497

原创 考研代码练习复习大全002-指针

053.通过指针变量访问整型变量#include<stdio.h>int main(){ int a=100,b=10;//定义整型变量,并初始化 int *pointer_1, *pointer_2;//定义指向整形数据的指针变量pointer_1,pointer_2 pointer_1 = &a;//把变量a的地址赋给指针变量pointer_1 pointer_2 = &b;//把变量b的地址赋给指针变量pointer_2 printf("a=%d,

2020-08-07 21:39:36 866

原创 考研复习代码练习001指针前面的程序

001在屏幕输出信息:This is program!#include<stdio.h>int main(){ printf("This is program!\n"); return 0;}002求两个整数之和#include<stdio.h>int main(){ int a,b,sum; a = 123; b = 23; sum = a + b; printf("sum is %d",sum); return 0;}003

2020-07-30 22:27:24 488

原创 关于isNaN()函数的一些正确看法

2020-06-22 15:26:06 159

原创 人工智能实训day002-Git了解及使用

1.下载Git2.git --veision(查看安装版本,同时证明安装成功)3.git config --global user.name “用户名”4.git config --global user.email “邮箱”5.mkdir(创建文件)6.ll(查看当前目录下的文件)7.cd file(进入文件)8.git init (初始化仓库)9.git add fille (将文件添加到暂存区)10.git commit -m “提交到仓库的说明或者备注内容”11.git add

2020-06-16 19:34:07 230

原创 网络爬虫信息提取实战之scrapy框架股票信息爬取17

# -*- coding: utf-8 -*-#stocks.pyimport scrapyimport reclass StocksSpider(scrapy.Spider): name = 'stocks' start_urls = ['http://baidu.com/'] def parse(self, respo...

2020-05-07 18:49:08 268

原创 网络爬虫信息提取实战之scrapy框架16

2020-05-07 17:13:03 110

原创 网络爬虫信息提取实战之股票数据15

#导入各种需要用到的库import requestsfrom bs4 import BeautifulSoupimport tracebackimport re# 定义第一个函数,获取网页的数据def getHTMLText(url): try: r = requests.get(url,timeout = 30) ...

2020-05-04 10:59:31 359

原创 网络爬虫信息之实战淘宝书包信息爬取14

# 导入requests和re正则库import requestsimport re# 定义第一个函数实现获取网页数据def getHTMLText(url,loginheaders): try: r = requests.get(url,headers=loginheaders, timeout=30) r.raise_for_status()...

2020-05-03 17:37:17 748

原创 网络爬虫信息之实战正则表达式13

2020-04-28 11:00:34 116

原创 网络爬虫信息提取之实例大学排名012

#导入库import requestsfrom bs4 import BeautifulSoupimport bs4def getHTMLText(url): try: r = requests.get(url,timeout=30) r.raise_for_status() r.encoding = r.apparent_...

2020-04-27 11:29:00 308

原创 网络爬虫之信息提取011

import reimport requestsfrom bs4 import BeautifulSoup#获取html源代码r = requests.get("http://python123.io/ws/demo.html")demo = r.text#输出源代码print(demo)pr...

2020-04-22 17:35:00 171

原创 网络爬虫之信息提取008

安装beautifulsoup4使用beautifulsoup4:(两个参数分别是数据和解析格式)

2020-04-22 11:26:59 175

原创 网络爬虫之前奏总结

1.首先在电脑安装requests库:命令:pip install requests2.爬取网页内容:一:爬取页面内容(文字信息)代码:添加headers是为了对应网站的反爬技术#爬取京东商品页面信息#导入requests库import requests#商品地址url="https://item.jd.com/100012014970.html#crumb-wrap...

2020-04-20 10:09:42 546

原创 网络爬虫前奏之ip归属地查询007

import requestsurl="https://ip38.com/ip.php?ip="try: r=requests.get(url+"202.204.80.112") r.raise_for_status() r.encoding=r.apparent_encoding print(r.text)except: print("爬取失败")...

2020-04-19 10:46:49 209

原创 网络爬虫前奏之图片的爬取006

import requestsimport os#爬取图片的urlurl = "https://images-cn.ssl-images-amazon.com/images/I/81M5fmmHKbL._AC_SL1500_.jpg"#图片存放的目录root="E://移动后的桌面//爬虫//image//"#图片存放的目录加网页图片的名字path=root+url.split...

2020-04-19 09:39:54 115

原创 网络爬虫前奏之实例百度搜索005

import requestskeyword = "Python"try: kv = {'wd':keyword} headers={ 'user-agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/80.0.3987...

2020-04-19 08:55:52 631

原创 网络爬虫前奏之实例爬取京东商品004

import requestsurl = "https://item.jd.com/100006349791.html"try: r=requests.get(url) r.raise_for_status() r.encoding = r.apparent_encoding #[:1000]是字符串切片,前1000个字符 print(r.text[:...

2020-04-18 20:48:20 291

原创 网络爬虫前奏之盗亦有道003

Robts协议:

2020-04-18 18:24:57 111

原创 网络爬虫之前奏002

对于 if __name__=="__main__"的解释见博客:https://blog.konghy.cn/2017/04/24/python-entry-program/主要使用get和head(概要信息)...

2020-04-18 18:01:48 138

原创 网络爬虫之前奏001

首先打开电脑cmd:安装requestsrequests的get方法

2020-04-18 17:23:32 120

原创 辗转相除法求公约数-python实现

首先介绍下辗转相除法:辗转相除法辗转相除法:辗转相除法是求两个自然数的最大公约数的一种方法,也叫欧几里德算法。例如,求(319,377):∵ 319÷377=0(余319)∴(319,377)=(377,319);∵ 377÷319=1(余58)∴(377,319)=(319,58);∵ 319÷58=5(余29)∴ (319,58)=(58,29);∵ 5...

2020-04-13 15:04:59 3630

原创 踩坑-----jupyter notebook ModuleNotFoundError: No module named 'tensorflow'

很多人去jupyter发现tensorflow不能用,不存在tensorflow模块。很可能你在jupyter使用的是base环境然而你的tensorflow是在你自己创的环境,所以:1.如图切换环境,如果遇到http问题请看另一篇博客:切换成功以后打开jupyter测试 成功...

2020-04-13 09:26:39 9051

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除