- 博客(17)
- 收藏
- 关注
原创 JSVMP纯算入门之qq音乐
作为入门级别的jsvmp,难度主要在插桩,比较费时间,分析过程不算特别难。我也是第一次写这种纯算的博客,大家有不懂的可以私信我。以上所有的过程除代码外均来自b站凛音姬的视频,我是照着学的同时做了记录,希望对大家有一些启发和帮助。
2024-11-09 22:51:44
2007
4
原创 BCI接口与人工智能科普
BCI接口与人工智能前言何为BCIBCI工作原理BCI种类侵入式脑机接口局部侵入式脑际接口非侵入式脑机接口脑机接口的组成部分信号的产生主动刺激或让其主动想象动作直接获取实验对象自发存在的脑电信号信号的检测EEGFMRI信号的处理过滤噪音检测信号类型信号的解读深度学习算法脑机接口(BCI)的主要应用替代恢复增强补充改善机遇和挑战前言昨天我的研究生导师在群里发了篇关于脑机接口的文章,今天来梳理一下这篇文章,属于是一个科普性质的文章,感兴趣的同学可以看看。BCI(脑机接口)有和AI结合的趋势,是脑电信号操纵外
2022-04-17 18:05:43
1395
原创 《python3网路爬虫开发实战》之学习记录Day1
爬虫系列文章目录`文章目录爬虫系列文章目录前言一、pandas是什么?二、使用步骤1.引入库2.读入数据总结前言提示:关于买到崔庆才爬虫书进而决定用博客记录自己的学习:前段时间用爬虫接单感慨颇多,很多时候爬虫的逻辑书写都没有问题,数据也能够进行采集,但是往往数据量一上来就束手无策,虽然也学过一些多线程、协程的概念,也知道ip代理来破解ip受限这一反爬机制,但是总觉得自己的知识太过零散,之前报了一个js逆向和app逆向的爬虫课,最近也要捡起来了。昨天刚拿到杭电同学向我推荐的崔庆才老师的书,我翻看
2022-04-15 23:00:32
388
原创 自然语言处理总论---导论部分摘要
第一章 导论1.1语音与语言处理中的知识定义:把处理口语和书面语的计算技术称为语音和语言处理,简称自然语言处理(包括词数计算、自动换行、以及web上的自动问答、实时的口语自动翻译等高级技术)六个方面:A.语音学与音系学 例如:作为机器我需要分析我所接收的声音信号,并且把这些信号复原成词的系列。与此相似,为了生成回答,我也必须将我的回答组织成词的系列,并且生成人能够识别的声音信号。要完成这两方面任务,就需要语音学与音系学的知识B.形态学 例如:机器能够说出类似i’m can’t这样的缩约形式并且识
2020-08-16 12:49:02
587
原创 python数据结构--图的简介
脱了很久的python数据结构终于学到了图这个部分,这个部分我的学习素材依旧是b站的视频,链接如下https://www.bilibili.com/video/BV1VC4y1x7uv?p=74。关于图的每一个小视频的知识我都会整理,要加油呀~这里写目录标题图的定义图的相关术语顶点、边权重路径圈图的定义图的相关术语顶点、边权重路径圈...
2020-08-06 14:55:55
318
原创 散列表(哈希表的实现以及详细分析)
看了b站的视频关于散列表的代码实现,我个人又加了自己的理解,注解了散列表各个代码的具体功能,应该比较详细class HashTable: """哈希表的建立""" def __init__(self): self.size=11 #初始化哈希表的大小,这里建议选取质数作为初始大小(否则在解决冲突时如果使用开放定址法会出现死循环导致数据无法存放的问题) self.slots=[None]*self.size #初始化key的列表 self.da
2020-07-27 20:52:40
251
原创 python实现递归详解+实例
1、什么是递归首先递归是一种解决问题的方法,其精髓在于将问题分解为规模更小的相同问题。我们将问题持续分解,知道问题规模小到可以用非常简单直接的方式来解决。递归的问题分解方式十分独特,其算法方面的明显特征就是:在算法流程中调用自身2、递归算法三要素A、递归算法必须有一个基本结束条件(即最小规模问题的直接解决)B、递归算法必须能改变状态(向基本结束条件演讲即见效问题规模)C、递归算法必须调用自身(解决见笑了规模的相同问题)3、递归实战----列表求和问题def SUM(mylist):
2020-07-24 11:51:34
2225
原创 python 三种存储数据的方式 Stack 、Queue、链表(无序、有序)
这里写目录标题1、Stackpython 中Stack的实现方式用Stack检验()是否匹配的问题检验{【()】}是否匹配用Stack将十进制转化为16进制一下的任意进制用Stack实现中缀转后缀(中缀和后缀的定义可以百度)后缀算法的具体计算数值2、Queuepython中Queue的实现用Queue模拟打印机的打印双端队列的实现双端队列模拟回纹词的判定3、链表(无序)无序链表的实现4、链表(有序)有序链表的实现1、Stackpython 中Stack的实现方式class Stack: def
2020-07-14 21:03:59
960
原创 python变位词的三种方法展示以及其数量级
这里写目录标题1、逐字检查法代码展示分析2、排序比较法代码展示分析计数比较法代码展示分析1、逐字检查法代码展示def bian_wei_ci(ls1,ls2): alist=list(ls2) pos1=0 result=True #print(len(ls1)) if len(ls1)==len(ls2): while pos1<len(ls1) and result: pos2=0 fou
2020-07-06 23:23:48
1785
原创 通过fiddler了解http的请求报文和响应报文
请求报文与响应报文的组成请求报文组成部分一、请求行1、 请求方法2、统一资源定位符3、http版本号二、请求头三、空一行四、请求体响应报文组成部分一、响应行1、http的协议以及版本(同上)2、状态码3、是否被成功处理(这里的ok代表成功处理)二、响应头三、空行四、响应体请求报文组成部分请求行(请求方法、统一资源定位符、http版本号)、请求头、空一行、请求体一、请求行1、 请求方法2、统一资源定位符3、http版本号HTTP/1.1 一般是1.1,也有1.0的可能二、请求头三、
2020-06-21 21:01:18
5374
原创 基于xpath,多线程,爬取豆瓣250电影的海报
完成过程准备阶段python 3.7编译环境操作过程通过requests获取网页源代码通过xpath对网页关键信息进行提取通过concurrent.futures模块增加多线程对比单线程和多线程的爬取耗时代码展示以及运算结果展示准备阶段python 3.7编译环境操作过程通过requests获取网页源代码str_all="" i=0 while i<=9: url = "https://movie.douban.com/top250?start="+str(2
2020-06-10 09:50:05
736
原创 python爬虫技术+sql server 数据库存储疫情数据
准备工作1、python 3.7的 编程环境(下载了pymssql库,这个库用pip install可能会报错,可以直接到 https://www.lfd.uci.edu/~gohlke/pythonlibs/ 下载相应的whl文件)2、如何设置sqlserver的相关属性让python能够连接 这个比较详细3、requests库的安装代码展示import requestsimport jsonimport pymssqldef get_content(url): r = requ
2020-05-28 15:39:50
787
原创 python scrapy爬虫模拟登陆人人网
模拟登陆人人网笔记部分:1、想要发送post请求,那么推荐使用“scrapy.FormRequest”方法,可以方便的指定表单数据2、如果想在爬虫的一开始就发送Post请求,那么应该重写start_requests 方法,在这个方法中发送post请求代码展示:# -*- coding: utf-8 -*-import scrapyclass RenrenSpider(scrapy.Spider): name = 'renren' allowed_domains = ['renr
2020-05-27 10:51:57
250
原创 Scrapy shell
关于Scrapy shell命令行的方式测试scrapy运行1、可以方便我们做一些数据的测试代码2、如果想要执行scrapy命令,那么毫无疑问,肯定要先进入scrapy所在的环境中3、如果想要读取某个项目的配置信息,那么应该先进入到这个项目中,再执行“scrapy shell”命令...
2020-05-26 21:19:08
253
1
原创 基于adb(安卓调试桥)通过python代码实现疫情期间自动打卡
体温打卡自动化背景:相信小伙伴们疫情在家很苦恼,每天都被各种催打卡,但是有了python一切变得不一样了,运行程序即可帮助你完成打卡,是不是很心动呢?跟我一起来看看吧准备部分:1、python 3.7开发环境2、一台安卓手机并且下载了adb包adb包如果成功下载会有如下界面(这个adb在网上百度即可下载)3、手机打开开发这模式并且点击允许usb调试(目前只有安卓手机可以实现该项目功能)4、用数据线将手机和电脑连接准备完成之后我们话不多说先展示代码import osimport t
2020-05-26 17:59:32
9761
2
原创 Scrapy之 CrawlSpider(Python)
关于Scrapy使用Crawlspider1、如何创建Crawlspider 在命令行输入 scrapy genspider -t crawl [爬虫名字] “域名” (这里的-t是template模板的缩写)2、两个参数LinkExtractors和Rule1、2、Rule注意事项:1、allow设置规则方法:要能够限制在我们想要的url上面。不要跟其他url产生相同的正则表达式即可2、什么情况下使用follow:如果爬取页面的时候,需要满足当前条件的url在进行跟进,
2020-05-26 15:35:12
347
转载 Scrapy爬虫笔记1
1、response是一个scrapy.http.response.html.HtmlResponse对象。可以执行“xpath”和“css”语法来提取内容2、提取出来的数据是一个Selector或者是Selectorlist对象,如果想要获取其中的字符串,那么要用getall或者get方法3、Getall方法Selector所有文本,返回的是一个列表4、Get方法,获取的是“Selector”第一个文本,返回的是一个str类型5、如果数据解析回来,要传给pipline处理,那么可以使用yield来
2020-05-25 16:33:54
229
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅