- 博客(108)
- 收藏
- 关注
原创 postgres11的查询优化
postgres的查询优化配置数据参数如shared_buffers,work_mem等,可以用于增加缓存命中率以及排序等操作的工作内存,减少IO设置强制并行度改写SQL语句主要是CTE和临时表优化查询计划利用pg_hint_plan或者是enable参数,控制查询计划(需分析查询计划)建立索引也是常规优化最有效的方式注意建立的索引类型对不同的查询有不同的效果pg_bulkload仅支持btree索引索引本身带来的存储占用也可能会影响性能JIT编译表达式使用JI
2025-01-01 09:26:05
168
原创 记一个BUG
其实如果老老实实按照之前的套路写本来不会有BUG的,只能说手欠这次写的时候想用指针写一下,然后就寄了。用指针出BUG主要原因还是在更新dis的时候破坏了优先队列的结构。
2024-11-28 09:55:27
175
原创 基于前缀树的高效敏感词检测工具 1.0.2(A Sensitive Detect tool(EN))
对于 ABC,当 AB 是敏感词而 ABC 也是敏感词时,过滤结果将是 **C,这意味着算法会优先过滤较短的词。对于 ABC,当 AB 是敏感词而 BC 是敏感词时,过滤结果将是 **C,这意味着算法会优先过滤前面的词。修改了 1.0.1 版本的 BUG,发现了一个新 BUG。
2024-11-04 23:37:23
208
原创 山东大学信息检索与数据挖掘实验 实验2 TD-IDF 余弦相似度
传入一个查询\对查询处理得到m个term\计算得到一个 m*n tf-idf矩阵(假设有n个待查询文档)\把每一列作为一个document vectorviv_ivi,对于查询同样得到一个vectorvov_ovo计算viv_ivi和vov_ovo的余弦相似度,最后可以得到一个rank\输出::::::up=0down=1tmp=0tmp+=e**2tmp=0tmp+=e**2return 0=0):# 检索函数。
2024-10-15 12:02:30
683
原创 token共享/缓存 后端代码(丐版)
利用一些平台为新用户提供的免费token额度,支持用户自发获取平台的免费token并共享到后端。减少API的调用量,设置对短时间内相同的请求调用之前的响应内容。后端实时更新可用token并且弃用额度耗尽token。GPT完成了日志输出的补充。
2024-10-10 22:18:10
1084
原创 山东大学类脑计算实验实验8 BP算法分析与实现
::: {.cell .markdown}:::::: {.cell .markdown}一个介绍反向传播算法的文章,本代码依据此文章的公式实现::: {.cell .markdown}:::::: {.cell .code execution_count=“14”}:::::: {.cell .code execution_count=“15”}::: {.output .execute_result execution_count=“15”}array([[0.22199317, 0.870732
2024-10-10 10:41:22
1160
原创 山东大学类脑计算实验实验7 卷积神经网络
数据输入层,卷积计算层,激励层(ReLU激活函数),池化层(平均池化和最大池化),全连接层,输出层。对原始数据做归一话操作,将图像数据处理为均值为0,方差为1的数据\。这里注意要保证卷积核可以覆盖到图像的边缘区域,所以需要填充。
2024-10-10 10:39:55
427
原创 山东大学类脑计算实验 实验5 HMAX模型的实现
这里我感觉其是就是这几个层做一个特征工程,提取特征什么的,然后我们要实现的训练调参的就是最后的VTU层。universal_patch_set有这个模型预训练的参数\。中发现github上有HMAX的模型定义代码,就拿来用了。网上找资料找了很长时间,这个后面的几个层着实没咋看懂。文件里边定义了hmax的S1,C1,S2,C2层\。这里反正就耐心等吧,本来数据集也大(2分钟左右)可以自己随便写一个网络训练或者其他的方法试试效果。我们只需要加载这些参数然后处理数据就行了。
2024-10-10 10:37:25
709
原创 山东大学类脑计算实验4 LSTM
输入门iti_tit决定哪些新信息将被存储在细胞状态中。遗忘门ftf_tft决定哪些信息将被丢弃。输出门oto_tot决定哪些信息将从细胞状态中输出,形成当前的隐藏状态hth_tht。:::#遗忘门的参数定义#输入门的参数定义#细胞状态候选值的参数#输出门的参数self.output_layer = nn.Linear(hidden_size, output_size)#没有添加输出层的话效果不太好#遗忘门的输出#输入门的输出#候选细胞状态。
2024-10-10 10:36:16
671
原创 山东大学类脑计算实验 3 Hebb
github一个网页导入必要的库import numpy as npdigits = [ [ [1, 1, 1, 1, 1], [1, -1, -1, -1, 1], [1, -1, -1, -1, 1], [1, -1, -1, -1, 1], [1, -1, -1, -1, 1], [1, 1, 1, 1, 1] ], [ [-1, -1, 1, -1, -
2024-10-10 10:35:15
269
原创 山东大学类脑计算实验 2
self.weights = np.random.rand(input_size + 1) # self.weights[0]是偏执项def activation(self, x): # 激活函数def predict(self, inputs): # 预测error = label - prediction # 计算误差self.weights[1:] += learning_rate * error * np.array(inputs) # 更新权重。
2024-10-10 10:34:08
334
原创 山东大学可视化作业By python
(GITHUB)[https://github.com/W1412X/visualize]always updating 2024
2024-10-04 19:47:11
178
原创 山东大学神经网络与深度学习实验 实验2 全连接
实验2 全链接加载mnist手写数字识别数据import torchvision.datasets as dsets from torchvision.transforms import transformsfrom torch.utils.data import DataLoaderimport torch.nn as nnfrom torch.functional import Fimport torchfrom tqdm import tqdmbatch_size = 32in
2024-09-25 10:33:18
301
原创 Ubuntu 20.04安装docker (其他ubuntu版本或者linux系统修改参数适用)
【代码】Ubuntu 20.04安装docker (其他ubuntu版本或者linux系统修改参数适用)
2024-09-12 23:44:03
420
原创 山东大学神经网络与深度学习 实验1
::: {.cell .code execution_count=“32”}:::::: {.cell .markdown}:::::: {.cell .code execution_count=“33”}::: {.output .display_data}::::::::: {.cell .markdown}:::::: {.cell .code execution_count=“34”}:::::: {.cell .markdown}:::::: {.cell .code executio
2024-09-12 00:28:14
1061
原创 计算机图形学实验9 RayBounding Valume求交和 BVH查找
像素网格生成:首先,我们需要为最终的图像建立一个二维像素网格。每个像素代表屏幕上的一个点,我们的目标是计算出这个点应该显示为什么颜色。发射光线:对于每个像素,从相机的位置出发,沿着该像素指向场景的方向发射一条光线。这条光线是我们想象中的从观察者的眼睛到屏幕这一段空间中的延续。光线与物体的交点检测:我们计算这条光线是否与场景中的任何物体相交,以及交点的位置。在这个例子中,就是判断光线是否击中了立方体的一个面。这通常涉及到射线与几何体求交的数学运算。
2024-06-05 14:21:56
789
1
原创 山东大学机器学习大作业 Recsys 2024 实验代码
self.data的结构是[ [ [article_id,… … ] ] …]get_item()返回对应的掩码的序列和对应的原序列,用于训练以及计算损失#获取用户的信息#规范化,对历史记录的长度进行规范else:通过历史记录中的滚动百分比来衡量用户对文章兴趣程度对于无效值默认设置为50。
2024-06-03 23:29:26
1512
6
原创 使用pyenv管理全局环境时利用virtualenv创建虚拟环境出现`No module named ‘pip._vendor.six‘`问题
【代码】使用pyenv管理全局环境时利用virtualenv创建虚拟环境出现`No module named ‘pip._vendor.six‘`问题。
2024-05-19 00:47:37
391
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人