- 博客(70)
- 资源 (2)
- 收藏
- 关注
原创 PPG信号和ECG信号检测血管年龄
通过脉搏到达时间进行测量,简单来说就是 先从脉冲传输时间 PPG 数据集中提取数据,提取此数据集中每个对象的脉冲到达时间,再提取参考年龄,进行一些比较。Hr_1_start/end 测量开始时使用欧姆龙 HEM-7322 血压计测量的心率 (bpm)ppg则一般不使用收缩峰时间,因为脉搏开始和收缩峰之间可能存在可变延迟,所以一般会用脉冲开始时间。ecg可以直接提取R 波的时间,它表示心室去极化的时间(促使心室收缩的电活动)。对于ecg和ppg信号,用neurokit2和wfdb库导入数据,
2023-06-18 00:19:14
1428
原创 Multi-scale Peak and Trough Detection Optimised for Periodic and Quasi- Periodic Neuroscience Data
大概讲了讲bishop算法。主要是从Scholkmann算法改进的,用于检测颅内压的波峰。生理信号中波峰和波谷的可靠检测对于医学和计算生物学的研究技术至关重要,也是许多信号处理任务的先决条件。准确峰值检测从简单的窗口阈值 window-thresholding 和小波变换技术 wavelet transform techniques 到隐马尔可夫模型HMM, k 均值聚类和基于熵的技术entropy-based techniques。
2023-04-22 03:01:41
363
原创 语音识别的Token pass algorithm
Viterbi 算法是一种动态规划程序,用于获得给定模型 λ 和长度为 T 的观察序列 O 的最可能路径。定义以状态 j 结束的长度为 t 的部分路径的可能性然后,部分路径的似然可以表示为前面状态 x (t − 1) 的似然Viterbi算法主要是用来确定最可能的状态序列。如果使用连续语音的复合模型,Viterbi 算法会隐含地产生最佳单词序列。如果不需要状态序列,为了恢复词模型,只需要记录从每个模型的最终状态进行外部转换的点。Viterbi算法允许time-synchronous时间同步操作。
2023-03-31 20:43:29
670
原创 git bash clone
f 强制 Git 用您现有项目的文件覆盖 GitLab 上已经存在的任何文件。这一步经常出问题,一会儿失败一会儿成功了但是不显示的,name是分支。-u 使远程 GitLab 存储库成为您现有项目的默认存储库。本来试了一个周末都没成,不知道怎么传成功的 很神秘 先留个档。
2023-03-08 06:15:22
387
原创 Mel Frequency Cepstral Coefficients (MFCCs)
主要作用是对滤波器组进行去相关操作,丢弃除了自己设定的num_ceps以外的值,这些值代表滤波器组系数的快速变化,而这些细节对自动语音识别 (ASR) 没有什么帮助,然后将lift与mfcc相乘计算外积,以弱化较高的 MFCC,据称可以改善噪声信号中的语音识别。信号的梅尔频率倒谱系数 (MFCC) 是一小组特征(通常为 10-20),它们简明地描述了 spectral envelope 的整体形状。有点不懂的是他算的公式是20 * np.log10(fbank),有点不太清楚这个公式是哪里来的。
2023-02-18 20:00:22
969
原创 Cepstral Analysis 倒谱分析
可以在时域或频域中对序列进行滤波,对数的谱图叫倒谱,(经常使用的实数)倒谱正式定义为“信号对数幅度谱的傅立叶逆变换”。MFCC 不是实现一组(计算量大的)数字滤波器,而是通常使用 DFT 计算,其输出分为 20-40 个频带。可以使用log将乘法转换为加法,因此,“对数频谱”可以看作是对数激励频谱和对数声道频率响应的总和。它基于以下观察:语音信号的频谱是激励频谱和声道频率响应的乘积。一个人的“A”应该以相同的方式表示作为来自其他人的“A”– 基于使用低逆频倒谱分量作为(平滑的)频谱的表示。
2023-01-23 21:58:05
2496
1
原创 DALLE2
github库的DALLE2基于OPENAI和pytorch实现以前学习强化学习的时候接触过一点点OPENAI但是没怎么深入学习有用到CLIP模型和Unet模型好 然后并不知道CLIP模型是个啥hhh所以先挖坑吧先去学一手CLIP模型
2022-05-09 03:01:52
4649
原创 Exploiting Cloze Questions for Few Shot Text Classification and Natural Language Inference
Exploiting Cloze Questions for Few Shot Text Classification and Natural Language InferencePattern-Exploiting Training (PET)模式开发训练,一种半监督训练程序,将输入示例重新表述为完形填空式短语,以帮助语言模型理解给定任务。然后使用这些短语将软标签分配给大量未标记的样本。介绍由于大量的语言、领域和任务以及注释数据的成本,在 NLP 的实际使用中通常只有少量标记的示例,这使得小样本学习
2022-03-15 08:00:45
1382
原创 Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks
Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks代码BERT 的构造使其不适合语义相似性搜索以及聚类等无监督任务。别人很完善的总结介绍这篇论文介绍了 Sentence-BERT (SBERT),它是对预训练 BERT 网络的一种修改,它使用连体siamese 和三元组网络triplet network 结构来推导语义上有意义的句子嵌入,可以使用余弦相似度进行比较。这将工作量从 BERT / RoBERTa 的 65 小时减
2022-03-09 02:53:06
1349
原创 Yen Threshoding
无意间用到了Yen Threshoding方法……翻开论文一看挖槽居然是95的文章 难怪全网找不到一点内容相关……不过也确实,现在普遍用Otsu阈值,但是在我这个细胞分割预处理上用Yen效果反而比Otsu要好,于是就简单拜读一下吧哈哈哈哈哈,以我的水平估计还遥远着。A New Criterion for Automatic Multilevel Thresholding在自动选取阈值的众多方法中,绝大多数都是基于最大熵原则进行阈值的选择,Yen提出基于最大相关性原则的一个新方法。众所周知,随着分
2022-03-08 06:30:34
3170
原创 Strong Baselines for Neural Semi-supervised Learning under Domain Shift
Strong Baselines for Neural Semi-supervised Learning under Domain Shift第六周阅读材料在领域转移方面出现了新颖的神经网络,但是许多网络的评估方式是很弱的?很糟糕的于是这个文章评估了经典的 bootstrappping 方法 并提供了一种新评估方式:multi-task tri-training(多重任务三次训练)是一种比传统三次训练方式更节省空间和时间的方法.虽然他们的新方法技术先进但是表现得不太好,然后结论是经典的tri-tra
2022-03-04 07:59:49
738
原创 End-to-end Sequence Labeling via Bi-directional LSTM-CNNs-CRF
End-to-end Sequence Labeling via Bi-directional LSTM-CNNs-CRF虽然说是16年的老文了但是依旧值得一读当年非常新颖的神经网络结构使用双向 LSTM、CNN 和 CRF 的组合。实现了端对端,不需要数据预处理或者特征工程在POS-tagging上取得了97.55%的正确率,在NER上取得了91.21的F1值。介绍传统高性能模型是...
2022-02-24 21:18:11
1320
转载 Stardist简单使用
官方文档里含几个例子用于细胞分割,基于unetpip install stardistfrom csbdeep.utils import Path, download_and_extract_zip_file, normalizefrom stardist.matching import matching_datasetfrom stardist import fill_label_holes, random_label_cmap, relabel_image_stardist, calcula
2022-02-23 19:38:03
1846
2
原创 Linguistic Regularities in Continuous Space Word Representations
Linguistic Regularities in Continuous Space Word Representations语言规律在连续单词规律中的表示第四周阅读材料该论文检查了由输入层权重隐式学习的向量空间的单词表示介绍神经网络语言模型的一个特征是将单词表示为高维实值向量,单词通过一个训练过的查找表转换为实值向量,用作神经网络的输入,这些模型的主要优点之一是 分布式表示实现了经典 n-gram 语言模型无法实现的泛化水平,n-gram 模型其中相似的词可能具有相似的向量。因此,当模型参数根
2022-02-15 22:56:22
1075
原创 Character-Aware Neural Language Models
Character-Aware Neural Language Models第三周阅读材料代码csdn上的翻译 描述了一个简单的神经语言模型,输入部分只依赖于字符,预测以单词进行。模型采用CNN和highway network over characters,输出结果到了一个long short-term memory (LSTM) recurrent neural network language model (RNN-LM)模型。介绍语言模型被形式化为一系列字符串(单词)上的概率分布,传统方
2022-02-08 21:32:18
820
原创 自然语言处理lab笔记-bigram,lm
class language_model(): def __init__(self,trainingdir=TRAINING_DIR,files=[]): self.training_dir=trainingdir self.files=files self.train() def train(self): self.unigram={} self.bigram={}
2022-02-07 05:21:37
851
原创 The Microsoft Research Sentence Completion Challenge
The Microsoft Research Sentence Completion Challengelab2 阅读材料微软的一个挑战项目介绍MSR Sentence Completion Challenge Data,它由 1,040 个句子组成,每个句子有四个虚假的句子,其中原始句子中的单个(固定)单词已被具有相似出现统计的冒名顶替词替换。对于每个句子,任务是确定该单词的五个选项中哪个是正确的。该数据集是根据古腾堡计划数据构建的。种子句子是从柯南道尔爵士的五部福尔摩斯小说中挑选出来的,然后
2022-01-31 06:16:05
250
原创 Information Content Measures of Semantic Similarity Perform Better Without Sense-Tagged Text
Pedersen (2010): Information Content Measures of Semantic Similarity Perform Better without Sense Tagged Text语义相似性的信息内容度量在没有 Sense-Tagged Text 情况下表现更好anle一周阅读材料,不算很难读这个论文提出了对 相似性度量对于 基于 信息内容 的概念对pairs of concepts 的经验性比较。该文章表明,与最大的可用人工注释语义标记文本语料库相比,使用适量
2022-01-21 07:06:03
856
原创 谁是笨蛋呢
我是$req = $con->prepare('INSERT INTO Request_evulation (name,file_path,connection_method) VALUES (?,?,?);'); if(!$req){ echo "Prepare failed: (". $con->errno.") ".$con->error."<br>"; }
2021-12-01 06:56:08
215
原创 minimax算法和Alpha-Beta pruning实现英式跳棋
作业喜加一。youtuber: Tech With Tim看了他的教程……真的好厉害噢这个跳棋和中国的三角式还不太一样,棋盘是8*8的大概就是两边各执一方,然后正常跳,跳过去的时候会把对手棋子吃掉,跳到对面最后一列就会变成KING,然后可以往回反跳。最后就是看谁剩下的棋子多谁赢。所以最大最小算法他的总和就是比如图上。白色棋子数减去红色棋子数。白方希望这个数越大,而红方希望这个数越小。对于每个棋子,所有的可能性行为就是一棵树。所以就成了经典的的最大最小博弈算法。思路构建whil
2021-11-08 18:29:31
4380
4
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人