
碎片笔记
文章平均质量分 83
收录关于机器学习、深度学习、计算机视觉与自然语言处理相关的碎片知识笔记。
_Meilinger_
个人简介:FDU科研达人养成计划|CSC联培博士生|b站/小红薯同名~欢迎各位伙伴关注,希望能与大家共同奋斗,一起进步~
展开
-
碎片笔记|PromptStealer复现要点(附Docker简单实用教程)
本文记录了复现PromptStealer论文的环境配置过程。为避免网络问题,使用huggingface镜像预先下载了论文中使用的lexica_dataset数据集。原创 2025-05-18 21:14:14 · 489 阅读 · 0 评论 -
碎片笔记|AI生成图像溯源方法源码复现经验(持续更新中……)
本篇博客分享了多种图像溯源方法的复现经验,涵盖Close-set Attribution、Open-set Attribution和Single-Model Attribution三大类。具体方法包括RepMix、De-Fake、DNA-Net、POSE、OCC-CLIP和LatentTracer。文章详细介绍了每种方法的环境配置、代码适配以及数据集处理中的常见问题和解决方案。原创 2025-05-14 23:26:47 · 944 阅读 · 0 评论 -
大模型微调|使用 LLaMA-Factory 微调 Llama3-8B-Chinese-Chat 完成知识问答任务
本篇博客记录如何使用 LLaMA-Factory 微调 Llama3-8B-Chinese-Chat 完成知识问答任务,并介绍相应报错的解决方法。原创 2025-03-12 23:16:54 · 1304 阅读 · 0 评论 -
碎片笔记|国家自然科学基金介绍及申报书撰写心得
本篇博客分享国家自然科学基金申报书撰写心得。原创 2025-03-04 11:39:58 · 1358 阅读 · 0 评论 -
会议记录|2025 MAS Lab 年度组会记录
本篇博客记录 20250220 MAS Lab 第一次大组会要点。原创 2025-02-26 17:37:02 · 235 阅读 · 0 评论 -
会议记录|MAS Lab 年度组会记录
本篇博客记录 20240831 MAS Lab 第一次大组会要点。原创 2024-09-01 21:52:26 · 1189 阅读 · 0 评论 -
碎片笔记|Computer Journal 期刊投稿注意事项
Computer Journal 期刊投稿经验分享原创 2024-08-27 18:07:17 · 2869 阅读 · 13 评论 -
经验分享|CSC联培博士生-导师推荐信撰写要点
本文分享CSC联培博士生 - 导师推荐信撰写要点原创 2024-05-03 21:15:19 · 948 阅读 · 0 评论 -
会议记录|AIGC 研究讨论会相关内容记录
2023年11月15日,下午13:00-15:00,实验室组内召开AIGC研究讨论会。本次会议收获颇丰,此篇博客记录本人对本次会议比较感兴趣的内容。原创 2023-11-16 20:35:48 · 230 阅读 · 0 评论 -
碎片笔记|AIGC核心技术综述
碎片笔记|AIGC核心技术综述原创 2023-09-30 18:28:50 · 1104 阅读 · 0 评论 -
大模型攻防|Prompt 提示词攻击
本文介绍大模型攻防领域中「Prompt提示词攻击」的相关知识。转载 2023-09-16 22:30:51 · 27360 阅读 · 2 评论 -
碎片笔记 | 大模型攻防简报
碎片笔记 | 大模型攻防简报原创 2023-09-13 22:19:29 · 1667 阅读 · 0 评论 -
碎片笔记|可训练&非自回归解码策略
碎片笔记|可训练&非自回归解码策略原创 2023-08-31 17:16:00 · 562 阅读 · 0 评论 -
碎片笔记|网络空间安全领域的“XX安全”
本文介绍网络空间安全领域的几个“安全”概念。原创 2023-08-29 21:12:28 · 369 阅读 · 0 评论 -
一点思考|漫谈 AI 中的「反馈」机制
一点思考|漫谈 AI 中的「反馈」机制原创 2023-08-31 17:35:20 · 1122 阅读 · 0 评论 -
学术资讯|「隐者联盟」公众号介绍
本文为大家介绍多媒体与AI安全研究同行值得关注的一个非营利性质公众号——「隐者联盟」。原创 2023-08-17 09:36:16 · 828 阅读 · 0 评论 -
前沿探索|关于 AIGC 的「幻觉/梦游」问题
前沿探索|关于 AIGC 的「幻觉/梦游」问题原创 2023-08-16 21:59:49 · 715 阅读 · 2 评论 -
碎片笔记|图数据与图神经网络基础介绍
碎片笔记|图数据与图神经网络介绍原创 2023-08-16 20:24:29 · 1152 阅读 · 0 评论 -
深度学习模型训练&验证&测试流程
深度学习模型训练&验证&测试流程原创 2023-08-06 11:29:10 · 1212 阅读 · 0 评论 -
学术笔记|科技论文写作常用拉丁语词汇总结
学术笔记|科技论文写作常用拉丁语词汇总结原创 2023-08-06 10:32:21 · 1182 阅读 · 0 评论 -
博士毕业答辩流程 & 注意事项
博士毕业答辩流程 & 注意事项原创 2023-05-18 15:12:58 · 2636 阅读 · 0 评论 -
Pytorch 使用经验分享&知识点总结
pytorch使用小技巧总结。原创 2023-04-03 21:32:25 · 589 阅读 · 0 评论 -
Exercises - Natural Language Processing with Python (Chapter3)
from __future__ import divisionimport randomimport nltkfrom bs4 import BeautifulSoupfrom nltk.corpus import brown, words, udhr, gutenberg, genesis, abc, wordnet as wnfrom urllib.request import urlopenimport pycountry# 1string = 'colorness'new_s.原创 2020-11-08 21:59:42 · 312 阅读 · 0 评论 -
Exercises - Natural Language Processing with Python (Chapter5)
import pprintimport nltkimport pylabfrom nltk.corpus import brown# 1lst1 = 'British Left Waffles on Falkland Islands'lst2 = 'Juvenile Court to Try Shooting Defendant'text1 = nltk.word_tokenize(lst1)print(nltk.pos_tag(text1))text2 = nltk.word_tok.原创 2020-11-13 21:01:01 · 320 阅读 · 0 评论 -
Note - Natural Language Processing with Python (Chapter2)
import nltkfrom nltk.corpus import gutenberg, webtext, nps_chat, brown, reuters, inaugural, udhrprint(nltk.corpus.gutenberg.fileids())emma = nltk.corpus.gutenberg.words('austen-emma.txt')print(emma, len(emma))emma = nltk.Text(gutenberg.words('aust.原创 2020-11-04 17:35:37 · 313 阅读 · 1 评论 -
Note - Natural Language Processing with Python (Chapter5)
import nltkfrom nltk.corpus import brown, treebankfrom operator import itemgetterfrom nltk.tbl import demo as brill_demotext = nltk.word_tokenize("And now for something completely different")print(nltk.pos_tag(text))nltk.help.upenn_tagset('RB')t.原创 2020-11-11 22:22:02 · 227 阅读 · 0 评论 -
Exercises - Natural Language Processing with Python (Chapter6)
import nltkfrom nltk.corpus import names, senseval, movie_reviews, nps_chat, brown, ppattachimport random# 2# Gender Identificationnames = ([(name, 'male') for name in names.words('male.txt')] + [(name, 'female') for name in names.words('f.原创 2020-11-16 17:39:09 · 173 阅读 · 0 评论 -
Book - Natural Language Processing with Python (latest version)
Natural Language Processing with Python– Analyzing Text with the Natural Language ToolkitSteven Bird, Ewan Klein, and Edward LoperThis version of the NLTK book is updated for Python 3 and NLTK 3.thelatest versionof the nltk book is available at...原创 2020-11-11 14:51:43 · 220 阅读 · 0 评论 -
Note - Natural Language Processing with Python (Chapter6)
3.1 The Test SetWhat's worse, because of the call torandom.shuffle(), the test set contains sentences that are taken from the same documents that were used for training.原创 2020-11-14 19:58:04 · 182 阅读 · 0 评论 -
Note - Natural Language Processing with Python (Chapter9)
import nltkfrom nltk import load_parser# Example 9.1kim = {'CAT': 'NP', 'ORTH': 'Kim', 'REF': 'k'}chase = {'CAT': 'V', 'ORTH': 'chased', 'REL': 'chase'}chase['AGT'] = 'sbj'chase['PAT'] = 'obj'lee = {'CAT': 'NP', 'ORTH': 'Lee', 'REF': 'l'}sent = .原创 2020-11-21 10:26:34 · 177 阅读 · 0 评论 -
FileNotFoundError: [Errno 2] No such file or directory: ‘errors.out‘ (python自然语言处理章节5.6 最后的示例报错)
在使用python3.7运行Natural Language Processing with Python Chapter 5 的最后一个示例from nltk.tbl import demo as brill_demobrill_demo.demo()print(open("errors.out").read())时, 出现如下错误:Traceback (most recent call last): File "E:/Python Practice/NLP/Chapter5.py原创 2020-11-11 23:11:31 · 1413 阅读 · 1 评论 -
Exercises - Natural Language Processing with Python (Chapter9)
import nltk# 1grammar = nltk.data.load('9_1_1.fcfg')print(grammar)tokens_1 = "I am happy".split()tokens_2 = "she is happy".split()tokens_3 = "she am happy".split()parser = nltk.load_parser('9_1_1.fcfg')for tree in parser.parse(tokens_1): pri.原创 2020-11-22 08:54:07 · 188 阅读 · 0 评论 -
Note - Natural Language Processing with Python (Chapter11)
import nltkfrom nltk import refrom bs4 import BeautifulSoupimport csvfrom collections import Counterfrom collections import defaultdictfrom nltk.corpus import toolboximport sysfrom nltk.util import elementtree_indentfrom xml.etree.ElementTree imp.原创 2020-11-23 17:54:16 · 148 阅读 · 2 评论 -
Exercises - Natural Language Processing with Python (Chapter4)
from random import randomimport matplotlibimport networkx as nximport nltkfrom nltk import ngrams, refrom nltk.corpus import state_union, swadesh, cmudict, wordnet as wn, shakespeare# 1help(str)help(list)help(tuple)# 2list1 = [1, 2, 3, 4]tu.原创 2020-11-10 11:01:07 · 310 阅读 · 0 评论 -
Exercises - Natural Language Processing with Python (Chapter7)
import nltkfrom nltk import chunk, treefrom nltk.corpus import conll2000, brown, treebank_chunk, treebankfrom nltk.chunk import ChunkScore# 1 ref: https://linguistics.stackexchange.com/questions/28482/why-are-three-tags-necessary-for-the-iob-format-w.原创 2020-11-18 12:12:12 · 217 阅读 · 0 评论 -
Note - Natural Language Processing with Python (Chapter8)
import nltkfrom nltk.corpus import treebank# Ubiquitous Ambiguitygroucho_grammar = nltk.CFG.fromstring("""S -> NP VPPP -> P NPNP -> Det N | Det N PP | 'I'VP -> V NP | VP PPDet -> 'an' | 'my'N -> 'elephant' | 'pajamas'V -> '.原创 2020-11-19 22:06:53 · 211 阅读 · 0 评论 -
Note - Natural Language Processing with Python (Chapter10)
import nltkfrom nltk import load_parserfrom nltk.sem import chat80# 10.1 Querying a Databasenltk.data.show_cfg('grammars/book_grammars/sql0.fcfg')cp = load_parser('grammars/book_grammars/sql0.fcfg', trace=3)query = 'What cities are located in China.原创 2020-11-23 15:16:59 · 265 阅读 · 0 评论 -
Note - Natural Language Processing with Python (Chapter3)
from __future__ import divisionimport nltk, re, pprintfrom nltk.corpus import gutenberg, nps_chat, brownfrom urllib.request import urlopenfrom bs4 import BeautifulSoup# access electronic booksurl = "http://www.gutenberg.org/files/2358/2358.txt"r.原创 2020-11-06 23:06:41 · 246 阅读 · 2 评论 -
Exercises - Natural Language Processing with Python (Chapter2)
from __future__ import divisionimport nltkfrom nltk.corpus import gutenberg, brown, state_union, swadesh, names, cmudict, udhrfrom nltk.corpus import wordnet as wn# 1phrase = ["I", "like", 'noodles', "."]print(phrase+phrase)print(phrase*3)print(.原创 2020-11-05 23:06:20 · 282 阅读 · 0 评论 -
Note - Natural Language Processing with Python (Chapter7)
import nltkfrom nltk.corpus import conll2000, conll2002import re# Information Extractionlocs = [('Omnicom', 'IN', 'New York'), ('DDB Needham', 'IN', 'New York'), ('Kaplan Thaler Group', 'IN', 'New York'), ('BBDO South', 'IN',.原创 2020-11-17 10:12:22 · 207 阅读 · 0 评论