- 博客(300)
- 收藏
- 关注
原创 NTCP预测
Three-Dimensional Deep Learning Normal Tissue Complication Probability Model to Predict Late Xerostomia in Patients With Head and Neck Cancer
2025-03-03 11:19:00
181
原创 ubuntu安装deepseek
2、安装 deepseek,选择合适大小的,因为显存大。如果涉及到docker删除,然后再启动容器。3、设置ollama监听端口。4、安装open-webui。1、安装ollama。
2025-02-06 12:51:30
1409
原创 A Cascade Transformer-based Model for 3D Dose Distribution Prediction in Head and Neck Cancer Radio
https://arxiv.org/pdf/2307.12005 https://github.com/GhTara/Dose_Prediction
2025-01-06 15:31:12
176
原创 CrossViT: Cross-Attention Multi-Scale Vision Transformer for Image Classification
https://arxiv.org/abs/2103.14899 GitHub - IBM/CrossViT: Official implementation of CrossViT. https://arxiv.org/abs/2103.14899https://github.com/IBM/CrossViT
2025-01-06 15:29:20
130
原创 enum status error expected identifier before
在linux中编译项目包含了cimg.h、opencv、googletest时,在windows下命名没问题,但是在linux的时候总是出现enum各种问题,原因是头文件包含顺序,做法就是调整头文件包含顺序。
2024-11-22 14:52:51
159
翻译 一、CUDA文档学习-引言
一个多线程multithreaded 程序被分割成相互独立执行的线程块blocks of threads,这样多处理器的GPU会比少处理器的GPU在更短的时间内自动执行程序。GPU可以通过计算隐藏内存访问延迟,而不是依赖于大型数据缓存和复杂的流控制来避免长内存访问延迟,这两者在晶体管方面都是昂贵的。挑战在于开发应用软件,透明地扩展其并行性,以利用不断增加的处理器内核数量,就像3D图形应用程序透明地扩展其并行性到具有广泛不同内核数量的多核gpu一样。c++语言支持列出了设备代码中支持的c++特性。
2024-11-04 21:20:29
68
转载 修改nnUNetPlans.json的
主要的差异就是增加了ResEncUNetPlanner,就是residual encoder。然后把ResEncUNetPlanner生成的nnUNetResEncUNetPlans.json中的内容,合并到nnUNetPlans.json。网络结构之间还能够继承,因此进需要增加一个,与3d_fullres重复的内容可以省略3、修改patch size和batch size4、运行。
2024-10-14 09:34:33
128
原创 c++ The function is not implemented. Rebuild the library with Windows, GTK+ 2.x or Carbon
我这里用 了QT,opencv编译或选择with_qt,然后再编译一下。
2024-09-30 09:27:56
331
原创 openmetadata安装
3、原本想安装的那台是科学上网受限,因此我把这台装好的docker。1、检查一下docker和docker-compose是否安装。
2024-08-01 08:56:18
697
原创 Circular Barplot for 40 Cases by Group
【代码】Circular Barplot for 40 Cases by Group。
2024-07-14 00:05:41
261
原创 目标检测mAP
mAP(mean of Average Precision) : 对所有类别的AP值求平均值。0.5 和0.95之间取10个IoU阈值(0.5、0.55、0.6 ….. 0.9、0.95)AP(average precision 平均精度):AP是计算单类别的模型平均准确度。MS-COCO(Microsoft Common Objects)数据集。
2024-06-26 17:49:45
503
原创 非极大值抑制算法(Non-Maximum Suppression,NMS)
目标检测中检测出了许多的候选框,候选框之间是有重叠的,NMS作用重叠的候选框只保留一个。
2024-06-26 17:18:30
343
原创 gitlab推送已经存在的代码
3、移除已经存在的远程链接 git remote rm origin。4、推送git push -uf origin main。2、设置->仓库->受保护分支->允许强制推送。1、在gitlab上创建空的文件。
2024-06-07 09:47:08
310
翻译 放疗医生评估放疗计划中国专家共识
放疗医生、物理师(剂量师)危及器官(organ at risk, OAR)计划靶区(planning target volume, PTV)临床靶区(clinical target volume, CTV)肿瘤区(gross tumor volume, GTV)内靶区(internal target volume, ITV)内在肿瘤去(internal gross tumor volume, IGTV)危及器官计划体积(planning organ at risk volume, PRV)
2024-06-01 23:00:09
1028
翻译 PyTorch Lightning(一)、LIGHTNING IN 15 MINUTES
定义LightningModel,当然validation_step和test_step也是一样的。如果您有多行具有相似功能的代码,您可以使用回调将它们轻松地分组在一起,并同时打开或关闭所有这些行。训练可视化,如果有tensorboard的话,直接打开网页。把有关于cuda的部分移除掉,后面会统一追加。设置反向传播和优化器部分,也可以不显式的写明。trainer里面有很多的小技巧。自定义的train loop。优化器会自动的组合这些步骤。快速的设置GPU或者CPU。Trainer的扩展。
2024-05-31 11:11:00
153
原创 Command ‘mlflow‘ not found,
Ubuntu已经pip install mlflow后,执行。报错Command 'mlflow' not found,修正命令为,命令执行路径在./mlruns父目录。
2024-05-29 15:49:53
156
翻译 nnDetection: A Self-configuring Method for Medical Object Detection
应用于医学影像领域的目标检测任务。
2024-05-17 17:33:45
308
原创 第八节课《大模型微调数据构造》
预训练:网络、论文数据,无标签数据transform算法base model典型:GPT监督微调对话数据:prompt和response,人工标注或者模型生成,规模小但是质量高RHF一般不涉及,人工排序、打分,数据少,质量高二分类算法强化学习prompts:问题,模型提供输出revive model排序打分强化学习算法RL model。
2024-05-07 00:30:54
419
原创 第七节课《OpenCompass司南--大模型评测实战》
评测 InternLM2-Chat-1.8B 模型在 C-Eval 数据集上的性能。OpenCompass 默认并行启动评估过程。--debug 模式启动评估,并检查是否存在问题。自定义任意模型和数据集,多模型和数据集进行切分,做到并行化(多GPU或任务),多种输出方式。做提示词工程,丰富题目,给模型做推理,然后做评测,评测结果更加真实反映模型性能。列出所有跟 InternLM 及 C-Eval 相关的配置。
2024-05-06 23:23:06
1111
原创 第六节课《Lagent & AgentLego 智能体应用搭建》
继承 BaseAction 类实现简单工具的 run 方法;或者实现工具包内每个子工具的功能简单工具的 run 方法可选被 tool_api 装饰;工具包内每个子工具的功能都需要被 tool_api 装饰两个 terminal 中分别启动LMDeploy 服务Tutorial 已经写好的用于这部分的 Web Demo确保 其他终端服务已关闭,否则会出现 CUDA Out of Memory 或是端口已占用的情况!输入获取的API KEY。
2024-05-06 14:16:58
1066
原创 第五节课《LMDeploy 量化部署 LLM 实践》
PDF链接:https://pan.baidu.com/s/1JFtvBWgEGFWJq8pHafvIUg?pwd=6666提取码:6666。
2024-05-06 00:08:33
1112
1
原创 第四节课《XTuner作业》
视频链接:https://b23.tv/BrTSfslPDF链接:https://pan.baidu.com/s/1JFtvBWgEGFWJq8pHafvIUg?pwd=6666提取码:6666。
2024-05-05 17:04:52
1101
原创 第四节课《XTuner 微调 LLM:1.8B、多模态、Agent》
为什么微调?基础模型不能满足特定领域需求。增量预训练:简单的增加新的知识指令跟随:问答的形式,学会人类指令。基座模型只是单纯的拟合训练数空间分布,无法意识到输入是一个问题,返回一个类似于最相似的结果,如上图test。指令微调输入的是一问一答的聊天,可以理解输入的是问题。一条数据的一生原始数据:如爬虫得来的标准格式数据:训练模型能接受的输入XTuner中json形式为了让大语言模型能够区分出三种角色,实际上就是增加标注,并且在实际训练的时候还要增加其实标识符。Token方案:LoRA和QLoRA。
2024-04-30 16:58:54
1200
翻译 InternLM2 Technical Report
AbstractInternLM2是一个开源的LLM(Large Language Models)InternLM2详细的展示了如何准备训练数据:文本、代码、长上下文数据InternLM2有效的捕获长依赖关系,初始训练在4k tokens上,而后在32k tokens上预训练并微调,然后在200k tokens上进行测试。InternLM2使用的对齐方法:Supervised Fine-Tuning(SFT) Conditional Online Reinforcement Learn
2024-04-24 00:40:20
702
原创 第三节课《香豆:搭建你的 RAG 智能助理》
Advanced RAG:检索前后都进行增强,检索的问题路由扩展,检索到的信息进行重排序总结融合,运用在摘要生成和内容推荐。Modular RAG: 将RAG基础部分和后续功能进行模块化,根据业务进行定制,完成多模态任务、对话系统等更高级的任务。问题+检索结果作为提示词prompts-->生成generation-->回答answer。RAG:提问query-->向量化embedding--->搜索indexing-->检索retieval->迭代检索:根据检索结果多次迭代检索知识,提供知识基础。
2024-04-14 08:14:36
431
原创 第二节课《轻松玩转书生·浦语大模型趣味 Demo》
比较匆忙,假期前仿照第一期课程的内容好像被清空了,重新搭建一次。按照那老师写好的,一步步复制就好了。
2024-04-06 00:18:17
430
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人