OAI数据集

欢迎交流~

1、Pei Y, Mu L, Xu C, et al. Learning-based landmark detection in pelvis x-rays with attention mechanism: data from the osteoarthritis initiative[J]. Biomedical Physics & Engineering Express, 2023, 9(2): 025001.

这篇论文的作者提供了部分OAI数据集的gt和label:只有landmarks的gt和labels的标注信息,原图要去OAI数据集里自己找。OAI数据集比较大分类比较多,需要花点时间。

https://wwov.lanzouv.com/b00wm699hc  密码:4jde

2、数据的有效访问时限是一年,申请成功会发邮件通知。​​​​​​​

【others:】

下载OAI骨科数据集_oai数据库_偷摸学习的山哥的博客-优快云博客

下载骨科数据集OAI_qq_38328349的博客-优快云博客

spine & knee Osteoarthritis (脊柱和膝关节Ambellan, Dr. Felix | Zuse Institute Berlin (ZIB)

www.zib.de【下载不了orz】

【MINE】

https://nda.nih.gov/oai/

https://nda.nih.gov/nda/standard-operating-procedures.html#sop4a

1、SOP-01 申请NDA 帐户:有三种方式,我选择注册https://login.gov/账户申请NDA。

就是先去注册login.gov的账号然后createDNA账号。注册login.gov用邮箱,验证方式选择10个密钥,后面每登录一次就用一个密钥验证,10次用完之后重新申请就行了。

然后用gov账号登陆去申请NDA的时候需要用谷歌浏览器,不然会有reCaptcha真人验证,会有报错(edge不行,科学一下chrome)

2、https://nda.nih.gov/user/dashboard/data_permissions.html个人申请方式

在OAI后面request Access之后会有permission问题,应该是NDA账户需要审核1-3个工作日。搬好小板凳等待ING(3.14)

3.20还是不能一样不能下载orz()

 OAI的权限我没有,真的只有机构才能申请吗?

但是sop4里面有institution和individual方式入口 应该还是NDA账户权限问题

再等等,是我有什么协议没有签还是NDA审核还需要时间呢

3、检索目录:The Osteoarthritis Initiative(V06)https://nda.nih.gov/search.html?query=The%20Osteoarthritis%20Initiative%EF%BC%88V06%EF%BC%89

但summary那里可申请数目为0 T T

终究还是权限的问题,我没有access                       再试再等再报

4、

NDA(论文出版和DOI注意事项)

这回真的是我想要的了吧!

NIMH Data Archive - Data Packages (nih.gov)

NIMH Data Archive - Landing Page (nih.gov)这次都可以了

但是在把想要的数据集add to my DataPackages之后怎么下载(占存都好大啊sos)

https://github.com/NDAR/nda-tools

### 膝关节CT影像数据集 对于医疗研究或机器学习用途的膝关节CT影像数据集,多个公开资源提供了高质量的数据集合。一个重要的来源是通过医学图像计算和计算机辅助干预学会(MICCAI)[^1]所支持的一些竞赛项目及其后续发布的数据集。 另一个重要渠道是由美国国家癌症研究所(NCI)赞助并通过The Cancer Imaging Archive(TCIA)分发的各种类型的身体部位成像资料;尽管主要关注肿瘤学领域,也可能存在适用于更广泛骨科应用的数据实例[^2]。 此外,在公共平台上如Kaggle也经常会有研究人员分享特定主题下的医学影像数据集,这些平台上的社区活动能够提供最新的可用资源信息以及同行间的交流机会[^1]。 为了获取最合适的膝关节CT影像数据集用于具体的研究目的或算法开发工作,建议访问上述提到的专业机构网站并查阅其最新发布的信息。同时也可以考虑加入相关领域的在线论坛或学术社群来获得更加针对性的帮助和支持。 ```python import requests from bs4 import BeautifulSoup url = 'https://www.kaggle.com/datasets' response = requests.get(url) soup = BeautifulSoup(response.text, 'html.parser') # 假设页面结构允许我们这样查找关键词 datasets = soup.find_all(text='knee joint ct') for dataset in datasets: print(dataset.parent['href']) ``` 此段Python代码展示了如何利用网络爬虫技术初步探索类似Kaggle这样的开放数据平台,寻找含有“knee joint ct”的数据集链接作为进一步调查的方向之一。请注意实际操作时需遵循各站点的服务条款及版权规定。
评论 19
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值