- 博客(28)
- 收藏
- 关注
原创 山东大学项目实训之OtherDepartmentsActivity
查看其他科室整改措施,科室主任整改时或质控办进行点评时可以查看其他科室的整改措施,此时需要用bundle传一个对象,这个对象安卓有一个父类叫Serialization.Serialization类获取其他科室整改措施...
2022-06-11 23:31:08
225
原创 山东大学项目实训之RectifyListActivity
接下来是职能科室和非职能科室的待整改事件列表,待评价事件列表,已评价事假列表。依旧可以通过选择不同的事件类型来查看。在此界面中,科室主任选择点击事件进入整改或评价界面。源代码展示这是点击事件时的调用。其中需要使用bundle在activity之间传事件Id和事件的状态这是每个事件框的Adapter...
2022-06-11 23:19:36
176
原创 山东大学项目实训之事件生命周期
首先医院的每个员工都有上报事件的权限菜单,事件上报后到达质控办的待处理事件列表。质控办可以选择科室通过或进行驳回。通过的事件会出现在上报人的已通过界面和职能科室主任和涉事科室主任的待整改事件列表界面。各科室整改完成后,事件由质控办进行最终事件的点评。...
2022-06-11 23:06:20
193
原创 山东大学项目实训之RectifyAcitivity和InvolvedRectifyActivity
分别是职能科室和非职能科室整改事件的活动。其区别在于职能科室全部为非必填项而非职能科室全部为必填项且需要上报附件。以下为获得整改事件的源代码展示
2022-06-11 22:57:58
197
原创 山东大学项目实训之安卓ExamineActivity
质控办在此进行事件的审核并选择科室派发或驳回选择多个科室进行事件派发或直接驳回显示不良事件信息显示不良事件派发科室并派发和驳回
2022-06-11 00:49:07
119
原创 山东大学项目实训之examineListActivity
查看不良事件不同状态的列表,可选择不同事件类型查看,首先不良事件上报后会出现在质控办待审核界面,质控办进行审核后可以选择科室进行派发或驳回。待职能科室和涉事科室全部执行完后可以在待评价中进行最终的点评。关闭的事件会出现在已评价中。xml文件Java文件...
2022-06-11 00:42:18
173
原创 Okhttp附件上传
安卓附件上传用OKhttp实现首先打开相册选择附件.可以通过定义mimeTypes来控制选择的文件类型,另外如果是选择图片,ACTION_GET_CONTENT与ACTION_PICK两种方法都可以打开Android本地图库(Intent.ACTION_GET_CONTENT获取的是所有本地图片, Intent.ACTION_PICK获取的是相册中的图片),两者的使用和返回的uri有所不同。再拿到附件的path值并上传至服务器...
2022-06-10 23:51:30
512
原创 山东大学项目实训之安卓reportActivity上报不良事件
安卓reportActivity上报不良事件之普通事件上报不良事件类型共有七中,前六种是普通事件上报流程spinner选择事件类型上报患者信息可以根据住院号或门诊号或就诊卡号从his系统获得患者信息自动加载发生场所与患者信息来自数据库可更改的数据级别与类别也是来自数据库可维护的数据实现上传附件、暂存、匿名上报、实名上报等功能,见专栏中其他文章顶部进度栏需要在build.gradle中引入dependencyimplementation ‘com.anton46:steps
2022-06-07 20:34:21
225
原创 山东大学项目实训之安卓slideActivity
安卓端侧滑抽屉界面侧滑activity包括两个菜单,一个主菜单,一个侧滑菜单主菜单侧滑菜单SlideActivitySlideMenu
2022-06-07 20:32:23
189
原创 不良事件管理系统登录功能测试
Okhttp使用OKhttp3网络框架发送post网络请求并返回tokenOKHttp是一个当前主流的网络请求的开源框架,PUT,DELETE,POST,GET等请求,文件的上传下载,加载图片(内部会图片大小自动压缩),支持请求回调,直接返回对象、对象集合,支持session的保持sharedpreferenceAndroid平台为我们提供了一个SharedPreferences接口,它是一个轻量级的存储类mode指定为MODE_PRIVATE,则该配置文件只能被自己的应用程序访问。mode指定
2022-05-03 21:43:47
1287
原创 JWT双token前端的存储及请求
什么是token:token即为令牌,是服务器生成的一串字符串,作为客户端向服务器进行请求的“通行证”。在客户端进行初次登陆后由服务器返回,之后的每次请求只需要携带token进行请求即可,而无需携带密码等敏感信息什么是双token:用户登录后,要在一段时间内的请求不用重新登录,APP端的这个时间很长多方面考虑可使用双token,用户端要缓存两个token,一个是access_token,一个是refresh_token。如果只使用一个token并把世界设置很长是有很大缺陷的。第一是为了安全,时间设置的
2022-03-20 12:00:26
2430
1
原创 Jieba分词代码研读总结
2021SC@SDUSCjieba分词用到的算法:基于Trie树结构实现高效的词图扫描,生成句子中汉字所有可能成词情况所构成的有向无环图(DAG)采用了动态规划查找最大概率路径, 找出基于词频的最大切分组合对于未登录词,采用了基于汉字成词能力的HMM模型,使用了Viterbi算法jieba分词最主要的函数cut的前半部分主要是根据用户指定的模式 用 正则表达式 将输入的文本 分块(block)。然后针对每一块进行分词,默认情况(精确模式)下使用的 块的分词函数叫 __cut_DAG 。__cut
2021-12-25 01:39:54
305
原创 jieba分词textrank算法
2021SC@SDUSCTextRank是一种用以关键词提取的算法,因为是基于PageRank的,所以先介绍PageRank。PageRank通过互联网中的超链接关系确定一个网页的排名,其公式是通过一种投票的思想来设计的:如果我们计算网页A的PageRank值,那么我们需要知道哪些网页链接到A,即首先得到A的入链,然后通过入链给网页A进行投票来计算A的PR值。这样设计可以保证达到这样一个效果:当某些高质量的网页指向网页A的时候,那么网页A的PR值会因为这些高质量的投票而变大,而网页A被较少网页指向或被一
2021-12-25 01:25:49
971
原创 jieba查找最大概率路径
2021SC@SDUSC采用了动态规划查找最大概率路径, 找出基于词频的最大切分组合1.查找待分词句子中已经切分好的词语(我觉得这里应该是全模式下的分词list), 对该词语查找该词语出现的频率(次数/总数), 如果没有该词(既然是基于词典查找进行的分词, 应该是有的), 就把词典中出现频率最小的那个词语的频率作为该词的频率, 也就是说P(某词语)=FREQ.get(‘某词语’,min_freq)2.根据动态规划查找最大概率路径的方法, 对句子从右往左反向计算最大概率(一些教科书上可能是从左往右, 这
2021-12-19 22:46:38
808
原创 HMM模型与viterbi算法
2021SC@SDUSCHMM(Hidden Markov Model): 隐式马尔科夫模型。HMM 模型可以应用在很多领域,所以它的模型参数描述一般都比较抽象,HMM 的典型介绍就是这个模型是一个五元组:StatusSet: 状态值集合ObservedSet: 观察值集合TransProbMatrix: 转移概率矩阵EmitProbMatrix: 发射概率矩阵InitStatus: 初始状态分布而在jieba分词中我们应用隐马尔科夫模型来解决参数(ObservedSet,TransProbM
2021-12-19 22:43:46
427
原创 jieba 的Tokenizer分词器
2021SC@SDUSC一、gen_pfdict函数在初始化的过程中,会构建前缀词典。构建前缀词典的入口函数是gen_pfdict(self, f),解析离线统计词典文本文件,每一行分别对应着词、词频、词性,将词和词频提取出来,以词为key,以词频为value,加入到前缀词典中。对于每个词,再分别获取它的前缀词,如果前缀词已经存在于前缀词典中,则不处理;如果该前缀词不在前缀词典中,则将其词频置为0,便于后续构建有向无环图。 def gen_pfdict(f): lfreq = {}
2021-12-16 21:03:40
2143
原创 jieba建立分词DAG词图与计算全局概率
2021SC@SDUSC1、字典即为DAG,key为字所在的位置,value为从字开始能在FREQ中的匹配到的词末尾位置所在的list。DAG词云的构建过程:定义DAG空字典,用来构建DAG有向无环图,然后开始遍历词。当传入的词,在FREQ中时,就给tmplist赋值,构建字开始可能去往的所有的路径列表。查找第一个字,后继续查找第一个加第二个字构成的词是否也在语料库中,直到查不到就退出循环。当传入值,在语料库中查询不到时,就赋值给FREQ。最终得到DAG词典 def get_DAG(self, s
2021-12-16 19:38:51
622
原创 jieba检索词典
2021SC@SDUSC为了检索词典中的词时,一般采取的思路是构建Trie树——利用了字符串的公共前缀,以缩短查询时间。作者当时也是这样做的,用了两个dict,trie dict用于保存trie树,lfreq dict用于存储词 -> 词频:`def gen_trie(f_name): lfreq = {} trie = {} ltotal = 0.0 with open(f_name, 'rb') as f: lineno =
2021-11-22 00:26:47
987
原创 jieba分词功能函数解析
2021SC@SDUSC jieba分词的主要功能有如下几种:jieba.cut:该方法接受三个输入参数:需要分词的字符串; cut_all 参数用来控制是否采用全模式;HMM参数用来控制是否适用HMM模型 def cut(self, sentence, cut_all=False, HMM=True, use_paddle=False): """ The main function that segments an entire sentence that
2021-11-21 23:51:18
5359
原创 jieba分词cut函数
2021SC@SDUSC和拉丁语系不同,亚洲语言是不用空格分开每个有意义的词的。而当我们进行自然语言处理的时候,大部分情况下,词汇是我们对句子和文章理解的基础,因此需要一个工具去把完整的文本中分解成粒度更细的词。jieba就是这样一个非常好用的中文工具,是以分词起家的,但是功能比分词要强大很多。基本分词函数与用法jieba.cut 以及 jieba.cut_for_search 返回的结构都是一个可迭代的 generator,可以使用 for 循环来获得分词后得到的每一个词语(unicode)j
2021-11-15 00:12:33
6688
原创 jieba分词textrank算法
2021SC@SDUSCclass UndirectWeightedGraph: d = 0.85 def __init__(self): self.graph = defaultdict(list) def addEdge(self, start, end, weight): # use a tuple (start, end, weight) instead of a Edge object self.graph[start
2021-10-25 00:20:36
236
原创 jieba分词TFIDF算法2
2021SC@SDUSC关键词提取器class KeywordExtractor(object): STOP_WORDS = set(( "the", "of", "is", "and", "to", "in", "that", "we", "for", "an", "are", "by", "be", "as", "on", "with", "can", "if", "from", "which", "you", "it", "this", "
2021-10-17 23:40:13
494
原创 jieba分词TF-IDF算法
2021SC @SDUSC一.分割文本,得到有效Tokens“token” 其实就是指的一个不区分大小写单词,或者说是以空格等等的符号分割的一个个字符串。“tokens"则是token的列表。一个token允许在tokens中存在多次(在tokens中存在多次意味着该单词在原文中出现了多次)。在读入csv文件之后,我们应分别为Amazon和Google的每条数据求它的tokens。同时像"is”、"of"这样的token,我们对今后的token分析没有贡献。读入stopwords.txt以删除这些to
2021-10-10 23:16:57
995
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人