- 博客(8)
- 收藏
- 关注
原创 事件及事件抽取
Event)事件可以被定义为发生在某个特定的时间点或者时间段、某个特定的地域范围内,由一个或者多个角色参与的一个或者多个动作组成的事情或者状态的改变。事件的组成元素:触发词(Trigger)、事件类型(Event Type)、论元角色(Role)及论元(Argument)。(可以把论元角色当做字典中的“key”,论元当做“value”)例如:在 Kabul,当一枚北约导弹击中无国界医生诊所时,三名当地医护人员当场身亡。事件类型触发词论元角色论元死亡身亡受害者医护人员Kabul地点。
2025-08-21 16:18:37
822
原创 python安装包出现SSL 证书验证失败的解决办法
本人花了这么多时间解决这个问题,没想到就只是因为开了代理,其实之前也遇到过这个问题,也知道开代理会影响安装包,但总是在出现类似问题时,无法第一时间想起。总以为是用了镜像源的原因,删除了使用的镜像源,还是没能解决,甚至临时禁用 SSL 验证也没有解决。突然意识到自己挂了梯子,开了代理,于是我把它关了再重新安装,成功了!
2025-08-19 09:33:36
600
原创 pytorch张量的操作
反向传播是一种通过计算损失函数关于网络参数的梯度来训练神经网络的方法。在每次迭代中,网络的前向传播会计算输出和损失,然后反向传播会计算损失关于每个参数的梯度,并使用这些梯度来更新参数。当你创建一个 requires_grad=True 的张量时,PyTorch 会自动跟踪所有对它的操作,以便在之后通过 .backward() 方法来计算梯度。torch.Tensor 对象有一个 requires_grad 属性,用于指示是否需要计算该张量的梯度。禁用张量的梯度跟踪,适用于。,仅限严格二维矩阵。
2025-08-17 17:33:59
593
原创 多头注意力机制
多头注意力机制将输入数据中,每个头独立计算注意力并捕捉输入序列的不同特征。每个注意力头有独立的权重矩阵表示第个注意力头),用于将输入投影到不同的子空间。权重矩阵的大小由输入维度和注意力头的维度或决定。
2025-06-17 17:51:41
1098
原创 调用Ollama本地部署的大模型
temperature用于控制生成文本的随机性,取值范围为0-2之间。取值为0表示输出确定性高,适合事实性回答(如问答任务);1+表示更具冒险性,可能生成不连贯内容(适合创意写作)。用于指定模型名称,不记得模型名称的可以使用ollama list查询,如下图中红色框中的就是对应的模型名。top_p用于通过核采样(nucleus sampling)控制生成多样性。作者使用的是Ollama部署的模型,所以使用的是Ollama默认地址"值得注意的是api_key不能为空,否则会报错!),需要付费和网络访问权限。
2025-05-27 14:36:20
1090
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅