Tell me the truth: A system to measure the trustworthiness of Large Language Models

本文是LLM系列文章,针对《Tell me the truth: A system to measure the trustworthiness of Large Language Models 》的翻译。

告诉我真相:一个衡量大型语言模型可信度的系统

摘要

自2022年11月推出ChatGPT以来,大型语言模型(LLM)一直占据着大多数新闻的首位。一年多以来,公司拒绝采用这些系统的主要原因之一是他们对这些系统的可信度信心有限。在一项研究中,ChatGPT-4在识别网站可用性问题时显示出80.1%的假阳性错误率。《美国医学会杂志儿科学》1月24日的一项研究发现,ChatGPT在诊断儿科医学病例时的准确率为17%。但是,什么是“信任”?信任是一种相对的、主体的条件,它可以根据文化、领域和个人而变化。然后,给定一个域,如何衡量系统的可信度?在本文中,我提出了一种基于预定义的基本事实来测量可信度的系统方法,该基本事实表示为领域的知识图谱。该方法是一个由人在循环中验证域的表示并微调系统的过程。
衡量可信度对于在医疗、国防、金融等关键环境中运营的所有实体都至关重要,但它对LLM的所有用户都非常重要。

引言

整体背景

文献

本文的目标

方法

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

UnknownBody

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值