Linux常用指令

本文深入讲解了Linux系统中常用的cd、cp、mv、pwd、ls、sh及压缩解压命令的使用方法,包括如何切换目录、复制移动文件、查看工作目录、列出文件列表、执行脚本以及文件的压缩和解压等,是Linux初学者和使用者的实用指南。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

cd命令
1、cd :进入用户主目录; 2、cd ~ :进入用户主目录; 3、cd - :返回进入此目录之前所在的目录; 4、cd .. :返回上级目录(若当前目录为“/“,则执行完后还在“/";".."为上级目录的意思); 5、cd ../.. :返回上两级目录; 6、cd 文件夹名 :打开指定文件夹

cp命令
1、 cp /文件夹/文件夹/文件名 ./ :将指定文件复制到当前目录下
所有目标文件指定的目录必须是己经存在的,cp命令不能创建目录。如果没有文件复制的权限,则系统会显示出错信息。
2、 cp file /usr/men/tmp/file1 :将文件file复制到目录/usr/men/tmp/下,并改名为file1
3、 cp -r /usr/men /usr/zh :将目录/usr/men下的所有文件及其子目录复制到目录/usr/zh中
在Linux下使用cp命令复制文件时候,有时候会需要覆盖一些同名文件,覆盖文件的时候都会有提示:需要不停的按Y来确定执行覆盖。
4、 cp aaa/* /bbb :复制目录aaa下所有到/bbb目录下,这时如果/bbb目录下有和aaa同名的文件,需要按Y来确认并且会略过aaa目录下的子目录。
5、 cp -r aaa/* /bbb   :这次依然需要按Y来确认操作,但是没有忽略子目录。
6、 cp -r -a aaa/* /bbb  :依然需要按Y来确认操作,并且把aaa目录以及子目录和文件属性也传递到了/bbb。
7、 \cp -r -a aaa/* /bbb :成功,没有提示按Y、传递了目录属性、没有略过目录。

mv命令
mv ex3 new1 :将文件ex3改名为new1
mv /usr/men/* . :将目录/usr/men/中的所有文件移到当前目录(用.表示)中

pwd命令
pwd 执行pwd命令可立刻得知您目前所在的工作目录的绝对路径名称。

ls命令
ls :显示当前目录下非影藏文件与目录
ls -a :显示当前目录下包括影藏文件在内的所有文件列表
ls -1 :输出长格式列表
ls -ltr :按修改时间列出文件和文件夹详细信息

sh命令
sh命令是shell命令语言解释器,执行命令从标准输入读取或从一个文件中读取。
sh xxx.sh :执行脚本

解压压缩命令
zip命令: 解压文件:unzip Filename.zip
压缩文件:zip Filename.zip DirName
gz命令: 解压文件1: gunzip Filename.gz
   解压文件2: gzip -d Filename.gz
      压缩文件:gzip FileName
tar命令: 解压文件: tar zxvf Filename.tar
      压缩文件: tar czvf Filename.tar Dirname
bz2命令: 解压文件1: bzip2 -d Filename.bz2
解压文件2: bunzip2 Filename.bz2
压缩文件: bzip2 -z Filename
 
 
 





 


转载于:https://www.cnblogs.com/Concerning/p/10261092.html

资源下载链接为: https://pan.quark.cn/s/140386800631 通用大模型文本分类实践的基本原理是,借助大模型自身较强的理解和推理能力,在使用时需在prompt中明确分类任务目标,并详细解释每个类目概念,尤其要突出类目间的差别。 结合in-context learning思想,有效的prompt应包含分类任务介绍及细节、类目概念解释、每个类目对应的例子和待分类文本。但实际应用中,类目和样本较多易导致prompt过长,影响大模型推理效果,因此可先通过向量检索缩小范围,再由大模型做最终决策。 具体方案为:离线时提前配置好每个类目的概念及对应样本;在线时先对给定query进行向量召回,再将召回结果交给大模型决策。 该方法不更新任何模型参数,直接使用开源模型参数。其架构参考GPT-RE并结合相关实践改写,加入上下文学习以提高准确度,还使用BGE作为向量模型,K-BERT提取文本关键词,拼接召回的相似例子作为上下文输入大模型。 代码实现上,大模型用Qwen2-7B-Instruct,Embedding采用bge-base-zh-v1.5,向量库选择milvus。分类主函数的作用是在向量库中召回相似案例,拼接prompt后输入大模型。 结果方面,使用ICL时accuracy达0.94,比bert文本分类的0.98低0.04,错误类别6个,处理时添加“家居”类别,影响不大;不使用ICL时accuracy为0.88,错误58项,可能与未修改prompt有关。 优点是无需训练即可有较好结果,例子优质、类目界限清晰时效果更佳,适合围绕通用大模型api打造工具;缺点是上限不高,仅针对一个分类任务部署大模型不划算,推理速度慢,icl的token使用多,用收费api会有额外开销。 后续可优化的点是利用key-bert提取的关键词,因为核心词语有时比语意更重要。 参考资料包括
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值