Linux新手常用命令

常用命令总结

具体用途命令例子
切换用户susu root
进入文件夹cdcd [文件夹名称]
返回上一层目录cd .. 
返回上次访问目录cd - 
切换到根目录cd / 
查看目录中的文件ls
显示目录中文件的详细信息ls -l
创建文件夹mkdirmkdir [文件夹名称]
文件夹或文件改名mvmv [旧名称] [新名称]
删除目录及其子目录内容rmrm -rf[文件名]
查询当前路径pwd 
创建文件touchtouch[文件名和后缀]
修改文件权限

chmod [who] [+ | - | =] [mode] 文件名

r可读 w可写 x可执行  mode可任意组合

u 表示“用户(user)”,即文件或目录的所有者。

 g 表示“同组(group)用户”,即与文件属主有相同组ID的所有用户。

 o 表示“其他(others)用户”。

 a 表示“所有(all)用户”。它是系统默认值。

操作符号可以是:

+ 添加某个权限。

 - 取消某个权限。

 = 赋予给定权限并取消其他所有权限(如果有的话)。

可两者搭配使用
chmod u+w [文件名及后缀

编辑文件vivi [文件名及后缀]
注:
1、用vi打开文件后,是处于命令行模式(command mode),您要切换到插入模式(Insert mode)才能够输入文字。
切换方法:在命令行模式(command mode)下按一下字母「i」或者键盘上「insert」的就可以进入插入模式(Insert mode),
这时候你就可以开始输入文字了。
2、编辑好后,需从插入模式切换为命令行模式才能对文件进行保存,切换方法:按「ESC」键。
3、保存并退出文件:在命令模式下输入:wq即可!(别忘了wq前面的:) 放弃修改 :q!
查看文件内容catcat [文件名及后缀]
复制cpcp [要复制的文件名字] [新名字] 注:文件名有特殊字符需要转义
比较文件的不同diff 
文件压缩打包解压tartar -cf [压缩后的文件名字] [要压缩的文件名] 注:-cf为分开的两条命令
-c是表示产生新的包,
-f指定包的文件名
注:
-c: 建立压缩档案
-x:解压
-t:查看内容
-r:向压缩归档文件末尾追加文件
-u:更新原压缩包中的文件

这五个是独立的命令,压缩解压都要用到其中一个,可以和别的命令连用但只能用其中一个。
-f放在最后
以树状图列出文件目录结构tree刚装好的CentOS6.5,使用tree命令时,提示tree: command not found,
该如何解决呢,问题很明显,tree没有安装,直接安装一下
软件管理(安装命令)yum比如说上面的tree没有需要安装一下
yum -y install tree
yum比rpm使用起来方便

 

 

Python 中集成 Ollama 可以通过使用 `ollama` 官方提供的 Python 客户端库来实现。Ollama 是一个本地运行的大型语言模型(LLM)工具,它支持多种模型,如 Llama 2、Mistral 等,并且可以通过简单的 APIPython 应用程序集成。 ### 安装 Ollama Python 库 首先,需要确保你已经在本地系统上安装了 Ollama。你可以从 [Ollama 官方网站](https://ollama.com/)下载并安装适用于你操作系统的版本。 接下来,安装 Python 客户端库。Ollama 提供了一个官方的 Python 包,可以通过 `pip` 安装: ```bash pip install ollama ``` ### 使用 Ollama Python 库 安装完成后,可以使用 `ollama` 模块来调用 OllamaAPI。以下是一个简单的示例,展示如何使用 Ollama 的 `generate` 方法来生成文本: ```python import ollama # 生成文本 response = ollama.generate(model='llama3', prompt='为什么天空是蓝色的?') # 打印响应 print(response['response']) ``` 在这个例子中,`model` 参数指定了要使用的模型(例如 `llama3`),`prompt` 参数是用户输入的提示词。Ollama 会根据提示词生成相应的文本,并返回一个包含 `response` 字段的字典。 ### 获取模型列表 如果你想查看当前可用的模型,可以使用以下代码: ```python import ollama # 获取模型列表 models = ollama.list() # 打印模型列表 for model in models['models']: print(model['name']) ``` ### 模型对话(Chat) Ollama 还支持更复杂的对话模式,允许你在多轮对话中保持上下文。以下是一个使用 `chat` 方法的示例: ```python import ollama # 开始对话 response = ollama.chat( model='llama3', messages=[ {'role': 'user', 'content': '你好,你能帮我做什么?'}, {'role': 'assistant', 'content': '你好!我可以帮助你回答问题、提供建议,甚至进行简单的创作。有什么我可以帮你的吗?'}, {'role': 'user', 'content': '你能告诉我关于机器学习的基础知识吗?'} ] ) # 打印响应 print(response['message']['content']) ``` 在这个例子中,`messages` 参数是一个包含多个对话记录的列表,每个记录都有一个 `role` 和 `content` 字段。Ollama 会根据这些对话记录生成相应的回复。 ### 错误处理 在实际应用中,建议添加错误处理逻辑,以应对可能出现的网络问题或模型加载失败等情况: ```python import ollama try: response = ollama.generate(model='llama3', prompt='为什么天空是蓝色的?') print(response['response']) except Exception as e: print(f"发生错误: {e}") ``` ### 相关问题
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值