魑、魅、魍、魉、妖、精、鬼、怪的区别

本文深入探讨了中国神话故事中的八大妖怪,包括魑、魅、魍、魉、妖、精、鬼、怪,详细解释了它们的由来与特征。从山林里的魑到修行成精的自然生物,每一种妖怪都有其独特的背景和传说。

一、魑,chī,传说中指山林里能害人的怪物

二、魅,mèi,外貌讨人喜欢的鬼

三、魍,wǎng,水怪,赤黑色

四、魉,liǎng,山川木石之怪

五、妖,自然生物在修行后成为一种精灵

六、精,动植物或天然物质通过吸收日月光华而形成的,西游记中,小而美为妖精

七、鬼,传说中人死后的灵魂变为鬼

八、怪,诡异、神秘、令人恐惧的鬼物

 

参考资料:魑魅魍魉--百度百科妖精鬼怪--百度百科

转载于:https://www.cnblogs.com/Bejadin/p/10709596.html

Security-feature-detection-system 安全检测系统 简介 安全检测系统-多目标识别(YOLOv5)和人脸识别(Facenet)快速部署系统。 功能上:本项目使用YOLOv5实现多目标识别,使用Facenet实现人脸识别,最终需要人脸和此人应具备的多目标同时满足才能通过安全检测,部署上:使用pyqt5实现前端可视化,在前端页面运行YOLOv5多目标识别系统(将模型运行封装到Qt中),使用Docker封装人脸识别后端系统,使用网络请求等包实现前后端交互 案例:进行多目标识别的同时,进行人脸识别,前端系统发送请求,携带参数到后端进行人脸识别,最终返回人脸识别结果,获取人脸识别结果后,检索该成员应具备的多目标特征,与YOLOv5多目标识别的实际结果进行比对,若无误则通过安全检测。 根据原作 https://pan.quark.cn/s/9784cdf4abfd 的源码改编 项目背景 出于一些比赛的需要,以及逃离懵懂状态开始探索,我于2023.12~2024.1(大二上)开始一些CV、LLM项目的研究,苦于能力有限,当时大部分的项目都是依托开源搭建而来,诸如本项目就是依托开源的Compreface和Yolov5搭建,我只不过做了缝合的工作,所以在此必须提及这两个项目的巨大贡献:https://.com/exadel-inc/CompreFace https://.com/ultralytics/yolov5 今天是2024.7.11(大二下暑假),时隔半年我才开始这个项目的开源工作是因为,半年前的水平有限,虽然自己能实现项目的运作,但是恐很多细节介绍不好,当然本文自发出,后续我还会跟进,欢迎指正:22012100039@stu.xidian.edu.c...
### LlamaTokenizer 词表的查看与使用方法 LlamaTokenizer 是 Hugging Face 的 `transformers` 库中为 LLaMA 模型提供的分词器工具,支持对文本进行分词、编码和解码操作。以下是关于如何查看 LlamaTokenizer 的词表信息以及其使用方法的详细说明。 #### 查看 LlamaTokenizer 的词表信息 可以通过以下几种方式查看 LlamaTokenizer 的词表信息: 1. **获取特殊标记** 特殊标记(如 `[PAD]`, `[UNK]` 等)是分词器中的保留符号,可以通过以下代码查看: ```python from transformers import LlamaTokenizer llama_tokenizer = LlamaTokenizer.from_pretrained("llama_tokenizer_dir") print("Special Tokens:", llama_tokenizer.all_special_tokens) # 打印特殊标记名称 print("Special Token IDs:", llama_tokenizer.all_special_ids) # 打印特殊标记对应的ID print("Special Token Map:", llama_tokenizer.special_tokens_map) # 打印特殊标记映射关系 ``` 这段代码可以输出分词器中定义的所有特殊标记及其对应的 ID 和映射关系[^1]。 2. **获取完整词表** 如果需要查看完整的词表,可以使用以下代码: ```python vocab = llama_tokenizer.get_vocab() print("Vocabulary Size:", len(vocab)) # 打印词表大小 print("Vocabulary:", vocab) # 打印词表内容 ``` `get_vocab()` 方法返回一个字典,键为词汇项,值为对应的 ID[^3]。 3. **扩展词表** 在某些情况下,可能需要扩展 LlamaTokenizer 的词表以支持更多的词汇。例如,在训练中文 LLaMA 模型时,可以参考相关实现[^2]: - 设置参数 `add_bos_token=True` 和 `add_eos_token=True`,确保句子开头和结尾有特殊标记。 - 使用 `add_tokens()` 方法添加自定义词汇项。例如: ```python new_tokens = ["", "", "", ""] num_added_tokens = llama_tokenizer.add_tokens(new_tokens) print(f"Added {num_added_tokens} tokens.") ``` #### LlamaTokenizer 的使用方法 LlamaTokenizer 的主要功能包括分词、编码和解码,以下是具体用法示例: 1. **文本分词** 将文本拆分为 token 列表: ```python text = "白日依山尽,黄河入海流。欲穷千里目,更上一层楼。" tokens = llama_tokenizer.tokenize(text) print("Tokens:", tokens) # 打印分词结果 ``` 2. **文本编码** 将文本转换为模型输入所需的 token ID 列表: ```python encoded_ids = llama_tokenizer.encode(text) print("Encoded IDs:", encoded_ids) # 打印编码后的 ID 列表 ``` 3. **文本解码** 将 token ID 列表还原为原始文本: ```python decoded_text = llama_tokenizer.decode(encoded_ids) print("Decoded Text:", decoded_text) # 打印解码后的文本 ``` 4. **批量处理** 对多个文本进行批量编码: ```python texts = ["大模型是指具有非常大的参数数量的人工神经网络模型。", "在深度学习领域,大模型通常是指具有数亿到数万亿参数的模型。"] batch_encoded = llama_tokenizer(texts, padding=True, truncation=True, max_length=512, return_tensors="pt") print("Batch Encoded:", batch_encoded) # 打印批量编码结果 ``` #### 注意事项 - 默认情况下,LlamaTokenizer 不会将未登录词(OOV)分解为 UTF-8 字节表示。如果需要此功能,需手动设置相关参数。 - 在扩展词表时,需确保目标词汇表的大小大于源词汇表的大小,以避免冲突。 ```python # 示例:扩展词表并重新加载分词器 new_tokens = ["测试词1", "测试词2"] num_added_tokens = llama_tokenizer.add_tokens(new_tokens) print(f"Added {num_added_tokens} tokens.") # 保存扩展后的分词器 llama_tokenizer.save_pretrained("extended_llama_tokenizer") ```
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符  | 博主筛选后可见
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值