EXP-00091: Exporting questionable statistics.问题解决!(转)

本文介绍了解决在Windows环境下使用Oracle的exp工具导出dmp文件时出现的EXP-00091错误的方法。通过设置环境变量NLS_LANG使其与Oracle服务器的NLS_CHARACTERSET一致,从而避免导出过程中出现字符集不匹配的问题。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

导出命令 
exp username/password@172.19.32.120/servicename file=d:\orcl.dmp 
在导出的过程中,出现了,exp-90001的错误  如下:
EXP-00091 Exporting questionable statistics. 

原因是因为exp工具所在的环境变量中的NLS_LANG和oracle server的NLS_CHARACTERSET不一致。 

解决的步骤: 
1、 查看db中的NLS_CHARACTERSET的值。 打开plsql 
select * from v$nls_parameters where parameter='NLS_CHARACTERSET'; 

PARAMETER                   VALUE 
------------------                  ----------------- 
1 NLS_CHARACTERSET        AL32UTF8 

2、根据查出的结果来设定exp的环境变量: 
set NLS_LANG=AMERICAN_AMERICA.AL32UTF8 

经过了以上2个步骤,然后再执行导出dmp文件,就可以正确了。 

【注】 以上命令的执行都是win环境下,运行cmd的命令行下执行的
(gguf-env-video) ubuntu@ubuntu-Lenovo-Product:~/llama.cpp$ python convert_hf_to_gguf.py /home/ubuntu/.cache/modelscope/hub/models/iic/QwenLong-L1-32B-AWQ --outtype f16 --outfile qwenlong-32b.f16.gguf INFO:hf-to-gguf:Loading model: QwenLong-L1-32B-AWQ INFO:hf-to-gguf:Model architecture: Qwen2ForCausalLM INFO:gguf.gguf_writer:gguf: This GGUF file is for Little Endian only INFO:hf-to-gguf:Exporting model... INFO:hf-to-gguf:gguf: loading model weight map from 'model.safetensors.index.json' INFO:hf-to-gguf:gguf: loading model part 'model-00001-of-00004.safetensors' INFO:hf-to-gguf:token_embd.weight, torch.float16 --> F16, shape = {5120, 152064} INFO:hf-to-gguf:blk.0.attn_norm.weight, torch.float16 --> F32, shape = {5120} Traceback (most recent call last): File "/home/ubuntu/llama.cpp/convert_hf_to_gguf.py", line 6560, in <module> main() File "/home/ubuntu/llama.cpp/convert_hf_to_gguf.py", line 6554, in main model_instance.write() File "/home/ubuntu/llama.cpp/convert_hf_to_gguf.py", line 403, in write self.prepare_tensors() File "/home/ubuntu/llama.cpp/convert_hf_to_gguf.py", line 277, in prepare_tensors for new_name, data_torch in (self.modify_tensors(data_torch, name, bid)): File "/home/ubuntu/llama.cpp/convert_hf_to_gguf.py", line 2730, in modify_tensors yield from super().modify_tensors(data_torch, name, bid) File "/home/ubuntu/llama.cpp/convert_hf_to_gguf.py", line 245, in modify_tensors return [(self.map_tensor_name(name), data_torch)] File "/home/ubuntu/llama.cpp/convert_hf_to_gguf.py", line 236, in map_tensor_name raise ValueError(f"Can not map tensor {name!r}") ValueError: Can not map tensor 'model.layers.0.mlp.down_proj.qweight'
最新发布
07-03
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值