转:iconv编码转换模块移植到ARM

源文:https://blog.youkuaiyun.com/qq_26006367/article/details/76147638

 

 

一、iconv交叉编译

     这个网上说明很多,再次不做过多说明

     libiconv下载地址:http://www.gnu.org/software/libiconv/

     下载解压完毕后: 

      ./configure -prefix=/home/XNET/arm-libiconv-1.15-2017-7-26  CC=arm-linux-gcc   -host=arm-linux  -enable-shared   -enable-static

      make

      make install

     编译出动态库preloadable_libiconv.so

 

 

二、   移植说明

(1)   将文件夹中的动态库移植到ARM-Linux中的/usr/local/lib文件夹中

 

(2)   在/etc/profile中将此动态库加入环境变量

export LD_PRELOAD=/usr/local/lib/preloadable_libiconv.so

 

 

(3)   输入命令,使环境变量立即生效

source /etc/profile

     

      至此,移植完毕,程序中,可使用iconv相关函数进行编码转换

 

 

三、   iconv模块说明

/********************

*iconv头文件

********************/

#include<iconv.h>

 

/********************

*函数名:code_convert

*函数作用:将输入缓冲区中的字符串,按照指定编码进行转换,写入输出缓冲区。

*参数:

from_charset:原始编码格式

to_charset:目标编码格式

inbuf:输入缓冲区,存储待转换字符串

inlen:输入字符串长度

outbuf:输出缓冲区,存储转换完毕的字符串

outlen:输出缓冲区长度

********************/

intcode_convert(char *from_charset,char *to_charset,char *inbuf,int inlen,char*outbuf,int outlen)

{

   iconv_t cd;

   int rc;

   char **pin=&inbuf;

   char **pout=&outbuf;

 

   cd=iconv_open(to_charset,from_charset);

   if (cd == (iconv_t)-1)

    {

        perror("iconv_open");

     return -1;

    }

 

   printf("inbuf=%s\n",inbuf);

   memset(outbuf,0,outlen);

   if(iconv(cd,pin,&inlen,pout,&outlen)==-1)

     return -2;

  

   //printf("outbuf=%s\n",outbuf);

  

   iconv_close(cd);

   return 0;

}

 

/********************

*函数名:u2g

*函数作用:UTF-8编码字符串转为GB2312编码字符串

*参数:

inbuf:输入缓冲区,存储待转换字符串

inlen:输入字符串长度

outbuf:输出缓冲区,存储转换完毕的字符串

outlen:输出缓冲区长度

********************/

intu2g(char *inbuf,size_t inlen,char *outbuf,size_t outlen)

{

   returncode_convert("utf-8","gb2312",inbuf,inlen,outbuf,outlen);

}

 

 

/********************

*函数名:g2u

*函数作用:GB2312编码字符串转为UTF-8编码字符串

*参数:

inbuf:输入缓冲区,存储待转换字符串

inlen:输入字符串长度

outbuf:输出缓冲区,存储转换完毕的字符串

outlen:输出缓冲区长度

********************/

 

intg2u(char *inbuf,size_t inlen,char *outbuf,size_t outlen)

{

   returncode_convert("gb2312","utf-8",inbuf,inlen,outbuf,outlen);

}

### 部署 Stable Diffusion 的准备工作 为了成功部署 Stable Diffusion,在本地环境中需完成几个关键准备事项。确保安装了 Python 和 Git 工具,因为这些对于获取源码和管理依赖项至关重要。 #### 安装必要的软件包和支持库 建议创建一个新的虚拟环境来隔离项目的依赖关系。这可以通过 Anaconda 或者 venv 实现: ```bash conda create -n sd python=3.9 conda activate sd ``` 或者使用 `venv`: ```bash python -m venv sd-env source sd-env/bin/activate # Unix or macOS sd-env\Scripts\activate # Windows ``` ### 下载预训练模型 Stable Diffusion 要求有预先训练好的模型权重文件以便能够正常工作。可以从官方资源或者其他可信赖的地方获得这些权重文件[^2]。 ### 获取并配置项目代码 接着要做的就是把最新的 Stable Diffusion WebUI 版本拉取下来。在命令行工具里执行如下指令可以实现这一点;这里假设目标路径为桌面下的特定位置[^3]: ```bash git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git ~/Desktop/stable-diffusion-webui cd ~/Desktop/stable-diffusion-webui ``` ### 设置 GPU 支持 (如果适用) 当打算利用 NVIDIA 显卡加速推理速度时,则需要确认 PyTorch 及 CUDA 是否已经正确设置好。下面这段简单的测试脚本可以帮助验证这一情况[^4]: ```python import torch print(f"Torch version: {torch.__version__}") if torch.cuda.is_available(): print("CUDA is available!") else: print("No CUDA detected.") ``` 一旦上述步骤都顺利完成之后,就可以按照具体文档中的指导进一步操作,比如调整参数、启动服务端口等等。整个过程中遇到任何疑问都可以查阅相关资料或社区支持寻求帮助。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值