理解字符编码,请参考:unicode ucs2 utf16 utf8 ansi GBK GB2312 优快云博客
了解windows字符显示必须了解locale概念 参考:揭密 Windows 上的各种 locale - 知乎
编程过程中,各种场景的字符编码的需求和现状的不统一是导致乱码的直接原因,因为效率、规范、兼容等等各种因素导致出现各种差异化的字符编码。如果能所有场景所有操作步骤中统一使用utf-8编码,就不需要考虑字符编码的问题,这也是解决编程过程中解决乱码问题的最简单、最便捷、最直接的方式。
将所有内容文件、源文件全部采用带BOM的utf8编码,编译器设置成使用utf8编码,setlocal设置成使用utf8编码,输入编码转换成utf8编码(当然如果输出的内容不需要做特别操作就进行输出0,可以保持原来编码,适当保持灵活),是解决乱码、汉字字符串导致跨平台编译不通过 以及 汉字信息遗失的最有效手段。utf8在网络传输过程中也不需要去考虑大小端字节序问题(所以互联网普遍采用utf8,但是一定是需要进行本地大小端适配的)。仅仅在有需要其他字符编码输出需求的地方再对字符编码进行转换。
1、qt ide 默认新建文件存储为utf8,mingw编译器默认输入为utf8,编译器输出的字符也默认为utf8。
2、在vs2015及以下,默认创建源文件存储为ansi,编译器默认输入为ansi,编译器默认输出的字符也是ansi。VS2015(Visual Studio 2015 Update 2)及以上版本,可以使用无BOM的utf8编码。
如果将带有中文字符(包括中文注释)的 无BOM 的 utf8 字符编码的源码文件放到vs下编译,基本都会碰到编译器报错的问题。
3、vs2015默认采用ansi(GBK)编码,vs2022默认采用utf8编码。可以通过指定source-charset编译参数(vs2015 Update 2以上才支持者个参数)告诉编译器 工程 源码所使用的 字符编码(参见下方的 编译器对文字编码处理 章节)。
一、源文件编码、编译器对文字编码处理、最终的IDE显示字符编码
首先要知道 源文件编码、IDE显示字符编码、编译器 可能使用不同字符编码。程序正确显示汉字,需要这三个阶段的字符编码都明确的正确的对接。
一个程序三个独立的字符编码阶段:
1、源文件编码
源文件编码是源文件创建时就设定好的,指定了字符存放到文件中的字符编码方式。
查看源文件是何编码最方便的就是notepad++了,入下面这个源文件就是带BOM的utf-8编码,notepad++能很方便的将源码的字符编码改成其他的字符编码并方便的加减BOM。
vs2015创建文件时(在中文环境下)默认使用ansi(GBK)编码,而vs2022创建文件时,默认使用带BOM的utf8编码。vs IDE上只有一个 高级保存选项 来逐个文件进行更改编码的操作:vs高级保存选项在哪-优快云博客 。另外还有一个安装Force UTF-8 插件的操作可以强制创建使用utf8编码的文件。
qt中默认保存源码文件的字符编码可以自己设置,默认为utf-8+bom存在则保留。最好配置成utf-8+ "如果编码是utf-8则添加",这样可以使含有中文的代码在vs2022编译器下也能进行编译,使程序更好的跨平台和跨编译器。也可以通过 编辑->select encoding来进行逐个文件更改编码操作。
需要注意的是编译器未能正确识别到文件编码时,中文注释也能影响编译器对源文件进行解析。
2、编译器对文字编码处理、自主或第三方库强制使用字符编码
这个阶段的处理过后,字符会按 编译器对文字编码处理结果 或者 自主/第三方库强制使用字符编码 将存在的多字节字符 存放到.obj以及后续的exe文件中。这些操作控制着程序运行时内存中的字符编码,明确了解这个阶段的字符编码对程序正确使用多字节编码极为重要。
修改编译器参数时,需要先将之前对工程编译产生的中间文件清理掉,然后再重新编译!!!
编译器对文字编码处理
1、vs 编译器: vs ide中在工程->属性->配置属性->C/C++->命令行->其它选项 中加入下面设置源码文件编码和执行文件编码的参数(vs2015 update2及以上才支持): /source-charset:GB18030 /execution-charset:utf-8
source-charset告诉编译器源文件使用什么编码,如果源文件有BOM,则会按BOM代表的编码进行解析,并将内容转换成ansi(GBK)编码。如果源文件没有BOM,则按照source-charset设置的编码进行解析。
如果没有设置source-charset,源文件也没有BOM头,vs编译器进行自动识别,先判断是否是ansi(GBK)编码,如果判断源文件不是ansi编码,则会报错。(vs2022默认保存文件为带BOM的utf8编码)。vs2022编译器需要根据BOM头来识别是unicode的utf8编码、还是unicode的utf16(大小端)编码。
源文件带BOM头与不带BOM头对编译的影响
execution-charset指定编译器编译后字符串的存放的字符编码格式(.obj/.a/.exe等文件中字符串的编码格式),vs2015默认使用GBK(这种情况下,你会看到"𬌗"字在文件中正常,但调试时内存中却不见了,对于输入文件编码不明的情况会保持字符串原来的编码)(可以使用notepad++的plugins->HEX Editor->view in HEX查看编译出来的exe文件进行确认)。对于超出GBK字符集的文字,会被编译器认为不可识别,编译器(vs2015)将会用值为0x3f3f的两个字节去替换而导致文字遗失)。
vs2022默认使用GBK。假如源文件中是utf8编码,那么这里就会有一次隐式的字符编码转换。
下面是添加编译器是否参数/execution-charset:utf-8 对比,控制台和显示窗口默认只显示ANSI(GBK)编码,对于utf8编码的字符则显示乱码,对于超出GBK表示范围的编码则显示成"??"
#include <stdio.h>
#include <wchar.h>
int main()
{
char str1[] = "你好𬌗";
char str2[]= u8"你好𬌗";
wchar_t str3[] = L"你好𬌗";
return 0;
}
windows下所有charset的名称和代码号都可以在vs ide的文件->高级保存选项->编码中找到,也可以在官网找:代码页标识符 - Win32 apps | Microsoft Learn
#qt的 qmake中为vs编译器 指定源文件的字符串编码和编译后输出的字符串编码
QMAKE_CXXFLAGS+=/source-charset:utf-8
#QMAKE_CXXFLAGS+=-source-charset:.65001 与上面的等价
QMAKE_CXXFLAGS+=/execution-charset:.936
微软C/C++编译器中管理字符集的新选项 | Microsoft Learn
2、gcc编译器:gcc或者类似gcc的编译器则在编译选项中加入这两个参数: -finput-charset=UTF-8 -fexec-charset=UTF-8 (指定char数据的字符编码) -fwide_exec-charset(指定wchar_t数据的字符编码)
道理与上面类似。区别是input-charset默认是utf-8;exec-charset默认是utf-8,wide_exec-charset(这个参数应该不需要动。不同电脑上可能不一样,编译器可能会根据主机情况自行选择默认值)。
在qt中,通过.pro工程文件中设置QMAKE_CXXFLAGS参数来设置这两个编码,针对使用不同编译器要用不同的参数,比如使用gcc会类gcc编译器时,需要在工程.pro文件中加入下面参数
#qt的 qmake中为gcc编译器 指定源文件的字符串编码和编译后输出的字符串编码
QMAKE_CXXFLAGS+=-finput-charset=UTF-8
QMAKE_CXXFLAGS+=-fexec-charset=GB18030
#Mingw中有 -fwide_exec-charset来设置宽字符的转码,也就是wchar_t类型的数据的转码。
#可选项有UTF-16LE UTF-16BE UTF-32LE UTF-32BE 。这个选项不改变wchar_t的size
#(windows下为2,linux下为4),只影响字符串的编码,默认为UTF-16LE。
#QMAKE_CXXFLAGS += -fwide_exec-charset=UTF-16LE
bool IsBigEndian()
{
int a = 0x1234;
char b = *(char*)&a; //通过将int强制类型转换成char单字节,通过判断起始存储位置。即等于 取b等于a的低地址部分
if (b == 0x12)
{
return true;
}
return false;
}
https://www.cnblogs.com/little-white/p/3236548.html
如果希望字符串不按照编译器整体的编译方案走,比如vs编译器采用默认ansi(GBK)编码存放字符串,而你非要强制指定某个字符串以utf8的编码方式存入变量,则需要在字符串前加入u8;如果希望强制以utf16(宽字符)的编码方式将字符保存到wchar_t类型中,则在字符串前面加 L 。
下面是使用qt中mingw编译器编译后的,字符串中存放的编码(看调试结果中的p1、p2、p3的值)。(GB2312中没有”𬌗“字,所以让编译器以GB18030的编码方式存放字符串)
当在qt中使用vs的编译器时,qt的对源文件的处理会与在vs ide中对源文件处理操作是一致。为避免隐式字符编码转换,可以指定编译器参数。
在vs ide中,源文件默认为ANSI编码。如果要指定用utf8编码保存文件,则必须要为utf8的源文件加入BOM头,否则极有可能会因为有中文而出现编译错误。
vs2015的ansi编码保存源文件最大问题就是会导致不在GBK编码中的中文文字信息的丢失!!!比如下面的 "𬌗" 字,不在GBK范围内,而在GB18030范围内。
在windows+qt+vs 编译器的场景下,如果因为 无BOM的utf8编码的源码文件中 有汉字 导致编译不通过,可以按下面的步骤将源文件转变成带BOM的utf8编码的源文件。
qt的ui文件和qrc文件都只能使用utf-8编码,qt也强制其为utf-8编码,因为qmake对这些文件进行处理时无法识别其他编码。
自主或第三方库强制使用字符编码
许多的第三方库是要求强制输入使用utf8编码,在windows下进行调用时需要极为注意,否则会莫名其妙的错误。比如ffmpeg库,就要求汉字输入为utf8编码格式。这是字符编码导致出现的一个bug:Could not find audio only device with name [麦克风
,当然也有些库有其他的字符编码需求。
C++11中引入了L操作符,让编译器将字符串强制转换成unicode的utf16编码保存在编译后的文件中。
C++17中引入了u8操作符,让编译器将字符串强制转换成unicode的utf8编码保存在编译后的文件中。
char str1[]=u8"你好𬌗"; //告诉编译器,这个字符串强制保存成unicode的utf8编码的字符串。obj文件和exe文件以及运行时内存中存放的字符编码都是unicode的utf8编码,E4BDA0 E5A5BD F0AC8C97
wchar_t str2[]=L"你好𬌗";//告诉编译器,这个字符串强制保存成unicode的utf16编码的字符串,obj文件和exe文件以及运行时内存中存放的字符编码都是unicode的utf16编码 ,4F60 597D D870DF17
第三方库进行字符转换:
iconv进行字符编码的的显示转换:iconv学习笔记 - Demon90s - 博客园
QString和QTextCodec进行字符编码的显示或隐式转:QString 与 字符编码 QTextCodec
windows的widechartomultibyte和multibytetowidechar的字符转换:unicode ucs2 utf16 utf8 ansi GBK GB2312 互转 及 渲染_ucs2编码转换-优快云博客
为编译器指定 错误的源码文件字符编码
需要注意的通过语法层面强制的编码并不能保证一定正确,比如你保存了源文件为ansi,而给编译器指定了错误的输入文件编码方式,比如在qt中设置了QMAKE_CXXFLAGS += "/source-charset:utf-8"(vs编译器)/"-finput-charset=UTF-8"(gcc或类gcc编译器)。那么编译器对源文件解释的时候就出错了,读入内存中的字符编码自然也不是预期的。另外编译器有对字符的检测功能,指定的字符编码中被认为非法字符时,编译器就会发出编译错误。下面是我挑选的两个编译能通过的汉字,可以按照这里说的做个尝试。会发现编译器会将ansi当做utf8编码而存入内存。像这种问题在vs/qt混用,特别是有新手的时候的时候应该能被无意触发的。
#include <iostream>
int main(int argc, char *argv[])
{
char str1[16] = "a忙毛";
char str2[16] = u8"a忙毛";
wchar_t str3[8] = L"a忙毛";
int buffer1[4] = {};
int buffer2[4] = {};
int buffer3[4] = {};
memcpy(buffer1, str1, 16);
memcpy(buffer2, str2, 16);
memcpy(buffer3, str3, 16);
return 0;
}
不管是qt ide 还是vs ide 。不管采用哪种编译器,编译器的source-input是对整个工程全局有效的,工程下不同文件采用不同的字符编码方式,也会出现这样的问题。最简单的就是全部统一采用带BOM的utf8编码。指定输入为utf8,指定内存中存放也使用utf8。
3、IDE显示时使用的字符编码、字库对字符集的支持
是IDE的显示和编辑字符时采用的编码,这是与制作IDE输入框的图形开发套装(GUI库)有关的,更与字库有关。字符从内存到显示,首先要从当前使用的字库中找到字符的显示信息然后进行逐个文字渲染成图像。
字符编码要求的差异:而GUI库,不同厂商对输入的字符编码操作也是有差异的,有的支持unicode的utf8编码,有的支持unicode的utf16编码,有的支持unicode的utf32编码,有的只支持ascii编码,输入到gui中显示之前需要明确知道自己输入的字符串是什么编码,然后gui库需要什么样的字符编码。
字库所支持的字符集的差异:字库中存放 所支持的字符集的 所有文字的显示信息,有的字库只支持ascii字符集,有的字库只支持gb2312字符集,有的字库能支持gb18030L3级别的字符集,有的字库只支持日文相关的字符集,有的字库只支持韩文相关的字符集等等,如果可以更新字库,就需要手动下载所需要的字库。字库中可能存放文字的点阵(单字缩放时会产生锯齿),也可能存放文字的矢量信息。但最关键的是字库为了能在所有系统中都通用,需要采用unicode字符集的编排方式进行排列,需要能快速通过unicode编码快速找到字符的显示信息。另外字库会支持单字节ASCII码的查询,专用于ASCII码的快速显示。
鉴于这个原因,有大量文字显示的场景,应该尽可能将字符串采用unicode的utf16编码存放到内存中,以提升效率。毕竟utf8编码会多一个转码成utf16的过程。
关于文字的渲染,不管底层使用windows 的GDI还是directx,还是第三方库opengl+freetype、qt、gtk,主流的都是支持输入Unicode的utf16编码。可能有一些开发板还使用点阵字库,可能只有2字节的gbK编码,甚至只支持ascii编码。
15.5 文本渲染 - 知乎
如何在OpenGL中显示unicode文本?_如何在文本框中迭代Unicode?腾讯云
控制台显示字符
另外控制台输出和显示还有另外的问题,简体中文版的windows的控制台默认支持GBK字符的显示。控制台不支持显示utf16或utf32这样的不兼容单字节的ascii编码的宽字节unicode的编码方案,但是支持兼容asii编码的unicode的utf8编码方案!!!(猜测很多命令行命令并没有做宽字符输出的功能,因为宽字符输出要求字母也是用两个字节)控制台是支持兼容ascii编码的ansi编码和utf8编码的显示的。
通过加入下面的代码设置控制台支持哪种字符编码
#include <windows.h>
//控制台同一时刻只能支持一种编码
//system("chcp 936"); //设置控制台接下来 支持GB2312编码 的字符的显示。
system("chcp 65001"); //设置控制台接下来 支持utf8编码 的字符的显示。
#include <windows.h>
#include <wincon.h>
SetConsoleOutputCP(65001);//设置控制台接下来支持utf8编码 //https://learn.microsoft.com/zh-cn/windows/console/setconsoleoutputcp
控制台同一时刻只能支持显示一种字符编码。 通过控制台的右键->属性->选项可以进行查看
通过setlocale()设置也可以设置控制台支持的显示的字符编码。
windows下的locale揭秘 跳出抽象名词的泥潭, 揭密 Windows 上的各种 locale - 知乎
用于设置C语言底层库的
通过setlocale()有效设置为非"C"之后,chcp的操作会失效。
//vs下 设置的字符串不用考虑大小写。
setlocale(LC_ALL, ".utf8");//设置成utf8,等效字符串有 ".UTF8" ".UTF-8" ".utf8" ".utf-8" 或者在前面加上chinese_china或者Chinese (Simplified)_China(不区分大小写) ,以及"zh_CN.utf8" "zh_cn.utf8" "en_us.utf8" "ja_JP.Utf-8" , "Chinese (Simplified)_China.65001"
setlocale(LC_ALL, "Chinese (Simplified)_China.936");//设置成gb2312,等效字符串有:"Chinese (Simplified)_China","zh_CN","zh_cn","chinese","chinese.936","Chinese_China.936","chinese_china",
setlocale(LC_ALL, "" );//设置成系统默认的编码,与setlocale( LC_ALL, ".ACP" );等效。windows的简体中文版默认值一般就是chinese_china.936
setlocale(LC_ALL,nullptr);//获取当前的locale
setlocale(LC_ALL,"C");//设置成C locale
mingw编译器中使用的C++库 libstdc++-6 对setlocal中的字符串解释以及功能,没有windows vs提供的C++标准库ucrt.lib+vsruntimelib 库中的setlocale所支持的全面,可能是使用的libstdc++的版本问题。下面是windows下的mingw所支持的编码字符串,不知道为何不支持utf8。
".936" "chinese_china.936" "uk" "us" ".1252" "English_United Kingdom.1252" "English_United States.1252"
setlocale成功后,可以将wcout的内容输出到控制台窗口(pp返回字符串查看是否设置成功,下面是vs中的结果,mingw中wcout也仍然无法输出,且mingw的stdlibc++的setlocale不支持设置utf8):
参考:控制台代码页 - Windows Console | Microsoft Learn
setlocale()函数的作用-优快云博客
std::setlocale详解_setlocale c++-优快云博客
记录Windows下开发C/C++如何避免乱码 - 知乎
控制台codepage - Windows Console | Microsoft Learn
codepage 标识符 - Win32 apps | Microsoft Learn
How to add Custom Fonts to Command Prompt in Windows 11/10
字符集 - Win32 apps | Microsoft Learn
二、内容文件字符编码与字符编码识别
内容文件编码是外源性的,不同于编程过程中那样可以整个过程明确把控字符编码。然而文件头中并不存放字符编码信息,应用程序想正确获取文件中字符编码,需要做额外的识别工作。
windows下的文本编辑工具大部分默认存放为ansi字符编码,linux下的文本编辑工具大部分默认存放为无BOM的utf8字符编码,一些跨操作系统的软件存放文件也有各自的默认存放设置。而内容文件经常有跨平台访问的需求,且系统文件头中没有广泛通用的存放字符编码的信息规范。这是导致文本字符乱码的一个原因,也因此有了对内容文件字符编码 识别的需求。
对于使用unicode字符编码的内容文件,unicode规范给出了明确的编码字符识别建议,就是在文件开头加入BOM
对于有存放BOM头的内容文件,很容容易就能识别出来文件采用的字符接是unicode,编码是unicode的BOM对应的编码方案。
对于没有存放BOM头的内容文件,就需要预读内容,逐个字节进行识别解析,来判断是采用了哪种编码。为了了解这个识别过程,需要了解文字在计算机中实际存储的值,需要了解各种编码方案的差异,下面是各种编码:
ASCII编码:ASCII码对照表-BeJSON.com
GB2312编码:完全兼容ASCII码,范围是 高字节(A1-FE)低字节(A1-FE)(双字节)+ ASCII(单字节) ,其中汉字的编码范围是 高字节(B0-F7)低字节(A1-FE) 。 GB2312汉字编码字符集对照表BeJSON.com
GBK编码:完全兼容GB2312编码,范围是 高字节(81-FE)低字节(40-FE) 双字节)+ ASCII(单字节) ,其中不包括低字节为7F的组合(也就是说 xx7F的编码都被排除)。
最全面的GBK编码表/GBK字符集 - 常用参考表对照表
ascii中0x08表示回退,向前删除一个字符;0x7f表示向后删除一个字符,所有与ascii兼容的字符编码(机器码),都需要排除这两个字符。
GBK 编码中低位字节0x40~0x7E 0x80~0xFE 为什么要剔除xx7F? - 知乎
GB18030编码:完全兼容GBK编码,是一字节或两字节或四字节编码。
UTF8编码:完全兼容ASCII编码,是一字节或多字节编码,且多字节编码中不存在0x7f或0x08这样的字符,编码方案如下:
可以看到UTF8的编码 ,多字节编码时,每个字节开头是有严格规律的,这样的字节流在GB系列字符编码中是不容易出现的。正是这个现象,识别GB系列编码还是UTF8编码时,都是先认定为UTF8编码,逐个字节读取,如果遇到非法字节,或者字符解析出的结果非法,就断定不是UTF8编码。就可以重新开始尝试GB2312,如果在GB2312中非法,就尝试GBK,依此类推。
识别到外源性的内容文件编码后再按照程序预先的方案将字符串对字符串进行处理。
unicode 第0个平面 字符编码 及 分区 - 365建站网
杂谈
VS IDE 工程的属性->常规->字符集中的 “使用 Unicode 字符集” 与 “使用多字节字符集” 的使用场景如下:
#include <tchar.h>
.....
TCHAR str[]=_T("你好");
使用TCHAR这样的宏来将 底层使用char类型的多字节编码(MBCS) 还是wchar_t类型的utf16编码(unicode) 进行包装,并对 相关的有字符参数的程序接口 进行包装,比如windows的接口OutputDebugStringW()和OutputDebugStringA() 用通过宏包装成OutputDebugString()。在工程->属性->常规->字符集 中选择 ”使用 Unicode 字符集“, 编译器会为工程添加 _UNICODE 宏;选择“使用多字节字符集” ,编译器会为工程添加 _MBCS 宏
#define _T(x) __T(x)
#define _TEXT(x) __T(x)
#ifdefine _UNICODE
....
#define __T(x) L ## x
....
typedef wchar_t WCHAR; // wc, 16-bit UNICODE character
....
typedef WCHAR TCHAR, *PTCHAR;
....
#endif
#ifdefine _MBCS
....
typedef char TCHAR, *PTCHAR;
....
#define __T(x) x
....
QString 与 字符编码 QTextCodec-优快云博客
vs qt 调试 输出 打印 到输出窗口 或控制台窗口_qt输出信息到窗口-优快云博客
vs2015使用utf-8编码的源文件时,必须要使用utf-8 with BOM,否则会出现编译错误。
//windows下的测试代码:
#include <iostream>
#include <stdio.h>
#include <Windows.h>
using namespace std;
std::string wideCharToUtf8(std::wstring s_unicode)
{
#ifdef WIN32
std::string dest;
int len = WideCharToMultiByte(CP_UTF8 //传入数据的编码方案 https://docs.microsoft.com/zh-cn/windows/desktop/api/stringapiset/nf-stringapiset-multibytetowidechar
, 0, s_unicode.c_str(), -1, NULL, 0, NULL, NULL);
if (len <= 0)
{
return dest;
}
char* pbuffer = (char*)malloc(sizeof(char) * len);
memset(pbuffer, 0, sizeof(char) * len);
WideCharToMultiByte(CP_UTF8, 0, s_unicode.c_str(), s_unicode.size(), pbuffer, len, NULL, NULL);
dest = pbuffer;
free(pbuffer);
return dest;
#endif
}
void SetFont(int size = 90) {//hello imX2G
CONSOLE_FONT_INFOEX cfi; //hello imX2G
cfi.cbSize = sizeof cfi; //hello imX2G
cfi.nFont = 0; //hello imX2G
cfi.dwFontSize.X = 24; //hello imX2G
cfi.dwFontSize.Y = 24; //设置字体大小
cfi.FontFamily = FF_DONTCARE; //hello imX2G
cfi.FontWeight = FW_NORMAL; //字体粗细 FW_BOLD
wcscpy_s(cfi.FaceName, L"新宋体"); //设置字体,必须是控制台已有的 //Arial
SetCurrentConsoleFontEx(GetStdHandle(STD_OUTPUT_HANDLE), FALSE, &cfi); //hello imX2G
HANDLE handle = GetStdHandle(STD_OUTPUT_HANDLE); //hello imX2G
CONSOLE_FONT_INFO consoleCurrentFont; //hello imX2G
GetCurrentConsoleFont(handle, FALSE, &consoleCurrentFont); //hello imX2G
}//hello imX2G
int main()
{
wchar_t ptr1[8] = L"A你哦𬌗";
char ptr2[16] = "A你哦𬌗";
char ptr3[16] = u8"A你哦𬌗";
int p1[4] = {};
int p2[4] = {};
int p3[4] = {};
memcpy(&p1, ptr1, 16);
memcpy(&p2, ptr2, 16);
memcpy(&p3, ptr3, 16);
//char* p = setlocale(LC_ALL, "Unicode");
//printf("%s\n", p);
string str = wideCharToUtf8(ptr1);
int p4[4] = {};
memcpy(&p4, str.c_str(), str.size());
//wprintf(L"%s\n", ptr1);
system("chcp 65001");
cout << ptr2 << endl;
SetFont();
//SetCurrentConsoleFontEx()
//printf("%s\n", str.c_str());
//printf("%s\n", ptr3);
return 0;
}
如何让C语言编译器在处理字符的时候使用Unicode编码? - 知乎
libiconv - GNU Project - Free Software Foundation (FSF)
unicode ucs2 utf16 utf8 ansi GBK GB2312 互转 及 渲染_ucs2编码转换-优快云博客