如图所示,python爬取信息后保存为csv格式,打开后中文乱码

原因是编码的缘故,CSV保存是编码格式ANSI
解决办法是以记事本方式打开CSV文件,然后另存为时编码选择UTF-8进行保存即可.



失败了,换种方法
df.to_csv('data3.csv',index=False,encoding='utf_8_sig')
成功啦!
本文介绍了在Python爬虫过程中遇到的CSV文件中文乱码问题,原因在于CSV保存时使用了ANSI编码。解决方法是通过记事本以UTF-8编码重新保存CSV文件。此外,还分享了一种编程解决方案,即在使用pandas的`to_csv`函数时指定`encoding='utf_8_sig'`,成功避免了乱码问题。
如图所示,python爬取信息后保存为csv格式,打开后中文乱码

原因是编码的缘故,CSV保存是编码格式ANSI
解决办法是以记事本方式打开CSV文件,然后另存为时编码选择UTF-8进行保存即可.



失败了,换种方法
df.to_csv('data3.csv',index=False,encoding='utf_8_sig')
成功啦!

被折叠的 条评论
为什么被折叠?