现在的位置: 首页 > 综合 > 正文

解决读写包含汉字的txt文件时乱码的问题

2013年07月05日 ⁄ 综合 ⁄ 共 7882字 ⁄ 字号 评论关闭

 using System; 

using System.Text; 
using System.IO;

namespace Farproc.Text 

    /// <summary> 
    /// 用于取得一个文本文件的编码方式(Encoding)。 
    /// </summary> 
    public class TxtFileEncoding 
    { 
        public TxtFileEncoding()
        {}

        public static Encoding GetEncoding(string fileName) 
        { 
            return GetEncoding(fileName, Encoding.Default); 
        }

        public static Encoding GetEncoding(FileStream stream) 
        { 
            return GetEncoding(stream, Encoding.Default); 
        }

        public static Encoding GetEncoding(string fileName, Encoding defaultEncoding) 
        { 
            FileStream fs = new FileStream(fileName, FileMode.Open); 
            Encoding targetEncoding = GetEncoding(fs, defaultEncoding); 
            fs.Close(); 
            return targetEncoding; 
        }

        public static Encoding GetEncoding(FileStream stream, Encoding defaultEncoding) 
        {
            Encoding targetEncoding = defaultEncoding; 
            if(stream != null && stream.Length >= 2) 
            { 
                //保存文件流的前4个字节 
                byte byte1 = 0; 
                byte byte2 = 0; 
                byte byte3 = 0; 
                byte byte4 = 0;

                //保存当前Seek位置 
                long origPos = stream.Seek(0, SeekOrigin.Begin); 
                stream.Seek(0, SeekOrigin.Begin); 
                int nByte = stream.ReadByte();

                byte1 = Convert.ToByte(nByte); 
                byte2 = Convert.ToByte(stream.ReadByte());

                if(stream.Length >= 3) 
                { 
                    byte3 = Convert.ToByte(stream.ReadByte()); 
                }

                if(stream.Length >= 4) 
                { 
                    byte4 = Convert.ToByte(stream.ReadByte()); 
                }

                //根据文件流的前4个字节判断Encoding 
                //Unicode {0xFF, 0xFE}; 
                //BE-Unicode {0xFE, 0xFF}; 
                //UTF8 = {0xEF, 0xBB, 0xBF};

                if(byte1 == 0xFE && byte2 == 0xFF)//UnicodeBe 
                { 
                    targetEncoding = Encoding.BigEndianUnicode; 
                }

                if(byte1 == 0xFF && byte2 == 0xFE && byte3 != 0xFF)//Unicode 
                { 
                    targetEncoding = Encoding.Unicode; 
                }

                if(byte1 == 0xEF && byte2 == 0xBB && byte3 == 0xBF)//UTF8 
                {
                    targetEncoding = Encoding.UTF8; 
                }

                //恢复Seek位置       
                stream.Seek(origPos, SeekOrigin.Begin); 
            }

            return targetEncoding; 
        } 
    } 

分析Unicode和UTF-8 
引自:http://dev.csdn.net/develop/article/83/83012.shtm

1.      各地的方言

  首先说明一下现在常用的一些编码方案:

1.         在中国,大陆最常用的就是GBK18030编码,除此之外还有GBK,GB2312,这几个编码的关系是这样的。

          最早制定的汉字编码是GB2312,包括6763个汉字和682个其它符号

          95年重新修订了编码,命名GBK1.0,共收录了21886个符号。

          之后又推出了GBK18030编码,共收录了27484个汉字,同时还收录了藏文、蒙文、维吾尔文等主要的少数民族文字,现在WINDOWS平台必需要支持GBK18030编码。

按照GBK18030、GBK、GB2312的顺序,3种编码是向下兼容,同一个汉字在三个编码方案中是相同的编码。

 

2.         台湾,香港等地使用的是BIG5编码

3.         日本:SJIS编码

2.      Unicode

  如果把各种文字编码形容为各地的方言,那么Unicode就是世界各国合作开发的一种语言。

  在这种语言环境下,不会再有语言的编码冲突,在同屏下,可以显示任何语言的内容,这就是Unicode的最大好处。

 

  那么Unicode是如何编码的呢?其实非常简单。

  就是将世界上所有的文字用2个字节统一进行编码。可能你会问,2个字节最多能够表示65536个编码,够用吗?

  韩国和日本的大部分汉字都是从中国传播过去的,字型是完全一样的。

  比如:“文”字,GBK和SJIS中都是同一个汉字,只是编码不同而已。

  那样,像这样统一编码,2个字节就已经足够容纳世界上所有的语言的大部分文字了。

UCS-2 与UCS-4

  Unicode的学名是"Universal Multiple-Octet Coded Character Set",简称为UCS。

  现在用的是UCS-2,即2个字节编码,而UCS-4是为了防止将来2个字节不够用才开发的。UCS-2也称为基本多文种平面。

  UCS-2转换到UCS-4只是简单的在前面加2个字节0。

  UCS-4则主要用于保存辅助平面,例如Unicode 4.0中的第二辅助平面

  20000-20FFF - 21000-21FFF - 22000-22FFF - 23000-23FFF - 24000-24FFF - 25000-25FFF -   26000-26FFF - 27000-27FFF - 28000-28FFF - 29000-29FFF - 2A000-2AFFF - 2F000-2FFFF

  总共增加了16个辅助平面,由原先的65536个编码扩展至将近100万编码。

3.      兼容codepage

  那么既然统一了编码,如何兼容原先各国的文字编码呢?

  这个时候就需要codepage了。

  什么是codepage?codepage就是各国的文字编码和Unicode之间的映射表。

  比如简体中文和Unicode的映射表就是CP936,点这里查看官方的映射表。

以下是几个常用的codepage,相应的修改上面的地址的数字即可。

codepage=936 简体中文GBK

codepage=950 繁体中文BIG5

codepage=437 美国/加拿大英语

codepage=932 日文

codepage=949 韩文

codepage=866 俄文

codepage=65001 unicode UFT-8

 

最后一个65001,据个人理解,应该只是一个虚拟的映射表,实际只是一个算法而已。

 

从936中随意取一行,例如:

0x9993 0x6ABD #CJK UNIFIED IDEOGRAPH

前面的编码是GBK的编码,后面的是Unicode。

通过查这张表,就能简单的实现GBK和Unicode之间的转换。

 

4.      UTF-8

  现在明白了Unicode,那么UTF-8又是什么呢?又为什么会出现UTF-8呢?

  ASCII转换成UCS-2,只是在编码前插入一个0x0。用这些编码,会包括一些控制符,比如 '' 或 '/',这在UNIX和一些C函数中,将会产生严重错误。因此可以肯定,UCS-2不适合作为Unicode的外部编码。

  因此,才诞生了UTF-8。那么UTF-8是如何编码的?又是如何解决UCS-2的问题呢?

例:

E4 BD A0        11100100 10111101 10100000

这是“你”字的UTF-8编码

4F 60          01001111 01100000

这是“你”的Unicode编码

 

按照UTF-8的编码规则,分解如下:xxxx0100 xx111101 xx100000

把除了x之外的数字拼接在一起,就变成“你”的Unicode编码了。

注意UTF-8的最前面3个1,表示整个UTF-8串是由3个字节构成的。

经过UTF-8编码之后,再也不会出现敏感字符了,因为最高位始终为1。

 

以下是Unicode和UTF-8之间的转换关系表:

U-00000000 - U-0000007F: 0xxxxxxx

U-00000080 - U-000007FF: 110xxxxx 10xxxxxx

U-00000800 - U-0000FFFF: 1110xxxx 10xxxxxx 10xxxxxx

U-00010000 - U-001FFFFF: 11110xxx 10xxxxxx 10xxxxxx 10xxxxxx

U-00200000 - U-03FFFFFF: 111110xx 10xxxxxx 10xxxxxx 10xxxxxx 10xxxxxx

U-04000000 - U-7FFFFFFF: 1111110x 10xxxxxx 10xxxxxx 10xxxxxx 10xxxxxx 10xxxxxx

 

Unicode编码转换到UTF-8,简单的把Unicode字节流套到x中就变成UTF-8了。

字符,字节和编码

[原创文章,转载请保留或注明出处:http://www.regexlab.com/zh/encoding.htm]

级别:中级

摘要:本文介绍了字符与编码的发展过程,相关概念的正确理解。举例说明了一些实际应用中,编码的实现方法。然后,本文讲述了通常对字符与编码的几种误解,由于这些误解而导致乱码产生的原因,以及消除乱码的办法。本文的内容涵盖了“中文问题”,“乱码问题”。

掌握编码问题的关键是正确地理解相关概念,编码所涉及的技术其实是很简单的。因此,阅读本文时需要慢读多想,多思考。

引言

“字符与编码”是一个被经常讨论的话题。即使这样,时常出现的乱码仍然困扰着大家。虽然我们有很多的办法可以用来消除乱码,但我们并不一定理解这些办法的内在原理。而有的乱码产生的原因,实际上由于底层代码本身有问题所导致的。因此,不仅是初学者会对字符编码感到模糊,有的底层开发人员同样对字符编码缺乏准确的理解。

1. 编码问题的由来,相关概念的理解

1.1 字符与编码的发展

从计算机对多国语言的支持角度看,大致可以分为三个阶段:

 

  系统内码 说明 系统
阶段一 ASCII 计算机刚开始只支持英语,其它语言不能够在计算机上存储和显示。 英文 DOS
阶段二 ANSI编码
(本地化)
为使计算机支持更多语言,通常使用 0x80~0xFF 范围的 2 个字节来表示 1 个字符。比如:汉字 '中' 在中文操作系统中,使用 [0xD6,0xD0] 这两个字节存储。

不同的国家和地区制定了不同的标准,由此产生了 GB2312, BIG5, JIS 等各自的编码标准。这些使用 2 个字节来代表一个字符的各种汉字延伸编码方式,称为 ANSI 编码。在简体中文系统下,ANSI 编码代表 GB2312 编码,在日文操作系统下,ANSI 编码代表 JIS 编码。

不同 ANSI 编码之间互不兼容,当信息在国际间交流时,无法将属于两种语言的文字,存储在同一段 ANSI 编码的文本中。

中文 DOS,中文 Windows 95/98,日文 Windows 95/98
阶段三 UNICODE
(国际化)
为了使国际间信息交流更加方便,国际组织制定了 UNICODE 字符集,为各种语言中的每一个字符设定了统一并且唯一的数字编号,以满足跨语言、跨平台进行文本转换、处理的要求。 Windows NT/2000/XP,Linux,Java

 

字符串在内存中的存放方法:

在 ASCII 阶段,单字节字符串使用一个字节存放一个字符(SBCS)。比如,"Bob123" 在内存中为:

 

42 6F 62 31 32 33 00
B o b 1 2 3 /0

 

在使用 ANSI 编码支持多种语言阶段,每个字符使用一个字节或多个字节来表示(MBCS),因此,这种方式存放的字符也被称作多字节字符。比如,"中文123" 在中文 Windows 95 内存中为7个字节,每个汉字占2个字节,每个英文和数字字符占1个字节:

 

D6 D0 CE C4 31 32 33 00
1 2 3 /0

 

在 UNICODE 被采用之后,计算机存放字符串时,改为存放每个字符在 UNICODE 字符集中的序号。目前计算机一般使用 2 个字节(16 位)来存放一个序号(DBCS),因此,这种方式存放的字符也被称作宽字节字符。比如,字符串 "中文123" 在 Windows 2000 下,内存中实际存放的是 5 个序号:

 

2D 4E 87 65 31 00 32 00 33 00 00 00      ← 在 x86 CPU 中,低字节在前
1 2 3 /0  

 

一共占 10 个字节。

 

1.2 字符,字节,字符串

理解编码的关键,是要把字符的概念和字节的概念理解准确。这两个概念容易混淆,我们在此做一下区分:

 

  概念描述 举例
字符 人们使用的记号,抽象意义上的一个符号。 '1', '中', 'a', '$', '¥', ……
字节 计算机中存储数据的单元,一个8位的二进制数,是一个很具体的存储空间。 0x01, 0x45, 0xFA, ……
ANSI
字符串
在内存中,如果“字符”是以 ANSI 编码形式存在的,一个字符可能使用一个字节或多个字节来表示,那么我们称这种字符串为 ANSI 字符串或者多字节字符串 "中文123"
(占7字节)
UNICODE
字符串
在内存中,如果“字符”是以在 UNICODE 中的序号存在的,那么我们称这种字符串为 UNICODE 字符串或者宽字节字符串 L"中文123"
(占10字节)

 

由于不同 ANSI 编码所规定的标准是不相同的,因此,对于一个给定的多字节字符串,我们必须知道它采用的是哪一种编码规则,才能够知道它包含了哪些“字符”。而对于 UNICODE 字符串来说,不管在什么环境下,它所代表的“字符”内容总是不变的。

1.3 字符集与编码

各个国家和地区所制定的不同 ANSI 编码标准中,都只规定了各自语言所需的“字符”。比如:汉字标准(GB2312)中没有规定韩国语字符怎样存储。这些 ANSI 编码标准所规定的内容包含两层含义:

  1. 使用哪些字符。也就是说哪些汉字,字母和符号会被收入标准中。所包含“字符”的集合就叫做“字符集”。
  2. 规定每个“字符”分别用一个字节还是多个字节存储,用哪些字节来存储,这个规定就叫做“编码”。

各个国家和地区在制定编码标准的时候,“字符的集合”和“编码”一般都是同时制定的。因此,平常我们所说的“字符集”,比如:GB2312, GBK, JIS 等,除了有“字符的集合”这层含义外,同时也包含了“编码”的含义。

UNICODE 字符集”包含了各种语言中使用到的所有“字符”。用来给 UNICODE 字符集编码的标准有很多种,比如:UTF-8, UTF-7, UTF-16, UnicodeLittle, UnicodeBig 等。

1.4 常用的编码简介

简单介绍一下常用的编码规则,为后边的章节做一个准备。在这里,我们根据编码规则的特点,把所有的编码分成三类:

 

分类 编码标准 说明
单字节字符编码 ISO-8859-1 最简单的编码规则,每一个字节直接作为一个 UNICODE 字符。比如,[0xD6, 0xD0] 这两个字节,通过 iso-8859-1 转化为字符串时,将直接得到 [0x00D6, 0x00D0] 两个 UNICODE 字符,即 "ÖÐ"。

反之,将 UNICODE 字符串通过 iso-8859-1 转化为字节串时,只能正常转化 0~255 范围的字符。

ANSI 编码 GB2312,
BIG5,
Shift_JIS,
ISO-8859-2 ……
把 UNICODE 字符串通过 ANSI 编码转化为“字节串”时,根据各自编码的规定,一个 UNICODE 字符可能转化成一个字节或多个字节。

反之,将字节串转化成字符串时,也可能多个字节转化成一个字符。比如,[0xD6, 0xD0] 这两个字节,通过 GB2312 转化为字符串时,将得到 [0x4E2D] 一个字符,即 '中' 字。

“ANSI 编码”的特点:
1. 这些“ANSI 编码标准”都只能处理各自语言范围之内的 UNICODE 字符。
2. “UNICODE 字符”与“转换出来的字节”之间的关系是人为规定的。

UNICODE 编码 UTF-8,
UTF-16, UnicodeBig ……
与“ANSI 编码”类似的,把字符串通过 UNICODE 编码转化成“字节串”时,一个 UNICODE 字符可能转化成一个字节或多个字节。

与“ANSI 编码”不同的是:
1. 这些“UNICODE 编码”能够处理所有的 UNICODE 字符。
2. “UNICODE 字符”与“转换出来的字节”之间是可以通过计算得到的。

 

我们实际上没有必要去深究每一种编码具体把某一个字符编码成了哪几个字节,我们只需要知道“编码”的概念就是把“字符”转化成“字节”就可以了。对于“UNICODE 编码”,由于它们是可以通过计算得到的,因此,在特殊的场合,我们可以去了解某一种“UNICODE 编码”是怎样的规则。

抱歉!评论已关闭.