和服务端浏览器⽀持的字符集不同的情况下,中⽂可能会造成问题。
Url编码的原则就是使⽤安全的字符(没有特殊⽤途或者特殊意义的可打印字符)去表⽰那些不安全的字符。
哪些字符需要编码
RFC3986⽂档规定,Url中只允许包含英⽂字母(a-zA-Z)、数字(0-9)、-_.~4个特殊字符以及所有保留字符。
RFC3986⽂档对Url的编解码问题做出了详细的建议,指出了哪些字符需要被编码才不会引起Url语义的转变,以及对为什么这些字符需要编码做出了相应的解释。
US-ASCII字符集中没有对应的可打印字符
Url中只允许使⽤可打印字符。US-ASCII码中的10-7F字节全都表⽰控制字符,这些字符都不能直接出现在Url中。同时,对于80-FF字节(ISO-8859-1),由于已经超出了US-ACII定义的字节范围,因此也不可以放在Url中。
保留字符
Url可以划分成若⼲个组件,协议、主机、路径等。有⼀些字符(:/?#[]@)是⽤作分隔不同组件的。例如:冒号⽤于分隔协议和主机,/⽤于分隔主机和路径,?⽤于分隔路径和查询参数,等等。还有⼀些字符(!$&'()*+,;=)⽤于在每个组件中起到分隔作⽤的,如=⽤于表⽰查询参数中 的键值对,&符号⽤于分隔查询多个键值对。当组件中的普通数据包含这些特殊字符时,需要对其进⾏编码。
RFC3986中指定了以下字符为保留字符:
! * ' ( ) ; : @ & = + $ , / ? # [ ]
不安全字符
还有⼀些字符,当他们直接放在Url中的时候,可能会引起解析程序的歧义。这些字符被视为不安全字符,原因有很多。
空格 Url在传输的过程,或者⽤户在排版的过程,或者⽂本处理程序在处理Url的过程,都有可能引⼊⽆关紧要的空格,或者将那些有意义的空格给去掉
引号以及<> 引号和尖括号通常⽤于在普通⽂本中起到分隔Url的作⽤
通常⽤于表⽰书签或者锚点
% 百分号本⾝⽤作对不安全字符进⾏编码时使⽤的特殊字符,因此本⾝需要编码
{}|^[]`~ 某⼀些⽹关或者传输代理会篡改这些字符
需要注意的是,对于Url中的合法字符,编码和不编码是等价的,但是对于上⾯提到的 这些字符,如果不经过编码,那么它们有可能会造成Url语义的不同。因此对于Url⽽⾔,只有普通英⽂字符和数字,特殊字符$-_.+!*'()还有保留 字符,才能出现在未经编码的Url之中。其他字符均需要经过编码之后才能出现在Url中。
但是由于历史原因,⽬前尚存在⼀些不标准的编码实现。例如对于,不需要进⾏Url编码,但是还是有很多⽼
符号,虽然RFC3986⽂档规定,对于波浪符号
的⽹关或者传输代理会
常见字符的Url编码列表:
保留字符的Url编码
! * " ' ( ) ; : @ &
%21 %2A %22 %27 %28 %29 %3B %3A %40 %26
= + $ , / ? % # [ ]
%3D %2B %24 %2C %2F %3F %25 %23 %5B %5D
对于⾮ASCII字符,需要使⽤ASCII字符集的超集进⾏编码得到相应的字节,然后对每个字节执⾏百分号编码。 对于Unicode字符,RFC⽂档建议使⽤utf-8对其进⾏编码得到相应的字节,然后对每个字节执⾏百分号编码。如“中⽂”使⽤UTF-8字符集得到 的字节为0xE4 0xB8 0xAD
0xE6 0x96 0x87,经过Url编码之后得到“%E4%B8%AD%E6%96%87”。
如果某个字节对应着ASCII字符集中的某个⾮保留字符,则此字节⽆需使⽤百分号表⽰。 例如“Url编码”,使⽤UTF-8编码得到的字节是0x55 0x72 0x6C 0xE7 0xBC 0x96 0xE7 0xA0 0x81,由于前三个字节对应着ASCII中的⾮保留字符“Url”,因此这三个字节可以⽤⾮保留字
符“Url”表⽰。最终的Url编码可以简化成 “Url%E7%BC%96%E7%A0%81” ,当然,如果你
⽤"%55%72%6C%E7%BC%96%E7%A0%81”也是可以的。
由于历史的原因,有⼀些Url编码实现并不完全遵循这样的原则,下⾯会提到。
Javascript中的escape,encodeURI和encodeURIComponent的区别
Javascript中提供了3对函数⽤来对Url编码以得到合法的Url,它们分别是escape / unescape,encodeURI / decodeURI和encodeURIComponent / decodeURIComponent。由于解码和编码的过程是可逆的,因此这⾥只解释编码的过程。
这三个编码的函数——escape,encodeURI,encodeURIComponent——都是⽤于将不安全不合法的Url字符转换为合法的Url字符表⽰,它们有以下⼏个不同点。
安全字符不同
下⾯的表格列出了这三个函数的安全字符(即函数不会对这些字符进⾏编码)
安全字符
escape(69个) /@+-._0-9a-zA-Z
encodeURI(82个) !#$&'()+,/:;=?@-.~0-9a-zA-Z
encodeURIComponent(71个) !'()*-.~0-9a-zA-Z
兼容性不同在线url网址编码解码
escape函数是从Javascript1.0的时候就存在了,其他两个函数是在Javascript1.5才引⼊的。但是由于 Javascript1.5已经⾮常普及了,所以实际上使⽤encodeURI和encodeURIComponent并不会有什么兼容性问题。
对Unicode字符的编码⽅式不同
这三个函数对于ASCII字符的编码⽅式相同,均是使⽤百分号+两位⼗六进制字符来表⽰。但是对于Unicode字符,escape的编码⽅式
是%uxxxx,其中的xxxx是⽤来表⽰unicode字符的4位⼗六进制字符。这种⽅式已经被W3C废弃了。但是在ECMA-262标准中仍然保留着escape的这种编码语法。encodeURI和encodeURIComponent则使⽤UTF-8对⾮ASCII字符进⾏编码,然后再进⾏百分号编码。这是RFC推荐的。因此建议尽可能的使⽤这两个函数替代escape进⾏编码。
适⽤场合不同
encodeURI被⽤作对⼀个完整的URI进⾏编码,⽽encodeURIComponent被⽤作对URI的⼀个组件进⾏编码。
从上⾯提到的安全字符范围表格来看,我们会发现,encodeURIComponent编码的字符范围要⽐encodeURI的⼤。我们上⾯提到 过,保留字符⼀般是⽤来分隔URI组件(⼀个URI可以被切割成多个组件,参考预备知识⼀节)或者⼦组件(如URI中查询参数的分隔符),如:号⽤于分隔scheme和主机,?号⽤于分隔主机和路径。由于encodeURI操纵的对象是⼀个完整的的URI,这些字符在URI中本来就有特殊⽤途,因此这些保留字符不会被encodeURI编码,否则意义就变了。
组件内部有⾃⼰的数据表⽰格式,但是这些数据内部不能包含有分隔组件的保留字符,否则就会导致整个URI中组件的分隔混乱。因此对于单个组件使⽤encodeURIComponent,需要编码的字符就更多了。
表单提交
当Html的表单被提交时,每个表单域都会被Url编码之后才在被发送。由于历史的原因,表单使⽤的Url编码实现并不符合最新的标准。例如对于空 格使⽤的编码并不是%20,⽽是+号,如果表单使⽤的是Post⽅法提交的,我们可以在HTTP头中看到有⼀个Content-Type的header, 值为application/x-www-form-urlencoded。⼤部分应⽤程序均能处理这种⾮标准实现的Url编码,但是在客户端 Javascript中,并没有⼀个函数能够将+号解码成空格,只能⾃⼰写转换函数。还有,对于⾮ASCII字符,使⽤的编码字符集取决于当前⽂档使⽤的 字符集。例如我们在Html头部加上
<meta http-equiv="Content-Type" content="text/html; charset=gb2312" />
这样浏览器就会使⽤gb2312去渲染此⽂档(注意,当HTML⽂档中没有设置此meta标签,则浏览器会根据当前⽤户喜好去⾃动选择字符集,⽤户也可以强制当前⽹站使⽤某个指定的字符集)。当提交表单时,Url编码使⽤的字符集就是gb2312。
⽂档字符集会影响encodeURI吗?
之前在使⽤Aptana(为什么专指aptana下⾯会提到)遇到⼀个很迷惑的问题,就是在使⽤encodeURI的时候,发现它编码得到的结果和我想的很不⼀样。下⾯是我的⽰例代码:
<!DOCTYPE html PUBLIC "-//W3C//DTD XHTML 1.0 Transitional//EN" "/TR/xhtml1/DTD/xhtml1-
transitional.dtd"> <html xmlns="/1999/xhtml"> <head> <meta http-equiv="Content-Type" content="text/html; charset=gb2312" /> </head> <body> <script type="text/javascript"> document.write(encodeURI("中⽂")); </script> </body>
</html>
运⾏结果输出%E6%B6%93%EE%85%9F%E6%9E%83。显然这并不是使⽤UTF-8字符集进⾏Url编码得到的结果(在Google上搜索“中⽂”,Url中显⽰的是%E4%B8%AD%E6%96%87)。
所以我当时就很质疑,难道encodeURI还跟页⾯编码有关,但是我发现,正常情况下,如果你使⽤gb2312进⾏Url编码也不会得到这个结果的才是。后来终于被我发现,原来是页⾯⽂件存储使⽤的字符集和Meta标签中指定的字符集不⼀致导致的问题。 Aptana的编辑器默认情况下使⽤UTF-8字符集。也就是说这个⽂件实际存储的时候使⽤的是UTF-8字符集。但是由于Meta标签中指定了 gb2312,这个时候,浏览器就会按照gb2312去解析这个⽂档,那么⾃然在“中⽂”这个字符串这⾥就会出错,因为“中⽂”字符串⽤UTF-8编码过 后得到的字节是0xE4 0xB8
0xAD 0xE6 0x96 0x87,这6个字节⼜被浏览器拿gb2312去解码,那么就会得到另外三个汉字“涓 枃”(GBK中⼀个汉字占两个字节),这三个汉字在传⼊ encodeURI函数之后得到的结果就是%E6%B6%93%EE%85%9F%E6%9E%83。因此,encodeURI使⽤的还是UTF-8,并不会受到页⾯字符集的影响。
其他和Url编码相关的问题
对于包含中⽂的Url的处理问题,不同浏览器有不同的表现。例如对于IE,如果你勾选了⾼级设置“总是以UTF-8发送Url”,那么Url中的路 径部分的中⽂会使⽤UTF-8进⾏Url编码之后发送给服务端,⽽查询
参数中的中⽂部分使⽤系统默认字符集进⾏Url编码。为了保证最⼤互操作性,建议所 有放到Url中的组件全部显式指定某个字符集进⾏Url编码,⽽不依赖于浏览器的默认实现。
另外,很多HTTP监视⼯具或者浏览器地址栏等在显⽰Url的时候会⾃动将Url进⾏⼀次解码(使⽤UTF-8字符集),这就是为什么当你在 Firefox 中访问Google搜索中⽂的时候,地址栏显⽰的Url包含中⽂的缘故。但实际上发送给服务端的原始Url还是经过编码的。你可以在地址栏 上使⽤Javascript访问location.href就可以看出来了。在研究Url编解码的时候千万别被这些假象给迷惑了。
版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系QQ:729038198,我们将在24小时内删除。
发表评论