一般在针对性的爬取某个网站的时候可能不需要考虑太多这方面问题,因为一个网站的编码基本是固定的,但是当需要去请求大量编码各不相同的网站时,自动解码就显得尤为重要。

这几天在用requests模块扫描大量网站首页的时候发现有大量的乱码,我们都知道requests中的encoding属性是可以自动识别网页编码的,但是我们往往看到的encoding结果都是“ISO-8859-1”,所以并不能自动识别编码。

在此之前我带大家一起了解下python中的encode/decode函数的编码

python中的编码

字符串在Python内部的表示是unicode编码,因此,在做编码转换时,通常需要以unicode作为中间编码,即先将其他编码的字符串解码(decode)成unicode,再从unicode编码(encode)成另一种编码。

decode的作用是将其他编码的字符串转换成unicode编码,如str1.decode('gb2312'),表示将gb2312编码的字符串str1转换成unicode编码,encode的作用是将unicode编码转换成其他编码的字符串,如str2.encode('gb2312'),表示将unicode编码的字符串str2转换成gb2312编码。
因此,转码的时候一定要先搞明白,字符串str是什么编码,然后decode成unicode,然后再encode成其他编码。

requests中的编码

先上结论:

之所以request的响应内容乱码,是因为模块中并没有正确识别出encoding的编码,而s.txt的结果是依靠encoding的编码“ISO-8859-1”解码出的结果,所以导致乱码。

所以正确的逻辑应该这样:

如:

s = requests.get('http://www.vuln.cn')

一般可以先判断出编码,比如编码为gb2312

str = s.content

可以直接用正确的编码来解码

str.decode('gb2312')

那么知道这个逻辑,接下来就是需要正确判断网页编码就行了,

针对这块我在网上找到了不少轮子,原理就是获取响应html中的charset参数:

<meta http-equiv="Content-Type" content="text/html; charset=UTF-8">

但实际上我们并不需要轮子。

因为requests模块中自带该属性,但默认并没有用上,我们看下源码:

def get_encodings_from_content(content):
 """Returns encodings from given content string.
:param content: bytestring to extract encodings from.
 """
 charset_re = re.compile(r'<meta.*?charset=["\']*(.+?)["\'>]', flags=re.I)
 pragma_re = re.compile(r'<meta.*?content=["\']*;?charset=(.+?)["\'>]', flags=re.I)
 xml_re = re.compile(r'^<\?xml.*?encoding=["\']*(.+?)["\'>]')
return (charset_re.findall(content) +
 pragma_re.findall(content) +
 xml_re.findall(content))

还提供了使用chardet的编码检测,见models.py:

@property
 def apparent_encoding(self):
 """The apparent encoding, provided by the lovely Charade library
 (Thanks, Ian!)."""
 return chardet.detect(self.content)['encoding']

所以我们可以直接执行encoding为正确编码,让s.txt正确解码即可:

s.encoding = s.apparent_encoding