博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
初解Python爬虫(一)
阅读量:7061 次
发布时间:2019-06-28

本文共 10327 字,大约阅读时间需要 34 分钟。

hot3.png

一、robots.txt

robots.txt(统一小写)是一种存放于网站根目录下的 ASCII 编码的文本文件,它通常告诉网络搜索引擎的漫游器(又称网络蜘蛛),此网站中的哪些内容是不应被搜索引擎的漫游器获取的,哪些是可以被漫游器获取的。因为一些系统中的 URL 是大小写敏感的,所以 robots.txt 的文件名应统一为小写。robots.txt 应放置于网站的根目录下。如果想单独定义搜索引擎的漫游器访问子目录时的行为,那么可以将自定的设置合并到根目录下的 robots.txt,或者使用 robots 元数据(Metadata,又称元数据)。

robots.txt 协议并不是一个规范,而只是约定俗成的,所以并不能保证网站的隐私。注意 robots.txt 是用字符串比较来确定是否获取 URL,所以目录末尾有与没有斜杠 “/” 表示的是不同的URL。robots.txt 允许使用类似 "Disallow: *.gif" 这样的通配符。

其他的影响搜索引擎的行为的方法包括使用robots元数据:

这个协议也不是一个规范,而只是约定俗成的,有些搜索引擎会遵守这一规范,有些则不然。通常搜索引擎会识别这个元数据,不索引这个页面,以及这个页面的链出页面。

允许所有的机器人:

User-agent: *Disallow:# 另一写法:User-agent: *Allow:/

仅允许特定的机器人:(name_spider用真实名字代替)

User-agent: name_spiderAllow:

拦截所有的机器人:

User-agent: *Disallow: /

禁止所有机器人访问特定目录:

User-agent: *Disallow: /cgi-bin/Disallow: /images/Disallow: /tmp/Disallow: /private/

仅禁止坏爬虫访问特定目录(BadBot用真实的名字代替):

User-agent: BadBotDisallow: /private/

禁止所有机器人访问特定文件类型[2]:

User-agent: *Disallow: /*.php$Disallow: /*.js$Disallow: /*.inc$Disallow: /*.css$

一般我们在查看robots文件时,是主域名后面添加如:

二、requests

在开始使用 requests 之前,我们需要确认两点:

a. 使用的 Python 的版本是否已安装 requests

pip install requests

b. requests 是否为最新版本

现在我们就可以开始了解 requests 了。

2.1 发送请求

一开始要导入 Requests 模块

import requests

然后,尝试获取某个网页。本例子中,我们来获取 Github 的公共时间线

r = requests.get('https://api.github.com/events')

现在,我们有一个名为 r 的 Response 对象。我们可以从这个对象中获取所有我们想要的信息。

import requestsr = requests.get('https://api.github.com/events')print(r)''' 运行结果 : 返回的是请求状态 200
'''

Requests 简便的 API 意味着所有 HTTP 请求类型都是显而易见的。例如,我们可以这样发送一个 HTTP POST 请求,以及 PUT,DELETE,HEAD 以及 OPTIONS 

import requestsr = requests.get('https://api.github.com/events')r1 = requests.post('http://httpbin.org/post', data = {'key':'value'})r2 = requests.put('http://httpbin.org/put', data = {'key':'value'})r3 = requests.delete('http://httpbin.org/delete')r4 = requests.head('http://httpbin.org/get')r5 = requests.options('http://httpbin.org/get')

2.2 传递 URL 参数

你也许经常想为 URL 的查询字符串 (query string) 传递某种数据。如果你是手工构建 URL,那么数据会以键/值对的形式置于 URL 中,跟在一个问号的后面。例如, httpbin.org/get?key=val。 Requests 允许你使用 params 关键字参数,以一个字符串字典来提供这些参数。举例来说,如果你想传递 key1=value1 和 key2=value2 到 httpbin.org/get ,那么你可以使用如下代码:

payload = {'key1': 'value1', 'key2': 'value2'}r = requests.get("http://httpbin.org/get", params=payload)

通过打印该 URL,我们会发现参数已经被编码进去

print(r.url)''' 打印URL结果http://httpbin.org/get?key1=value1&key2=value2'''

这里需要注意的是:字典里值为 None 的键都不会被添加到 URL 的查询字符串里。

列表也可以作为值传入:

payload = {'key1': 'value1', 'key2': ['value2', 'value3']}r = requests.get('http://httpbin.org/get', params=payload)print(r.url)''' 运行结果http://httpbin.org/get?key1=value1&key2=value2&key2=value3'''

2.3 响应内容

我们能读取服务器响应的内容。再次以 GitHub 时间线为例

import requestsr = requests.get('https://api.github.com/events')print(r.text)

正常情况下,我们会得到一个一个 json 串,因格式化后有近3000行,我们这里只选取前面几行的结果

[{	"id": "7817414078",	"type": "IssueCommentEvent",	"actor": {		"id": 17928298,		"login": "jknpj",		"display_login": "jknpj",		"gravatar_id": "",		"url": "https://api.github.com/users/jknpj",		"avatar_url": "https://avatars.githubusercontent.com/u/17928298?"	},	"repo": {		"id": 10441188,		"name": "vgstation-coders/vgstation13",		"url": "https://api.github.com/repos/vgstation-coders/vgstation13"	},

Requests 会自动解码来自服务器的内容。大多数 unicode 字符集都能被无缝地解码。

请求发出后,Requests 会基于 HTTP 头部对响应的编码作出有根据的推测。当你访问 r.text 之时,Requests 会使用其推测的文本编码。你可以找出 Requests 使用了什么编码,并且能够使用 r.encoding 属性来改变它。

>>> r.encoding'utf-8'>>> r.encoding = 'ISO-8859-1'

如果你改变了编码,每当你访问 r.text ,Request 都将会使用 r.encoding 的新值。你可能希望在使用特殊逻辑计算出文本的编码的情况下来修改编码。比如 HTTP 和 XML 自身可以指定编码。这样的话,你应该使用 r.content 来找到编码,然后设置 r.encoding 为相应的编码。这样就能使用正确的编码解析 r.text 了。

在你需要的情况下,Requests 也可以使用定制的编码。如果你创建了自己的编码,并使用 codecs 模块进行注册,你就可以轻松地使用这个解码器名称作为 r.encoding 的值, 然后由 Requests 来为你处理编码。

2.4 二进制响应内容

也能以字节的方式访问请求响应体,对于非文本请求:

>>> r.contentb'[{"repository":{"open_issues":0,"url":"https://github.com/...

Requests 会自动为你解码 gzip 和 deflate 传输编码的响应数据。

例如,以请求返回的二进制数据创建一张图片,你可以以下面的形式实现

>>> from PIL import Image>>> from io import BytesIO>>> i = Image.open(BytesIO(r.content))

2.5 JSON 响应内容

Requests 中也有一个内置的 JSON 解码器,助你处理 JSON 数据

>>> import requests>>> r = requests.get('https://api.github.com/events')>>> r.json()[{u'repository': {u'open_issues': 0, u'url': 'https://github.com/...

如果 JSON 解码失败, r.json() 就会抛出一个异常。例如,响应内容是 401 (Unauthorized),尝试访问 r.json() 将会抛出 ValueError: No JSON object could be decoded 异常。

这里需要注意的是,成功调用 r.json() 并不意味着响应的成功。有的服务器会在失败的响应中包含一个 JSON 对象(比如 HTTP 500 的错误细节)。这种 JSON 会被解码返回。要检查请求是否成功,请使用 r.raise_for_status() 或者检查 r.status_code 是否和你的期望相同。

2.6 原始响应内容

在罕见的情况下,你可能想获取来自服务器的原始套接字响应,那么你可以访问 r.raw。 如果你确实想这么干,那请你确保在初始请求中设置了 stream=True。具体你可以这么做:

>>> r = requests.get('https://api.github.com/events', stream=True)>>> r.raw
>>> r.raw.read(10)'\x1f\x8b\x08\x00\x00\x00\x00\x00\x00\x03'

但一般情况下,你应该以下面的模式将文本流保存到文件:

with open(filename, 'wb') as fd:    for chunk in r.iter_content(chunk_size):        fd.write(chunk)

使用 Response.iter_content 将会处理大量你直接使用 Response.raw 不得不处理的。 当流下载时,上面是优先推荐的获取内容方式。 Note that chunk_size can be freely adjusted to a number that may better fit your use cases.

2.7 定制请求头

如果你想为请求添加 HTTP 头部,只要简单地传递一个 dict 给 headers 参数就可以了。

例如,在前一个示例中我们没有指定 content-type

>>> url = 'https://api.github.com/some/endpoint'>>> headers = {'user-agent': 'my-app/0.0.1'}>>> r = requests.get(url, headers=headers)

注意: 定制 header 的优先级低于某些特定的信息源,例如:

1)如果在 .netrc 中设置了用户认证信息,使用 headers= 设置的授权就不会生效。而如果设置了 auth= 参数,``.netrc`` 的设置就无效了。

2) 如果被重定向到别的主机,授权 header 就会被删除。
3) 代理授权 header 会被 URL 中提供的代理身份覆盖掉。
4) 在我们能判断内容长度的情况下,header 的 Content-Length 会被改写。
更进一步讲,Requests 不会基于定制 header 的具体情况改变自己的行为。只不过在最后的请求中,所有的 header 信息都会被传递进去。

注意: 所有的 header 值必须是 string、bytestring 或者 unicode。尽管传递 unicode header 也是允许的,但不建议这样做。

2.8 POST一个多部分编码(Multipart-Encoded)的文件

Requests 使得上传多部分编码文件变得很简单

>>> url = 'http://httpbin.org/post'>>> files = {'file': open('report.xls', 'rb')}>>> r = requests.post(url, files=files)>>> r.text{  ...  "files": {    "file": "
" }, ...}

你可以显式地设置文件名,文件类型和请求头

>>> url = 'http://httpbin.org/post'>>> files = {'file': ('report.xls', open('report.xls', 'rb'), 'application/vnd.ms-excel', {'Expires': '0'})}>>> r = requests.post(url, files=files)>>> r.text{  ...  "files": {    "file": "
" }, ...}

如果你想,你也可以发送作为文件来接收的字符串

>>> url = 'http://httpbin.org/post'>>> files = {'file': ('report.csv', 'some,data,to,send\nanother,row,to,send\n')}>>> r = requests.post(url, files=files)>>> r.text{  ...  "files": {    "file": "some,data,to,send\\nanother,row,to,send\\n"  },  ...}

如果你发送一个非常大的文件作为 multipart/form-data 请求,你可能希望将请求做成数据流。默认下 requests 不支持, 但有个第三方包 requests-toolbelt 是支持的。你可以阅读 toolbelt 文档来了解使用方法。

2.9 响应状态码

我们可以检测响应状态码

>>> r = requests.get('http://httpbin.org/get')>>> r.status_code200

为方便引用,Requests 还附带了一个内置的状态码查询对象

>>> r.status_code == requests.codes.okTrue

如果发送了一个错误请求(一个 4XX 客户端错误,或者 5XX 服务器错误响应),我们可以通过 Response.raise_for_status() 来抛出异常

>>> bad_r = requests.get('http://httpbin.org/status/404')>>> bad_r.status_code404>>> bad_r.raise_for_status()Traceback (most recent call last):  File "requests/models.py", line 832, in raise_for_status    raise http_errorrequests.exceptions.HTTPError: 404 Client Error

但是,由于我们的例子中 r 的 status_code 是 200 ,当我们调用 raise_for_status() 时,得到的是:

>>> r.raise_for_status()None

3.0 响应头

我们可以查看以一个 Python 字典形式展示的服务器响应头:

>>> r.headers{    'content-encoding': 'gzip',    'transfer-encoding': 'chunked',    'connection': 'close',    'server': 'nginx/1.0.4',    'x-runtime': '148ms',    'etag': '"e1ca502697e5c9317743dc078f67693f"',    'content-type': 'application/json'}

但是这个字典比较特殊:它是仅为 HTTP 头部而生的。根据 RFC 2616, HTTP 头部是大小写不敏感的。

因此,我们可以使用任意大写形式来访问这些响应头字段

>>> r.headers['Content-Type']'application/json'>>> r.headers.get('content-type')'application/json'

它还有一个特殊点,那就是服务器可以多次接受同一 header,每次都使用不同的值。但 Requests 会将它们合并,这样它们就可以用一个映射来表示出来

A recipient MAY combine multiple header fields with the same field name into one "field-name: field-value" pair, without changing the semantics of the message, by appending each subsequent field value to the combined field value in order, separated by a comma.

接收者可以合并多个相同名称的 header 栏位,把它们合为一个 "field-name: field-value" 配对,将每个后续的栏位值依次追加到合并的栏位值中,用逗号隔开即可,这样做不会改变信息的语义。

3.1 Cookie

如果某个响应中包含一些 cookie,你可以快速访问它们

>>> url = 'http://example.com/some/cookie/setting/url'>>> r = requests.get(url)>>> r.cookies['example_cookie_name']'example_cookie_value'

要想发送你的cookies到服务器,可以使用 cookies 参数

>>> url = 'http://httpbin.org/cookies'>>> cookies = dict(cookies_are='working')>>> r = requests.get(url, cookies=cookies)>>> r.text'{"cookies": {"cookies_are": "working"}}'

Cookie 的返回对象为 RequestsCookieJar,它的行为和字典类似,但接口更为完整,适合跨域名跨路径使用。你还可以把 Cookie Jar 传到 Requests 中:

>>> jar = requests.cookies.RequestsCookieJar()>>> jar.set('tasty_cookie', 'yum', domain='httpbin.org', path='/cookies')>>> jar.set('gross_cookie', 'blech', domain='httpbin.org', path='/elsewhere')>>> url = 'http://httpbin.org/cookies'>>> r = requests.get(url, cookies=jar)>>> r.text'{"cookies": {"tasty_cookie": "yum"}}'

3.2 重定向与请求历史

默认情况下,除了 HEAD, Requests 会自动处理所有重定向。

可以使用响应对象的 history 方法来追踪重定向。

Response.history 是一个 Response 对象的列表,为了完成请求而创建了这些对象。这个对象列表按照从最老到最近的请求进行排序。

例如,Github 将所有的 HTTP 请求重定向到 HTTPS

>>> r = requests.get('http://github.com')>>> r.url'https://github.com/'>>> r.status_code200>>> r.history[
]

如果你使用的是GET、OPTIONS、POST、PUT、PATCH 或者 DELETE,那么你可以通过 allow_redirects 参数禁用重定向处理:

>>> r = requests.get('http://github.com', allow_redirects=False)>>> r.status_code301>>> r.history[]

如果你使用了 HEAD,你也可以启用重定向:

>>> r = requests.head('http://github.com', allow_redirects=True)>>> r.url'https://github.com/'>>> r.history[
]

3.3 超时

你可以告诉 requests 在经过以 timeout 参数设定的秒数时间之后停止等待响应。基本上所有的生产代码都应该使用这一参数。如果不使用,你的程序可能会永远失去响应:

>>> requests.get('http://github.com', timeout=0.001)Traceback (most recent call last):  File "
", line 1, in
requests.exceptions.Timeout: HTTPConnectionPool(host='github.com', port=80): Request timed out. (timeout=0.001)

注意:timeout 仅对连接过程有效,与响应体的下载无关。 timeout 并不是整个下载响应的时间限制,而是如果服务器在 timeout 秒内没有应答,将会引发一个异常(更精确地说,是在 timeout 秒内没有从基础套接字上接收到任何字节的数据时)If no timeout is specified explicitly, requests do not time out.

3.4 错误与异常

遇到网络问题(如:DNS 查询失败、拒绝连接等)时,Requests 会抛出一个 ConnectionError 异常。

如果 HTTP 请求返回了不成功的状态码, Response.raise_for_status() 会抛出一个 HTTPError 异常。

若请求超时,则抛出一个 Timeout 异常。

若请求超过了设定的最大重定向次数,则会抛出一个 TooManyRedirects 异常。

所有Requests显式抛出的异常都继承自 requests.exceptions.RequestException 。

 

参考资料

1. 

2. 

 

 

 

转载于:https://my.oschina.net/u/3314358/blog/1829809

你可能感兴趣的文章
听云CTO访谈:解读现代应用性能管理(APM)技术
查看>>
Java EE Security API(JSR-375)获得通过
查看>>
Linux学习笔记
查看>>
Visual Studio 2017 15.9预览版3支持ARM64 for UWP
查看>>
GitHub推出Scientist,帮助开发者重构关键路径代码
查看>>
跨平台移动应用开发的优势与不足
查看>>
Java EE守护者将推动Jakarta EE的发展
查看>>
Apache Kylin在绿城客户画像系统中的实践
查看>>
通过jsonp获取json数据--实现AJAX跨域请求
查看>>
使用gRPC构建真实世界的微服务
查看>>
建立自组织敏捷团队
查看>>
[linux内核]完整编译内核源码的过程
查看>>
elasticsearch之排序
查看>>
Magento表单使用ajax验证
查看>>
mac上安装使用docker
查看>>
MySQL5.7.11压缩包版安装
查看>>
如何提升代码水平
查看>>
Elixir 分布式 Application 故障转移和接管
查看>>
微软为 Chrome 和 Firefox 发布了 Windows Defender 扩展
查看>>
英特尔基于 LLVM 的 SYCL 开源编译器现已发布
查看>>