百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 编程网 > 正文

网络爬虫框架Scrapy详解之Request

yuyutoo 2024-10-12 00:33 2 浏览 0 评论

简介: Request类是一个http请求的类,对于爬虫而言是一个很重要的类。通常在Spider中创建这样的一个请求,在Downloader中执行这样的一个请求。同时也有一个子类FormRequest继承于它,用于post请求。

介绍

Request类是一个http请求的类,对于爬虫而言是一个很重要的类。通常在Spider中创建这样的一个请求,在Downloader中执行这样的一个请求。同时也有一个子类FormRequest继承于它,用于post请求。

在Spider中通常用法:

yield
 scrapy.
Request
(url = 
'zarten.com'
)

类属性和方法有:

url
method
headers
body
meta
copy()
replace([url, method, headers, body, cookies, meta, encoding, dont_filter, callback, errback])
Request
class
 scrapy.http.

Request

(url[, callback, method=
'GET'
, headers, body, cookies, meta, encoding=
'utf-8'
, priority=
0
, dont_filter=
False
, errback, flags])

参数说明:

url 请求的url

callback 回调函数,用于接收请求后的返回信息,若没指定,则默认为parse()函数

method http请求的方式,默认为GET请求,一般不需要指定。若需要POST请求,用FormRequest即可

headers 请求头信息,一般在settings中设置即可,也可在middlewares中设置

body str类型,为请求体,一般不需要设置(get和post其实都可以通过body来传递参数,不过一般不用)

cookies dict或list类型,请求的cookie dict方式(name和value的键值对):

cookies = {
'name1'
 : 
'value1'
 , 
'name2'
 : 
'value2'
}

list方式:

cookies = [
{
'name'
: 
'Zarten'
, 
'value'
: 
'my name is Zarten'
, 
'domain'
: 
'example.com'
, 
'path'
: 
'/currency'
}
]

encoding 请求的编码方式,默认为'utf-8'

priority int类型,指定请求的优先级,数字越大优先级越高,可以为负数,默认为0

dont_filter 默认为False,若设置为True,这次请求将不会过滤(不会加入到去重队列中),可以多次执行相同的请求

errback 抛出错误的回调函数,错误包括404,超时,DNS错误等,第一个参数为Twisted Failure实例

from
 scrapy.spidermiddlewares.httperror 
import
 
HttpError
from
 twisted.internet.error 
import
 
DNSLookupError
from
 twisted.internet.error 
import
 
TimeoutError
, 
TCPTimedOutError
class
 
ToScrapeCSSSpider
(scrapy.
Spider
):
 name = 
"toscrape-css"
 
# start_urls = [
 
# 'http://quotes.toscrape.com/',
 
# ]
 start_urls = [
 
"http://www.httpbin.org/"
, 
# HTTP 200 expected
 
"http://www.httpbin.org/status/404"
, 
# Not found error
 
"http://www.httpbin.org/status/500"
, 
# server issue
 
"http://www.httpbin.org:12345/"
, 
# non-responding host, timeout expected
 
"http://www.httphttpbinbin.org/"
, 
# DNS error expected
 ]
 
def
 start_requests(
self
):
 
for
 u 
in
 
self
.start_urls:
 
yield
 scrapy.
Request
(u, callback=
self
.parse_httpbin,
 errback=
self
.errback_httpbin,
 dont_filter=
True
)
 
def
 parse_httpbin(
self
, response):
 
self
.logger.info(
'Got successful response from {}'
.format(response.url))
 
# do something useful here...
 
def
 errback_httpbin(
self
, failure):
 
# log all failures
 
self
.logger.info(repr(failure))
 
# in case you want to do something special for some errors,
 
# you may need the failure's type:
 
if
 failure.check(
HttpError
):
 
# these exceptions come from HttpError spider middleware
 
# you can get the non-200 response
 response = failure.value.response
 
self
.logger.info(
'HttpError错误 on %s'
, response.url)
 
elif
 failure.check(
DNSLookupError
):
 
# this is the original request
 request = failure.request
 
self
.logger.info(
'DNSLookupError错误 on %s'
, request.url)
 
elif
 failure.check(
TimeoutError
, 
TCPTimedOutError
):
 request = failure.request
 
self
.logger.info(
'TimeoutError错误 on %s'
, request.url)

flags list类型,一般不会用到,发送请求的标志,一般用于日志记录

meta 可用户自定义从Request到Response传递参数,这个参数一般也可在middlewares中处理

yield
 scrapy.
Request
(url = 
'zarten.com'
, meta = {
'name'
 : 
'Zarten'
})

在Response中:

my_name = response.meta[
'name'
]

不过也有scrapy内置的特殊key,也非常有用,它们如下:

proxy 设置代理,一般在middlewares中设置

可以设置http或https代理

request.meta[
'proxy'
] = 
'https://'
 + 
'ip:port'

downloadtimeout 设置请求超时等待时间(秒),通常在settings中设置DOWNLOADTIMEOUT,默认是180秒(3分钟)

maxretrytimes 最大重试次数(除去第一次下载),默认为2次,通常在settings中 RETRY_TIMES设置

dont_redirect 设为True后,Request将不会重定向

dont_retry 设为True后,对于http链接错误或超时的请求将不再重试请求

handlehttpstatuslist http返回码200-300之间都是成功的返回,超出这个范围的都是失败返回,scrapy默认是过滤了这些返回,不会接收这些错误的返回进行处理。不过可以自定义处理哪些错误返回:

yield
 scrapy.
Request
(url= 
'https://httpbin.org/get/zarten'
, meta= {
'handle_httpstatus_list'
 : [
404
]})

在parse函数中可以看到处理404错误:

def
 parse(
self
, response):
 
print
(
'返回信息为:'
,response.text)

handlehttpstatusall 设为True后,Response将接收处理任意状态码的返回信息

dontmergecookies scrapy会自动保存返回的cookies,用于它的下次请求,当我们指定了自定义cookies时,如果我们不需要合并返回的cookies而使用自己指定的cookies,可以设为True

cookiejar 可以在单个spider中追踪多个cookie,它不是粘性的,需要在每次请求时都带上

def
 start_requests(
self
):
 urls = [
'http://quotes.toscrape.com/page/1'
,
 
'http://quotes.toscrape.com/page/3'
,
 
'http://quotes.toscrape.com/page/5'
,
 ]
 
for
 i ,url 
in
 enumerate(urls):
 
yield
 scrapy.
Request
(url= url, meta= {
'cookiejar'
 : i})
 
def
 parse(
self
, response):
 next_page_url = response.css(
"li.next > a::attr(href)"
).extract_first()
 
if
 next_page_url 
is
 
not
 
None
:
 
yield
 scrapy.
Request
(response.urljoin(next_page_url), meta= {
'cookiejar'
 : response.meta[
'cookiejar'
]}, callback= 
self
.parse_next)
 
def
 parse_next(
self
, response):
 
print
(
'cookiejar:'
, response.meta[
'cookiejar'
])

dont_cache 设为True后,不会缓存

redirect_urls 暂时还不清楚具体的作用,知道的小伙伴们欢迎在评论留言

bindaddress 绑定输出IP

dontobeyrobotstxt 设为True,不遵守robots协议,通常在settings中设置

downloadmaxsize 设置下载器最大下载的大小(字节),通常在settings中设置DOWNLOADMAXSIZE,默认为1073741824 (1024MB=1G),若不设置最大的下载限制,设为0

download_latency 只读属性,获取请求的响应时间(秒)

def
 start_requests(
self
):
 headers = {
 
'user-agent'
 : 
'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/67.0.3396.99 Safari/537.36'
 }
 
yield
 scrapy.
Request
(url= 
'https://www.amazon.com'
, headers= headers)
 
def
 parse(
self
, response):
 
print
(
'响应时间为:'
, response.meta[
'download_latency'
])

downloadfailon_dataloss 很少用到,详情看这里

referrer_policy 设置Referrer Policy

FormRequest

FormRequest 类为Request的子类,用于POST请求

这个类新增了一个参数 formdata,其他参数与Request一样,详细可参考上面的讲述

一般用法为:

yield
 scrapy.
FormRequest
(url=
"http://www.example.com/post/action"
,
 formdata={
'name'
: 
'Zarten'
, 
'age'
: 
'27'
},
 callback=
self
.after_post)

点击“了解更多”看源代码,建议收藏

相关推荐

Mysql和Oracle实现序列自增(oracle创建序列的sql)

Mysql和Oracle实现序列自增/*ORACLE设置自增序列oracle本身不支持如mysql的AUTO_INCREMENT自增方式,我们可以用序列加触发器的形式实现,假如有一个表T_WORKM...

关于Oracle数据库12c 新特性总结(oracle数据库19c与12c)

概述今天主要简单介绍一下Oracle12c的一些新特性,仅供参考。参考:http://docs.oracle.com/database/121/NEWFT/chapter12102.htm#NEWFT...

MySQL CREATE TABLE 简单设计模板交流

推荐用MySQL8.0(2018/4/19发布,开发者说同比5.7快2倍)或同类型以上版本....

mysql学习9:创建数据库(mysql5.5创建数据库)

前言:我也是在学习过程中,不对的地方请谅解showdatabases;#查看数据库表createdatabasename...

MySQL面试题-CREATE TABLE AS 与CREATE TABLE LIKE的区别

执行"CREATETABLE新表ASSELECT*FROM原表;"后,新表与原表的字段一致,但主键、索引不会复制到新表,会把原表的表记录复制到新表。...

Nike Dunk High Volt 和 Bright Spruce 预计将于 12 月推出

在街上看到的PandaDunk的超载可能让一些球鞋迷们望而却步,但Dunk的浪潮仍然强劲,看不到尽头。我们看到的很多版本都是为女性和儿童制作的,这种新配色为后者引入了一种令人耳目一新的新选择,而...

美国多功能舰载雷达及美国海军舰载多功能雷达系统技术介绍

多功能雷达AN/SPY-1的特性和技术能力,该雷达已经在美国海军服役了30多年,其修改-AN/SPY-1A、AN/SPY-1B(V)、AN/SPY-1D、AN/SPY-1D(V),以及雷神...

汽车音响怎么玩,安装技术知识(汽车音响怎么玩,安装技术知识视频)

全面分析汽车音响使用或安装技术常识一:主机是大多数人最熟习的音响器材,有关主机的各种性能及规格,也是耳熟能详的事,以下是一些在使用或安装时,比较需要注意的事项:LOUDNESS:几年前的主机,此按...

【推荐】ProAc Response系列扬声器逐个看

有考牌(公认好声音)扬声器之称ProAcTablette小音箱,相信不少音响发烧友都曾经,或者现在依然持有,正当大家逐渐掌握Tablette的摆位设定与器材配搭之后,下一步就会考虑升级至表现更全...

#本站首晒# 漂洋过海来看你 — BLACK&DECKER 百得 BDH2000L无绳吸尘器 开箱

作者:初吻给了烟sco混迹张大妈时日不短了,手没少剁。家里有了汪星人,吸尘器使用频率相当高,偶尔零星打扫用卧式的实在麻烦(汪星人:你这分明是找借口,我掉毛是满屋子都有,铲屎君都是用卧式满屋子吸的,你...

专题|一个品牌一件产品(英国篇)之Quested(罗杰之声)

Quested(罗杰之声)代表产品:Q212FS品牌介绍Quested(罗杰之声)是录音监听领域的传奇品牌,由英国录音师RogerQuested于1985年创立。在成立Quested之前,Roger...

常用半导体中英对照表(建议收藏)(半导体英文术语)

作为一个源自国外的技术,半导体产业涉及许多英文术语。加之从业者很多都有海外经历或习惯于用英文表达相关技术和工艺节点,这就导致许多英文术语翻译成中文后,仍有不少人照应不上或不知如何翻译。为此,我们整理了...

Fyne Audio F502SP 2.5音路低音反射式落地音箱评测

FyneAudio的F500系列,有新成员了!不过,新成员不是新的款式,却是根据原有款式提出特别版。特别版产品在原有型号后标注了SP字样,意思是SpecialProduction。Fyne一共推出...

有哪些免费的内存数据库(In-Memory Database)

以下是一些常见的免费的内存数据库:1.Redis:Redis是一个开源的内存数据库,它支持多种数据结构,如字符串、哈希表、列表、集合和有序集合。Redis提供了快速的读写操作,并且支持持久化数据到磁...

RazorSQL Mac版(SQL数据库查询工具)

RazorSQLMac特别版是一款看似简单实则功能非常出色的SQL数据库查询、编辑、浏览和管理工具。RazorSQLformac特别版可以帮你管理多个数据库,支持主流的30多种数据库,包括Ca...

取消回复欢迎 发表评论: