首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

urllib与urllib2的学习总结(python2.7.X)

HTTPError是HTTP URL在特别的情况下被抛出的URLError的一个子类。下面就详细说说URLError和HTTPError。...URLError——handlers当运行出现问题时(通常是因为没有网络连接也就是没有路由到指定的服务器,或在指定的服务器不存在),抛出这个异常.它是IOError的子类.这个抛出的异常包括一个‘reason...对于不能处理的请求, urlopen将抛出HTTPError异常. 典型的错误包含‘404’ (没有找到页面), ‘403’ (禁止请求),‘401’ (需要验证)等。...它包含2个重要的属性reason和code。   当一个错误被抛出的时候,服务器返回一个HTTP错误代码和一个错误页。你可以使用返回的HTTP错误示例。...和URLError,因为HTTPError是URLError的子类,所以应该把捕获HTTPError放在URLError前面,如不然URLError也会捕获一个HTTPError错误,代码参考如下:

78320

Asp.Net Web API(四)

HttpResponseException-----HTTP响应异常     如果Web API控制器抛出一个未捕捉的异常,会发生什么呢?...当一个控制器抛出一个未处理异常,且这个异常不是一个HttpResponseException异常时,一个异常过滤器会被执行。...特别强调以下,ASP.NET MVC中使用的HandlerErrorFilterAttribute不会处理Web API控制器抛出的异常。  ...以下实例演示了如何用HttpError在响应中返回HTTP状态码“404--未找到”: 1 public HttpResponseMessage GetProduct(int id) 2 { 3...使用HttpError的一个好处是,与其它强类型模型一样,会进行同样的“content-negotiation”(暂未实现)和序列过程   直接替代创建HttpError对象的一种方法是:你可以使用CreateErrorResponse

1.6K20
  • 您找到你想要的搜索结果了吗?
    是的
    没有找到

    Python爬虫基础知识:异常的处理

    其他不能处理的,urlopen会产生一个HTTPError。 典型的错误包含"404"(页面无法找到),"403"(请求禁止),和"401"(带验证请求)。...如果请求的资源不存在, 则通常返回404错误。...处理方式:若程序中能够处理,则进行进一步处理,如果程序中不能处理,则丢弃 301:请求到的资源都会分配一个永久的URL,这样就可以在将来通过该URL来访问此资源 处理方式:重定向到分配的URL 302...当一个错误号产生后,服务器返回一个HTTP错误号,和一个错误页面。 你可以使用HTTPError实例作为页面返回的应答对象response。...这表示和错误属性一样,它同样包含了read,geturl,和info方法。 我们建一个urllib2_test07.py来感受一下: 按下F5可以看见输出了404的错误码,也就说没有找到这个页面。

    1.2K100

    Python:爬虫系列笔记(4) -- URL异常处理

    大家好,本节在这里主要说的是URLError还有HTTPError,以及对它们的一些处理。...处理方式:若程序中能够处理,则进行进一步处理,如果程序中不能处理,则丢弃 301:请求到的资源都会分配一个永久的URL,这样就可以在将来通过该URL来访问此资源 处理方式:重定向到分配的URL 302...处理方式:重定向到临时的URL 304:请求的资源未更新 处理方式:丢弃 400:非法请求 处理方式:丢弃 401:未授权 处理方式:丢弃 403:禁止 处理方式:丢弃 404...如果发生的不是HTTPError,则会去捕获URLError异常,输出错误原因。...以上,就是对URLError和HTTPError的相关介绍,以及相应的错误处理办法,小伙伴们加油! 程序员,年二十有二,始从文,连考而不中。遂习武,练武场上发一矢,中鼓吏,逐之出。

    1.8K90

    网络爬虫框架Scrapy详解之Request

    在Spider中通常用法: yield scrapy.Request(url = 'zarten.com') 类属性和方法有: url method headers body meta copy...若需要POST请求,用FormRequest即可 headers 请求头信息,一般在settings中设置即可,也可在middlewares中设置 body str类型,为请求体,一般不需要设置(get和post...其实都可以通过body来传递参数,不过一般不用) cookies dict或list类型,请求的cookie dict方式(name和value的键值对): cookies = {'name1' : '...指定请求的优先级,数字越大优先级越高,可以为负数,默认为0 dont_filter 默认为False,若设置为True,这次请求将不会过滤(不会加入到去重队列中),可以多次执行相同的请求 errback 抛出错误的回调函数...,错误包括404,超时,DNS错误等,第一个参数为Twisted Failure实例 from scrapy.spidermiddlewares.httperror import HttpError from

    88800
    领券