Python爬虫 requests访问http网站之443报错(ssl验证)

报错信息:

1
urllib3.exceptions.MaxRetryError: HTTPSConnectionPool(host='ssr4.scrape.center', port=443): Max retries exceeded with url: /page/1 (Caused by SSLError(SSLCertVerificationError(1, '[SSL: CERTIFICATE_VERIFY_FAILED] certificate verify failed: unable to get local issuer certificate (_ssl.c:1007)')))

SSL介绍:

Python魔术方法

Python常用的魔术方法有

__init__,对象被创建后调用,用于初始化对象的属性。

__new__,对象被创建之前被调用,

__str__,用于打印该对象展示给用户的字符串信息。

__repr__,用于开发调试时,给开发人员看的打印对象的详细信息

__len__,用于获取容器对象的元素个数。

__call__,允许对象像函数一样被调用,可以传递参数。

__iter__,返回一个迭代器,允许对象成为一个可以迭代的容器,常和__next__一起使用,

  

:D 一言句子获取中...