热心板凳

文章
5
资源
0
加入时间
4年0月8天

python 爬虫 重复下载 二次请求

在写爬虫的时候,难免会遇到报错,比如 4XX ,5XX,有些可能是网络的原因,或者一些其他的原因,这个时候我们希望程序去做第二次下载,有一种很low的解决方案,比如是用 try except  try: -------except: try: -------- except: try: ...