python 爬虫 重复下载 二次请求 在写爬虫的时候,难免会遇到报错,比如 4XX ,5XX,有些可能是网络的原因,或者一些其他的原因,这个时候我们希望程序去做第二次下载,有一种很low的解决方案,比如是用 try except try: -------except: try: -------- except: try: ... Other 2024-07-23 95 点赞 1 评论 143 浏览