我是靠谱客的博主 风中美女,最近开发中收集的这篇文章主要介绍HTTP代理如何助力python爬虫爬取天猫店铺商品链接,觉得挺不错的,现在分享给大家,希望可以做个参考。

概述

在这里插入图片描述

在使用python爬虫爬取网页时会遇到很多含有特殊符号的情况,当把链接复制到浏览器打开,发现每个节点都多了个,直接使用response.xpath()无法定位元素,为避免定位不到元素的问题,应先对响应内容做一下过滤,然后使用response.replace()将过滤后的html文档重新赋值给response,本文以爬取天猫店铺商品链接为例,向大家介绍爬取过程。

爬取思路

1、使用response.text获取html文本,去除其中的;

2、使用response.replace() 重新将去除后的html赋值给response;

3、使用response.xpath()定位元素,成功获取商品链接。

具体代码

# -*- coding: utf-8 -*-
import re
import scrapy


class TmallSpider(scrapy.Spider):
    name = 'tmall'
    allowed_domains = ['tmall.com']
    start_urls = [
        'https://wogeliou.tmall.com/i/asynSearch.htm?_ksTS=1611910763284_313&callback=
        jsonp314&mid=w-22633333039-0&wid=22633333039&path=/search.htm&search=y&spm=a220o.1000855.0.0.7fcc367fsdZyLF'
    ]

    custom_settings = {
        'ITEM_PIPELINES': {
            'tn_scrapy.pipelines.TnScrapyPipeline': 300,
        },
        'DEFAULT_REQUEST_HEADERS': {
            "user-agent": 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) 
            Chrome/78.0.3904.70 Safari/537.36',
            'cookie': '登录后的cookie'
        }
    }

    def parse(self, response):
        html = re.findall(r'jsonpd+("(.*?)")', response.text)[0]
        # 替换掉 
        html = re.sub(r'\', '', html)
        # print('html:', html)
        response = response.replace(body=html)
        link = response.xpath('//div[@class="item5line1"]/dl/dd[@class="detail"]/a/@href').extract()
        print('link: ', link)

以上就是python爬取天猫店铺商品链接的介绍,大家可以套入代码直接使用哦~
文章部分内容源于网络,联系侵删*

最后

以上就是风中美女为你收集整理的HTTP代理如何助力python爬虫爬取天猫店铺商品链接的全部内容,希望文章能够帮你解决HTTP代理如何助力python爬虫爬取天猫店铺商品链接所遇到的程序开发问题。

如果觉得靠谱客网站的内容还不错,欢迎将靠谱客网站推荐给程序员好友。

本图文内容来源于网友提供,作为学习参考使用,或来自网络收集整理,版权属于原作者所有。
点赞(57)

评论列表共有 0 条评论

立即
投稿
返回
顶部