【Python从入门到进阶】51、电影天堂网站多页面下载实战

news/2024/7/24 10:08:00 标签: python, scrapy, xpath, spider, yield

接上篇《50、当当网Scrapy项目实战(三)》
上一篇我们讲解了使用Scrapy框架在当当网抓取多页书籍数据的效果,本篇我们来抓取电影天堂网站的数据,同样采用Scrapy框架多页面下载的模式来实现。

一、抓取需求

打开电影天堂网站(https://dy2018.com/),点击最新电影的更多页面(https://www.dy2018.com/html/gndy/dyzz/index.html),这里需要抓取最新电影的名字,以及详情页的图片:


要完成这个目标,我们需要造Scrapy框架中封装一个里外嵌套的item对象。下面我们来进行开发。

二、创建工程及爬虫文件

首先我们打开编辑器,打开控制台,进入爬虫文件夹,使用“scrapy startproject 项目名”指令,来创建我们的爬虫工程:

然后进入配置文件settings.py,设置ROBOTSTXT_OBEY参数为false,即不遵循robots协议。
然后进入工程文件的spiders文件夹下,使用“scrapy genspider 爬虫文件名 爬取路径”创建我们的爬虫文件,这里我命名爬虫文件为“movies”:

三、编写爬虫逻辑

默认生成的spider爬虫代码如下:

python">import scrapy

class MoviesSpider(scrapy.Spider):
    name = "movies"
    allowed_domains = ["www.dy2018.com"]
    start_urls = ["https://www.dy2018.com/html/gndy/dyzz/index.html"]

    def parse(self, response):
        pass

我们把其中的“pass”替换为“print("=============")”,使用“scrapy crawl 爬虫文件名”执行该爬虫:

可以看到正常输出了我们打印的等于号,可以证明网站并没有设置反爬虫。下面我们来编写实际内容,首先我们先定义我们最终要包装成的item对象:

python">import scrapy

class ScrapyMovieItem(scrapy.Item):
    name = scrapy.Field()
    src = scrapy.Field()

这里我们主要定义了两个参数,一个是电影名字name,一个是电影封面地址src。

然后我们回到电影天堂列表界面,F12查看电影名字的Html代码:

可以看到是由td包裹的标签,其中a标签中的内容即为电影名字,其中的href参数为电影的详情页面地址。
然后邮件Html中的电影名所在标签,使用xpath工具,获取到电影名字的xpath路径:

xpath地址为:

python">/html/body/div/div/div[3]/div[6]/div[2]/div[2]/div[2]/ul/table[1]/tbody/tr[2]/td[2]/b/a

这里full xpath获取的地址太长,我们再观察一下,发在它是在class为co_content8的div下面的:

xpath地址可以缩减为:
(1)电影名称

python">//div[@class="co_content8"]//td[2]//a[1]/text()

(2)详情地址

python">//div[@class="co_content8"]//td[2]//a[1]/@href

所以爬虫代码可以编写为:

python">import scrapy


class MoviesSpider(scrapy.Spider):
    name = "movies"
    allowed_domains = ["www.dy2018.com"]
    start_urls = ["https://www.dy2018.com/html/gndy/dyzz/index.html"]

    def parse(self, response):
        # 抓取电影名称以及详情页的封面
        a_list = response.xpath('//div[@class="co_content8"]//td[2]//a[1]')

        for a in a_list:
            # 获取第一页的name和要点击的详情链接地址
            name = a.xpath('./text()').extract_first()
            href = a.xpath('./@href').extract_first()

            print(name,href)

执行一下爬虫,可以看到能拿到相应结果:

然后完善详情界面的地址,进入详情地址,然后获取详情页的图片:

python">import scrapy

class MoviesSpider(scrapy.Spider):
    name = "movies"
    allowed_domains = ["www.dy2018.com"]
    start_urls = ["https://www.dy2018.com/html/gndy/dyzz/index.html"]

    def parse(self, response):
        # 抓取电影名称以及详情页的封面
        a_list = response.xpath('//div[@class="co_content8"]//td[2]//a[1]')

        for a in a_list:
            # 获取第一页的name和要点击的详情链接地址
            name = a.xpath('./text()').extract_first()
            href = a.xpath('./@href').extract_first()

            # 拼接得到详情页地址
            url = 'https://www.dy2018.com'+href
            # 对第二页的链接发起访问
            yield scrapy.Request(url=url, callback=self.parse_second, meta={'name': name})

    def parse_second(self, response):
        print("第二个解析方法")

这里我们执行了第二个解析方法,并在下面定义了这个方法“parse_second”,并在上一个函数中,将name作为meta参数带入进去。
此时我们去电影天堂网站打开第一个电影的详情页,右键或F12查看电影封面:

可以大致推断出封面路径的xpath地址为:

python">//div[@id="Zoom"]//img[1]/@src

所以解析详情图片的代码为(ScrapyMovieItem需要import一下):

python">def parse_second(self, response):
    src = response.xpath('//div[@id="Zoom"]//img[1]/@src').extract_first()
    # 获取上一步得到的meta参数中的name
    name = response.meta['name']

    movie = ScrapyMovieItem(name=name, src=src)
    yield movie

最后将封装好的movie对象返回给管道。完整代码:

python">import scrapy

from scrapy_movie.items import ScrapyMovieItem


class MoviesSpider(scrapy.Spider):
    name = "movies"
    allowed_domains = ["www.dy2018.com"]
    start_urls = ["https://www.dy2018.com/html/gndy/dyzz/index.html"]

    def parse(self, response):
        # 抓取电影名称以及详情页的封面
        a_list = response.xpath('//div[@class="co_content8"]//td[2]//a[1]')

        for a in a_list:
            # 获取第一页的name和要点击的详情链接地址
            name = a.xpath('./text()').extract_first()
            href = a.xpath('./@href').extract_first()

            # 拼接得到详情页地址
            url = 'https://www.dy2018.com' + href
            # 对第二页的链接发起访问
            yield scrapy.Request(url=url, callback=self.parse_second, meta={'name': name})

    def parse_second(self, response):
        src = response.xpath('//div[@id="Zoom"]//img[1]/@src').extract_first()
        # 获取上一步得到的meta参数中的name
        name = response.meta['name']
        print(name, src)
        movie = ScrapyMovieItem(name=name, src=src)

        yield movie

四、开启并定义管道

此时我们前往settings.py开启管道(将ITEM_PIPELINES注释取消即可):

python">ITEM_PIPELINES = {
   "scrapy_movie.pipelines.ScrapyMoviePipeline": 300,
}

然后打开pipelines.py,编写一段逻辑,将获取的电影名字和封面地址写入一个json文件中:

python"># 如果需要使用管道,要在setting.py中打开ITEM_PIPELINES参数
class ScrapyMoviePipeline:
    # 1、在爬虫文件开始执行前执行的方法
    def open_spider(self, spider):
        print('++++++++爬虫开始++++++++')
        # 这里写入文件需要用'a'追加模式,而不是'w'写入模式,因为写入模式会覆盖之前写的
        self.fp = open('movies.json', 'a', encoding='utf-8')  # 打开文件写入

    # 2、爬虫文件执行时,返回数据时执行的方法
    # process_item函数中的item,就是爬虫文件yield的movie对象
    def process_item(self, item, spider):
        # write方法必须写一个字符串,而不能是其他的对象
        self.fp.write(str(item))  # 将爬取信息写入文件
        return item

    # 在爬虫文件开始执行后执行的方法
    def close_spider(self, spider):
        print('++++++++爬虫结束++++++++')
        self.fp.close()  # 关闭文件写入

五、执行测试

编写完item、spider、pipeline之后,我们运行爬虫,查看输出的json文件:

可以看到完整获取电影的名称以及封面图片的下载地址。

以上就是电影天堂网站多页面下载的实战内容。下一篇我们来讲解scrapy中链接提取器的使用。

参考:尚硅谷Python爬虫教程小白零基础速通
转载请注明出处:https://guangzai.blog.csdn.net/article/details/136994919


http://www.niftyadmin.cn/n/5448274.html

相关文章

vue3+threejs新手从零开发卡牌游戏(九):添加抽卡逻辑和动效

首先优化下之前的代码,把game/deck/p1.vue中修改卡组方法和渲染卡组文字方法提到公共方法中,此时utils/common.ts完整代码如下: import { nextTick } from vue; import * as THREE from three; import * as TWEEN from tweenjs/tween.js impo…

机器学习 | 期望最大化(EM)算法介绍和实现

在现实世界的机器学习应用中,通常有许多相关的特征,但只有其中的一个子集是可观察的。当处理有时可观察而有时不可观察的变量时,确实可以利用该变量可见或可观察的实例,以便学习和预测不可观察的实例。这种方法通常被称为处理缺失…

2024.3.24每日一题

LeetCode 零钱兑换 题目链接:322. 零钱兑换 - 力扣(LeetCode) 题目描述 给你一个整数数组 coins ,表示不同面额的硬币;以及一个整数 amount ,表示总金额。 计算并返回可以凑成总金额所需的 最少的硬币…

LangChain-Chatchat知识库对话

前言 上次我们完成了Chatchat的本地部署,使用了LLM对话的功能。这次我们尝试一下其他的功能,之前总是有报错没有跑通,这次处理了几个问题之后才跑通了知识库对话和文件对话。 知识库对话 原理: 首先我们看这个图可以明白,知识库…

简单应用题

fo open("PY202.txt","w") data input("请输入课程名及对应的成绩:") # 课程名 考分 ... while data:...data input("请输入课程名及对应的成绩:") ... fo.write("最高分课程是{} {}, 最低分课程是{…

Spring Boot应用程序中如何优化Undertow的性能?

在Spring Boot应用程序中优化Undertow的性能,可以通过调整Undertow的配置参数来实现。以下是一些常见的优化策略: 1. 调整线程池设置 Undertow使用两个线程池:IO线程池和工作线程池(worker threads)。IO线程池负责处理非阻塞操作,而工作线程池处理阻塞操作。 io-thread…

音乐创新时代探索Suno AI:你的专属音乐创作伙伴

今天给大家介绍一个超酷的音乐神器——Suno AI!它就像是音乐界的 ChatGPT 一样厉害! Suno AI 可是音乐创作的潮流引领者,用了深度学习和自然语言处理技术,啥音乐都能搞,不管是古典、流行,还是电子、摇滚&a…

my2sql —— go语言版binlog解析及闪回工具

之前学习过python语言版binlog解析及闪回工具 MySQL闪回工具简介 及 binlog2sql工具用法 最近听同事介绍有了新的go语言版的my2sql。优点是不需要安装一大堆依赖包,直接可以安装使用,并且解析更高效,试用一下。 一、 下载安装 1. 软件下载 …