爬虫爬取妹子图片(入门篇)

爬虫爬取妹子图片(入门篇)

python 爬虫如果不尝试一下爬取漂亮妹子的图片,那怎么能算得上真正的爬虫呢?
下面就一起来尝试一下吧。(绝对领域
观看一下网站首页(是不是很刺激啊,动手吧)

这里介绍使用scrapy框架进行爬取全网的图片,如果想要使用requests模块进行爬取也是可以的,毕竟这个网站的爬取还是非常的简单。

1.建立一个新的项目,选择一个文件夹在给文件夹中新建一个项目,打开终端(win+R 输入cmd ),切换到该文件的路径下,输入命令。

scrapy startproject projectname         # 项目名称按照自己的想法定

# 例如:
scrapy startproject juedui

2.打开pycharm ,切换到当前项目路径下,如下所示(file—-open—-之后选择自己的项目路径)
在这里插入图片描述
3.打开setting文件,设置setting文件中的配置信息。(大部分信息都是处于注释状态,需要用到的信息就打开)
(设置头部,打开中间件,机器人协议……)
设置头部信息:
在这里插入图片描述
修改机器人协议(只用于学习,暂时不遵循)(把注释去掉)
同时设置输出信息的权限,使得输出的信息的权限不低于WARNING(警告)(这样子输出的内容就能够少去很多不必要信息)(自行添加)
在这里插入图片描述
设置中间的权重
在这里插入图片描述

4.书写爬虫处理文件,以及发起请求(juedui文件下的spider文件下的爬虫文件)
全部代码如下:

# -*- coding: utf-8 -*-
import scrapy,json,parsel,re,requests,os
from ..items import JueduiItem
from fake_useragent import UserAgent

ua = UserAgent()
header = {
   "User-Agent":ua.random}

class JdSpider(scrapy.Spider):
    name = 'jd'
    allowed_domains = ['jdlingyu.mobi']
    start_urls = ['https://www.jdlingyu.mobi']

    # 主页面的分析,提取列表页面url
    def parse(self, response):
        url_lsit = response.xpath('//div[@class="grid-bor"]//div[@class="pos-r cart-list"]')
        print(len(url_lsit))
        for url in url_lsit:
            item = JueduiItem()
            item['pageTitle'] = url.xpath('.//h2[@class="entry-title"]/a/text()').extract_first()
            item['pageUrl'] = url.xpath('.//h2[@class="entry-title"]/a/@href').extract_first()
            yield scrapy.Request(
                item['pageUrl'],
                callback=self.page_parse,
                meta={
   "item":item}
            )
        page = response.xpath('//div[@id="primary-home"]/@data-pages').extract_first()
        if page == None:                            # 获取该URL下的总页数
            page = response.xpath('//page-nav').extract_first()
            mold = re.findall('nav-type="(.*?)"',page)[0]
            page = re.findall('pages="(.*?)"',page)[0]
            print("page:",page,"type:",mold)
        for i in range(2,3):              # 逐个发起请求 int(page)+1
            yield scrapy.FormRequest(
                "https://www.jdlingyu.mobi/wp-admin/admin-ajax.php?action=zrz_load_more_posts",
                formdata={
   "type":mold,"paged":str(i)},
                callback=self.page_parse1,
            )

    # 对使用post请求发送得到的页面进行同样的分析
    def page_parse1(self,response):
        res = json.loads(response.body.decode())
        img = res['msg']
        html = parsel.Selector(img)
        url_lsit = html.xpath('//h2')
        for url in url_lsit:
            item = JueduiItem()
            item['pageTitle'] = url.xpath('.//a/text()').extract_first()
            item['pageUrl'] = url.xpath('.//a/@href').extract_first()
            yield scrapy.Request(
                item['pageUrl'],
                callback=self.page_parse,
                meta={
   'item':item}
            )


    # 提取文章中的图片URL,以及下载图片
    def page_parse(self,response):
        item = response.meta['item']
        item['imgUrl'] = response.xpath('//div[@id="content-innerText"]//img/@src').extract()
        print(item['pageTitle'])
        # print(item['imgUrl']) # 图片URL
        for url in item['imgUrl']:
            res = requests.get(url,headers=header)
            # 把图片保存到本地硬盘中,文件路径按照自己电脑来写
            if not os.path.exists(r"F:\相片\绝对领域/"+item['pageTitle']):   # 这个地址自己设置自己的本地地址
                os.makedirs(r"F:\相片\绝对领域/"+item['pageTitle'])
            with open(r"F:\相片\绝对领域/"+item['pageTitle']+'/'+url.split('/')[-1],"wb") as fp:
                fp.write(res.content)


这样子就把所有的图片保存到了硬盘文件中了。

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。

发布者:全栈程序员-用户IM,转载请注明出处:https://javaforall.cn/115125.html原文链接:https://javaforall.cn

【正版授权,激活自己账号】: Jetbrains全家桶Ide使用,1年售后保障,每天仅需1毛

【官方授权 正版激活】: 官方授权 正版激活 支持Jetbrains家族下所有IDE 使用个人JB账号...

(0)


相关推荐

  • 基于DNS解析的GSLB《CDN技术详解》

    基于DNS解析的GSLB《CDN技术详解》基于DNS解析的GSLB工作方式基于DNS解析的GSLB方案实际上就是把负载均衡设备部署在DNS系统中。在用户发出任何应用连接请求时,首先必须通过DNS系统来请求获得服务器的IP地址,基于DNS的GSLB正是在返回DNS解析结果的过程中进行智能决策,给用户返回一个最佳的服务器的IP地址。从用户的视角看,整个应用流程与没有GSLB参与时没有发生任何变化。DNS系统本身是具备简单负载分配能力的,这…

  • PyCharm专业版的安装[通俗易懂]

    PyCharm专业版的安装[通俗易懂]本教程只适合Windows1.首先到官网下载PyCharm专业版:http://www.jetbrains.com/pycharm/download/#section=windows2.双击打开后开始安装这里选择你所安装的目录这里选择创建桌面快捷方式以及关联.py文件静静等待安装:这里选择运行PyCharm 然后单机Finish:

  • pip 安装与卸载软件包[通俗易懂]

    pip 安装与卸载软件包[通俗易懂]$pip2installxxx$pip2unstallxxx

    2022年10月16日
  • linux命令_linux基本命令的使用

    linux命令_linux基本命令的使用创建petalinux工程:petalinux-create-tproject–templatezynq-nzynq_linux配置petalinux工程:petalinux-config–get-hw-description/mnt/hgfs/VMShare/ZYNQ7035_Linux/ZYNQ7035_Linux.sdk/重新配置petalinux工程:petalinux-config配置Linux内核:petalinux-config-ckernel配置Lin

  • 第一范式、第二范式、第三范式[通俗易懂]

    第一范式、第二范式、第三范式[通俗易懂]范式:英文名称是NormalForm,它是英国人E.F.Codd(关系数据库的老祖宗)在上个世纪70年代提出关系数据库模型后总结出来的,范式是关系数据库理论的基础,也是我们在设计数据库结构过程中

  • 800个有趣句子帮你记忆7000个单词[通俗易懂]

    800个有趣句子帮你记忆7000个单词[通俗易懂]800个有趣句子帮你记忆7000个单词   1.WithmyownearsIclearlyheardtheheartbeatofthenuclearbomb.我亲耳清楚地听到原子弹的心脏的跳动。 2.Nextyearthebeardedbearwillbearadearbabyintherear.明年,长胡子的熊将

发表回复

您的电子邮箱地址不会被公开。

关注全栈程序员社区公众号