nodejs爬虫与python爬虫_不再羡慕python,nodejs爬虫撸起袖子就是干,爬取宅男女神网大姐姐的高清图片!…[通俗易懂]

nodejs爬虫与python爬虫_不再羡慕python,nodejs爬虫撸起袖子就是干,爬取宅男女神网大姐姐的高清图片!…[通俗易懂]年前无心工作,上班刷知乎发现一篇分享python爬虫的文章。感觉他爬取的网站里的妹子都好好看哦,超喜欢这里的,里面个个都是美女。无奈python虽然入门过但太久没用早已荒废,最近在用nodejs重构后台接口,遂尝试用nodejs实现个爬虫。先上几张图:爬几个相册示范一下都是高清无码大图哦好了,开始准备工作吧,少年!喂!我说的是准备工作环境!你,你,还有你,你们把手上的纸巾放下!准备工作:系统环境:…

大家好,又见面了,我是你们的朋友全栈君。

年前无心工作,上班刷知乎发现一篇分享python爬虫的文章。

感觉他爬取的网站里的妹子都好好看哦,超喜欢这里的,里面个个都是美女。

无奈python虽然入门过但太久没用早已荒废,最近在用nodejs重构后台接口,遂尝试用nodejs实现个爬虫。

先上几张图:

nodejs爬虫与python爬虫_不再羡慕python,nodejs爬虫撸起袖子就是干,爬取宅男女神网大姐姐的高清图片!...[通俗易懂]

爬几个相册示范一下

nodejs爬虫与python爬虫_不再羡慕python,nodejs爬虫撸起袖子就是干,爬取宅男女神网大姐姐的高清图片!...[通俗易懂]

都是高清无码大图哦

nodejs爬虫与python爬虫_不再羡慕python,nodejs爬虫撸起袖子就是干,爬取宅男女神网大姐姐的高清图片!...[通俗易懂]

好了,开始准备工作吧,少年!

喂!我说的是准备工作环境!你,你,还有你,你们把手上的纸巾放下!

准备工作:

系统环境:mac (作为一个前端,应该不用我解释了吧?)

运行环境:node (作为一个前端,应该不用我解释了吧??)

所需模块:request-promise、cheerio、fs

编辑器:vscode (谁用谁知道)

简单了解一下这几个nodejs的模块:

var request = require(‘request-promise’);

request(‘http://www.google.com’)

.then(function (htmlString) {

console.log(htmlString)

})

.catch(function (err) {

});

任何响应都可以输出到文件流:

request(‘http://google.com/doodle.png’).pipe(

fs.createWriteStream(‘doodle.png’)

)

cheerio—-为服务器特别定制的,快速、灵活、实施的jQuery核心实现:

api类似jQuery,使用超简单

const cheerio = require(‘cheerio’)

const $ = cheerio.load(‘

Hello world

‘)

$(‘h2.title’).text(‘Hello there!’)

$(‘h2’).addClass(‘welcome’)

$.html()

//=>

Hello there!

fs—-Node.js 文件系统

可以创建目录,创建文件,读取文件等。

网页分析:

分析目标网站的相册网页地址

因为python文章的作者已经很详细的分析了网站,所以我就简单分析一下。

随便打开几个相册,可以看到都是这样的规则:

“https://www.****.com/g/****/”

所以我们就可以确定要爬取的基本url:

const base_url = ‘https://www.****.com/g/’;//爬取相册网页的基本网址

然后再看几乎每个相册底部都有页码,而我们要抓取的是整个相册,所以就要考虑分页的情况,点开分页,我们看到分页的url是这样的:

“https://www.****.com/g/****/*.html”

业务逻辑:

nodejs爬虫与python爬虫_不再羡慕python,nodejs爬虫撸起袖子就是干,爬取宅男女神网大姐姐的高清图片!...[通俗易懂]

实战代码:

app.js 轮询及代码结构

const nvshens = require(‘./co’);

const base_url = ‘https://www.nvshens.com/g/’;//爬取相册网页的基本网址

let index = 1;

let start = 25380;

const end = 30000;

const main = async (URL) => {

//1.请求网址

const data = await nvshens.getPage(URL);

//2.判断是否存在相册

if (nvshens.getTitle((data.res))) {

//3.下载照片

await nvshens.download(data.res);

//4.请求分页

index++;

const new_url = `${base_url}${start}/${index}.html`;

main(new_url);

} else {

index = 1;

console.log(`${base_url}${start}页面已完成`)

start++;

if (start < end) {

//5.请求下一个网址

main(base_url + start);

} else {

console.log(`${base_url}${end}所有页面已完成`)

}

}

};

main(base_url + start);

co.js //业务代码

var request = require(‘request-promise’); //网络请求

const cheerio = require(“cheerio”);//操作dom

const fs = require(“fs”);//读写文件

const headers = {

“Referer”: “https://www.nvshens.com/g/24656/”

}

//因为一些网站在解决盗链问题时是根据Referer的值来判断的,所以在请求头上添加Referer属性就好(可以填爬取网站的地址)。

//另外Referer携带的数据 是用来告诉服务器当前请求是从哪个页面请求过来的。

const basePath = “/Users/用户名/Desktop/mm/”;

//自定义mac本地下载目录,需预先创建,windows路径可参考评论

let downloadPath;

let pageIndex = 1;

module.exports = {

//请求页面

async getPage(url) {

const data = {

url,

res: await request({

url: url

})

}

return data;

},

//判断页面是否存在相册

getTitle(data) {

const $ = cheerio.load(data);

if ($(“#htilte”).text()) {

downloadPath = basePath + $(“#htilte”).text();

//创建相册

if (!fs.existsSync(downloadPath)) {

fs.mkdirSync(downloadPath);

console.log(`${downloadPath}文件夹创建成功`)

}

return true;

} else {

return false;

}

},

//下载相册照片

async download(data) {

if (data) {

var $ = cheerio.load(data);

$(“#hgallery”).children().each(async (i, elem) => {

const imgSrc = $(elem).attr(‘src’);

const imgPath = “/” + imgSrc.split(“/”).pop().split(“.”)[0] + “.” + imgSrc.split(“.”).pop();

console.log(`${downloadPath + imgPath}下载中`)

const imgData = await request({

uri: imgSrc,

resolveWithFullResponse: true,

headers,

}).pipe(fs.createWriteStream(downloadPath + imgPath));

})

console.log(“page done”)

}

},

}

跑起来

node app.js

nodejs爬虫与python爬虫_不再羡慕python,nodejs爬虫撸起袖子就是干,爬取宅男女神网大姐姐的高清图片!...[通俗易懂]

几个函数就可以实现,是不是很简单呢?

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。

发布者:全栈程序员-用户IM,转载请注明出处:https://javaforall.cn/135436.html原文链接:https://javaforall.cn

【正版授权,激活自己账号】: Jetbrains全家桶Ide使用,1年售后保障,每天仅需1毛

【官方授权 正版激活】: 官方授权 正版激活 支持Jetbrains家族下所有IDE 使用个人JB账号...

(0)
blank

相关推荐

发表回复

您的电子邮箱地址不会被公开。

关注全栈程序员社区公众号