×

简单易学!使用 Node.js 编写爬虫,跟着教程一步步实现!

前端技术网 前端技术网 发表于2024-01-02 22:19:14 浏览2736 评论0

抢沙发发表评论

一、简单NodeJS爬虫和使用cookie进行模拟登录

    NodeJS做爬虫也是很方便的。因为nodejs有HTTP模块直接可以使用,而且还有很多简单粗暴的库可以即拿即用。

简单易学!使用 Node.js 编写爬虫,跟着教程一步步实现!

   首先,需要的库文件,

    1、superagent是个轻量的的 http方面的库,就像jquery的post,和get一样,很简单。

    2、cheerio是一个服务端操作DOM的库,简直就是服务端的jquery。

   好的,我们需要抓取某个网站的题目。如下图。这个系统下,及时是游客状态也是可以查看题目的,只是答案我们看不到。会显示我没有登录。

简单易学!使用 Node.js 编写爬虫,跟着教程一步步实现!

现在我们有个需求,先抓取15页,根据URL的参数可以页数就是地址中的P。并且要有本地cookie,获取cookie的方法,最简单的是,利用浏览器登录网站之后,在控制台直接打印document.cookie,得到之后,**进txt文本。用fs模块读取并转换成字符串。在superagent请求时,把cookie传进去。

好了,控制台已经不输出“未登录”,说明已经登录成功了。

二、如何使用nodejs做爬虫程序

NodeJS制作爬虫全过程:

1、建立项目craelr-demo

建立一个Express项目,然后将app.js的文件内容全部删除,因为暂时不需要在Web端展示内容。当然我们也可以在空文件夹下直接 npm install express来使用需要的Express功能。

2、目标网站分析

如图,这是CNode首页一部分div标签,就是通过这一系列的id、class来定位需要的信息。

3、使用superagent获取源数据

superagent就是ajax API来使用的Http库,它的使用方法与jQuery差不多,通过它发起get请求,在回调函数中输出结果。

代码如下:

var express= require('express');

var url= require('url');//解析操作url

var superagent= require('superagent');//这三个外部依赖不要忘记npm install

var cheerio= require('cheerio');

var eventproxy= require('eventproxy');

var targetUrl='https://cnodejs.org/';

superagent.get(targetUrl)

.end(function(err, res){

console.log(res);

});

4、使用cheerio解析

cheerio充当服务器端的jQuery功能,先使用它的.load()来载入HTML,再通过CSS selector来筛选元素。

代码如下:

var$= cheerio.load(res.text);

//通过CSS selector来筛选数据

$('#topic_list.topic_title').each(function(idx, element){

console.log(element);

});

5、使用eventproxy来并发抓取每个主题的内容

eventproxy就是使用事件(并行)方法来解决这个问题。当所有的抓取完成后,eventproxy接收到事件消息自动帮你调用处理函数。

代码如下:

//第一步:得到一个 eventproxy的实例

var ep= new eventproxy();

//第二步:定义监听事件的回调函数。

//after方法为重复监听

//params: eventname(String)事件名,times(Number)监听次数, callback回调函数

ep.after('topic_html', topicUrls.length, function(topics){

// topics是个数组,包含了 40次 ep.emit('topic_html', pair)中的那 40个 pair

//.map

topics= topics.map(function(topicPair){

//use cheerio

var topicUrl= topicPair[0];

var topicHtml= topicPair[1];

var$= cheerio.load(topicHtml);

return({

title:$('.topic_full_title').text().trim(),

href: topicUrl,

comment1:$('.reply_content').eq(0).text().trim()

});

});

//outcome

console.log('outcome:');

console.log(topics);

});

//第三步:确定放出事件消息的

topicUrls.forEach(function(topicUrl){

superagent.get(topicUrl)

.end(function(err, res){

console.log('fetch'+ topicUrl+' successful');

ep.emit('topic_html', [topicUrl, res.text]);

});

});

6、爬取结果分析

三、Python,Node.js 哪个比较适合写爬虫

Python和Node.js都是常用的编程语言,都可以用于编写爬虫。选择哪个语言主要取决于个人的编程经验和偏好。

Python是一种简单易学的语言,有丰富的第三方库和工具支持,如BeautifulSoup、Scrapy等,可以帮助开发者快速编写爬虫程序。Python还有很多数据处理和分析的库,适合进行数据清洗和分析。

Node.js是一种基于JavaScript的后端开发语言,具有高效的I/O操作和事件驱动的特性,适合处理高并发的网络请求。Node.js的异步编程模型可以提高爬虫的效率,适合处理大规模的数据采集任务。

综上所述,如果你对Python比较熟悉,且需要进行数据处理和分析,可以选择Python编写爬虫;如果你对JavaScript比较熟悉,且需要处理高并发的网络请求,可以选择Node.js编写爬虫。

八爪鱼采集器是一款功能全面、操作简单、适用范围广泛的互联网数据采集器。如果您需要采集数据,八爪鱼采集器可以为您提供智能识别和灵活的自定义采集规则设置,帮助您快速获取所需的数据。

简单易学!使用 Node.js 编写爬虫,跟着教程一步步实现!和如何使用nodejs做爬虫程序的问题分享结束啦,以上的文章解决了您的问题吗?欢迎您下次再来哦!