node爬虫实践总结

更新日期: 2019-07-09阅读: 2.1k标签: 爬虫

网络爬虫 (又被称为网页蜘蛛,网络机器人,在 FOAF 社区中间,更经常的称为网页追逐者),是一种按照一定的规则,自动地抓取万维网信息的程序或者脚本。

随着web2.0时代的到来,数据的价值愈发体现出来。无论是在目前火热的人工智能方向,还是在产品侧的用户需求分析,都需要获取到大量的数据,而网络爬虫作为一种技术手段,在不违反主体网站基本要求的情况下是获取数据成本最低的手段。与此同时,爬虫技术也飞速发展。

了解爬虫,首先要了解一个君子协议。


robot.txt协议

该协议是搜索引擎从业者和网站站长通过邮件讨论定下的,有几个重要的特点:

  • robot.txt协议是蜘蛛访问网站的开关,决定蜘蛛可以抓取哪些内容,不可以抓取哪些内容。
  • robot.txt是指网站与搜索引擎之间的协议
  • 存放在网站根目录网站服务器的根目录下


nodejs爬虫

一提到爬虫,我们可能很容易联想到python,python由于其语法容易上手,操作数据简洁方便成为爬虫界的龙头,scrapy框架更是只用简单配置,按照其语法规范就能够轻松获取到网站内容。但是作为前端开发,获取数据就不可能了吗?当然不是,随着nodejs的出现,npm社区的火热,nodejs所提供的功能日渐强大,由于nodejs单线程支持高并发的特性,我们不必要将注意力过多放在线程之间的同步与通信,在加上JavaScript本身与html之间的紧密联系,使用nodejs进行网络爬虫也是很好的实践。


node爬虫工具

俗话说工欲善其事必先利其器,爬虫从根上说就是四个模块,网页下载器、网页解析器、URL调度器、内容输出器。

npm社区中为我们提供了很多有用的模块,接下来分别介绍下网络请求模块、解析模块以及流程处理模块。


网络请求模块

SuperAgent 是一个轻量级、灵活的、易读的、低学习曲线的客户端请求代理模块,其使用极其简单,支持链式调用,可以很容易就封装成Promise或者async函数

async function getOuterUrls(url) {
    return new Promise((resolve, reject) => {
        superagent.get(url)
        .end((err, docs) => {
            if(err) {
                return reject(err);
            }
            // 成功解析
            resolve(items);
        })
    })
}


request的使用也非常简单,request的设计是让http请求变得容易。

const request = require('request');
request('您的请求url', function (error, response, body) {
  if (!error && response.statusCode == 200) {
    console.log(body) // 请求成功的处理逻辑
  }
});

那么两者有什么区别呢,从npm社区中的统计量可以看出,request的周下载量有千万级,而superagent也有百万。superagent特别适合刚学爬虫的新手操作,请求中需要发送的参数以及请求头通过set直接设置。作者认为Request最强大的功能在于其CookieJar的功能,它能够保存每一次请求的cookie,让我们的请求和在浏览器中点击一样,我们甚至不用去设置每一次的cookie,他会根据请求的主机域从jar中自动匹配与实时更新。

const cookieColl = Request.jar();
const request = Request.defaults({jar: cookieColl});


资源解析模块

cheerio

我们都知道大名鼎鼎的jquery,它提供了便捷轻量的dom操作语法。而cheerio是nodejs中的jQuery,上手方便,相比于xml解析的xpath简直好用一万倍。如果你熟悉jQuery,那么cheerio就能很容易玩转。

let $ = cheerio.load(docs.text);
   let items = [];
   $('#topic_list .topic_title').each((index, ele) => {
       let element = $(ele);
       items.push(Url.resolve(baseUrl, element.attr('href')))
   })


jsdom

JSDOM的目标是提供与浏览器一样的DOM环境

const jsdom = require("jsdom");
const { JSDOM } = jsdom;
const dom = new JSDOM(`<!DOCTYPE html><p>Hello world</p>`);
console.log(dom.window.document.querySelector("p").textContent); // "Hello world"

jsdom相比于cheerio解析速度会稍慢,但是从npm社区的下载量来说,jsdom是cheerio的两倍,jsdom提供了其他丰富的功能,后续有待继续挖掘。

原文  http://imweb.io/topic/5d230c6df7b5692b080f2668  


链接: https://www.fly63.com/article/detial/4114

web爬虫抓取技术的门道,对于网络爬虫技术的攻与防

从爬虫的攻防角度来讲,最简单的爬虫,是几乎所有服务端、客户端编程语言都支持的http请求,只要向目标页面的url发起一个http get请求,即可获得到浏览器加载这个页面时的完整html文档,这被我们称之为“同步页”。

大话爬虫的实践技巧

数据收集的一种是方式是通过上报API进行自身平台用户交互情况的捕获,还有一种手段是通过开发爬虫程序,爬取竞品平台的数据,后面就重点说下爬虫的应用场景和实践中会遇到的问题和反反爬虫的一些套路与技巧。

网络爬虫_基于各种语言的开源网络爬虫总汇

网络爬虫是一种按照一定的规则,自动地抓取万维网信息的程序或者脚本。是互联网爬虫,蜘蛛,数据采集器,网页解析器的汇总,下面介绍各语言实现网络爬虫的开源框架

爬虫最终杀手锏 --- PhantomJS 详解(附案例)

PhantomJS无界面的浏览器:认识PhantomJS、网站模拟登录豆瓣网、动态页面模拟点击(unittest -python测试模块)、执行JavaScript代码、模拟最新无界面浏览器...

什么是网络爬虫,网络爬虫有什么用?

网络爬虫在数据采集方面有好的优势,比如采集速度快,比人来操作可能要快一千倍一万倍都不止;方便将获取的数据进行相关的清洗加工以及储存工作;代码可重复使用,或者说是一劳永逸。

爬虫解决网页重定向问题

每个网站主页是网站资源的入口,当重定向发生在网站主页时,如果不能正确处理就很有可能会错失这整个网站的内容。 笔者编写的爬虫在爬取网页时遇到了三种重定向的情况。

爬虫 解决网页ip限制的问题的八种方法

之前由于公司项目需要,采集过google地图数据,还有一些大型网站数据。 有小部分网站的防范措施比较弱,可以伪装下IP,修改X-Forwarded-for(貌似这么拼。。。)即可绕过。ser agent 伪装和轮换 ,使用代理 ip 和轮换

到百度云加速,网页内容爬不到的快速解决

在爬网站时,发现网站做了百度云加速,每次访问首页时要求输入验证码,才能打开网站首页。经过分析网站,发现如果你拿到一个当期可用的Cooikes后,你就可以一直爬数据,且并不会触发百度验证输入

反爬经验与理论基础

完整的反爬体系有三大部分工作要做:感知识别、策略分析、监控封禁。数据支撑:爬虫指纹、设备指纹、风险UA、IP库等,不同端指纹的mapping等。

node.js主从分布式爬虫

node.js是一款基于google的V8引擎开发javascript运行环境。在高性能的V8引擎以及事件驱动的单线程异步非阻塞运行模型的支持下,node.js实现的web服务可以在没有Nginx的http服务器做反向代理的情况下实现很高的业务并发量。

点击更多...

内容以共享、参考、研究为目的,不存在任何商业目的。其版权属原作者所有,如有侵权或违规,请与小编联系!情况属实本人将予以删除!