$$eval(listSelector, ele =>
ele.map(el => ({
url: el.href,
text: el.innerText
}))...' },...
};
task();
ok,我们已经成功拿到了掘金前端热门文章的内容,趁站长还没来,赶紧溜~其他网站也是一样的方法,这里就不啰嗦了~
我们拿到了资讯,接下来对它进行保存。...将内容写进文件就好了
const { fileServer } = require("....此处省略对资讯 格式化内容
const text = msgHandle(res);
// 写入资讯
fileServer.write(
path.join(resourcePath...deploy 将前端资源推送到github上,然后通过 xxx.github.io/xxx 就可以访问了
结语
本文主要讲解的是思路,具体代码如下,爬虫 服务并没有部署到服务器,大家可以 clone 代码自行尝试