腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
运行
scrapyd
项目
时
出错
、
我已经成功地部署了我的
项目
(搜狗),但是当我
运行
以下代码
时
: curl http://localhost:6800/schedule.json -d project=sogou -d spider=sogou
浏览 11
提问于2017-02-13
得票数 1
2
回答
如何在Linux服务器上找到
scrapyd
日志文件?
、
scrapyd
生成的日志文件占用太多内存。我想找到它并删除它。我怎么才能找到它?
浏览 0
提问于2019-03-25
得票数 1
1
回答
Scrapyd
与Windows任务计划程序
、
、
、
我想在Azure虚拟机上
运行
一小群Scrapy蜘蛛。我在找一个自动化解决方案。目前看来,将完成在一个vm实例上
运行
3-5个蜘蛛的工作。我唯一关心的是我能不能让这几只蜘蛛并行
运行
?如果任务调度程序已经可以并行
运行
蜘蛛,那么使用
Scrapyd
来实现这个任务有什么更长远的优势呢?例如,如果范围内有100只蜘蛛?由于Windows上的其他开发,我试图远离Linux,此外,我还看到了将
Scrapyd
与Windows一起使用的一些担忧。
浏览 1
提问于2015-11-30
得票数 1
回答已采纳
1
回答
部署
scrapyd
项目
时
出错
、
当尝试执行此命令
时
:我得到以下错误: main() File "/usr/bin/
scrapyd
-deploy", line 9
浏览 2
提问于2016-11-21
得票数 2
1
回答
ScrapyRT vs
Scrapyd
、
、
、
它为一个scrapy
项目
提供了一个很好的包装器,并且它的爬行器可以通过HTTP API控制爬行器:Scrapy 服务器,它提供了用于调度Scrapy爬行器和使用爬行器进行请求的应用程序接口。这个包是
Scrapyd
的替代品吗?若有,两者有
浏览 120
提问于2016-05-18
得票数 26
回答已采纳
1
回答
使用web表单调用Scrapy / Scrapyrt
、
但我遇到了一个问题:当我发送命令
时
,它就会结束,我的意思是,当我关闭浏览器
时
,爬行器就会停止。谢谢你们所有人。
浏览 5
提问于2018-01-20
得票数 0
1
回答
部署Scrapy
时
发生404错误
、
、
、
、
我试图在Ubuntu16.04上部署Django+Scrapy
项目
。当我
运行
scrapyd
-deploy
时
,正如中所描述的,-我得到:Deploying to project "first_scrapy" in http://my_ip/addversion.json当我<
浏览 0
提问于2018-05-18
得票数 0
回答已采纳
4
回答
使用
scrapyd
部署
项目
时
出错
、
、
我的
项目
文件夹中有多个蜘蛛,并且希望一次
运行
所有的蜘蛛,所以我决定使用
scrapyd
服务
运行
它们。我是通过看到开始这么做的 Usage scrapy deploy [options] [ [target] | -l | -L <target&
浏览 4
提问于2012-07-06
得票数 7
回答已采纳
1
回答
scrapyd
{“状态”:“错误”,“消息”:“使用\"scrapy\”查看可用命令“
、
、
尝试使用以下命令将我的
项目
部署到
scrapyd
时
:或者,当我试图
运行
我创建的蜘蛛
时
:commands", "
浏览 1
提问于2016-11-08
得票数 0
回答已采纳
1
回答
Scrapyd
:没有活动
项目
-如何用剪贴排蜘蛛
、
我正试图在
Scrapyd
1.2的帮助下安排一只2.1.0蜘蛛。相反,它输
出错
误消息: {"node_name": "spider1", "status": "error", "message": "Scrapy 2.1.0 - no active projectcd /var/蜘蛛/ && scrapy爬行测试&“启动该
项目
。Use "scrapy" to
浏览 6
提问于2020-05-04
得票数 1
回答已采纳
1
回答
Scrapyd
找不到
项目
名称
、
当我尝试在
scrapyd
上
运行
一个现有的scrapy
项目
时
,我得到了一个错误。我有一个可工作的scrapy
项目
(url_finder)和一个用于测试目的的工作爬行器(test_ip_spider_1x),它只是简单地下载whatismyip.com。我成功地安装了
scrapyd
(使用apt-get),现在我想在
scrapyd
上
运行
爬虫。但是,当我执行:scrapy crawl test_ip_spider_1x
时
,一切都
运行
浏览 1
提问于2014-04-01
得票数 4
1
回答
当我试图启动蜘蛛
时
,
Scrapyd
api获取和exeption
、
我对
scrapyd
有个问题。 item['title'] = response.xpath('//head/title/text()').extract()如果我像这样
运行
它的话,它是完美的但是,当通过
scrapyd
_api
运行
它的时候
浏览 0
提问于2019-06-10
得票数 0
回答已采纳
1
回答
剪贴如何确定
项目
的“最新”版本?
、
根据文档,当将
项目
部署到
scrapyd
时
,我可以使用git提交散列作为版本,方法是:文档还指出,
scrapyd
可以保留同一
项目
的多个版本,但只能
运行
最新版本的蜘蛛。
浏览 1
提问于2013-11-14
得票数 0
回答已采纳
1
回答
无法将.egg文件添加到
scrapyd
addversion.json
、
、
、
、
r1 =@scraper_app-0.0.1-py3.8蛋 {"node_name":“工作区”,“状态”:“错误”,“消息”:“b‘node_name’”} 在py setup.py bdist_egg.egg文件夹中生成的
运行
dist/文件,其名称为“从到dist/文件夹
运行
curl http://127.0.0.1:6800/addversion.json-F project=scraper_app -F ve
浏览 3
提问于2020-05-31
得票数 1
回答已采纳
1
回答
禁用存储在.jl提要中的
Scrapyd
项
、
问题我试过什么但是,
Scrapyd
记录每个刮过的Scrapy
项目
。在检查
scrapyd
时
可以看到这一点。此项数据存储在..../items/<project name>/<spider name>/<job name>.jl中。 我不知道该怎么禁用这个。我在一个Docker容器中
运行</e
浏览 4
提问于2016-04-24
得票数 1
回答已采纳
2
回答
Scrapyd
:如何指定部署
项目
可以使用的库和公用文件夹?
、
Scrapyd
是我们可以认证部署
项目
的服务。然而,我正面临一个问题。的路径是/home/myprojectset/mylibs/common/my_base_spider 在设置环境变量PYTHONPATH=$HOME/myprojectset/
时
,我可以使用scrapy命令
运行
MyScrapers : scrapy爬行MyScrapers。但是,当我使用
scrapyd
通过以下命令部署MyScrapers
时
: scra
浏览 14
提问于2012-11-10
得票数 3
回答已采纳
1
回答
如何将
scrapyd
部署到网络
、
、
、
我目前有一个
scrapyd
实例,并在我的机器上本地
运行
。此
scrapyd
实例需要在我的雇主网络上的其他PC上可用。我读过关于刮刮云()和其他基于云的服务的文章。然而,我更愿意在我们的网络上托管
scrapyd
,因为我构建的爬虫从我们服务器上存储的csv文件中提取数据。我需要采取哪些步
浏览 13
提问于2017-02-03
得票数 0
回答已采纳
1
回答
Scrapyd
项目
在Docker容器
运行
之间不持久化
、
、
我有一个码头容器
运行
Ubuntu托管在Windows 10 Pro上。Scrapy和
Scrapyd
软件包已经安装在容器中,一切都很好。我添加了一个
项目
,
项目
A,到
Scrapyd
使用
scrapyd
部署,一切都还好。我可以安排
项目
A的蜘蛛使用卷曲和schedule.json API,并爬行直到奶牛回家。问题是
项目
A不会在容器
运行
之间持续存在。当奶牛回到家,停止并
运行
Ubuntu容器后,
Scrapyd
包含
浏览 1
提问于2018-05-17
得票数 0
回答已采纳
1
回答
scrapyd
如何将
项目
部署到远程?
、
scrapyd
可以帮助部署
项目
。但是它上传到哪里了??我的意思是:我可以在http://1.2.3.4:6800上找到它吗它
浏览 0
提问于2015-09-22
得票数 0
2
回答
通过shell_exec调用的Scrapy脚本不能执行
、
、
、
我在这条路上发现了一只小蜘蛛:现在我尝试通过php启动脚本: $additional = " -a check=" . filter_input(INPUT_POST, "reload"); echo shell_exec("s
浏览 4
提问于2015-03-04
得票数 0
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
仓鼠学习笔记:Scrapy爬虫可视化管理工具SpiderKeeper
注意:运行项目时应该跟踪的六大事项
Scrapy爬虫教程五 爬虫部署
跟繁琐的命令行说拜拜!Gerapy分布式爬虫管理框架来袭!
分布式爬虫的部署之Scrapyd对接Docker
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券