腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
Scraping
仅
获取
Scrapy
在
python
中
的
第一条
记录
、
事实上,我是
scrapy
和
python
的
新手。这是我第一次尝试抓取一个网站用户。(url=next_page_url, callback=self.parse) 代码可以工作,但在我抓取
的
页面
中
,我有20条
记录
。代码
获取
了20条
记录
,但都是
第一条
记录
。代码没有得到这20条
记录
,也许代码中有一点错误,但我直到现在都找不到它 **对于for块
中
的
分页,我放了这个,但也
浏览 27
提问于2020-11-11
得票数 1
回答已采纳
1
回答
Scrapy
API -通过自定义
记录
器
、
、
(project, iso_run_date, target_year)class UTCFormatter,但从
Scrapy
中
没有得到任何日志。Message: 'Test'当我
在
我
的
主脚本中使用basicConfig时,一切都很好,似乎
Scrapy
浏览 2
提问于2018-06-15
得票数 0
1
回答
ModuleNotFoundError:没有名为“
scrapy
_user_agents”
的
模块
、
、
\Users\Nino\AppData\Local\Programs\
Python
\
Python
37\lib\importlib_init.py",第127行
中
,
在
import_module返回_bootstrap文件
中
的
第953行,_call_with_frames_removed文件
中
的
第219行,_gcd_import文件
中
的
第1006行,_find_and_load文件
中
的
浏览 0
提问于2019-08-13
得票数 1
回答已采纳
1
回答
使用
scrapy
从facebook
中
抓取数据
、
、
、
facebook上
的
新图表搜索允许您使用查询令牌搜索一家公司
的
现有员工- Current Google (例如)。import sysfrom
scrapy
.http import
浏览 3
提问于2013-05-31
得票数 5
1
回答
抓取将额外
的
数据从csv文件传递到解析。
、
、
、
我
的
抓取蜘蛛查看csv文件并运行start_urls,其中包含csv文件
中
的
地址,如下所示: with open('addresses.csv如何将这些额外信息传递到解析
中
以将其添加到新文件
中
?import
scrapy
names=[row["Name&q
浏览 1
提问于2017-03-02
得票数 3
回答已采纳
2
回答
是否可以将BigQuery查询导出到GCS桶
中
相等
的
5000行CSV文件
中
?
、
、
、
我知道将查询导出到GCS
中
的
CSV文件
的
能力;但是,当导出到多个文件时,似乎没有限制每个文件行数
的
方法。我想知道是否有人想出了一个解决办法来实现这个功能。我目前
的
用例是,我需要将表
的
查询(152列)导出到多个CSV文件
中
,并将它们保存到GCS桶
中
。每个文件不能有超过5000条
记录
。我希望找到一些我可以跳入BigQuery
中
的
语句,以避免不得不用
python
编写解决方案(因为这是一个
浏览 6
提问于2021-02-04
得票数 0
1
回答
芹菜、Django和
Scrapy
:从django应用程序导入错误
、
、
、
、
"/home/lee/Desktop/pyco/evo-
scraping
-min/venv/local/lib/
python
2.7/site-packages/
scrapy
/crawler.py",evosched看起来像(它只是
在
更改dir之后使用相关设置启动
Scrapy
蜘蛛)。evofrontend/evosched/myutils.py <
浏览 4
提问于2016-01-06
得票数 1
1
回答
在
没有登录文件
的
情况下使用
scrapy
登录网站
、
我试图废除你可以
在
代码上找到
的
网站。我
的
主要问题是成功登录。从我
在
Google网上读到
的
内容来看,技术是转到->
中
的
Network ->,查看一个连接文件来
获取
“格式数据”。不幸
的
是,没有这样
的
档案。import
scrapy
name = "quotes" u
浏览 6
提问于2022-01-25
得票数 0
回答已采纳
1
回答
模型类xxx不声明显式app_label,也不在INSTALLED_APPS
中
的
应用程序
中
。
、
、
、
我正在尝试将
scrapy
与django集成。我对django很陌生,我不知道我做错了什么。我读过以前
的
问题,但答案似乎都解决不了我
的
问题。我一直
在
犯这个错误 引发RuntimeError( RuntimeError: Model类emails.models.Email不声明显式app_label,也不在INSTALLED_APPS
中
的
应用程序
中
, None, File "C:\Users\FacilOrdi\AppData\Local\Programs\
浏览 3
提问于2021-08-22
得票数 0
回答已采纳
2
回答
仅
剪贴式正文文本
、
、
、
我尝试使用
python
Scrapy
从正文中抓取文本,但还没有成功。 希望一些学者能够在这里帮助我从<body>标记
中
抓取所有的文本。
浏览 1
提问于2011-03-22
得票数 9
回答已采纳
1
回答
无法将数据放入Pandas.It DataFrame.Whenever
中
我尝试将这两个数据放入Pandas未完成
、
、
、
我无法创建data_list和data_1_list.Whenever
的
数据框我这样做没有收到错误,但整个数据
中
只有一行是shown.Pls
在
您自己
的
code.It
中
尝试无法
在
words.You
中
解释尝试创建数据框并打印它
浏览 2
提问于2020-06-09
得票数 0
3
回答
未知命令:爬网错误
、
、
我是
python
的
新手。我
在
64位操作系统上运行
python
2.7.3版本32位。(我尝试了64位,但不起作用)。C:\
浏览 3
提问于2012-04-12
得票数 33
2
回答
抓取启动项目以ImportError结束:没有名为蜘蛛
的
模块
、
我创建了一个新
的
环境我激活了这个环境然后,我继续安装刮擦(-n刮除似乎不再必要了/envs/
scraping
/lib/
python
2.7/site- packages/
scrapy
/__init__.py", line 48, in <module>
浏览 2
提问于2015-07-15
得票数 1
1
回答
虚拟环境
中
的
爬行错误
、
、
尝试了,但无法运行爬行脚本:我所犯
的
错误:我所处
的
是一个虚拟环境(用虚拟包装器创建)和
Python
版本3.8。
在
虚拟环境
中
安装有pip3
的
Scrap
浏览 12
提问于2022-11-04
得票数 -1
2
回答
Scrapy
:为什么我不能从地下
的
天气中提取目标数据?
、
、
、
我是
Python
和web
scraping
的
新手,这是我第一个关于stackoverflow
的
问题。我看了几个教程,然后尝试从这个页面上
的
表中提取数据:。表: time = response.css('span.ng-star-inserted').extract() 这
浏览 7
提问于2021-04-13
得票数 3
1
回答
Scrapy
框架- Colorize日志
记录
、
、
、
我正在尝试让
Scrapy
输出彩色日志。我对
Python
日志
记录
不是很熟悉,但我
的
理解是我必须制作自己
的
格式化程序,并让
Scrapy
使用它。我成功地使用Clint制作了一个格式化程序来对输出进行着色。我
的
问题是我不能让它在
Scrapy
中正常工作。我本以为爬行器
中
的
记录
器对象会有一个处理程序,然后我会切换该处理程序
的
格式化程序。当我查看spider.logger.logger内部<em
浏览 8
提问于2017-02-08
得票数 4
回答已采纳
1
回答
E:存储库“http://archive.ubuntu.com/ubuntu精确版本”没有签名
、
我正在尝试通过运行以下命令
在
本地设置
Scrapy
docker env ##########
浏览 1
提问于2018-11-21
得票数 4
回答已采纳
1
回答
无法从“PageCoroutine”导入名称“
scrapy
_playwright.page”
、
、
我试图使用刮擦和剧作家刮动网页,我安装了刮刮和剧作家,然而,当我试图运行我
的
蜘蛛,我得到了这个错误。ImportError: cannot import name 'PageCoroutine' from '
scrapy
_playwright.page' (C:\Ali\DataCamp\Web
Scraping
in
Python
\
Scrapy
\venv\lib\site-packages\
scrapy
_playwright\page.py) 这是
浏览 17
提问于2022-11-05
得票数 1
回答已采纳
1
回答
如何使用
Scrapy
递归地从站点中抓取每个链接?
、
、
我试图从一个使用
Scrapy
的
网站上
获取
每一个链接(没有其他数据)。我还必须输入用户名和密码才能进入站点上
的
每个页面,因此我
在
start_requests
中
包含了一个基本
的
身份验证组件。到目前为止,我有一只蜘蛛,它只给我
在
主页上
的
链接,但我似乎不明白为什么它不跟随链接和刮其他网页。这是我
的
蜘蛛 import <
浏览 0
提问于2018-09-10
得票数 2
3
回答
刮刮没有命令‘爬行’
、
我开始学习
Scrapy
,但是我马上得到了一个错误Unknown command: crawl。我不知道为什么要这样做,但是
在
py
Scrapy
命令
中
,我没有这个命令。我使用
python
3.6和pycharm作为编辑器。\web skreper\venv\Scripts>
scrapy
scrapy
<command> [optionsspider (
浏览 0
提问于2019-09-25
得票数 3
回答已采纳
点击加载更多
热门
标签
更多标签
云服务器
ICP备案
对象存储
云点播
实时音视频
活动推荐
运营活动
广告
关闭
领券