腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
使用
BeautifulSoup
进行
网页
抓取
似乎
访
问了
错误
的
页面
、
、
、
我一直试图将网络
抓取
作为一个小项目。我正在尝试访问
网页
上
的
产品,并打印出它们已售出
的
次数。我
的
代码:import requests as req links = soup.find_all() print(link.get(
浏览 5
提问于2019-08-02
得票数 0
1
回答
抓取
aspx
页面
的Python代码是什么?
、
、
、
、
我
的
要求是将mcode传递给下面的web aspx查询,然后将结果
网页
打印到pdf。在上面的url中,唯一
的
变量是99999。因此,我
的
目标是每次传递mcode,然后将生成
的
aspx
页面
打印为pdf。请原谅我
的
简体语言,因为我对此还不熟悉。
浏览 2
提问于2020-03-18
得票数 0
1
回答
如何通过Python
使用
urllib和re检索实时价格数据
、
我试图从请求价格数据,但我遇到了与类似的问题,价格数据本身不是html
的
一部分。因此,当我运行基本
的
urllib代码来提取数据时:url = 'https://www.dukascopy.com' headers = {'User-Agent回到,用户Mark找到了另一个从中调用数据
的
url。这也可以用来收集这里
的
数据吗?
浏览 5
提问于2016-12-31
得票数 3
1
回答
有没有可能用代码自动向下滚动
网页
?
、
、
、
我正在为一个特定
的
网页
做
网页
抓取
,我注意到我
的
代码只
抓取
了只显示第一个滚动
的
部分。当进一步向下滚动时,
页面
会自动显示更多信息。下面是
似乎
控制这种算法
的
代码。some_links_here" title="Go to next page" rel="next">Load More</a>
浏览 1
提问于2019-10-31
得票数 0
1
回答
在
使用
servlet
的
页面
上
使用
requests.get()
、
、
、
我正在尝试
使用
Python语言中
的
requests库和
BeautifulSoup
从下面的
网页
中
抓取
数据。不幸
的
是,该网站
似乎
使用
servlet来检索数据,我不太确定如何处理它。我已经尝试了直接从结果
页面
进行
两种查询: http://a810-bisweb.nyc.gov/bisweb/PropertyProfileOverviewServlet?bin=1014398&
浏览 13
提问于2020-11-05
得票数 0
回答已采纳
1
回答
Python -在空
页面
中绕过
Beautifulsoup
的
“对象没有属性”
错误
、
、
为了提取我需要
的
文本,我能够在我
的
条件执行中
使用
Beautifulsoup
的
find_next_sibling来刮除大部分
的
网页
。但是,对于一个特定
的
页面
,
网页
是空
的
,因此Python报告了
错误
: 由于空页
似乎
是由我计划
抓取
的</e
浏览 6
提问于2015-10-29
得票数 1
回答已采纳
1
回答
使用
find在python中
抓取
单个html表
、
、
、
我是python
的
新手,正在尝试从
网页
上
抓取
一个表格。我已经通过Chrome中
的
"inspect“访
问了
html。
网页
在这里: import bs4from bs4 import
BeautifulSoup
as soup= uClient.read() #perform html parsing
浏览 0
提问于2017-11-16
得票数 0
1
回答
有没有办法像Facebook那样在自扩展
页面
上
使用
BeautifulSoup
?
、
、
、
当你接近底部时,一些
网页
可能会通过ajax扩展,Facebook就是一个众所周知
的
例子。我特别感兴趣
的
是截屏电影
的
电影列表
页面
。它确实有一个结尾,但当你向下滚动时,你可以看到它在添加电影。有没有办法
使用
BeautifulSoup
来获取
页面
上
的
所有内容?
浏览 18
提问于2018-08-24
得票数 0
3
回答
无法
使用
BeautifulSoup
抓取
数据
、
、
、
我正在
使用
Selenium登录到
网页
,并获得
网页
进行
抓取
,我能够获得该
页面
。我已经在html中搜索了我想要
抓取
的
表。table cellspacing="0" class=" tablehasmenu table hoverable sensors" id="table_devicesensortable"> 脚本是这样
的
:rawpage=driver.page_sou
浏览 0
提问于2018-02-21
得票数 1
1
回答
Python中
的
查询
、
、
、
、
我有一个Google表,它
使用
=IMPORTXML函数从网站中获取数据。我还有一个Python脚本,它可以从Google表中获取数据。整件事都起作用了,但我现在正试着精简它。这整件事是从谷歌单张
的
手工过程开始
的
。它现在是自动化
的
,但它不漂亮。1)
使用
Python
抓取
网站
的
最佳方法是什么?我想让这一切都在一个脚本中运行。像这样
的
东西会是一个好
的
解决方案吗? 2)目前,对google
的
查询被编码为单独运
浏览 1
提问于2018-01-22
得票数 0
1
回答
网络
抓取
:没有
使用
BeautifulSoup
(page.content,'html.parser')返回正确
的
内容
、
、
我试图从AJIO网站上
进行
抓取
,但Python获取
的
内容
似乎
与我在检查确切
网页
的
元素时看到
的
内容不完全相同。在后端创建HTML
页面
的
页面
上
似乎
存在某种java代码,但是当我尝试用Python获取
页面
内容时,它会向我展示java代码,而不是确切
的
HTML
页面
。有人能对此提出解决方案吗?下面是我正在
使用
的
代码。在下面的代码中,我在最
浏览 8
提问于2021-12-28
得票数 0
回答已采纳
3
回答
Python -
抓取
谷歌
的
简单方法,为给定
的
搜索下载前N个命中结果(整个.html文档)?
、
、
、
有没有一种简单
的
方法来
抓取
谷歌,并为给定
的
搜索写出前N个(比如说1000个) .html (或其他任何)文档
的
文本(只是文本)?举个例子,想象一下搜索短语“大灰狼”,只下载前1000个点击量中
的
文本--也就是说,实际上是从这1000个
网页
中下载文本(但只下载那些
页面
,而不是整个网站)。 我假设这将
使用
urllib2库?如果有帮助的话,我会
使用
Python 3.1。
浏览 2
提问于2011-03-16
得票数 10
回答已采纳
1
回答
Python :如果满足特定条件,如何
使用
不同
的
抓取
页面
重复“bs4”循环?
、
、
我正在尝试创建一个for循环,一旦它到达
抓取
的
页面
中
的
最后一个search_result属性,它将重复该循环,但会
使用
新
抓取
的
网页
的
数据。在for循环到达最后一个属性后,它将在
网页
上查找链接,并对新
抓取
的
网页
重复该循环。 我已经写了下面的代码,但循环不会重复从原始
网页
的
链接中获得新
的
抓取
<em
浏览 7
提问于2019-08-16
得票数 1
回答已采纳
1
回答
BS4返回到Cloudflare网站,而不是实际
的
网站
、
、
、
这是我
的
代码。这是有效
的
,但当代码打印时,它会打印DDOS攻击网站,而不是加载之后
的
网站。我甚至尝试做一个time.sleep(5)来帮助计时。 我怎么才能克服这一点。import requestsimport time url = 'https://www.psacard.com/cert/49628062User-Agent': 'Mozilla/5.0 (X11; Ubun
浏览 26
提问于2021-01-15
得票数 0
1
回答
BeautifulSoup
4返回
错误
的
超文本标记语言?
、
、
我正在尝试
使用
Beautifulsoup
在Indeed.com上通过网络
抓取
招聘信息。但是,当我
抓取
URL时,返回
的
HTML与我在Google Chrome中手动转到URL,然后查看HTML时看到
的
HTML不同。 这会导致我
的
应用程序获得一些不在我试图
抓取
的
网页
上
的
招聘信息。我已经检查了
BeautifulSoup
在变量"soup“中返回
的
HTML代码(见
浏览 0
提问于2019-07-10
得票数 2
1
回答
使用
python从urls列表中
进行
Web
抓取
、
我正在试着从列表中剔除一些房地产网站
的
列表。我写了一些简单
的
代码来从一个url获取数据,但是当我尝试
使用
列表'url1','url2‘时,我什么也得不到。我也在尝试csv列表,但我仍然一无所获。“”“import requestsfrom bs4 import
BeautifulSoup
url = 'https://www.zillow.com61.0.3163.100 Safari/
浏览 0
提问于2020-02-26
得票数 0
1
回答
注释在
网页
上可见,但
BeautifulSoup
返回
的
html对象不包含注释部分
、
、
、
我尝试
使用
网址链接从
网页
中提取评论
的
文本内容,并
使用
BeautifulSoup
进行
抓取
。当我单击URL链接时,在
页面
上可以看到注释
的
内容,但是
BeautifulSoup
返回
的
HTML对象不包含这些标记和文本。 我
使用
带有'html.parser‘
的
BeautifulSoup
来做
网页
抓取
。我成功地提取了
浏览 19
提问于2019-03-25
得票数 1
回答已采纳
1
回答
使用
BeautifulSoup
进行
网页
抓取
时出现429
错误
、
、
、
首先,我不得不说,我对
使用
Python
进行
Web
抓取
非常陌生。我正在尝试
使用
这些代码行来收集数据from bs4 import
BeautifulSoup
html_page = requests.get(baseurl).text soup =
BeautifulSoup
(html_page, 'html.parser
浏览 3
提问于2018-08-02
得票数 1
回答已采纳
2
回答
使用
BeautifulSoup
进行
网页
抓取
:表格不在
页面
源中
、
我正在尝试从位于以下
网页
上
的
表中
抓取
数据: from bs4 import
BeautifulSoup
as soup my_url = 'http://ontariohockeyleague.com从检查
网页
来看,表格位于这个主块中,但无论出于什么原因,
BeautifulSoup
都不会读取它。data-league=&q
浏览 16
提问于2018-07-19
得票数 1
回答已采纳
9
回答
BeautifulSoup
和Scrapy crawler有什么区别?
、
、
、
我想做一个网站,显示亚马逊和易趣产品价格
的
比较。其中哪一个会工作得更好?为什么?我对
BeautifulSoup
比较熟悉,但对Scrapy crawler不太熟悉。
浏览 323
提问于2013-10-30
得票数 146
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
使用Python进行网页抓取的介绍
使用多个Python库开发网页爬虫(一)
python爬虫-解析网页的几种方法之BeautifulSoup
Python爬虫入门,快速抓取大规模数据
使用多个Python库开发网页爬虫(二)
热门
标签
更多标签
云服务器
ICP备案
云直播
对象存储
腾讯会议
活动推荐
运营活动
广告
关闭
领券