腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
requests.get
()
和
/
或
BeautifulSoup
()
行为
不一致
、
、
" """acquire html from xxx and beautify the raw html""" self.beautified_html =
BeautifulSoup
(html.content, "html.parser") def _extract(self
浏览 11
提问于2018-01-06
得票数 1
1
回答
Requests.content与铬检测元件不匹配
、
、
、
我使用
BeautifulSoup
和
请求来抓取所有菜谱的用户数据。class="profile-review-card">URL = 'http://allrecipes.com/cook/2010/reviews/'soup =
BeautifulSoup
(response, 'html.parser
浏览 6
提问于2016-04-26
得票数 2
回答已采纳
2
回答
BeautifulSoup
-减速
requests.get
、
、
问题是,
requests.get
(url)非常快速地抓取所有东西。它们是减缓
requests.get
(url)的一种方法吗?import requestsresponse =
requests.get
(url)打印结果:当你使用这个网站时,你的浏览器
或
行为
让我们觉得你可能是个机器人。
浏览 6
提问于2021-12-09
得票数 0
1
回答
Python搜索网页中的元素并将其打印到
不一致
、
、
、
然后我该如何打印超链接(
或
标题)以引起
不一致
?到目前为止,我已经设法获得了一个网站的源代码,使用:我知道我可以使用以下命令将文本打印为
不一致
:async def latest-release(ctx): awaitbot.say(&quo
浏览 27
提问于2018-07-27
得票数 0
2
回答
CSS组合子周围的空格实际上是可选的吗?
、
、
、
我对在
BeautifulSoup
中使用带有轴组合器的CSS选择器有点困惑。下面是简单的代码来说明我的意思:import requests response =
requests.get
('https:'#mainbar ~ div' (发现一个兄弟)
和
#mainbar~div' (一无所获)也是如此。在中,这些空格是可选的,但实际上,对于相同的选择器,
BeautifulSoup
有不同的输出(
浏览 2
提问于2018-11-20
得票数 0
回答已采纳
2
回答
Python3.6
BeautifulSoup
不工作
、
、
、
、
我的密码如下所示;plain_text = source_code.text
或
html = r.content我在编写“
BeautifulSoup</
浏览 0
提问于2017-03-20
得票数 0
回答已采纳
3
回答
Web从imdb项目中抓取特定数据
、
、
我已经这样做了,但我不知道下一步该做什么 import refrom bs4 import
BeautifulSoup
r =
requests.get
ref_=nv_mv_250')res = soup.find_all('strong') for x in res
浏览 18
提问于2019-09-25
得票数 0
回答已采纳
1
回答
TypeError:‘字节’对象是不可调用的
、
、
我的代码soup =
BeautifulSoup
(page,"html.parser")print(prices)line 6, in <module>TypeError:
浏览 3
提问于2022-02-22
得票数 -1
回答已采纳
3
回答
无法使用
requests.get
(url)运行
BeautifulSoup
、
、
start_url=
requests.get
('http://www.delicious.com/golisoda')此代码显示以下错误:Traceback (most recent call last): soup=
BeautifulSoup
浏览 3
提问于2012-09-18
得票数 1
回答已采纳
2
回答
如何减少请求的数量而只使用一个请求?
、
、
html =
requests.get
(r.url) return Price r =
requests.get
(check) bsObj =
BeautifulSoup
(html.content,'html.parser')
浏览 2
提问于2019-03-02
得票数 1
回答已采纳
2
回答
使用Python解析XML时缺少字段
、
、
、
、
以下是我的Python代码:import requestsimport csv pageText = url.textsoup =
BeautifulSoup
(pageText)
浏览 1
提问于2014-01-28
得票数 0
1
回答
空元素错误与美丽汤
、
、
我正在使用Beautiful解析xml文件,但是在解析空元素时发现了
不一致
的
行为
。也就是说。from
BeautifulSoup
import
BeautifulSoup
s2 = "<c><a></a><b></b></c>" soup1 =
Bea
浏览 2
提问于2012-03-08
得票数 2
2
回答
BS4返回[]而不是所需的HTML标记
、
、
、
python
和
web解析新手from bs4 import
BeautifulSoup
doc =
BeautifulSoup
(response.text, 'lxml-xml') cases = doc.find_all('div', {"class": "
浏览 12
提问于2020-11-15
得票数 1
回答已采纳
1
回答
BeautifulSoup
find_all("img")并不适用于所有站点
、
、
它正在起作用,但前后
不一致
。具体来说,find_all("img")不是为第二个url这么做的。# http://docs.python-requests.org/en/master/user/quickstart/#binary-response-content i.save(filename) # open page, get HTML reque
浏览 5
提问于2017-05-15
得票数 0
回答已采纳
1
回答
使用
BeautifulSoup
进行网页抓取时出现429错误
、
、
、
我正在尝试使用这些代码行来收集数据from bs4 import
BeautifulSoup
html_page =
requests.get
(baseurl).textprint(soup) 作为输出,我没有得到预期的超文本标记语言页面,而是另一个超文本标记语言页面,
浏览 3
提问于2018-08-02
得票数 1
回答已采纳
3
回答
“Response”类型的bs4对象没有len()
BeautifulSoup
文档没有任何帮助。这似乎适用于我观看
和
阅读的所有教程,但不适用于我。我做错了什么?import requests这将返回Response 200,但如果我尝试添加soup...我得到了len错误: import r
浏览 1
提问于2018-05-14
得票数 1
3
回答
BeautifulSoup
如何从<a>标签中获取文本
、
、
<a href="/all/views/all/" class="cmc-link">7,457</a>from bs4 import
BeautifulSoup
url = 'https://coinmarketcap.com/'soup =
BeautifulSou
浏览 1
提问于2020-10-20
得票数 0
回答已采纳
1
回答
如何将被刮过的数据放到列表中
、
请帮帮忙from bs4 import
BeautifulSoup
page =
requests.get
(url)word_list
浏览 2
提问于2022-05-07
得票数 0
回答已采纳
1
回答
python:用于知道html中的多个表的pandas方法
、
为了读取html文件中的表,我使用了pandas。 import pandas as pddf=pd.read_html(url) print(df[i]) 这是可行的。但是我正在处理大量的数据,并且不确定有多少个表。有没有一种方法可以让我们知道使用python/pandas中的任何包来知道给定html中的表的总数?
浏览 10
提问于2019-03-07
得票数 2
回答已采纳
3
回答
属性错误'NoneType‘对象没有属性'find_all’
、
导入请求R=
requests.get
(')打印(soup.title) S=AttributeError回溯(最近一次调用) in () 17s= soup.find('div',class_='entry-content') 18 --> 19行= s.find_all('p') 2021(
行为
行
浏览 7
提问于2022-07-19
得票数 -1
点击加载更多
相关
资讯
Python爬虫数据分析的基本概念
2024,Python爬虫系统入门与多领域实战(完结)
python爬虫之笔趣文学
网络爬虫实战指南:从零开始抓取网页数据,轻松搞定信息采集!
如何利用Python爬取网络小说
热门
标签
更多标签
云服务器
对象存储
ICP备案
云点播
实时音视频
活动推荐
运营活动
广告
关闭
领券