腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(1303)
视频
沙龙
1
回答
用
BeautifulSoup
抓取
Json
表
太多
熊猫
、
、
、
它看起来像是一个
json
结构。有没有可能用
BeautifulSoup
得到它?网址:from bs4 import
BeautifulSoup
soup =
BeautifulSoup
浏览 13
提问于2021-06-05
得票数 1
回答已采纳
1
回答
用
BS4进行网络
抓取
:无法获取
表
、
当您选择此图标(“复制”)时,您将实现一个完整的
表
,您可以粘贴到Excel中。如何将此
表
作为Python中的输入?我的代码在下面,它没有显示任何内容:from bs4 import
BeautifulSoup
result = requests.get(url) soup =
Beautiful
浏览 1
提问于2018-03-19
得票数 0
回答已采纳
1
回答
用
蟒蛇
熊猫
和
beautifulSoup
抓取
分页网页
表
、
、
我是蟒蛇
熊猫
的初学者,我试着
用
漂亮的汤包废弃一个分页的桌子,数据被刮掉了,但是每个单元格的内容都是一行的,我无法得到一个连贯的csv文件。这是我的代码:import urllib.requestimport os thepage=urllib.reque
浏览 1
提问于2018-07-01
得票数 2
回答已采纳
1
回答
不能刮桌子
、
我试图从以下网站上的一个
表
中
抓取
数据:from bs4 import
BeautifulSoup
r = requests.get(url)drought_table我试着
用
浏览 4
提问于2021-12-29
得票数 1
回答已采纳
1
回答
用
python读取复杂的html
表
、
、
、
我正试图把变成一只
熊猫
DataFrame。我试过使用
熊猫
read_html,我试过使用请求和bs4。我想像我们看到的那样
抓取
整个
表
,但是在html代码中,
表
被分成了3个块。下面是一个起始代码:import pandas as pd res
浏览 1
提问于2018-08-28
得票数 1
回答已采纳
2
回答
从维基百科上
用
漂亮的汤刮掉整张桌子,然后装进
熊猫
里
、
、
、
、
我目前正在
抓取
下面的维基页面:,只有一个
表
开始于比较。我正试着把整张桌子都刮掉,然后把它输出给
熊猫
。我知道如何添加初始列,飞机,但在从卷开始
抓取
列时遇到问题。import requests page = requests.get('https
浏览 0
提问于2019-12-18
得票数 1
1
回答
如何从
beautifulSoup
中拉取多个html标签?
、
、
我正在尝试使用
beautifulSoup
从html页面中提取几个标记。该页面包含一个从1到100的排名列表,所以我想为每个项目提取所有的和标签。
浏览 10
提问于2019-09-05
得票数 2
回答已采纳
1
回答
如何使用多个
表
从网页中刮取特定的
表
?
、
、
、
然而,当我运行dfs = pd.read_html(url)时,我只收到了来自网页的前两个
表
,即Team和。page = requests.get(url) row = [i.text for i
浏览 2
提问于2020-05-26
得票数 0
回答已采纳
1
回答
使用python从维基百科中刮
表
?
、
、
、
我试着从维基百科的页面上
抓取
表格数据:,我试过使用pd.read_html语法,但它不适用于我试图刮的
表
(尼泊尔按地区分列的新冠肺炎确诊病例)。我试着
用
“美丽汤”和“
熊猫
”来收集数据,但是它不起作用soup =
BeautifulSoup
(r.text,
浏览 0
提问于2020-04-06
得票数 1
回答已采纳
1
回答
如何从有加载
表
的网站上
抓取
网页?
、
、
、
我试着
用
Python2.7从一个网站上
抓取
网页,那里有一个必须加载的
表
。如果我试图在网络上
抓取
它,我只得到它:“加载”或“对不起,我们没有关于它的任何信息”,因为它必须先加载。我的密码:import urllib2, sysimport
json
site= "https://www.flightradar24User-Agent':
浏览 2
提问于2017-07-25
得票数 0
回答已采纳
1
回答
我如何自动扩展整个网页,以便与
熊猫
(蟒蛇)擦拭?
、
、
我正在尝试从中
抓取
html
表
。在页面上,有一个“加载更多”按钮。单击此命令时,会显示更多行,但URL不会更改。当我使用pd.read_html(url(将这个URL传递给
熊猫
时,它会拉出前100行,而没有其他任何内容。如何通过URL或命令自动加载所有
表
?任何帮助都是非常感谢的。代码:import requestsfrom bs4 import
BeautifulSoup
import
浏览 73
提问于2022-05-19
得票数 -1
2
回答
优美汤对象不包含来自网页的完整
表
,而是
抓取
前100行。
、
、
、
我试图从spotrac.com网站上
抓取
表格,并将数据保存到
熊猫
的数据中。无论出于什么原因,如果我正在
抓取
的
表
超过100行,则对象只会
抓取
表
的前100行。只有前100行包含在
BeautifulSoup
对象和dataframe中。import pandas as pdfrom bs4 import
BeautifulSoup
# Begin requests sessionrunning-back
浏览 5
提问于2020-07-01
得票数 0
回答已采纳
1
回答
用
BeautifulSoup
抓取
多个
表
、
、
如何从这个url 的“目标时间”
表
中获得数字目标?我能找到那张桌子,但当我试图得到数据时,没有任何变化。-de-belgrano', headers=headers) soup =
BeautifulSoup
(response.text
浏览 2
提问于2022-03-23
得票数 0
1
回答
用
Beautifulsoup
复制的元素
、
这是url:soup.find_all('span', class_="sidearm-roster-player-height")我不明白为什么会这样。
浏览 0
提问于2021-04-19
得票数 0
1
回答
Python:将网站从行中刮取的数据转换为内嵌套循环中的列
、
、
、
我相信用一个形象来解释比
用
我自己的话更容易。 我
用
熊猫
和xlsxwriter来存储,以达到最好的效果。我成功地将所有数据导出到excel,但我似乎无法将每个值的值转换为列。第一行是时间。
浏览 0
提问于2019-02-04
得票数 0
回答已采纳
1
回答
用
漂亮汤将硒html表格放入
熊猫
数据
、
、
我已经成功地使用selenium来
抓取
一个html
表
,它需要在
抓取
之前点击按钮。不过,我很难把这个解析成
熊猫
的数据。import pandas as pdfrom bs4 import
BeautifulSoup
browser = webdriver.Firefoxbrowser.find_element_by_css_selector("
浏览 1
提问于2020-04-03
得票数 2
回答已采纳
1
回答
使用Python在具有单个URL的网站多个页面上浏览
表
表
被分成不同的页面,但是所有的页面都使用相同的url。我使用
熊猫
和
BeautifulSoup
来解析HTML代码,并且我只能够
抓取
最初的
表
,但是我想要所有
表
中的全部数据。
浏览 5
提问于2021-09-02
得票数 0
回答已采纳
1
回答
抓取
JSON
数据
、
、
、
我试图
用
BeautifulSoup
4
抓取
https://understat.com/team/Arsenal/2019 (和其他英超球队页面),以获得所有球员页面的链接,并最终
抓取
这些页面以获取单个球员的数据,但由于我不熟悉
JSON
数据,因此陷入了困境。我已经追踪到了我感兴趣的网页部分,但是我当前的输出看起来像这个var playersData =
JSON
.parse('\x5B\x7B\x22id\x22\x3A\x2
浏览 33
提问于2019-09-12
得票数 0
回答已采纳
1
回答
用
BeautifulSoup
抓取
TradingView上的数据
、
但是,返回的项长度始终为0。requests.get('https://www.tradingview.com/symbols/INDEX-MMTW/')nmmtw_data = bs4.
BeautifulSoup
浏览 33
提问于2020-05-18
得票数 1
1
回答
使用
BeautifulSoup
找不到深度嵌套标记ID
、
我试图从中
抓取
NBA数据,但我遇到了
BeautifulSoup
抛出深度嵌套标记的问题。我试着
用
soup.find(id='opponent-stats-per_game')来
抓取
“对手每个游戏统计”
表
。然而,我得到了None的结果。我对使用
BeautifulSoup
进行网络
抓取
相当陌生。
浏览 1
提问于2019-04-03
得票数 0
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
零基础入门Python爬虫,一文掌握爬虫核心原理!
推荐:手把手教你用Python进行Web抓取
手把手教你用Python进行Web抓取
scrapy官方文档提供的常见使用问题
10行代码爬取微信公众号文章评论
热门
标签
更多标签
云服务器
ICP备案
对象存储
即时通信 IM
实时音视频
活动推荐
运营活动
广告
关闭
领券