Loading [MathJax]/jax/input/TeX/config.js
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
社区首页 >问答首页 >利用find_partial_text实现Splinter抓取href

利用find_partial_text实现Splinter抓取href
EN

Stack Overflow用户
提问于 2020-11-18 08:02:37
回答 1查看 192关注 0票数 0

我是新的网页抓取,并试图从一个HTML页面检索一个href使用Splinter和美丽汤。这是我的密码

代码语言:javascript
运行
AI代码解释
复制
# hem1
url="https://astrogeology.usgs.gov/search/map/Mars/Viking/cerberus_enhanced"
browser.visit(url)
hem1=browser.find_link_by_partial_text('Sample').get("href")

这将接收到错误。

AttributeError:“ElementList”对象没有属性“get”

任何帮助都是非常感谢的。

EN

回答 1

Stack Overflow用户

发布于 2020-11-18 08:16:13

您会得到这个错误,因为browser.find_link_by_partial_text('Sample')返回一个ElementList。要从中获取一个元素,您需要使用索引。

示例:

代码语言:javascript
运行
AI代码解释
复制
hem1=browser.find_link_by_partial_text('Sample')
first_element = hem1[0]

要获得href,可以使用以下行:

代码语言:javascript
运行
AI代码解释
复制
hem1[0]['href']

关于find_link_by_partial_text()https://splinter.readthedocs.io/en/latest/api/driver-and-element-api.html#splinter.driver.DriverAPI.find_link_by_partial_text的更多信息

票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/64896745

复制
相关文章
利用aiowebsocket库实现实时抓取
aiowebsocket github:https://github.com/asyncins/aiowebsocket
kirin
2020/05/09
1.3K0
用splinter实现163邮箱的自动
本篇文章简述了使用python的splinter实现163邮箱的自动登录,介绍了splinter自动化测试工具的使用,以及mac环境下的配置;
py3study
2020/01/02
8340
splinter 学习笔记
In order to install Splinter, make sure Python is installed. Note: only Python 2.7+ is supported. 目前splinter支持Python2.7以上的版本,请在对应官网下载 http://www.python.org. Linux 和 Mac OS X有可能已经安装了对应的python
Criss@陈磊
2019/08/02
1.1K0
利用python抓取网页图片
    近期在家想看华为官方的【IP,图话技术,微图】系列文档,奈何家里是长宽,基本打不开页面,刷新多次,心力憔悴。
py3study
2020/01/13
2K0
关于js中window.location.href,location.href,parent.location.href,top.location.href的用法
"window.location.href"、"location.href"是本页面跳转.
botkenni
2022/03/24
2.1K0
Python + Splinter 实现浏览器自动化操作入门指南
前言 Splinter 是用 Python 开发的一个开源web自动化测试的工具集。 它可以帮你自动化浏览器的行为,比如浏览 URLs 并和页面进行交互。 快速上手 安装 从终端运行: pip install splinter 安装相应的浏览器驱动 Chrome浏览器驱动:https://sites.google.com/a/chromium.org/chromedriver/downloads Firefox浏览器驱动:https://github.com/mozilla/geckodriver/re
木制robot
2018/04/11
2.8K0
Python 网络爬虫概述
几乎每个网站都有一个名为robots.txt的文档,当然也有有些网站没有设定。对于没有设定robots.txt的网站可以通过网络爬虫获取没有口令加密的数据,也就是该网站所有页面的数据都可以爬取。如果网站有文件robots.txt文档,就要判断是否有禁止访客获取数据 如:https://www.taobao.com/robots.txt
Python知识大全
2020/02/13
1.3K0
Python 网络爬虫概述
利用爬虫抓取新理念英语答案
tva2.sinaimg.cn/large/006tNbRwly1fwzr01vvpsj31kw0xqaud.jpg)
Innei
2021/12/28
4380
Javascript中的href
版权声明:博客文章都是作者辛苦整理的,转载请注明出处,谢谢! https://blog.csdn.net/Quincuntial/article/details/52933031
Tyan
2019/05/25
1.5K0
链接中 href='#' 和 href='###' 的区别以及优缺点
     首先,<a> 标签 + onclick='{jscode}' 是很常用的一种 js 运用方式,而不使用 href='javascript:{jscode}' 是为了兼容多种浏览器对 <a> 标签的解释和处理不同。其次,使用 <a> 标签 + onclick='{jscode}'  时经常会加一个 href='###',而有时这个 href='###' 会被误写为 <a href='#'> 是因为使用者没有理解 '#' 和 '###' 的区别。      简单地说,就是说如果想定义一个空的链接,又不
deepcc
2018/05/16
1.8K0
a标签href的功用
a标签在html内使用最多的就是超链接,在href属性中加入url链接即可。当然,他还有其他的一些功用,下面来看一下
OECOM
2021/02/04
2.9K0
jsp中在href中传递参数
<% Configuration conf = new Configuration(); URI uri = new URI("hdfs://192.168.0.52:9010"); FileSystem fileSystem = FileSystem.get(uri, conf); //System.out.println("Hdfs directory is"+"\n"); Path src1 = new Path("hdfs://192.168.0.52:9
闵开慧
2018/03/30
4.7K0
Python实现抓取的方法
在进行网络爬虫、数据采集或访问受限网站时,使用代理IP可以帮助我们规避IP封禁和请求频率限制的问题。本文将为大家分享如何使用Python抓取 IP的方法,以便在应用程序中使用。
华科云商小孙
2023/10/07
2360
location.href跳转测试
测试代码 <script type="text/javascript"> function ToUrl(x){ location.href=x; } </script> <a href="javascript:;" onclick="javascript:ToUrl('http://www.baidu.com');">location.href跳转测试1</a> <a href="javascript:void(0);" onclick="javascr
deepcc
2018/07/05
7060
url、href和src区别
url (Uniform Resource Locator)统一资源定位符 href (Hypertext Reference)超文本引用 src (Source)资源,引用资源替代当前元素,在img、script、iframe中使用。 统一资源定位符,表示从互联网上得到的资源的位置和访问方法,是互联网上标准资源的地址。互联网上每一个文件都有一个唯一的URL,它包含的信息指出文件的位置以及浏览器应该怎么处理它。 一、url介绍 1、绝对URL(absolute URL) 显示文件的完整路径,这意味着绝对UR
pitaojin
2018/05/24
6.9K0
如何利用Xpath抓取京东网商品信息
前几天小编分别利用Python正则表达式和BeautifulSoup爬取了京东网商品信息,今天小编利用Xpath来为大家演示一下如何实现京东商品信息的精准匹配~~
Python进阶者
2018/08/03
7580
如何利用Xpath抓取京东网商品信息
利用Jsoup解析网页,抓取数据的简单应用
最近一直在公司利用爬虫技术,去抓取一些网页查询网站备案信息,刚开始使用HttpClient 和 jericho (这两个也挺好用你可以去测试一下)。但是后来发现了Jsoup,他和Jquery很相似,在搜节点上使用的技术几乎相似。所以凡是使用过Jquery的都可以去尝试使用Jsoup去解析抓取数据。下面举个例子我们去抓去所有公交车的信息(哥是郑州的哈)。
用户5166556
2019/04/16
1.1K0
利用 pyspider 框架抓取猫途鹰酒店信息
  利用框架 pyspider 能实现快速抓取网页信息,而且代码简洁,抓取速度也不错。   环境:macOS;Python 版本:Python3。   1.首先,安装 pyspider 框架,使用pi
希希里之海
2018/05/16
1.1K0
点击加载更多

相似问题

使用FK自动向Django中的用户填充模型字段

11

Django客户与用户的onetoone关系-如何在创建用户时为该模型创建字段?

14

使用OneToOne关系的Django模型?

30

与未使用查询的用户的Django onetoone关系

112

自动填写Django模型中的用户字段

14
添加站长 进交流群

领取专属 10元无门槛券

AI混元助手 在线答疑

扫码加入开发者社群
关注 腾讯云开发者公众号

洞察 腾讯核心技术

剖析业界实践案例

扫码关注腾讯云开发者公众号
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档
查看详情【社区公告】 技术创作特训营有奖征文