首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往
  • 您找到你想要的搜索结果了吗?
    是的
    没有找到

    Selenium系列(二) - 详细解读针对浏览器的操作

    如果你还想从头学起Selenium,可以看看这个系列的文章哦!...https://www.cnblogs.com/poloyy/category/1680176.html 其次,如果你不懂前端基础知识,需要自己去补充哦,博主暂时没有总结(虽然我也会,所以我学selenium...-------------->>>>>>>>>> 最大化、最小化浏览器 from time import sleep from selenium import webdriver # 加载浏览器驱动...js js='console.log(2)' driver.execute_script(js) # 异步执行js driver.execute_async_script("alert(2)") 打开...可以根据标签页的句柄来切换标签页 操作标签页的好处就是,可以只打开一个浏览器但可以访问多个不同的网页;这在后续集成单元测试框架(unittest、pytest)的时候会有很大的帮助 滚动页面 # 滚动随机高度

    84210

    Python爬虫系列:针对网页信息内容的提取

    那么我们在爬取网页时如何找到对我们有效的信息呢?或者说,找到后我们又要如何通过Python将一系列的信息打印出来呢? 1.为何要对信息进行提取?...首先,在Python爬虫爬取网页时,是不能将整个网页信息打印出来的,至于为什么,看过网页源代码的就知道,按F12或者右键查看源代码(或者检查也可)可以看出来一个网页包含了很多信息,比如小编的个人博客源代码...To:网页中HTML的信息标记: H:hyper T:text M:markup L:language HTML是www的信息组织形式:可以将声音,图像,视频等超文本信息嵌入到文本中...JSON:信息有类型,适合程序的处理(比如js),较XML简洁;多用于移动应用云端和节点的信息通信,因为无注释,因此在程序与接口的地方也较为常用。

    1.9K30

    实现网页认证:使用Scrapy-Selenium处理登录

    图片导语在网络爬虫的世界中,我们经常需要面对一些需要用户认证的网页,如登录、注册验证等。本文将介绍如何使用Scrapy-Selenium来处理这类网页,实现自动化登录和爬取。...概述Scrapy-Selenium结合了Scrapy和Selenium两大强大的爬虫工具,可以在Scrapy框架内模拟浏览器操作,应对需要认证的网页。这对于爬取需要登录的网站尤其有用。...Scrapy-Selenium能够帮助我们模拟用户登录的操作,从而让爬虫能够访问需要认证的页面。...首先,我们需要在项目的settings.py中配置Selenium相关信息和中间件,以及代理设置:SELENIUM_DRIVER_NAME = 'chrome'SELENIUM_DRIVER_EXECUTABLE_PATH...,我们可以轻松应对需要登录、注册认证的网页

    43830
    领券