首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

当我尝试从网页上抓取数据时,为什么我得到了一个非类型?

当您尝试从网页上抓取数据时,得到一个非类型的结果可能有以下几个可能原因:

  1. 网页结构变化:网页的结构可能发生了变化,导致您的抓取代码无法正确解析网页内容。这可能是由于网站更新、重构或者使用了动态生成的内容。
  2. 网络请求问题:您的抓取代码可能无法成功发送网络请求或者获取到正确的响应。这可能是由于网络连接问题、请求超时、网站反爬虫机制等原因导致的。
  3. 数据解析错误:即使您成功获取到了网页内容,但是您的数据解析代码可能存在错误,无法正确提取所需的数据。这可能是由于使用了错误的解析方法、选择器或者数据提取规则不正确导致的。

针对以上问题,您可以采取以下解决方案:

  1. 更新抓取代码:根据网页结构的变化,更新您的抓取代码,确保能够正确解析网页内容。您可以使用一些专门用于网页抓取的库或框架,如Python中的BeautifulSoup、Scrapy等。
  2. 检查网络连接:确保您的网络连接正常,并且能够成功发送网络请求。您可以尝试使用其他工具或浏览器进行访问,以确定是否存在网络问题。
  3. 处理反爬虫机制:一些网站为了防止被自动抓取,会设置反爬虫机制,如验证码、请求频率限制等。您可以尝试模拟浏览器行为,如设置请求头、使用代理IP等来规避这些机制。
  4. 调试数据解析:检查您的数据解析代码,确保使用正确的解析方法和选择器。您可以使用开发者工具查看网页源代码,以确定正确的选择器或数据提取规则。

腾讯云相关产品推荐:

  • 云服务器(CVM):提供高性能、可扩展的云服务器实例,适用于各类应用场景。详情请参考:腾讯云云服务器
  • 弹性MapReduce(EMR):提供大数据处理和分析的云服务,支持Hadoop、Spark等开源框架。详情请参考:腾讯云弹性MapReduce
  • 云数据库MySQL版(CDB):提供稳定可靠的云数据库服务,支持高可用、备份恢复等功能。详情请参考:腾讯云云数据库MySQL版
  • 人工智能平台(AI Lab):提供丰富的人工智能算法和模型,支持图像识别、语音识别、自然语言处理等应用。详情请参考:腾讯云人工智能平台
  • 物联网开发平台(IoT Explorer):提供全面的物联网解决方案,支持设备连接、数据管理、规则引擎等功能。详情请参考:腾讯云物联网开发平台

请注意,以上推荐的腾讯云产品仅供参考,具体选择应根据您的实际需求和情况进行决策。

相关搜索:为什么当我从网页上抓取一个价格时,我得到了一个?用python?当我尝试通过网络抓取一个表格时,为什么我在矩阵中得到错误?当我请求从当前用户获取数据时,我遇到了一个问题。为什么会这样呢?当我尝试在MongoDB数据库中上传图像时,我得到了一个更多的错误当我尝试使用道具时,我得到了一个类型转换错误,有什么方法可以解决这个问题吗?当我尝试在Firefox上的网页扩展插件设置页面上保存设置时,我得到了一个"Promise resolved while context is inactive“错误我正在尝试为我正在开发的应用程序制作GUI,但是当我尝试打印一个全局变量时,我得到了一个错误。为什么?当我从json打印一些数据时,我得到了这个错误: List<dynamic>‘不是'Map<String,dynamic>’类型的子类型我尝试用.substring抓取2个数字或1,但是当我使用变量价格时,为什么只读一个?当我尝试使用Instagram API连接到oauth2.0时,我从api.instagram.com得到了一个400 - Bad的结果。为什么?当我使用这个for循环来计算体重指数时,为什么我得到了一个不受支持的操作数类型?在ubunu中安装Angular CLI错误-当我尝试在我的ubuntu机器上运行angular CLI命令时,我得到了一个错误当我只是尝试从网格视图中获取单元格的值时,我得到了一个关于日期时间的错误当我从html表单传递一个值时,为什么在我的post api过程中,我得到了一个错误'Column post be null‘?当我使用动态数据类型时,为什么我必须返回一个指针?(即堆栈、列表、队列、动态数组)当我从另一个进程读取时,为什么我的Access数据库不是最新的?Django:当我试图从我的数据库中删除一个对象时,为什么会得到404?类型“RelayObservable<unknown>”上不存在属性“”then“”。“”当我尝试在react中使用relay来获取数据时。我不知道为什么会出现这个错误大家好,我得到了一个错误的活动是强制性的新线索从2021年。当我尝试创建新销售线索时我刚开始使用react,我在尝试从firestore获取数据字段以显示在我的应用程序屏幕上时遇到了很多问题
相关搜索:
页面内容是否对你有帮助?
有帮助
没帮助

相关·内容

初学指南| 用Python进行网页抓取

引言 网页中提取信息的需求日益剧增,其重要性也越来越明显。每隔几周,自己就想要到网页提取一些信息。比如上周我们考虑建立一个有关各种数据科学在线课程的欢迎程度和意见的索引。...如果可以直接通过API得到所需要的信息,那么这个方法几乎总是优于网页抓取方法。因为如果可以数据提供方得到结构化的数据为什么还要自己建立一个引擎来提取同样的数据?...在本文中,将会利用Python编程语言给你看学习网页抓取最简单的方式。 对于需要借助编程方式提取网页数据的读者,可以去import.io看看。...现在,为了只显示链接,我们需要使用get的“href”属性:遍历每一个标签,然后再返回链接。 ? 4.找到正确的表:当我们在找一个表以抓取邦首府的信息,我们应该首先找出正确的表。...我们也了解了HTML的基础知识,并通过解决一个问题,一步一步地实施网页抓取建议你练习一下并用它来网页中搜集数据

3.7K80

初学指南| 用Python进行网页抓取

如果可以直接通过API得到所需要的信息,那么这个方法几乎总是优于网页抓取方法。因为如果可以数据提供方得到结构化的数据为什么还要自己建立一个引擎来提取同样的数据?...在本文中,将会利用Python编程语言给你看学习网页抓取最简单的方式。 对于需要借助编程方式提取网页数据的读者,可以去import.io看看。...现在,为了只显示链接,我们需要使用get的“href”属性:遍历每一个标签,然后再返回链接。 4.找到正确的表:当我们在找一个表以抓取邦首府的信息,我们应该首先找出正确的表。...让我们看一下代码: 最后,我们在dataframe内的数据如下: 类似地,可以用BeautifulSoup实施各种其它类型网页抓取。这将减轻网页上手工收集数据的工作。...我们也了解了HTML的基础知识,并通过解决一个问题,一步一步地实施网页抓取建议你练习一下并用它来网页中搜集数据

3.2K50
  • 🧭 Web Scraper 学习导航

    当我们着手准备收集数据,面对低效的复制黏贴工作,一般都会萌生一个想法:要是会爬虫就好了,分分钟就把数据爬取下来了。可是当我们搜索相关教程,往往会被高昂的学习成本所劝退。...而且对于强需求的人来说,这么多的知识点,你还会时时刻刻和遗忘做斗争。 那么有没有不学 python 也能爬取数据的利器呢?结合文章标题,想你已经知道要安利什么了。...互联网的资源可以说是无限的,当我们访问一个网站,不可能一次性把所有的资源都加载到浏览器里。现在的主流做法是先加载一部分数据,随着用户的交互操作(滚动、筛选、分页)才会加载下一部分数据。...常见的分页类型 分页列表是很常见的网页类型。根据加载新数据的交互,把分页列表分为 3 大类型:滚动加载、分页器加载和点击下一页加载。...2.分页器加载 分页器加载数据网页在 PC 网页非常常见,点击相关页码就能跳转到对应网页。 Web Scraper 也可以爬取这种类型网页

    1.6K41

    Python:用一行代码在几秒钟内抓取任何网站

    如果你正在寻找最强大的 Python 抓取工具?不要再看了!这一行代码将帮助你立即启动并运行。 Scrapeasy Scrapeasy 是一个 Python 库,可以轻松抓取网页并从中提取数据。...它可用于单个页面抓取数据多个页面抓取数据。它还可用于 PDF 和 HTML 表格中提取数据。...Scrapeasy Python 爬虫在编写考虑到了快速使用。它提供以下主要功能: 一键抓取网站——不仅仅是单个页面。 最常见的抓取活动(接收链接、图像或视频)已经实现。...抓取的网站接收特殊文件类型,如 .php 或 .pdf 数据。...好吧,如前所述,该页面只是网站中的一个站点,让我们通过初始化W3schools页面,来尝试不同的示例。

    2.5K30

    如何用Python爬数据?(一)网页抓取

    你期待已久的Python网络数据爬虫教程来了。本文为你演示如何网页里找到感兴趣的链接和说明文字,抓取并存储到Excel。 ? (由于微信公众号外部链接的限制,文中的部分链接可能无法正确打开。...例如HTML, CSS, Javascript, 数据结构…… 这也是为什么一直犹豫着没有写爬虫教程的原因。...不过这两天,看到王烁主编的一段话,很有启发: 喜欢讲一个另类二八定律,就是付出两成努力,了解一件事的八成。 既然我们的目标很明确,就是要从网页抓取数据。...目标 要抓取网页数据,我们先制订一个小目标。 目标不能太复杂。但是完成它,应该对你理解抓取(Web Scraping)有帮助。 就选择最近发布的一篇简书文章作为抓取对象好了。...文中只展示了如何从一个网页抓取信息,可你要处理的网页成千上万啊。 别着急。 本质上说,抓取一个网页,和抓取10000个网页,在流程是一样的。 而且,咱们的例子里,你是不是已经尝试抓取链接?

    8.5K22

    简易数据分析(七):Web Scraper 抓取表格、分页器翻页数据

    解决报错保存成功后,我们就可以按照 Web Scraper 的爬取套路抓取数据了。 2.为什么不建议你用 Web Scraper 的 Table Selector?...出于这个原因,当你在用 Table Selector 匹配一个表格,可能会死活匹配不上,因为 Web Scraper 的角度考虑,你看到的那个表格就是个高仿,根本不是原装正品,自然是不认的。...找了个功能最全的例子,支持数字页码调整,一页下一页和指定页数跳转。 ? 今天我们就学学,Web Scraper 怎么对付这种类型网页翻页。...当我们用 :nth-of-type(-n+N) 控制加载数量,其实相当于在这个网页设立一个计数器,当数据一直累加到我们想要的数量,就会停止抓取。...所以结论就是,如果翻页器类型网页想提前结束抓取,只有断网的这种方法。当然,如果你有更好的方案,可以在评论里回复,我们可以互相讨论一下。

    3.9K41

    要找房,先用Python做个爬虫看看

    当一切完成想做到两件事: 葡萄牙(居住的地方)一个主要房地产网站上搜集所有的搜索结果,建立一个数据库 使用数据库执行一些EDA,用来寻找估值偏低的房产 将要抓取的网站是Sapo(葡萄牙历史最悠久...在决定每个搜索结果属性中获取什么之后,我们需要一个for循环来打开每个搜索页面并进行抓取。 这听上去很简单,哪儿开始? 与大多数项目一样,我们导入所需模块。...,这就是为什么将定义一个标题来传递get命令,这相当于使我们对网站的查询看起来像是来自一个实际的浏览器。...解决这个问题的一个简单方法是用空字符替换特殊字符。当我将字符串转换为整数,我会对其进行分割。 ? 在最后一步中,itertools帮助我提取第二步中的数字。我们刚刚抓取到了我们的第一个价格!...玩够标签了,让我们来开始抓取页面! 一旦您熟悉了要提取的字段,并且找到了每个结果容器中提取所有字段的方法,就可以设置爬虫的基础了。以下列表将被创建来处理我们的数据,稍后将用于组合数据框架。

    1.4K30

    Scrapy(5)item 之详解

    来了,今天又烦恼了一会,又去河边听水声了,回来想清楚了,感觉还是太浮躁了,静下心来好好读书了,事业,副业还是寻找,希望不要给自己太大压力吧 还是告诉自己,当我的才华还撑不起的野心应该静下心来学习...,当我的经济还撑不起的理想应该脚踏实地工作,脚踏实地的投资理财,不断的买入资产,还是定期投入比特币,以太坊,中证500,恒生指数,红利指数吧,反正这些指数现在都在低估阶段,总感觉今年绝对是充满时机的一年...今天得主题讲解 item 抓取的主要目标是结构化源(通常是网页)中提取结构化数据。Scrapy蜘蛛可以像Python一样返回提取的数据。...Item对象是用于收集抓取数据的简单容器。它们提供类似字典的 API,并具有用于声明其可用字段的方便语法。...项目字段 Field对象用于指定每个字段的元数据。例如,last_updated上面示例中说明的字段的序列化函数。 您可以为每个字段指定任何类型的元数据。Field对象接受的值没有限制。

    94020

    爬虫万金油,一鹅在手,抓遍全球

    爬虫抓取数据有两个头疼的点,写过爬虫的小伙伴们一定都深有体会: 网站的防抓取机制。你要尽可能将自己伪装成“一个人”,骗过对方的服务器反爬验证。 网站的内容提取。...Goose Goose 是一个文章内容提取器,可以任意资讯文章类的网页中提取文章主体,并提取标题、标签、摘要、图片、视频等信息,且支持中文网页。...有了这个库,你网上爬下来的网页可以直接获取正文内容,无需再用 bs4 或正则表达式一个个去处理文本。...它只能从概率保证大多数网站可以相对准确地抓取经过一些尝试后发现,抓取英文网站优于中文网站,主流网站优于小众网站,文本的提取优于图片的提取。 2....在此基础,你可以继续改进这个程序,让它不停地去寻找新的地址并抓取文章,并对获取到的文章进行词频统计、生成词云等后续操作。类似我们之前的分析案例 数据分析:当赵雷唱民谣他唱些什么?。

    88320

    摩拜单车爬虫源码及解析

    專 欄 ❈是思聪,Python中文社区专栏作者 博客: http://www.jianshu.com/u/b1e713e56ea6❈ 为什么爬摩拜的数据 摩拜是最早进入成都的共享单车,每天地铁站下来的时候...高兴太早 连续爬了几天的数据,将数据进行一分析,发现摩拜单车的GPS似乎一直在跳动,有时候跳动会超过几公里的距离,显然不是一个正常的值。 难道是他们的接口做了手脚返回的是假数据?...这样的数据对于数据分析来讲根本没法用,差点就放弃了。 转机 随着微信小程序的火爆,摩拜单车也在第一间出了小程序。一看就笑了,不错,又给我来了一个数据源,试试。...摩拜单车的API返回的是一个正方形区域中的单车,只要按照一块一块的区域移动就能抓取到整个大区域的数据。...offset定义了抓取的间隔,现在以0.002为基准,在DigitalOcean 5$的服务器能够15分钟内抓取一次。 ?

    1.2K110

    简易数据分析 12 | Web Scraper 翻页——抓取分页器翻页的网页

    找了个功能最全的例子,支持数字页码调整,一页下一页和指定页数跳转。 今天我们就学学,Web Scraper 怎么对付这种类型网页翻页。...因为当一个网页的链接变化规律,控制链接参数抓取是实现成本最低的;如果这个网页可以翻页,但是链接的变化不是规律的,就得去会一会这个分页器了。 说这些理论有些枯燥,我们举个翻页链接不规律的例子。...5.一些问题 如果你看了上面的教程立马去爬数据,可能遇到的第一个问题就是,300w 的数据,难道全部爬下来吗?...当我们用 :nth-of-type(-n+N) 控制加载数量,其实相当于在这个网页设立一个计数器,当数据一直累加到我们想要的数量,就会停止抓取。...所以结论就是,如果翻页器类型网页想提前结束抓取,只有断网的这种方法。当然,如果你有更好的方案,可以在评论里回复,我们可以互相讨论一下。

    3.3K30

    【nodeJS爬虫】前端爬虫系列 -- 小爬「博客园」

    爬虫流程 看到了最终结果,那么我们接下来看看该如何一步一步通过一个简单的 nodejs 爬虫拿到我们想要的数据,首先简单科普一下爬虫的流程,要完成一个爬虫,主要的步骤分为: 抓取 爬虫爬虫,最重要的步骤就是如何把想要的页面抓取回来...要获取这么多 URL ,首先还是分析单页面开始,F12 打开 devtools 。...,当我们需要进行 get 、 post 、 head 等网络请求尝试下它吧。...cheerio cheerio(https://github.com/cheeriojs/cheerio ) 大家可以理解成一个 Node.js 版的 jquery,用来网页中以 css selector...如果你是要抓取三个源的数据,由于你根本不知道这些异步操作到底谁先完成,那么每次当抓取成功的时候,就判断一下count === 3。当值为真,使用另一个函数继续完成操作。

    1.5K80

    Python pandas获取网页中的表数据网页抓取

    网站获取数据网页抓取) HTML是每个网站背后的语言。当我们访问一个网站,发生的事情如下: 1.在浏览器的地址栏中输入地址(URL),浏览器向目标网站的服务器发送请求。...Python pandas获取网页中的表数据网页抓取) 类似地,下面的代码将在浏览器绘制一个表,你可以尝试将其复制并粘贴到记事本中,然后将其保存为“表示例.html”文件...这里只介绍HTML表格的原因是,大多数时候,当我们试图网站获取数据,它都是表格格式。pandas是网站获取表格格式数据的完美工具!...的计算机上是没有安装lxml,安装后正常) 上面的df实际一个列表,这很有趣……列表中似乎有3个项目。...让我们看看pandas为我们收集了什么数据…… 图2 第一个数据框架df[0]似乎与此无关,只是该网页中最先抓取一个表。查看网页,可以知道这个表是中国举办过的财富全球论坛。

    8K30

    一名python学习者打开双11的正确姿势

    到了近些年,这一天显然又成了“剁手”的代名词,阿猫阿狗们早早地就开始了铺天盖地的宣传。 不过还没到正日子,这几天就碰上了两件闹心的事: 刚下单的商品,第二天就降价了!...于是,设想了这样一个方案来应对商家们的套路: 【初级版】 关注的商品页面上找到价格,用 Python 脚本自动把价格抓下来。推荐使用 requests 库; ?...除此之外,一个小技巧就是,移动端网站往往反爬措施没有 PC 网页版那么严格,所以可以尝试用移动站来抓取。同样可以使用 Chrome 的开发者工具,模拟手机环境。 ?...那么在前面的基础,升级一下: 【中级版】 选择移动端网站抓取,找到包含价格信息的请求; 请求尽可能补全 header 信息; 轮换代理 IP; 难以提取信息的,尝试用 Selenium...真正要说的是,如果你学了 Python,却不知道去哪里找项目练手进一步提高,为什么不从身边的需求出发,去开发一些工具,做一点数据的分析。你若完整实现了这样一个项目,去找一份开发工作绝对没有问题。

    20.4K70

    数据数据采集的几种方式

    Flume的核心其实就是把数据数据源收集过来,再将收集到的数据送到指定的目的地…… 1.2通过网络采集大数据 网络采集是指通过网络爬虫或网站公开API等方式,网站上获取大数据信息,该方法可以将结构化数据网页中抽取出来...1.2.2爬虫工作流程 基本情况下,爬虫会首先获取一部分种子URL,将这些URL放入待抓取URL队列,队列中取出待抓取URL,解析DNS得到主机IP,并将URL对应网页下载储存。...最后将这些URL放入已抓取队列中,如此循环。 1.2.3爬虫抓取策略 互联网上的网页数量以亿级为单位,该以什么样的策略爬这些网页数据成为了一个问题,大致分为几个类型。...1.4跑一下WebMagic 百度后到了WebMagic的官方文档 照着里面的例子测试一下: 首先新建一个maven项目,是不是web项目都可以,只要是maven就行了。...继续寻找原因 最后在官方文档到了另外一个demo,尝试使用: public class SinaBlogProcessor implements PageProcessor { public

    2.6K30

    通过Canvas在浏览器中更酷的展示视频

    一个兼容性良好的网页内,视频的动态画面让网页内容能够更加生动地展现给用户,而那些可响应用户行为并与网页浏览者互动的网页视频元素则将这种美妙体验提升到了新的高度。...当我们创建类的新示例Processor,我们抓取video和canvas元素然后画布中获取2D上下文。...在如原先那样绘制图像之后,我们可以将该图像数据以记录了每个像素RGBA值的数组的形式该上下文中取出。...当Phil在不同的浏览器或设备中打开该网页,他意识到了我们正在处理的色彩空间问题——在解码视频,不同的浏览器或硬件处理颜色空间的方式不同,因此就像我们试图做的那样,这里基本没有办法可靠地匹配不同解码器的十六进制值...我们像以前那样将画面框架绘制到画布并且我们只抓取边缘一个像素;当浏览器将图像渲染到画布将颜色转换为正确的颜色空间,这样我们就可以抓住边缘一个RGBA值并将主体背景颜色设置为相同!

    2.1K30

    完美假期第一步:用Python寻找最便宜的航班!

    爬虫脚本 当我第一次开始做网络爬虫对这块并不特别感兴趣。本想用预测建模,财务分析和一些情绪分析来做更多的项目,但事实证明,弄明白如何构建第一个网络爬虫是很有趣的。...有非常多关于网络爬虫的应用程序,即便你更喜欢数据科学中的其他主题,你仍然需要一些爬虫技能来获取想要的数据。 Python可以来拯救你 第一个挑战是选择哪个平台抓取信息。...如果你是个爬虫新手,或者还不了解为什么有一些网站总会设置各种障碍来阻止网络抓取,那么在写第一行爬虫代码之前,请你先阅读了解一下谷歌“ 网络抓取礼仪 ”。...另一个函数将抓取整个页面,并会返回一个dataframe数据集 重复步骤2和3获取“最便宜”和“最快”的排序结果。...你可以直接用浏览器复制网页XPath来用,你也会发现由XPath虽可以定位网页元素但是可读性很差,所以我渐渐意识到只用XPath很难获得你想要的页面元素。有时候,指向越细就越不好用。

    2.3K50

    Python爬虫之基本原理

    传统爬虫从一个或若干初始网页的URL开始,获得初始网页的URL,在抓取网页的过程中,不断当前页面上抽取新的URL放入队列,直到满足系统的一定停止条件。...然后,它将根据一定的搜索策略队列中选择下一步要抓取网页URL,并重复上述过程,直到达到系统的某一条件停止。...获取响应内容:如果服务器能正常响应,会得到一个Response,Response的内容便是所要获取的页面内容,类型可能有HTML,Json字符串,二进制数据(如图片视频)等类型。...请求URL:URL全称统一资源定位符,如一个网页文档、一张图片、一个视频等都可以用URL唯一来确定。 请求头:包含请求的头部信息,如User-Agent、Host、Cookies等信息。...解析方式 直接处理 Json解析 正则表达式 BeautifulSoup PyQuery XPath 抓取中出现的问题 问:为什么抓到的和浏览器看到的不一样?

    1.1K30

    完美假期第一步:用Python寻找最便宜的航班!

    爬虫脚本 当我第一次开始做网络爬虫对这块并不特别感兴趣。本想用预测建模,财务分析和一些情绪分析来做更多的项目,但事实证明,弄明白如何构建第一个网络爬虫是很有趣的。...有非常多关于网络爬虫的应用程序,即便你更喜欢数据科学中的其他主题,你仍然需要一些爬虫技能来获取想要的数据。 Python可以来拯救你 第一个挑战是选择哪个平台抓取信息。...如果你是个爬虫新手,或者还不了解为什么有一些网站总会设置各种障碍来阻止网络抓取,那么在写第一行爬虫代码之前,请你先阅读了解一下谷歌“ 网络抓取礼仪 ”。...另一个函数将抓取整个页面,并会返回一个dataframe数据集 重复步骤2和3获取“最便宜”和“最快”的排序结果。...你可以直接用浏览器复制网页XPath来用,你也会发现由XPath虽可以定位网页元素但是可读性很差,所以我渐渐意识到只用XPath很难获得你想要的页面元素。有时候,指向越细就越不好用。

    1.9K40

    Linux 网络分析必备技能:tcpdump 实战详解

    当我们新开发的网络程序,没有按照预期工作,通过 tcpdump 收集相关数据包,包层面分析具体原因,让问题迎刃而解。 4....当我们的网络程序性能比较低,通过 tcpdump 分析数据流特征,结合相关协议来进行网络参数优化,提高系统网络性能。 5....不加任何参数,默认情况下将抓取一个 lo 网卡所有的数据包 $ tcpdump 2. 抓取 eth0 网卡的所有数据包 $ tcpdump -i eth0 3....抓取所有 ping 类型的 ICMP 包 $ tcpdump 'icmp[icmptype] != icmp-echo and icmp[icmptype] !...or:表示或操作 and:表示与操作 not:表示操作 建议看到这里后,再回头去看实战篇章的示例,相信必定会有更深的理解。如果是这样,那就达到了预期的效果了!

    1.5K30
    领券