想知道大家都在杭州去哪玩?不如试试自己动手搞点数据来看看——我最近就尝试了一种低成本的数据抓取+图表分析方案,整个过程还挺有趣的,分享给你。
大家应该也有这种感觉吧,现在出去旅游,做攻略几乎成了“信息大战”——去哪玩?怎么玩?值不值得?网上各种推荐、评论、问答混在一起,有时候看得头都大了。
我比较好奇的是:这些攻略信息到底有没有共性?
比如:
带着这些问题,我想试着从某个旅游社区采集一批数据,做个小分析。我选了马蜂窝,因为它的用户内容还算丰富。
输入一个关键词,比如“杭州”,我想获取:
这个城市的热门景点列表; 一些相关的旅游攻略标题; 用户在问答区都讨论了啥问题;undefined最后,做成两个图:一个热门景点排行图,一个关键词词云图。
说白了,就是试着还原一下大家对“杭州”这个目的地的关注重点。
为了防止访问太频繁被限制,我还加了网络代理(可以让网站误以为每次访问都来自不同网络环境)和浏览器模拟参数,尽量让这套访问方式显得“像人”。
下面是我写的部分示例代码,主要逻辑就是通过 Playwright 实现浏览器行为,采集景点卡片中的标题和链接。
import asyncio
from playwright.async_api import async_playwright
import json
import os
# 网络代理配置(参考亿牛云爬虫代理示例)
PROXY_SERVER = "http://proxy.16yun.cn:3100"
PROXY_USERNAME = "16YUN"
PROXY_PASSWORD = "16IP"
KEYWORD = "杭州"
os.makedirs("mafengwo_data", exist_ok=True)
async def run():
async with async_playwright() as p:
browser = await p.chromium.launch(headless=True)
context = await browser.new_context(
user_agent="Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 Chrome/114.0.0.0 Safari/537.36",
proxy={
"server": PROXY_SERVER,
"username": PROXY_USERNAME,
"password": PROXY_PASSWORD
}
)
page = await context.new_page()
await page.goto("https://www.mafengwo.cn/")
await page.context.add_cookies([{
'name': 'mfw_uuid', 'value': 'example-uuid', 'domain': '.mafengwo.cn', 'path': '/'
}])
# 输入关键词并搜索
await page.fill('input[id="search-input"]', KEYWORD)
await page.click('div.search-btn')
await page.wait_for_timeout(3000)
# 提取搜索结果中的景点卡片
scenic_cards = await page.locator('div[class*="list_mod"]').all()
results = []
for card in scenic_cards:
title = await card.locator('h3').inner_text()
link = await card.locator('a').get_attribute('href')
results.append({
"景点": title.strip(),
"链接": f"https://www.mafengwo.cn{link}" if link.startswith('/') else link
})
# 保存每个景点信息为JSON文件
for r in results:
filename = os.path.join("mafengwo_data", f"{r['景点']}.json")
with open(filename, "w", encoding="utf-8") as f:
json.dump(r, f, ensure_ascii=False, indent=2)
await browser.close()
asyncio.run(run())
我对采集到的内容做了两种可视化:
import os
import json
import matplotlib.pyplot as plt
from collections import Counter
from wordcloud import WordCloud
files = os.listdir("mafengwo_data")
scenic_counts = Counter()
qa_keywords = Counter()
for file in files:
with open(os.path.join("mafengwo_data", file), "r", encoding="utf-8") as f:
data = json.load(f)
scenic_counts[data["景点"]] += 1
# 模拟关键词统计(实际可根据内容语义提取)
qa_keywords.update(["交通", "门票", "住宿", "路线"])
# 热门景点Top10
plt.figure(figsize=(10, 5))
names, counts = zip(*scenic_counts.most_common(10))
plt.bar(names, counts, color='skyblue')
plt.title("热门景点排行")
plt.ylabel("次数")
plt.xticks(rotation=45)
plt.tight_layout()
plt.savefig("hot_scenic.png")
plt.close()
# 关键词词云图
wc = WordCloud(font_path="msyh.ttc", background_color="white", width=800, height=400)
wc.generate_from_frequencies(qa_keywords)
wc.to_file("qa_wordcloud.png")
图中可以看到,“西湖”、“灵隐寺”、“千岛湖”等依然是大家最常提及的地点。说明即使有很多小众路线,经典景区依然占据C位。
从词云可以看出,“门票”、“交通”、“住宿”频率较高。这印证了游客在出行前的核心关注点还集中在实用信息上。
通过一个小型“杭州”旅游信息采集与分析项目,我初步验证了用浏览器模拟访问配合简单图表工具,可以完成信息抓取和洞察分析。不需要动用复杂框架,依靠灵活组合也能产出有价值的分析图表。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。
扫码关注腾讯云开发者
领取腾讯云代金券
Copyright © 2013 - 2025 Tencent Cloud. All Rights Reserved. 腾讯云 版权所有
深圳市腾讯计算机系统有限公司 ICP备案/许可证号:粤B2-20090059 深公网安备号 44030502008569
腾讯云计算(北京)有限责任公司 京ICP证150476号 | 京ICP备11018762号 | 京公网安备号11010802020287
Copyright © 2013 - 2025 Tencent Cloud.
All Rights Reserved. 腾讯云 版权所有