首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往
  • 您找到你想要的搜索结果了吗?
    是的
    没有找到

    粉丝营销平台:来了

    探索者百度企业平台:顺势而为探索社群粉丝营销 7月17日之前很难将与社会化营销联想起来。因为已有十年历史的百度的社交潜力被不少人忽视。...百度是基于兴趣关键词的主题中文社区,任何人有任何兴趣都可加入或创建,然后围绕贴子交流,认识同好。 百度企业平台则是基于兴趣的粉丝营销平台。...百度与企业、机构、媒体等合作伙伴共建官方,并提供一系列服务和运营管理工具的开放平台,为企业搭建粉丝社区。...百度副总裁王湛在企业平台战略发布会的致辞中用“顺势而为”四个字来概括在第十一个年头推出企业平台的原因。...粉丝经济始作俑者小米的自有社区非常火爆,但设专门团队负责百度的运营,这说明百度在粉丝经营上有其独有能力,更重要的是绝大多数企业没有能力建立和维持高度活跃的自有社区,这是百度企业平台的机会。

    1.4K60

    Python-数据挖掘-案例-上

    参数部分的“爬虫”是搜索的关键字,pn 值与的页码有关。如果 n 表示第几页,那么 pn 参数的值是按照 (n-1) * 50 的规律进行赋值。...百度中的爬虫,前三页对应的 URL 地址: https://tieba.baidu.com/f?kw=爬虫&ie=utf-8&pn=0 https://tieba.baidu.com/f?...kw=爬虫&ie=utf-8&pn=100 使用 urllib 库来爬取爬虫第1~3页的内容,并将爬取到的内容保存到文件中。 ① 提示用户输入要爬取的爬取名,以及要查询的起始页和结束页。...if __name__== "__main__": kw = input("请输入要爬取的名:") begin_page = int(input("请输入起始页:")) end_page...urllib.parse.urlencode({"kw": kw}) url = url + key tieba_spider(url, begin_page, end_page) ② 用于爬取百度的函数

    97040

    Python-数据挖掘-案例-下

    ① 提示用户输入要爬取的爬取名,以及要查询的起始页和结束页。然后,使用 urllib.parse.urlencode() 对 url 参数进行转码,组合成一个完整的可访问的 URL。...if __name__ == "__main__": kw = input("请输入要爬取的名:") begin_page = int(input("请输入起始页:")) end_page...urllib.parse.urlencode({"kw": kw}) url = url + key tieba_spider(url, begin_page, end_page) ② 用于爬取百度的函数...def tieba_spider(url, begin_page, end_page): ''' 爬虫调度器,负责组合处理每个页面的 url url: url 的前半部分 begin_page...with open(filename, 'w', encoding="utf-8") as file: file.write(html.decode("utf-8")) 运行程序,按照提示输入名称以及要爬取的起始页和结束页

    2K30

    百度图片抓取工具

    本着周末逛看图片,发现电脑运行内存太小,网页加载太慢,一怒之下写个爬虫把图片都下载到本地慢慢看 得到结果如下: ? 千张内涵图随意浏览 程序第一个选项: ? 对应的是: ? 第二个选项: ?...对应的是 ? 抓取的对象为楼主所发的图片: ?...好的,开搞: 下面是基于python3写的 通过观察,得到爬虫思路为: 思路 1、搜索什么kw 2、内的什么qw 3、进入href="/p/ 4、图片<img src=" 5、页数pn=...第一步思路是构造网址,观察看到<em>贴</em><em>吧</em>网址为: ?...代码为 # 输入的文字转码 kw = input("请输入:") qw = input("请输入进入的:") qw = urllib.parse.quote(qw.encode('gbk')) kw

    1.1K30
    领券