首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

如何用python 10倍提升ASO效率

最近两篇文章的增粉数量,比我过去一年都多,感谢各位朋友的转发和推荐,无以为报,只能加快更新干货的速度。

顺祝各位朋友圣诞快乐!

传统的ASO流程,大致分为以下几步:

1、挖词。

按照品牌词-关联词-竞品词-竞品关键词的思路发掘理想的高相关性关键词。

2、选词。

选择低竞争度,高搜索量的搜索词作为核心,比如搜索量为4605(iOS中4605相当于百度的搜索量为1)到5500。

3、筛词,上传。

根据以上关键词,手工筛选出ASO所需300个关键词字符,每个本地化渠道可以上传100字符(简体中文、英文(英国)、英文(澳大利亚)),以上3个渠道是对中文ASO覆盖数有效的本地化渠道。

流程上没什么问题,但是效率很慢,曾经看过一篇文章叫8小时完成ASO优化,如果会一点点python,可能这个时间,会缩短到1小时。

使用python后的ASO流程:

1、挖词。

以教育榜为例,导出七麦数据中top10 APP所有ASO关键词数据,如图所示,比如驾考、小说、彩票、吉他其实不属于目标APP,予以排除,优先处理其他APP的ASO数据。

2、词频统计。

以英语流利说APP为例,导出词库数据。

利用词频脚本进行词频筛选和导出,结果如下:

3、筛词。

词频进行排列组合和去重操作,组成最终关键字符。

4、重复以上导词动作,聚合到一个xlsx格式的文件中,统一进行词频统计操作。

5、上传到App Store,过程,略。

本篇词频统计python脚本分享:

注意:

1>需要通过pip命令安装xlrd、jieba、pandas三个库。

2>需要手动建立“原始词库.xlsx”这个文件,并且只将关键词这一列数据放入文件中,保存后关闭,再执行python脚本,才能正常生成“输出词频.xlsx”文件。

3>此脚本除了用于做ASO以外,还可以用作各种词频分析,是一个宝藏级的脚本。

#! /usr/bin/env python

# -*- coding: utf-8 -*-

importxlrd

importjieba

importpandasaspd

# ### 写入文件地址

# * 创建一个空字典

file_path='原始词库.xlsx'

word_dict={}

# ### 打开文件

# * 按照index进行读取数据

book = xlrd.open_workbook(file_path)

sheet= book.sheet_by_index()

rows = sheet.nrows

# ### 按行读取数据,并使用jieba进行分词

# * 将分词结果通过循环写入字典

forrowinrange(1,rows):

values = sheet.row_values(row)

jieba_texts=list(jieba.cut_for_search(values[]))

foriteminjieba_texts:

ifitemnot inword_dict:

word_dict[item]=1

else:

word_dict[item]+=1

# ### 将字典转化为dataframe并进行行列转置

# * 最后利用pandas写入excel

df=pd.DataFrame(word_dict,index=[1])

df=df.stack()

df.to_excel('输出词频.xlsx')

END

薄荷SEO

ID:boheseo

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20181224G1JP2100?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券