前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >个人注册的小程序有什么限制?小程序问答#13

个人注册的小程序有什么限制?小程序问答#13

作者头像
企鹅号小编
发布于 2018-01-10 07:01:50
发布于 2018-01-10 07:01:50
4.9K0
举报
文章被收录于专栏:企鹅号快讯企鹅号快讯

2017年3月27日,微信小程序开放个人主体注册小程序,相信很多个人开发者都申请小程序了吧。

但个人主体小程序和组织主体小程序又有什么不同呢?相对而言有什么限制呢?

今天,橙子菌就和大家聊聊两者的区别吧!

首先,接口限制

可以肯定的是,因为个人的资质和安全问题,个人主体的小程序是无法完整地使用小程序全部的接口和能力;那么,具体有哪些接口用不了呢?

1. 微信支付接口

如需在小程序使用微信支付,就必须先开通微信支付商户账号,而开通商户号必须是具备企业资格,个人资质无法开通商户账号。

除此之外,小程序还必须通过微信认证才能使用微信支付,而个人主体的小程序是不支持认证的。

所以,个人主体小程序不能使用微信支付接口。

2. 卡券接口

在微信里,卡券的分类有很多,其中就包含了具有储值功能的会员卡,像这种涉及到用户财产安全的接口肯定会收到微信严格的监管,而个人主体注册的小程序风险过大,微信自然不会开放给个人用户使用。

3. 获取微信用户绑定的手机号码

在小程序的众多能力中,有一个快速填写手机号的能力,能够直接获取用户微信绑定的手机号码功能。

但目前这个接口仅开放给已通过微信认证的小程序使用,尚未认证的组织类小程序和个人主体小程序,都无法使用这个功能。

除了以上三个接口外,其他所有接口个人主体注册的小程序都能完整使用。

第二,部分能力限制

1. 附近的小程序

个人主体的小程序,不能使用附近的小程序功能。

附近的小程序功能,是微信为了方便用户能快速寻找隐藏在附近的小程序而推出的小程序入口,目前,只有组织类小程序才能开通此项功能。

提问指南 - 私信或留言

关于小程序,你有什么想问的?可以通过以下方式提问哦。

赶紧把你的问题通过文章底部留言抛给我们吧。

长按下方二维码,关注小橙序之家(微信号 xcxzjia),后台留言。

本文来自企鹅号 - 小橙序之家媒体

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文来自企鹅号 - 小橙序之家媒体

如有侵权,请联系 cloudcommunity@tencent.com 删除。

评论
登录后参与评论
2 条评论
热度
最新
写的还可以
写的还可以
回复回复点赞举报
路过看看 ~~
路过看看 ~~
回复回复点赞举报
推荐阅读
​PySpark 读写 Parquet 文件到 DataFrame
本文中,云朵君将和大家一起学习如何从 PySpark DataFrame 编写 Parquet 文件并将 Parquet 文件读取到 DataFrame 并创建视图/表来执行 SQL 查询。还要学习在 SQL 的帮助下,如何对 Parquet 文件对数据进行分区和检索分区以提高性能。
数据STUDIO
2023/09/04
1.5K0
​PySpark 读写 Parquet 文件到 DataFrame
Spark SQL从入门到精通
熟悉spark sql的都知道,spark sql是从shark发展而来。Shark为了实现Hive兼容,在HQL方面重用了Hive中HQL的解析、逻辑执行计划翻译、执行计划优化等逻辑,可以近似认为仅将物理执行计划从MR作业替换成了Spark作业(辅以内存列式存储等各种和Hive关系不大的优化);
Spark学习技巧
2019/05/09
1.2K0
Spark SQL从入门到精通
Spark SQL | Spark,从入门到精通
欢迎阅读美图数据技术团队的「Spark,从入门到精通」系列文章,本系列文章将由浅入深为大家介绍 Spark,从框架入门到底层架构的实现,相信总有一种姿势适合你。
美图数据技术团队
2019/04/19
2.1K0
Spark SQL | Spark,从入门到精通
Spark SQL的Parquet那些事儿.docx
Parquet是一种列式存储格式,很多种处理引擎都支持这种存储格式,也是sparksql的默认存储格式。Spark SQL支持灵活的读和写Parquet文件,并且对parquet文件的schema可以自动解析。当Spark SQL需要写成Parquet文件时,处于兼容的原因所有的列都被自动转化为了nullable。
Spark学习技巧
2019/05/14
1.2K0
sparkSQL实例_flink sql
1)input:json日志 2)ETL:根据IP解析出 省份,城市 3)stat: 地区分布指标计算, 满足条件的才算,满足条件的赋值为1,不满足的赋值为0 (如下图) 将统计结果写入MySQL中。 (就比如说这个广告请求要满足 requestmode=1 和 processnode =3 这两个条件)
全栈程序员站长
2022/11/17
8080
sparkSQL实例_flink sql
大数据技术Spark学习
Spark SQL 是 Spark 用来处理结构化数据的一个模块,它提供了一个编程抽象叫做 DataFrame,并且作为分布式 SQL 查询引擎的作用。 我们已经学习了 Hive,它是将 Hive SQL 转换成 MapReduce 然后提交到集群上执行,大大简化了编写 MapReduce 的程序的复杂性,由于 MapReduce 这种计算模型执行效率比较慢。所以 Spark SQL 的应运而生,它是将 Spark SQL 转换成 RDD,然后提交到集群执行,执行效率非常快!
黑泽君
2019/05/10
5.5K0
大数据技术Spark学习
Note_Spark_Day08:Spark SQL(Dataset是什么、外部数据源、UDF定义和分布式SQL引擎)
​ Spark 框架从最初的数据结构RDD、到SparkSQL中针对结构化数据封装的数据结构DataFrame, 最终使用Dataset数据集进行封装,发展流程如下。
Maynor
2021/12/07
4.2K0
Note_Spark_Day08:Spark SQL(Dataset是什么、外部数据源、UDF定义和分布式SQL引擎)
Spark SQL,DataFrame以及 Datasets 编程指南 - For 2.0
Spark SQL 是 Spark 用来处理结构化数据的一个模块。与基础的 Spark RDD API 不同,Spark SQL 提供了更多数据与要执行的计算的信息。在其实现中,会使用这些额外信息进行优化。可以使用 SQL 语句和 Dataset API 来与 Spark SQL 模块交互。无论你使用哪种语言或 API 来执行计算,都会使用相同的引擎。这让你可以选择你熟悉的语言(现支持 Scala、Java、R、Python)以及在不同场景下选择不同的方式来进行计算。
codingforfun
2018/08/24
4.3K0
【Spark手机流量日志处理】使用SparkSQL按月统计流量使用量最多的用户
其中,spark-sql_2.12是Spark SQL的核心依赖,spark-core_2.12是Spark的核心依赖。注意,版本号可以根据实际情况进行调整。
大数据小禅
2023/03/30
7080
【Spark手机流量日志处理】使用SparkSQL按月统计流量使用量最多的用户
Apache Spark 2.2.0 中文文档 - Spark SQL, DataFrames and Datasets Guide | ApacheCN
本文介绍了基于Spark的SQL编程的常用概念和技术。首先介绍了Spark的基本概念和架构,然后详细讲解了Spark的数据类型和SQL函数,最后列举了一些Spark在实际应用中的例子。
片刻
2018/01/05
26.7K0
Spark SQL
Hive是一个基于Hadoop 的数据仓库工具,提供了类似于关系数据库SQL的查询语言HiveQL,用户可以通过HiveQL语句快速实现简单的MapReduce统计,Hive 自身可以自动将HiveQL语句快速转换成MapReduce 任务进行运行。当用户向Hive输入一段命令或查询(即HiveQL 语句)时, Hive需要与Hadoop交互来完成该操作。该命令或查询首先进入到驱动模块,由驱动模块中的编译器进行解析编译,并由优化器对该操作进行优化计算,然后交给执行器去执行,执行器通常的任务是启动一个或多个MapReduce任务。如图所示描述了用户提交一段SQL查询后,Hive把sQL 语句转化成MapReduce任务进行执行的详细过程。
Francek Chen
2025/01/22
3620
Spark SQL
2021年大数据Spark(三十二):SparkSQL的External DataSource
在SparkSQL模块,提供一套完成API接口,用于方便读写外部数据源的的数据(从Spark 1.4版本提供),框架本身内置外部数据源:
Lansonli
2021/10/09
2.5K0
spark2 sql读取数据源编程学习样例1
问题导读 1.dataframe如何保存格式为parquet的文件? 2.在读取csv文件中,如何设置第一行为字段名? 3.dataframe保存为表如何指定buckete数目? 作为一个开发人员
用户1410343
2018/03/26
1.7K0
spark2 sql读取数据源编程学习样例1
SparkSQL快速入门系列(6)
上一篇《SparkCore快速入门系列(5)》,下面给大家更新一篇SparkSQL入门级的讲解。
刘浩的BigDataPath
2021/04/13
2.5K0
SparkSQL快速入门系列(6)
实战|使用Spark Streaming写入Hudi
传统数仓的组织架构是针对离线数据的OLAP(联机事务分析)需求设计的,常用的导入数据方式为采用sqoop或spark定时作业逐批将业务库数据导入数仓。随着数据分析对实时性要求的不断提高,按小时、甚至分钟级的数据同步越来越普遍。由此展开了基于spark/flink流处理机制的(准)实时同步系统的开发。
ApacheHudi
2021/04/13
2.3K0
一段有用的代码 | Flink读写parquet文件
Flink读parquet import org.apache.flink.core.fs.Path import org.apache.flink.formats.parquet.ParquetRowInputFormat import org.apache.flink.streaming.api.scala.StreamExecutionEnvironment import org.apache.flink.streaming.api.scala._ import org.apache.flink.ty
大数据真好玩
2021/09/18
2.8K0
0639-6.1.1-Spark读取由Impala创建的Parquet文件异常分析
2.通过CDH提供的parquet tool进行分析,参考《0631-6.2-如何确认一个Parquet文件是否被压缩》。
Fayson
2019/05/24
1.8K0
第三天:SparkSQL
Spark SQL是Spark用来处理结构化数据的一个模块,它提供了2个编程抽象:DataFrame和DataSet,并且作为分布式SQL查询引擎的作用。 我们已经学习了Hive,它是将Hive SQL转换成MapReduce然后提交到集群上执行,大大简化了编写MapReduc的程序的复杂性,由于MapReduce这种计算模型执行效率比较慢。所有Spark SQL的应运而生,它是将Spark SQL转换成RDD,然后提交到集群执行,执行效率非常快!
sowhat1412
2020/11/05
13.6K0
第三天:SparkSQL
Spark2.x学习笔记:14、Spark SQL程序设计
程裕强
2018/01/02
5.2K0
Spark2.x学习笔记:14、Spark SQL程序设计
Spark SQL 快速入门系列(7) | SparkSQL如何实现与多数据源交互
  Spark SQL 的DataFrame接口支持操作多种数据源. 一个 DataFrame类型的对象可以像 RDD 那样操作(比如各种转换), 也可以用来创建临时表.
不温卜火
2020/10/28
1.4K0
Spark SQL 快速入门系列(7) |  SparkSQL如何实现与多数据源交互
推荐阅读
相关推荐
​PySpark 读写 Parquet 文件到 DataFrame
更多 >
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档