数据分析一直是城市规划必不可少的部分,规划项目本身也和分析的过程十分相似,从现场调研到网上查找资料,是数据准备的过程;设立规划目标与愿景,是建立优化模型;形成方案也就形成了模型;细化调整方案令人头疼,模型的调试参数同样令人头疼。传统的规划项目是一个分析城市的过程,但中间的运算和决策,是规划师大脑分步进行的结果。在城市规划漫长的发展过程中,可能有人觉得调整参数实在是太费纸了,于是引入了CAD计算机辅助设计,究其本质却没有改变,因为一个项目的价值在于模型,以及模型形成的思路,而非过程。
也许是人的懒惰本性催使着规划师的进步,一部分规划师难以忍受动用自己的脑力进行如此繁琐的计算,于是在各行各业都拥抱大数据的时代,他们选择了以每个城市格式都相同的手机信令、出租车轨迹等数据取代了原本每个城市都要重复做的部分现状调研工作。这样做无疑是有好处的,第一,更全的样本覆盖表达了更确定的样本分布,城市规划是面向该区域所有市民的,更真实的样本分布能够减少模型错误的概率。第二,更规范的过程表达更科学的结论,相同模式的数据分析带来的横向比较是理性规划的必要条件。第三,更近的时期需要有更大的数据量作为决策支撑,马尔可夫过程说明一个时间序列中下一个状态和当前状态是相关的,而且相关性随着时间间隔增加而减少,在规划方案中扯上古时期的都是情怀,只有解释好当下的问题和发展规律才能决定一个正确的规划方向。于是信仰大数据的规划师越来越多,放弃CAD转向GIS的规划师也越来越多,但规划师毕竟不是数据科学家,新的城市数据分析结果也还没有被大多数人接受,其中被质疑的几点是,第一,数据的利用率太低,现在大部分做大数据的规划师还处于数据可视化的层面,最多再加一步看图说话,并无法从数据的相关性分析规律和预测未来;第二,无法从更大的数据量中获取更多的信息,所有人看地铁线的分布图也能知道,在上海几乎什么信息都是以人民广场为中心的单峰分布,并不需要用出租车的OD,手机信令的密度来验证,也就是你说的这些我看之前的规划都能猜出来,能不能告诉我点新鲜的东西?第三,无法支撑规划方案,这些新的数据是最近两三年才逐渐走入规划圈,而规划的时间线是五年甚至更长,强生和联通这些企业也不会去储存上一个时间点至今的数据,时间尺度上的不匹配导致基于大数据的城市分析只能称为城市研究。
终究无论是规划师的决策还是大数据的决策,城市规划都难逃一个“非科学”的诟病。数据分析过程有而城市规划过程缺少的一个环节是数据验证并反复迭代模型参数至最优化的过程。通俗的讲,就是如何证明路在这里是合适的,而不是往西调整一百米?如何证明一个街区中的商住最优比例是0.4而不是0.5?当然规划师也希望看到有一个模型将这条路从初始在西边一百米慢慢的移动过来时,模型的损失函数的值在逐渐降低,直到正好落在如今的位置时,损失函数的值达到了最小值。同样的道理也适用于商住比例上,从0.5慢慢降到0.4时,整个模型达到最优。这是一个相当复杂的问题,比如空间图上的局部最优和全局最优的平衡,比如损失函数的设计与求导,当然最主要的问题是无法将一个规划方案抽象成一个知识图谱。传统的机器学习对空间信息的处理一直是颇为棘手的,而最近的深度学习似乎给了规划师一些希望。
和两年前风生水起的大数据不同,规划圈似乎对人工智能的态度很冷淡。但通过最近一些开源的深度学习项目在空间形态上的尝试,我已经能够感受到深度学习对规划即将产生的革命。第一,卫星图片数据源和城市规划在时空尺度上的匹配,1m分辨率的影像最早可追溯到1985年,近三十年的周期可以对规划方案进行验证,而近年发展的小卫星星座在时间分辨率上很大程度补充了高分辨率卫星影像回归周期长的问题。第二,图像的信息含量非常丰富,而深度学习对高分辨率卫星影像的可解译程度也远超传统遥感可提供的信息,微观层面,识别建筑(推测建筑高度、体量和天际线),识别路面车辆(推测城市拥堵),到宏观层面,识别城市形态与功能区,识别工厂在建与开工状态(推测二产产值),识别用油和燃煤状态等。第三,对方案的支撑,基于马尔可夫的对抗生成网络,纯粹考虑空间形态生成方案是可行的,理论上交通,环境等模型可以集成于损失函数或作为输入层参与计算。
但同样,有些问题也没有那么乐观,第一,作为训练数据的方案和卫星影像质量要求都很高,而现在获取的成本非常高;第二,图像的信息含量虽然很丰富,但需要解决不同时空辐射环境下的模型稳定性;第三,对抗生成网络也许可以通过参数调节对于空间、环境、交通的需求而生成方案,但很难解释模型的生成原理;第四,以上全部所说现阶段的门槛还很高,在绝大多数规划师还不能掌握的情况下,很难优化这一过程,如果未来深度学习降低门槛推出一些更便捷的工具,也许就到了智能规划的奇点。
题目很大,仅从技术上提起一二,如有表达不当之处还望海涵。
领取专属 10元无门槛券
私享最新 技术干货