我正在尝试实现基于论文"Scalable Recognition with a Vocabulary“的图像搜索。我使用SURF来提取特征和关键点。例如,对于一个图像,我得到300个关键点,每个关键点有128个描述符值。我的问题是如何在数据上应用K-Means聚类算法。我的意思是,我是否需要对所有的点应用聚类算法,即300*128个值,或者我是否需要找到连续描述符值之间的距离并存储这些值并对其应用聚类算法。我很困惑,任何帮助都将不胜感激。
谢谢,洛奇。
我已经建立了以下网络:
extensions [nw]
breed [agents agent]
agents-own [status
]
to setup
clear-all
ask patches [
set pcolor white
]
nw:generate-preferential-attachment agents links 100 1 [ set shape "person"
setxy random-xcor random-ycor
set status random 2
我有一个遵循这个方案的增量聚类算法:
Let x a new data-point, and c the centroid that is closest from x
if( distance(x, c) > threshold )
x becomes a new cluster center (i.e. a new centroid)
else assign x to c (i.e. update the centroid by taking x)
为了加快从x到最近的中心的搜索速度,我希望有一个分层的中心结构(使用树),我们可以在每次考虑新的数据点时增量地更新它。
树的每个内