我目前正在开发一个需要实时人脸检测的应用程序。现在,我在应用程序中有了mlkit库,并且我正在使用firebase人脸检测器。目前,每当我尝试从文件中检测人脸时,它都会产生一个错误:
DynamiteModule(13840): Local module descriptor class for com.google.android.gms.vision.dynamite.face not found.
至于实时部分,我尝试使用flutter中的RepaintBoundary来获取(几乎)每一帧摄像头小部件的屏幕截图,并将其转换为二进制文件用于人脸检测。但由于某些原因,每次我试图截图相机小部件
我正在尝试在android Things OS上运行一个Android应用程序。该应用程序使用面部检测作为实现面部识别的第一步过滤器。识别过程是由第三方(远程) API完成的,所以不用担心,但检测是由Google Mobile Vision API for Android执行的。我面临的问题是,每次相机预览即将开始时,应用程序都会崩溃。这个应用的代码是从这个例子中派生出来的: (人脸跟踪)。因此,如果这段代码运行,我的应用程序也会运行。我还知道,树莓派和相机尝试创建多个输出曲面存在一个已知问题。我的问题是:(1)有没有办法成功运行示例中的代码(人脸跟踪)?(2)什么时候能解决这个已知问题?
提
我已经开发了一个使用Google Vision API(离线)检测人脸的应用程序,然后将检测的图像发送到Microsoft Azure以获取该人脸的信息(年龄、性别...)。在我的例子中,我还需要计算(至少是近似的)摄像头和检测到的人脸之间的距离,我在Microsoft Azure文档中没有看到这个选项,所以我想它没有实现。我应该实现什么来计算摄像头和人脸之间的距离?我能用OpenCV或其他OpenSource库实现这个目标吗? 我在SO (How to measure height, width and distance of object using camera?)中看到了这个答案,但