做增强现实AR,高通sdk与opencv有什么区别.各有什么利弊

2025-12-15 11:17:17
推荐回答(2个)
回答1:

基于高通sdk,直接调用现有的API就可以完成识别和跟踪。只需要获取识别跟踪后的POSE矩阵用于绘制即可。绘制的话,可以使用Unity3D,或者可以直接使用OpenGLES进行模型渲染以及模型动画解析。当然用Unity3D的好处是可以简化很多学习成本,使用OpenGLES的话还需要耗费不少功夫,而且现有的好用的渲染,动画开源代码的不多,很多要自己写,初学者不推荐。所以优点是可以迅速上手的解决方案。基于高通sdk开发的应用会有水印,如果想去掉水印,或者想用云识别版本是要付费的。
基于OpenCV。Markless的识别和跟踪都没有现成的比较能用的开源代码,能找到的开源代码大多是基于Marker的,而且效率都很低。做AR识别和跟踪部分都需要自己开发。而此部分学习成本,开发成本都比较高。想达到高通的效率/准确度/robust 非常难。虽然这部分论文能找到还不少。但是实现起来会发现各种各样问题。优点的话,就是提高了自学能力。但想达到商用的程度,难度很高。

回答2:

  基于高通sdk,直接调用现有的API就可以完成识别和跟踪。
  只需要获取识别跟踪后的POSE矩阵用于绘制即可。
  绘制,可以使用Unity3D,或者可以直接使用OpenGLES进行模型渲染以及模型动画解析。
  当然用Unity3D的好处是可以简化很多学习成本,使用OpenGLES还需要耗费不少功夫,而且现有的好用的渲染,动画开源代码的不多,很多要自己写,初学者不推荐。
  所以优点是可以迅速上手的解决方案。
  基于高通sdk开发的应用会有水印,如果想去掉水印,或者想用云识别版本是要付费的。
  基于OpenCV。
  Markless的识别和跟踪都没有现成的比较能用的开源代码,能找到的开源代码大多是基于Marker的,而且效率都很低。
  做AR识别和跟踪部分都需要自己开发。
  而此部分学习成本,开发成本都比较高。
  想达到高通的效率/准确度/robust非常难。
  虽然这部分论文能找到还不少。
  但是实现起来会发现各种各样问题。
  优点,就是提高了自学能力。
  但想达到商用的程度,难度很高。