我正在开发Swift Native项目,并尝试了ARKit进行人脸检测。我想创建虚拟珠宝应用程序。场景1:如果用户选择耳环,我必须显示到耳朵标志。 场景2:如果用户选择了手环,我必须将手环显示给手。 场景3:如果用户选择戒指,我必须将戒指展示给他们的手指。 场景4:如果用户选择了链,我必须向他们的脖子展示链。 哪个框架支持上述所有情况?
mgdq6dx11#
使用VNDetectHumanBodyPoseRequest检测主体本身。然而,如何衡量珠宝将不会被涵盖。你将需要做额外的工作,但你会得到鼻子,脖子,手腕等的位置。https://developer.apple.com/documentation/vision/detecting_human_body_poses_in_images
VNDetectHumanBodyPoseRequest
9o685dep2#
@HariKarthick,你能做虚拟珠宝应用程序吗?对我来说,脸部的特征被识别出来了。但是我不能将耳环呈现在所识别的位置耳朵位置上。将以更大的比例渲染环。想知道如何将耳环(.scn)缩放到更小的尺寸。你能支持这个吗?
2条答案
按热度按时间mgdq6dx11#
使用
VNDetectHumanBodyPoseRequest
检测主体本身。然而,如何衡量珠宝将不会被涵盖。你将需要做额外的工作,但你会得到鼻子,脖子,手腕等的位置。https://developer.apple.com/documentation/vision/detecting_human_body_poses_in_images
9o685dep2#
@HariKarthick,你能做虚拟珠宝应用程序吗?对我来说,脸部的特征被识别出来了。但是我不能将耳环呈现在所识别的位置耳朵位置上。将以更大的比例渲染环。想知道如何将耳环(.scn)缩放到更小的尺寸。你能支持这个吗?