OpenPose를 이용한 사람의 움직임 감지(Human Pose Estimation) file:///D:/01-Tomato/work/work_AI/Posenet/Real-Time-Human-Pose-detection-in-browser-master/Real-Time-Human-Pose-detection-in-browser-master/poseNet%20with%20webcam/index.html 기존의 머신러닝을 사용하기 전에는 영상 내에서 인간의 움직임을 감지하기 위해서 Xbox의 "키넥트 센서"와 같은 전용 기기를 사용하여, 인간의 몸짓을 비롯한 제스처를 인식할 수 있었다. 이번 포스팅에서는, 이러한 인간의 몸짓을 감지하기 위한 특수한 센서가 없이 순수하게 영상 데이터만으로 인간의 움직임을 추정하고 감지할 수 있는 Open Pose DNN에 대해 알아보고 이걸 이용해 간단하게 실습을 수행해보자. 움직임 추정(Keypoint Detection) OpenPose는 딥러닝의 CNN 기반으로 이미지 혹은 영상을 입력 값으로 하여 객체의 위치 및 방향을 감지한다. OpenPose가 작동되는 신경망 아키텍처는 다음과 같다. 1. 좌측단의 입력 데이터를 VGGNet - 19 를 통해 수행된 Output 데이터의 특징(feature)을 강조한 상태로 출력하게 된다. 2. 1번에서 출력된 Output을 2번의 분기를 통해 전파를 수행하게 되는데, 첫 번째 분기점에서는 전반적인 신체 부위의 특정(팔꿈치, 무릎 등)에 사용된다. 3. 반복되는 Stage에 따라 가지를 거쳐서 confidence map 과 affinity field 를 구하게 되는데, 여기서 confidence map 은 인간의 관절 구조 등을 찾는데 사용되며, affinity field 는 추출된 관절 구조가 어떤 객체의 것인가에 대해 알아는데 사용된다. 예를 들어
댓글
댓글 쓰기