ML | DL/딥러닝은 무슨 일을 할 수 있을까?

딥러닝은 이런 Task도 한다! – 3편: 사람 중심 Task

Leeys 2025. 9. 17. 17:31
반응형

카메라가 사람 얼굴을 인식하는 건 이제 너무 당연한 세상이 되었죠.
하지만 요즘 AI는 단순히 “사람이 있다/없다” 수준에서 멈추지 않습니다.
사람이 지금 어떤 동작을 하고 있는지, 어떤 감정을 느끼고 있는지,
나아가 이 사람이 어디로 가고 있는지까지 예측
합니다.
이번 편에서는 사람을 이해하는 AI, 즉 “Human-centric AI”의 여러 가지 Task들을 이야기해 보겠습니다.


1. Pose Estimation – 사람 몸의 좌표를 데이터로 바꾸다

Pose Estimation은 사람의 관절 위치를 예측해서
머리, 어깨, 팔꿈치, 손목, 무릎, 발목 등 주요 지점을 찍어내고
이 점들을 선으로 연결해 뼈대(skeleton) 형태로 표현하는 기술입니다.

2D Pose Estimation은 한 장의 이미지에서 x, y 좌표만 뽑지만
3D Pose Estimation은 여러 카메라나 깊이 센서를 활용해 z축 정보까지 추정합니다.
그 결과, 단순히 “팔이 오른쪽으로 있다”가 아니라
“공간상에서 팔이 앞으로 몇 cm 뻗어 있다”까지 알 수 있습니다.

👨‍🔧 현업 사례
제가 과거에 Azure Kinect 4대를 설치하고 3D Pose Estimation 모델을 개발한 적이 있는데,
환자분이 팔을 조금만 들어도 3D 좌표가 따라 움직이는 걸 실시간으로 보면서
“아, 이제 재활 치료 데이터도 이렇게 정밀하게 수집할 수 있구나” 하고 감탄했던 기억이 있습니다.
이 데이터를 가지고 물리치료사가 환자 자세를 분석하고,
잘못된 동작 패턴은 피드백을 주는 데 활용했죠.

활용 사례는 정말 다양합니다:

  • 헬스/재활: 스쿼트 각도, 무릎 위치 등을 실시간 교정
  • AR/VR: 내 몸의 움직임을 그대로 아바타가 따라 하기
  • 스포츠 분석: 야구 투구 폼, 골프 스윙 궤적 데이터화

2. Emotion Recognition – 표정에서 마음 읽기

Emotion Recognition은 AI가 얼굴 표정을 보고 감정을 분류하는 기술입니다.
단순히 웃는 얼굴 vs 찡그린 얼굴 구분이 아니라,
미묘한 표정 차이를 읽고 기쁨, 슬픔, 놀람, 분노, 혐오 같은 감정을 파악합니다.

이건 생각보다 어려운 문제입니다.
사람도 상대방이 억지로 웃고 있는지, 진심으로 웃는지 구분하기 어렵잖아요?
AI도 데이터셋을 통해 이런 미묘한 차이를 배워야 합니다.

💡 활용

  • 상담 콜센터: 고객이 화났는지 평온한지 자동 감지 → 대응 전략 추천
  • 운전자 모니터링: 졸음·분노 운전 감지 → 경고 알람
  • 스트리밍 플랫폼: 시청자 반응 실시간 분석 → 인플루언서가 방송 전략 수정

3. Gesture Recognition – 손동작으로 컴퓨터와 대화하기

손가락 하나만 들어도 AI가 이해하는 세상, 상상해보셨나요?
Gesture Recognition은 손 모양과 움직임을 인식해 명령으로 바꾸는 기술입니다.

구글 Mediapipe 같은 라이브러리를 쓰면
손가락 21개 관절을 실시간으로 추적해서
V자 포즈, 주먹쥐기, 손가락 숫자 세기 등을 인식할 수 있습니다.

🚀 활용 예시

  • 병원 수술실: 비접촉 제스처로 영상 넘기기
  • VR/AR 환경: 가상 물체 잡기, 조작하기
  • 프레젠테이션: 손 흔들면 슬라이드 넘김

이 기술 덕분에 마우스나 리모컨이 없어도
사람이 몸짓으로 디지털 세상을 조종할 수 있습니다.


4. Re-Identification (ReID) – 카메라가 달라도 같은 사람임을 알아보기

ReID는 여러 대의 CCTV에서 같은 사람을 찾는 기술입니다.
카메라 A에서 찍힌 사람이 카메라 B에서도 같은 사람인지 매칭해야 하죠.
얼굴만 보고 판단하는 게 아니라, 옷 색깔, 키, 체형, 걸음걸이까지 종합적으로 비교합니다.

🏢 활용 사례

  • 대형 쇼핑몰: 고객 동선을 분석해 인기 구역 파악
  • 공항: 수상한 인물 여러 카메라에서 추적
  • 스마트 빌딩: 보안 출입 통합 관리

5. Gait Recognition – 걸음걸이만으로 사람 맞히기

걸음걸이는 생각보다 개인 고유의 특징이 강합니다.
얼굴을 가려도, 멀리서 찍혀도, 걷는 패턴만 보고도
누군지 구분할 수 있다는 연구 결과가 있습니다.

🏥 활용 예시

  • 보안: 얼굴 가린 사람 식별
  • 의료: 파킨슨병, 뇌졸중 환자 재활 모니터링
  • 스포츠: 선수의 보행 패턴 분석 및 교정

오늘의 정리

사람 중심 Task는 “사람을 보는 AI”에서
“사람을 이해하고 반응하는 AI”로 나아가는 과정입니다.
이 덕분에 헬스케어, 보안, 엔터테인먼트, AR/VR 등
사람이 중심이 되는 서비스들이 점점 더 똑똑해지고,
AI가 사람과 더 자연스럽게 협력할 수 있는 기반이 마련되고 있습니다.


다음 편 예고

다음 편은 산업 & 이상 탐지 편입니다.
공장에서 불량품을 찾아내고,
CCTV에서 비정상적인 행동(침입, 쓰러짐)을 실시간으로 포착하고,
변경된 구역만 비교해 표시하는 기술들을 다뤄보겠습니다.
AI가 “현장 관리자” 역할을 어떻게 대신할 수 있는지 보여줄 예정이니 기대하세요.

 

 

https://machineindeep.tistory.com/106

 

딥러닝은 이런 Task도 한다! – 4편: 산업 & 이상 탐지

하루에도 수천, 수만 개의 제품이 쏟아져 나오는 공장,24시간 멈추지 않는 CCTV 모니터링,사람이 일일이 보고 점검하기에는 불가능에 가까운 데이터량 속에서AI가 이제 ‘현장 관리자’ 역할을 하

machineindeep.tistory.com

 

반응형