Abedi et al. (2022)
센서
AI-Powered Non-Contact In-Home Gait Monitoring and Activity Recognition System Based on mm-Wave FMCW Radar and Cloud Computing. arXiv:2208.05905.
시스템: TI AWR1443 mmWave + Raspberry Pi + Azure 클라우드
성능: GRU 딥러닝 활동 인식 정확도 93%(학습 피험자), 88%(새 피험자). 실제 가정 환경 검증.
추출 데이터: 보행 속도, 케이던스(분당 걸음 수), 보폭(stride length)
핵심 기술 원리:
1. 레이더 FMCW 전파 송출 → 사람에게 반사 → 도플러 효과로 움직임 속도 측정
2. Range FFT → 거리별 신호 분리 → 정지물체(벽/가구) 제거
3. 시간별 FFT 반복 → JTF(Joint Time-Frequency) 스펙트로그램 생성 (2D 이미지)
4. 활동마다 JTF 패턴이 다름: 보행 = 주기적 물결, 정지 = 거의 0
5. GRU 딥러닝이 JTF 패턴으로 "지금 걷고 있는 구간" 자동 판별
6. 걷는 구간에서 도플러 주파수의 크기와 주기로 보행 속도/케이던스/보폭 계산
도플러란: 구급차가 다가오면 소리가 높아지듯, 사람이 움직이면 반사 전파의 주파수가 변함. 이 변화량 = 움직임 속도.
JTF란: Joint Time-Frequency. "시간이 흐르면서 움직임 속도가 어떻게 변했는지"를 2D 그림으로 나타낸 것. 걷기/앉기 등 활동마다 그림 모양이 달라 AI가 구별 가능.
한계: 세밀한 관절별 분석 불가(팔/다리 개별 구분 어려움), 각도 의존성, 실내 가구 간섭. 임상 진단 수준이 아닌 일상 모니터링 수준.