※ AI 이해를 위한 뇌·신경과학 기초 개념
용어 | 한글 명칭 | 설명 |
Neuron | 뉴런 | 신경계의 기본 단위로 정보를 전달하는 세포 |
Synapse | 시냅스 | 뉴런과 뉴런 사이의 연결 부위 |
Neurotransmitter | 신경전달물질 | 도파민·세로토닌 등 신경 신호 전달 역할 |
Cerebral Cortex | 대뇌피질 | 고등 사고·지각·언어 처리 담당 |
Prefrontal Cortex (PFC) | 전전두엽 | 감정 조절·의사결정·사회적 행동 담당 |
Amygdala | 편도체 | 공포·불안·위험 감지 등 감정 처리 기관 |
Hippocampus | 해마 | 기억 형성과 학습에 중요한 역할 |
Neuroplasticity | 뇌 가소성 | 경험에 따라 뇌 구조가 변하는 능력 |
Brain–Computer Interface (BCI) | 뇌-컴퓨터 인터페이스 | 뇌 신호로 기계를 제어하는 기술 (EEG 기반) |
※ AI 헬스케어 연구를 위한 생체신호 핵심 개념
용어 | 한글 명칭 | 설명 |
Electroencephalography (EEG) | 뇌파 | 두피 전극으로 뇌 활동 전기 신호 측정 |
Electrocardiography (ECG/EKG) | 뇌파 | 심장 박동 전기 활동 측정 |
Heart Rate Variability (HRV) | 심박 변이도 | 심박 간격 변화 → 스트레스 지표 |
Galvanic Skin Response / Electrodermal Activity (GSR/EDA) | 피부전도도 | 땀 분비 변화로 감정·긴장 상태 추정 |
Electromyography (EMG) | 근전도 | 근육 전기 신호 측정 |
Photoplethysmography (PPG) | 광용적맥파 | 혈류량 변화로 심박 추정 |
Peripheral Capillary Oxygen Saturation (SpO₂) | 산소포화도 | 혈중 산소 농도 측정 |
Autonomic Nervous System (ANS) | 자율신경계 | 교감/부교감 신경으로 생체 반응 조절 |
Cortisol | 코르티솔 | 스트레스 호르몬 |
Vital Signs | 활력징후 | 심박·호흡·체온 등 건강 기본지표 |
Internet of Things (IoT) | 사물인터넷 | 생체신호 센서를 의료 AI와 연결 |
Internet of Medical Things (IoMT) | 의료 사물인터넷 | 의료용 웨어러블 센서 네트워크 |
※ 감정 인식·Affective AI에 필요한 심리·인지 개념
용어 | 한글 명칭 | 설명 |
Affective State | 정서 상태 | 감정 변화 상태 |
Emotion Regulation | 감정 조절 | 감정 관리 능력 |
Cognitive Load | 인지 부하 | 뇌의 정보 처리 과부하 상태 |
Mental Fatigue | 정신적 피로 | 집중력 저하와 판단력 저하 상태 |
Stress Response | 스트레스 반응 | 신체·심리적 스트레스 반응 |
Human–Machine Interaction (HMI) | 인간–기계 상호작용 | 인간과 AI 시스템 간 상호작용 |
Human–Robot Interaction (HRI) | 인간–로봇 상호작용 | 로봇과 인간 간 소통 방식 연구 |
Human–Computer Interaction (HCI) | 인간–컴퓨터 상호작용 | 사용자 중심 UX 설계 연구 |
Valence–Arousal Model | 정서 차원 모델 | 감정 분석 기본 축 (긍정–부정, 각성 정도) |
✅ 멀티모달 감정·건강 인식 AI 기본 개념 정리
1. 멀티모달(Multi-modal) 개념
구분 | 설명 |
정의 | 영상, 음성, 생체신호 등 서로 다른 형태의 데이터를 통합 분석하는 AI 기술 |
목적 | 사람처럼 상황·감정·건강을 종합적으로 이해 |
핵심 기술 | 데이터 융합(Fusion), 딥러닝(Transformer, LSTM), 감정 컴퓨팅(Affective Computing) |
활용 분야 | 헬스케어, 돌봄 로봇, 상담 AI, 자율주행, 스마트 홈 |
2. 주요 입력 데이터와 특징 추출
데이터 유형 | 분석 모델 | 특징 |
얼굴 이미지(표정) | CNN, Vision Transformer | 미세 표정, 눈 움직임 분석 |
음성 신호 | RNN, LSTM, Transformer | 억양·톤·감정 신호 추출 |
생체신호(심박·피부전도 등) | LSTM | 스트레스·피로·활성도 분석 |
3. 멀티모달 데이터 융합 구조
멀티모달 AI는 다중 입력 Encoder 구조를 사용 :
표정 Encoder →
\
음성 Encoder → Feature Fusion Layer → 감정/건강 상태 예측
/
생체 Encoder →
▶ 이 멀티모달 모델은 AI의 시각(눈) + 청각(귀) + 촉각(피부) 센서 역할을 함
▶ 각 Encoder는 데이터를 벡터 형태의 특징으로 변환
▶ Fusion Layer에서 통합 후 최종 판단 수행
▶ 예 : 웃고 있지만 심박 증가 → 긴장된 웃음
4. Transformer의 역할
구분 | 설명 |
개념 | Attention 메커니즘을 사용하는 딥러닝 구조 |
장점 | 중요한 정보에 집중하며 입력을 병렬 처리 |
활용 | 영상·음성·텍스트·센서 데이터를 통합 분석 |
핵심 | Self-Attention으로 각 데이터의 중요도를 가중치로 학습 |
<예시>
"괜찮아요" + 떨리는 목소리 + 빠른 심장박동 → "불안" 판단 → Transformer Attention이 음성·심박 신호에 더 높은 가중치 할당
5. 학습 방법
✅ AI 학습 방법 중 3가지 정리
학습 방식 | 개념 | 특징 | 고양이 이미지 예시 |
지도학습 (Supervised Learning) |
입력 데이터와 정답(Label)을 함께 학습 | 정답이 반드시 필요 | 고양이 사진을 보여주고 "이건 고양이(cat)" 라고 정답을 제공하며 학습 |
비지도학습 (Unsupervised Learning) |
정답 없이 데이터 패턴과 구조를 스스로 학습 | 군집화·유사성 분석 | 여러 동물 사진을 보여주면 AI가 비슷한 것끼리 자동 분류 (고양이끼리 묶음) |
자기지도학습 (Self-supervised Learning) |
정답 없이 데이터 일부를 숨기고 스스로 학습 문제 생성 | 라벨 없이도 학습 가능 | 고양이 사진 일부를 가리고 가려진 부분을 예측하며 특징 학습 |
✅ 핵심 비교 요약
구분 | 지도학습 | 비지도학습 | 자기지도학습 |
라벨 필요 여부 | 필요 | 불필요 | 불필요 (자체 생성 문제 활용) |
목적 | 분류/예측 | 군집화/패턴 발견 | 표현 학습 + 파인튜닝 |
데이터 요구 | 많은 라벨 필요 | 라벨 불필요 | 라벨 매우 적게 필요 |
장점 | 정확한 예측 가능 | 데이터 준비 쉬움 | 데이터 부족 문제 해결 |
단점 | 라벨링 비용 큼 | 성능 한계 | 학습 설계가 중요 |
✅ 자기지도학습(Self-Supervised Learning)
항목 | 설명 |
필요성 | 감정·건강 데이터는 라벨링 비용 ↑ → 데이터 부족 문제 해결 |
방식 | 라벨 없이 사전학습(pretraining) 후 소량 라벨로 미세조정(Fine-tuning) |
장점 | 비지도 + 지도학습의 장점을 결합 |
6. 데이터 전처리 중요성
처리 | 설명 |
노이즈 제거 | 센서 오류 제거 |
필터링 | 유효 주파수만 보존 |
정규화 | 데이터 스케일 조정을 통해 특정 특성 값이 학습에 과도하게 영향을 주는 것을 방지 |
7. Explainable AI (XAI) 필요성
이유 | 설명 |
민감 데이터 사용 | 생체·감정 데이터는 오판 시 신뢰도 하락 |
역할 | AI 판단 근거를 시각화와 해석으로 설명 |
방법 | Attention Map, Heatmap, 근거 하이라이트 표시 |
<예시>
시각화 : 얼굴 이미지 중 AI가 주목한 영역을 "히트맵(Heatmap)"으로 표시
음성 분석 근거 : 특정 목소리 높낮이나 억양 변화를 강조 표시
생체신호 근거 : 심박/피부전도 그래프 중 AI가 판단에 영향을 준 구간 표시
설명 요약 : "최근 10초간 심박 상승 및 피부전도 증가 → 불안 가능성 80%" 같이 설명 제공
8. 강화학습 기반 반응 생성
상황을 인식할 뿐 아니라 적절한 반응까지 생성하는 AI 개발 :
"A" 라는 말에
- 사용자가 미소 → 보상 ↑
- 사용자 불만 증가 → 패널티
9. Human-in-the-loop 구조
AI의 학습이나 의사결정 과정에 사람이 개입하여 피드백·검증·보완하는 구조
10. 응용 사례
✅ 헬스케어 & 돌봄
- 스트레스·우울 감지, 치매 케어 로봇, 상담 AI
✅ 자율주행 적용
- 표정 + 시선 추적 + 심박 분석 → 졸음/스트레스 감지
- 필요 시 자동 주행 모드 전환으로 사고 예방
11. 감정지능형(Affective AI)
인간처럼 이해·공감·반응하는 차세대 멀티모달 AI
단순히 “감정을 인식하는 AI”가 아니라 인간처럼 감정을 이해하고, 해석하고, 그에 맞게 반응하는 인공지능 시스템
즉, "이해(Understanding) + 공감(Empathy) + 반응(Response)" 이 가능한 AI
<상황 인식 기반 반응 생성 모델 개발>
사용자의 감정·건강·환경 정보를 종합해 AI가 그 상황에 가장 적절한 말과 행동을 스스로 결정하고 생성하는 기술
<자기보고식 감정 평가 및 전문가 라벨링 병행>
자기보고(Self-report) 장점 : 실제 감정 반영, 단점 : 주관적 편향 가능
전문가 라벨링(Expert labeling) 장점 : 객관적 기준 확보, 단점 : 타인의 감정 오판 가능
병행(Hybrid) 장점 : 주관·객관의 균형
<Encoder>
AI가 입력 데이터를 "이해 가능한 숫자 표현(벡터)"로 바꾸는 부분
<반응 자연성 평가>
AI가 사람처럼 공감하고, 상황에 맞는 말투·표현·행동을 보이는지를 평가하는 과정(즉, 자연스러운 반응인지 평가)
<파일럿 테스트>
AI 시스템을 실제 환경에서 소규모로 시험 운용하여, 문제점을 발견하고 개선하는 실험 단계
<조언 적합도를 평가하는 방법>
1. 전문가 평가 2. 사용자 설문 3. 행동 반응 분석