본문 바로가기
AI/모델 연구·개발

[AI] 모델 연구·개발 학습 노트 - 뇌과학·생체신호·감정인지 기초 개념

by SeungyubLee 2025. 10. 11.

※ AI 이해를 위한 뇌·신경과학 기초 개념

용어 한글 명칭 설명
Neuron 뉴런 신경계의 기본 단위로 정보를 전달하는 세포
Synapse 시냅스 뉴런과 뉴런 사이의 연결 부위
Neurotransmitter 신경전달물질 도파민·세로토닌 등 신경 신호 전달 역할
Cerebral Cortex 대뇌피질 고등 사고·지각·언어 처리 담당
Prefrontal Cortex (PFC) 전전두엽 감정 조절·의사결정·사회적 행동 담당
Amygdala 편도체 공포·불안·위험 감지 등 감정 처리 기관
Hippocampus 해마 기억 형성과 학습에 중요한 역할
Neuroplasticity 뇌 가소성 경험에 따라 뇌 구조가 변하는 능력
Brain–Computer Interface (BCI) 뇌-컴퓨터 인터페이스 뇌 신호로 기계를 제어하는 기술 (EEG 기반)

 

 

AI 헬스케어 연구를 위한 생체신호 핵심 개념

용어 한글 명칭 설명
Electroencephalography (EEG) 뇌파 두피 전극으로 뇌 활동 전기 신호 측정
Electrocardiography (ECG/EKG) 뇌파 심장 박동 전기 활동 측정
Heart Rate Variability (HRV) 심박 변이도 심박 간격 변화 → 스트레스 지표
Galvanic Skin Response / Electrodermal Activity (GSR/EDA) 피부전도도 땀 분비 변화로 감정·긴장 상태 추정
Electromyography (EMG) 근전도 근육 전기 신호 측정
Photoplethysmography (PPG) 광용적맥파 혈류량 변화로 심박 추정
Peripheral Capillary Oxygen Saturation (SpO₂) 산소포화도 혈중 산소 농도 측정
Autonomic Nervous System (ANS) 자율신경계 교감/부교감 신경으로 생체 반응 조절
Cortisol 코르티솔 스트레스 호르몬
Vital Signs 활력징후 심박·호흡·체온 등 건강 기본지표
Internet of Things (IoT) 사물인터넷 생체신호 센서를 의료 AI와 연결
Internet of Medical Things (IoMT) 의료 사물인터넷 의료용 웨어러블 센서 네트워크

 

 

감정 인식·Affective AI에 필요한 심리·인지 개념

용어 한글 명칭 설명
Affective State 정서 상태 감정 변화 상태
Emotion Regulation 감정 조절 감정 관리 능력
Cognitive Load 인지 부하 뇌의 정보 처리 과부하 상태
Mental Fatigue 정신적 피로 집중력 저하와 판단력 저하 상태
Stress Response 스트레스 반응 신체·심리적 스트레스 반응
Human–Machine Interaction (HMI) 인간–기계 상호작용 인간과 AI 시스템 간 상호작용
Human–Robot Interaction (HRI) 인간–로봇 상호작용 로봇과 인간 간 소통 방식 연구
Human–Computer Interaction (HCI) 인간–컴퓨터 상호작용 사용자 중심 UX 설계 연구
Valence–Arousal Model 정서 차원 모델 감정 분석 기본 축 (긍정–부정, 각성 정도)

 


✅ 멀티모달 감정·건강 인식 AI 기본 개념 정리

1. 멀티모달(Multi-modal) 개념

구분 설명
정의 영상, 음성, 생체신호 등 서로 다른 형태의 데이터를 통합 분석하는 AI 기술
목적 사람처럼 상황·감정·건강을 종합적으로 이해
핵심 기술 데이터 융합(Fusion), 딥러닝(Transformer, LSTM), 감정 컴퓨팅(Affective Computing)
활용 분야 헬스케어, 돌봄 로봇, 상담 AI, 자율주행, 스마트 홈

 


2. 주요 입력 데이터와 특징 추출

데이터 유형 분석 모델 특징
얼굴 이미지(표정) CNN, Vision Transformer 미세 표정, 눈 움직임 분석
음성 신호 RNN, LSTM, Transformer 억양·톤·감정 신호 추출
생체신호(심박·피부전도 등) LSTM 스트레스·피로·활성도 분석

3. 멀티모달 데이터 융합 구조

멀티모달 AI는 다중 입력 Encoder 구조를 사용 :

표정 Encoder  →  
                \
음성 Encoder   →  Feature Fusion Layer → 감정/건강 상태 예측
                /
생체 Encoder  →

이 멀티모달 모델은 AI의 시각(눈) + 청각(귀) + 촉각(피부) 센서 역할을 함

▶ 각 Encoder는 데이터를 벡터 형태의 특징으로 변환
Fusion Layer에서 통합 후 최종 판단 수행
예 : 웃고 있지만 심박 증가 → 긴장된 웃음


4. Transformer의 역할

구분 설명
개념 Attention 메커니즘을 사용하는 딥러닝 구조
장점 중요한 정보에 집중하며 입력을 병렬 처리
활용 영상·음성·텍스트·센서 데이터를 통합 분석
핵심 Self-Attention으로 각 데이터의 중요도를 가중치로 학습

<예시>
"괜찮아요" + 떨리는 목소리 + 빠른 심장박동 → "불안" 판단 → Transformer Attention이 음성·심박 신호에 더 높은 가중치 할당


5. 학습 방법

✅ AI 학습 방법 중 3가지 정리

학습 방식 개념 특징 고양이 이미지 예시
지도학습
(Supervised Learning)
입력 데이터와 정답(Label)을 함께 학습 정답이 반드시 필요 고양이 사진을 보여주고 "이건 고양이(cat)" 라고 정답을 제공하며 학습
비지도학습
(Unsupervised Learning)
정답 없이 데이터 패턴과 구조를 스스로 학습 군집화·유사성 분석 여러 동물 사진을 보여주면 AI가 비슷한 것끼리 자동 분류 (고양이끼리 묶음)
자기지도학습
(Self-supervised Learning)
정답 없이 데이터 일부를 숨기고 스스로 학습 문제 생성 라벨 없이도 학습 가능 고양이 사진 일부를 가리고 가려진 부분을 예측하며 특징 학습

✅ 핵심  비교 요약

구분 지도학습 비지도학습 자기지도학습
라벨 필요 여부 필요 불필요 불필요 (자체 생성 문제 활용)
목적 분류/예측 군집화/패턴 발견 표현 학습 + 파인튜닝
데이터 요구 많은 라벨 필요 라벨 불필요 라벨 매우 적게 필요
장점 정확한 예측 가능 데이터 준비 쉬움 데이터 부족 문제 해결
단점 라벨링 비용 큼 성능 한계 학습 설계가 중요

✅ 자기지도학습(Self-Supervised Learning)

항목 설명
필요성 감정·건강 데이터는 라벨링 비용 ↑ → 데이터 부족 문제 해결
방식 라벨 없이 사전학습(pretraining) 후 소량 라벨로 미세조정(Fine-tuning)
장점 비지도 + 지도학습의 장점을 결합

6. 데이터 전처리 중요성

처리 설명
노이즈 제거 센서 오류 제거
필터링 유효 주파수만 보존
정규화 데이터 스케일 조정을 통해 특정 특성 값이 학습에 과도하게 영향을 주는 것을 방지

7. Explainable AI (XAI) 필요성

이유 설명
민감 데이터 사용 생체·감정 데이터는 오판 시 신뢰도 하락
역할 AI 판단 근거를 시각화와 해석으로 설명
방법 Attention Map, Heatmap, 근거 하이라이트 표시

<예시>

시각화 : 얼굴 이미지 중 AI가 주목한 영역을 "히트맵(Heatmap)"으로 표시
음성 분석 근거 : 특정 목소리 높낮이나 억양 변화를 강조 표시
생체신호 근거 : 심박/피부전도 그래프 중 AI가 판단에 영향을 준 구간 표시
설명 요약 : "최근 10초간 심박 상승 및 피부전도 증가 → 불안 가능성 80%" 같이 설명 제공


8. 강화학습 기반 반응 생성

상황을 인식할 뿐 아니라 적절한 반응까지 생성하는 AI 개발 :

 

"A" 라는 말에

  • 사용자가 미소 → 보상 ↑
  • 사용자 불만 증가 → 패널티

9. Human-in-the-loop 구조

AI의 학습이나 의사결정 과정에 사람이 개입하여 피드백·검증·보완하는 구조


10. 응용 사례

✅ 헬스케어 & 돌봄

  • 스트레스·우울 감지, 치매 케어 로봇, 상담 AI

✅ 자율주행 적용

  • 표정 + 시선 추적 + 심박 분석 → 졸음/스트레스 감지
  • 필요 시 자동 주행 모드 전환으로 사고 예방

11. 감정지능형(Affective AI)

인간처럼 이해·공감·반응하는 차세대 멀티모달 AI

단순히 “감정을 인식하는 AI”가 아니라 인간처럼 감정을 이해하고, 해석하고, 그에 맞게 반응하는 인공지능 시스템

즉, "이해(Understanding) + 공감(Empathy) + 반응(Response)" 이 가능한 AI


<상황 인식 기반 반응 생성 모델 개발>

사용자의 감정·건강·환경 정보를 종합해 AI가 그 상황에 가장 적절한 말과 행동을 스스로 결정하고 생성하는 기술

 

<자기보고식 감정 평가 및 전문가 라벨링 병행>

자기보고(Self-report) 장점 : 실제 감정 반영, 단점 : 주관적 편향 가능
전문가 라벨링(Expert labeling) 장점 : 객관적 기준 확보, 단점 : 타인의 감정 오판 가능
병행(Hybrid) 장점 : 주관·객관의 균형

 

<Encoder>

AI가 입력 데이터를 "이해 가능한 숫자 표현(벡터)"로 바꾸는 부분

 

<반응 자연성 평가>

AI가 사람처럼 공감하고, 상황에 맞는 말투·표현·행동을 보이는지를 평가하는 과정(즉, 자연스러운 반응인지 평가)

 

<파일럿 테스트>

AI 시스템을 실제 환경에서 소규모로 시험 운용하여, 문제점을 발견하고 개선하는 실험 단계

 

<조언 적합도를 평가하는 방법>

1. 전문가 평가 2. 사용자 설문 3. 행동 반응 분석