발달장애인의 의사소통을 돕는 새로운 접근.

소개

발달장애인의 의사소통을 돕는 새로운 접근.

-배경 및 필요성

발달장애인을 위한 의사소통 지원 시스템의 개발 배경과 목표

현재 상황 및 문제점

  • 발달장애 아동은 언어 표현과 상호작용에서 어려움이 있음

  • 숙련된 ABA 치료자의 수요 대비 공급 부족

  • 기존 대화 로봇(도리)은 정서중심, 기능적 언어 유도는 미흡

프로젝트 목표

  • ABA 원칙을 반영한 강화 피드백 기반의 대화 개발

진행 방법

어떤 도구를 사용했고, 어떻게 활용하셨나요?

Tip: GPT Deep Research, google research , https://lovable.dev/

[사용한 프롬프트 ]

[제품 기획서(PRD)]

1. 제품 개요

제품명: EverMate Voice (가칭) 목표: 자폐 스펙트럼 장애(ASD)를 포함한 발달장애 아동·성인이 자신의 감정과 의사를 표현하도록 돕는 보이스 기반 감정코칭 챗봇 앱 플랫폼: 안드로이드 기반 태블릿 전용 앱 (iOS 추후 대응) 기반 기술: OpenAI GPT API (챗봇 상호작용) + 음성인식(STT), 음성합성(TTS), 감정 추정 모델 (자체 또는 연동)

2. 주요 기능

2.1 감정 센싱 및 정서코칭

  • 일정 주기로 발달장애인의 상태를 점검 (ex. 2~3시간마다 “지금 기분은 어때?” 질문)

  • 감정 선택 UI: 시각적으로 직관적인 이모티콘(😀😐😢😠 등)을 통해 감정 선택

  • 감정 표현 유도: “힘들어”라는 단어를 자연스럽게 연습할 수 있도록 반복 학습 및 대화 유도

  • 감정 로그 기록: 매일의 감정 기록을 시각화하여 보호자/교사가 열람 가능

2.2 보이스 인터랙션 중심 대화

  • 발달장애인이 앱 내 “마이크” 버튼을 누르면, 음성으로 대화 가능

  • 발화가 어려운 사용자는 그림선택 또는 키워드 버튼을 누르면 챗봇이 적절한 질문을 다시 음성으로 리드함

  • 챗봇은 부드러운 목소리(TTS)와 함께 질문, 피드백, 감정 라벨링 코칭 제공

2.3 라포 형성 및 친구 기능

  • 챗봇은 일정 시간마다 라포를 형성하는 대화 시도: “오늘 하루 어땠어?”, “내가 옆에 있어 줄게”

  • 개인화된 호칭 사용 (예: “민준아, 네가 힘들 땐 나한테 말해줘”) → 보호자가 설정 가능

  • 보호자가 ‘좋아하는 캐릭터’ 등록 시, 챗봇이 그 캐릭터 어투/이미지로 대화

2.4 보호자/교사용 관리자 기능

  • 감정 일지 열람 및 다운로드 기능 (PDF 및 CSV)

  • AI가 감정 패턴 분석 후, 보호자에게 알림: “최근 3일간 힘듦 감정 표현 증가”

  • 사용자가 잘 반응한 말투/질문 유형 로그화

  • 라포 수준 점수화: 대화 빈도, 감정 공유 정도 등 분석

3. 대화 시나리오 구조

3.1 감정 점검 루틴 예시

  1. 챗봇: “지금 기분이 어때? 선택해서 알려줘~”

  2. 사용자: 😐 (선택)

  3. 챗봇: “조금 애매한 기분이구나. 혹시 뭐가 힘들었을까?”

  4. 사용자: [그림 선택 or "몰라"]

  5. 챗봇: “그럴 수도 있지. 나중에라도 말해줘. 기다릴게.”

3.2 감정 표현 코칭 시나리오

  1. 챗봇: “조금 속상했어도 ‘힘들어’라고 말해도 괜찮아.”

  2. 사용자: [조용함]

  3. 챗봇: “입으로 말하기 어렵다면, ‘힘들어’ 버튼을 눌러줘도 돼.”

  4. 사용자: ‘힘들어’ 버튼 터치 → “힘들어” 음성 출력됨

  5. 챗봇: “잘했어! 네가 감정을 표현해줘서 정말 고마워.”

4. 기술 스택 제안

  • Frontend: Flutter 또는 React Native

  • Voice STT/TTS: Google Speech API / Naver CLOVA Voice / AWS Polly

  • GPT 연동: OpenAI GPT-4o API (가벼운 모델 및 대화 context 유지 구조 적용)

  • 감정분석: 음성 + 대화내용 기반 감정 추정 모듈 (보완적으로 얼굴 인식 연동 가능)

  • DB: Firebase (NoSQL 기반, 보안성 고려)

5. 보안 및 개인정보 보호

  • 보호자 계정 하에 자녀 등록 방식 (1:N)

  • 모든 대화 및 음성은 로컬에 암호화 저장되거나 익명화 후 분석에만 사용

  • 앱 접근시 아동용 인터페이스와 보호자 인터페이스 구분

  • 한국 개인정보보호법 및 아동복지법에 따른 철저한 개인정보 처리

6. MVP 개발 일정 (예시)

단계

기간

주요 내용

1단계

~1개월

기획 완료 및 GPT 대화 시나리오 구축 (감정 중심)

2단계

1~2개월

Voice UI 적용 및 베타 챗봇 구성, 감정 선택 기능 구축

3단계

3~4개월

감정 일지 및 관리자 기능 연동, 클로즈 베타 테스트

4단계

5개월~

Sejong 시범학교 및 가정 대상 테스트 배포

7. 기대효과

  • 언어 표현이 어려운 발달장애 아동·성인의 감정 표현 기회 확대

  • 보호자/교사가 아이의 내면 상태를 정량적·시각적으로 확인 가능

  • 스스로 감정을 말하는 연습을 통한 자기표현 능력 향상

  • AI 기반의 상시 친구/감정코치로 정서 안정 효과 기대

Tip: 활용 이미지나 캡처 화면을 꼭 남겨주세요.

lovable https://evermate-vibe-friend.lovable.app/

Tip: 코드 전문은 코드블록에 감싸서 작성해주세요. ( / 을 눌러 '코드 블록'을 선택)

(내용 입력)

결과와 배운 점

배운 점과 나만의 꿀팁을 알려주세요.

-일단 시작,때려맞추고 안되면 물어보고

과정 중에 어떤 시행착오를 겪었나요?

-음성으로 대화하는 것은 나아가야할 길이나 구현된 모양을 보면서 방향을 찾아야할 듯

도움이 필요한 부분이 있나요?

-chat gpt로만 음성으로 진행하였으나 강의들어보니 google 2.5로도 테스트가 필요할 듯하고

현재 프로젝트와 gpts로 등록된 db학습내용을 api로 끌어오는 것이 가능할 것같은데 시도는 아직이라 선배님들의 조언구합니다.

앞으로의 계획이 있다면 들려주세요.

도움 받은 글 (옵션)

참고한 지피터스 글이나 외부 사례를 알려주세요.

모든 것이 매우 도움되었습니다. 시간이 없어 많이는 못봄

4

👉 이 게시글도 읽어보세요