소개
발달장애인의 의사소통을 돕는 새로운 접근.
-배경 및 필요성
발달장애인을 위한 의사소통 지원 시스템의 개발 배경과 목표
현재 상황 및 문제점
발달장애 아동은 언어 표현과 상호작용에서 어려움이 있음
숙련된 ABA 치료자의 수요 대비 공급 부족
기존 대화 로봇(도리)은 정서중심, 기능적 언어 유도는 미흡
프로젝트 목표
ABA 원칙을 반영한 강화 피드백 기반의 대화 개발
진행 방법
어떤 도구를 사용했고, 어떻게 활용하셨나요?
Tip: GPT Deep Research, google research , https://lovable.dev/
[사용한 프롬프트 ]
[제품 기획서(PRD)]
1. 제품 개요
제품명: EverMate Voice (가칭) 목표: 자폐 스펙트럼 장애(ASD)를 포함한 발달장애 아동·성인이 자신의 감정과 의사를 표현하도록 돕는 보이스 기반 감정코칭 챗봇 앱 플랫폼: 안드로이드 기반 태블릿 전용 앱 (iOS 추후 대응) 기반 기술: OpenAI GPT API (챗봇 상호작용) + 음성인식(STT), 음성합성(TTS), 감정 추정 모델 (자체 또는 연동)
2. 주요 기능
2.1 감정 센싱 및 정서코칭
일정 주기로 발달장애인의 상태를 점검 (ex. 2~3시간마다 “지금 기분은 어때?” 질문)
감정 선택 UI: 시각적으로 직관적인 이모티콘(😀😐😢😠 등)을 통해 감정 선택
감정 표현 유도: “힘들어”라는 단어를 자연스럽게 연습할 수 있도록 반복 학습 및 대화 유도
감정 로그 기록: 매일의 감정 기록을 시각화하여 보호자/교사가 열람 가능
2.2 보이스 인터랙션 중심 대화
발달장애인이 앱 내 “마이크” 버튼을 누르면, 음성으로 대화 가능
발화가 어려운 사용자는 그림선택 또는 키워드 버튼을 누르면 챗봇이 적절한 질문을 다시 음성으로 리드함
챗봇은 부드러운 목소리(TTS)와 함께 질문, 피드백, 감정 라벨링 코칭 제공
2.3 라포 형성 및 친구 기능
챗봇은 일정 시간마다 라포를 형성하는 대화 시도: “오늘 하루 어땠어?”, “내가 옆에 있어 줄게”
개인화된 호칭 사용 (예: “민준아, 네가 힘들 땐 나한테 말해줘”) → 보호자가 설정 가능
보호자가 ‘좋아하는 캐릭터’ 등록 시, 챗봇이 그 캐릭터 어투/이미지로 대화
2.4 보호자/교사용 관리자 기능
감정 일지 열람 및 다운로드 기능 (PDF 및 CSV)
AI가 감정 패턴 분석 후, 보호자에게 알림: “최근 3일간 힘듦 감정 표현 증가”
사용자가 잘 반응한 말투/질문 유형 로그화
라포 수준 점수화: 대화 빈도, 감정 공유 정도 등 분석
3. 대화 시나리오 구조
3.1 감정 점검 루틴 예시
챗봇: “지금 기분이 어때? 선택해서 알려줘~”
사용자: 😐 (선택)
챗봇: “조금 애매한 기분이구나. 혹시 뭐가 힘들었을까?”
사용자: [그림 선택 or "몰라"]
챗봇: “그럴 수도 있지. 나중에라도 말해줘. 기다릴게.”
3.2 감정 표현 코칭 시나리오
챗봇: “조금 속상했어도 ‘힘들어’라고 말해도 괜찮아.”
사용자: [조용함]
챗봇: “입으로 말하기 어렵다면, ‘힘들어’ 버튼을 눌러줘도 돼.”
사용자: ‘힘들어’ 버튼 터치 → “힘들어” 음성 출력됨
챗봇: “잘했어! 네가 감정을 표현해줘서 정말 고마워.”
4. 기술 스택 제안
Frontend: Flutter 또는 React Native
Voice STT/TTS: Google Speech API / Naver CLOVA Voice / AWS Polly
GPT 연동: OpenAI GPT-4o API (가벼운 모델 및 대화 context 유지 구조 적용)
감정분석: 음성 + 대화내용 기반 감정 추정 모듈 (보완적으로 얼굴 인식 연동 가능)
DB: Firebase (NoSQL 기반, 보안성 고려)
5. 보안 및 개인정보 보호
보호자 계정 하에 자녀 등록 방식 (1:N)
모든 대화 및 음성은 로컬에 암호화 저장되거나 익명화 후 분석에만 사용
앱 접근시 아동용 인터페이스와 보호자 인터페이스 구분
한국 개인정보보호법 및 아동복지법에 따른 철저한 개인정보 처리
6. MVP 개발 일정 (예시)
단계
기간
주요 내용
1단계
~1개월
기획 완료 및 GPT 대화 시나리오 구축 (감정 중심)
2단계
1~2개월
Voice UI 적용 및 베타 챗봇 구성, 감정 선택 기능 구축
3단계
3~4개월
감정 일지 및 관리자 기능 연동, 클로즈 베타 테스트
4단계
5개월~
Sejong 시범학교 및 가정 대상 테스트 배포
7. 기대효과
언어 표현이 어려운 발달장애 아동·성인의 감정 표현 기회 확대
보호자/교사가 아이의 내면 상태를 정량적·시각적으로 확인 가능
스스로 감정을 말하는 연습을 통한 자기표현 능력 향상
AI 기반의 상시 친구/감정코치로 정서 안정 효과 기대
Tip: 활용 이미지나 캡처 화면을 꼭 남겨주세요.
lovable https://evermate-vibe-friend.lovable.app/
Tip: 코드 전문은 코드블록에 감싸서 작성해주세요. ( / 을 눌러 '코드 블록'을 선택)
(내용 입력)
결과와 배운 점
배운 점과 나만의 꿀팁을 알려주세요.
-일단 시작,때려맞추고 안되면 물어보고
과정 중에 어떤 시행착오를 겪었나요?
-음성으로 대화하는 것은 나아가야할 길이나 구현된 모양을 보면서 방향을 찾아야할 듯
도움이 필요한 부분이 있나요?
-chat gpt로만 음성으로 진행하였으나 강의들어보니 google 2.5로도 테스트가 필요할 듯하고
현재 프로젝트와 gpts로 등록된 db학습내용을 api로 끌어오는 것이 가능할 것같은데 시도는 아직이라 선배님들의 조언구합니다.
앞으로의 계획이 있다면 들려주세요.
도움 받은 글 (옵션)
참고한 지피터스 글이나 외부 사례를 알려주세요.
모든 것이 매우 도움되었습니다. 시간이 없어 많이는 못봄