우리는
단순 챗봇을 만들 생각이 없습니다.
GPT Wrapper 서비스에 관심도 없습니다.
프롬프트 장난으로 SaaS 흉내 낼 생각도 없습니다.
우리는 로컬 LLM 기반 자율 에이전트 를 실제로 동작시키고,
툴 체이닝과 추론 안정성을 프로덕션 레벨로 끌어올리려 합니다.
그리고 지금,
이 문제를 “깊이” 이해하는 사람이 필요합니다.
우리가 풀고 있는 문제
14B quantized 모델에서 reasoning drift 발생
Tool call JSON 붕괴
Agent loop(Think → Act → Observe) 불안정
Identity override 실패
Context 8K 이상에서 hallucination 증가
우리는 이미 실험했습니다.
Gemini Flash와 로컬 모델 비교
Qwen / Llama 계열 튜닝
Ollama 기반 시스템 프롬프트 bake-in
에이전트 루프 강제 구조 설계
하지만 아직 “이건 된다”라고 말할 수준은 아닙니다.
그래서 시니어가 필요합니다.
이런 분을 찾습니다
Transformer 내부 구조를 설명할 수 있는 분
KV cache / attention behavior를 이해하는 분
Quantization이 추론 안정성에 미치는 영향 설명 가능한 분
Tool-use LLM 한계를 체감해본 분
“LLM은 원래 이 정도”라는 말에 만족하지 않는 분
우리는
“LLM 잘 써요”가 아니라
“LLM을 통제해본 사람”을 찾습니다.
이런 경험이면 좋습니다
7B~70B 모델 실험 경험
LoRA / fine-tuning / RLHF 이해
Agent framework 설계 경험
RAG + Tool-call 파이프라인 구축 경험
vLLM / Ollama / llama.cpp 실전 운영 경험
우리가 줄 수 있는 것
모델 선택, 아키텍처, 방향성에 대한 실질적 의사결정 권한
단순 구현자가 아닌 구조 설계자로 참여
AI 엔지니어가 아닌 “AI 시스템 설계자” 포지션
보상: 시장 상위 수준 (스톡옵션 포함 협의)
이런 분은 지원하지 마세요
프롬프트 엔지니어 수준에서 만족하는 분
Wrapper SaaS 경험만 있는 분
LLM을 블랙박스로 쓰는 분
우리는 이런 사람을 기다립니다
LLM은 아직 멀었다”라고 말하면서도 그 한계를 직접 밀어붙여본 사람.
모델을 비판할 줄 알고 모델을 다룰 줄 아는 사람.
관심 있으시면 본인이 가장 깊게 파봤던 LLM 문제 하나와 그 해결 접근을 간단히 정리해서 보내주세요.
이력서보다 문제 해결 사고방식을 봅니다.
연락처: [email protected] / 010-2889-4773