LLM 에이전트를 “제대로” 만들 시니어 AI 엔지니어를 찾습니다

우리는

  • 단순 챗봇을 만들 생각이 없습니다.

  • GPT Wrapper 서비스에 관심도 없습니다.

  • 프롬프트 장난으로 SaaS 흉내 낼 생각도 없습니다.

우리는 로컬 LLM 기반 자율 에이전트를 실제로 동작시키고,
툴 체이닝과 추론 안정성을 프로덕션 레벨로 끌어올리려 합니다.

그리고 지금,
이 문제를 “깊이” 이해하는 사람이 필요합니다.

우리가 풀고 있는 문제

  • 14B quantized 모델에서 reasoning drift 발생

  • Tool call JSON 붕괴

  • Agent loop(Think → Act → Observe) 불안정

  • Identity override 실패

  • Context 8K 이상에서 hallucination 증가

우리는 이미 실험했습니다.

  • Gemini Flash와 로컬 모델 비교

  • Qwen / Llama 계열 튜닝

  • Ollama 기반 시스템 프롬프트 bake-in

  • 에이전트 루프 강제 구조 설계

하지만 아직 “이건 된다”라고 말할 수준은 아닙니다.

그래서 시니어가 필요합니다.

이런 분을 찾습니다

  • Transformer 내부 구조를 설명할 수 있는 분

  • KV cache / attention behavior를 이해하는 분

  • Quantization이 추론 안정성에 미치는 영향 설명 가능한 분

  • Tool-use LLM 한계를 체감해본 분

  • “LLM은 원래 이 정도”라는 말에 만족하지 않는 분

우리는
“LLM 잘 써요”가 아니라
“LLM을 통제해본 사람”을 찾습니다.


이런 경험이면 좋습니다

  • 7B~70B 모델 실험 경험

  • LoRA / fine-tuning / RLHF 이해

  • Agent framework 설계 경험

  • RAG + Tool-call 파이프라인 구축 경험

  • vLLM / Ollama / llama.cpp 실전 운영 경험

우리가 줄 수 있는 것

  • 모델 선택, 아키텍처, 방향성에 대한 실질적 의사결정 권한

  • 단순 구현자가 아닌 구조 설계자로 참여

  • AI 엔지니어가 아닌 “AI 시스템 설계자” 포지션

  • 보상: 시장 상위 수준 (스톡옵션 포함 협의)


이런 분은 지원하지 마세요

  • 프롬프트 엔지니어 수준에서 만족하는 분

  • Wrapper SaaS 경험만 있는 분

  • LLM을 블랙박스로 쓰는 분


우리는 이런 사람을 기다립니다

LLM은 아직 멀었다”라고 말하면서도 그 한계를 직접 밀어붙여본 사람.

모델을 비판할 줄 알고 모델을 다룰 줄 아는 사람.

관심 있으시면 본인이 가장 깊게 파봤던 LLM 문제 하나와 그 해결 접근을 간단히 정리해서 보내주세요.

이력서보다 문제 해결 사고방식을 봅니다.

연락처: [email protected] / 010-2889-4773