ChatGPT를 사용할 때 영어로 쓰는 것이 훨씬 유리합니다.
- 입력해서 맥락을 기억하는 길이, 혹은 한번에 입력할 수 있는 길이가 영어가 2-5배 깁니다
- 대답을 해 주는 속도가 2배 정도 빠릅니다
- 한글의 경우는 대답을 하다가 중간에 끊기는 경우가 많습니다.
그래서 한글로 물어보고 한글로 대답을 받지만 내부적으로는 영어로 처리하는 프롬프트 지니와 같은 크롬 확장앱을 쓰는 것을 추천드립니다. 이 앱은 내부적으로 구글 번역을 사용합니다.
하지만, 이렇게 쓰는 경우 번역 엔진의 성능에 따라서 영향을 받습니다. 특히, ChatGPT가 만들어 낸 영어 글을 한글로 바꿔서 다른 곳에 공유하신다면 그 성능이 매우 중요해집니다.
그래서 ChatGPT와 3가지 번역 엔진 (구글, 파파고, DeepL)의 성능을 비교해 봤습니다.
과학 글 쓰기 분야 비교
먼저 아래 게시물에서 출력으로 나온 것을 원문으로 삼았습니다.
Emergence, in the scientific context, refers to a qualitative change that arises from quantitative changes. In the context of language models, an ability is considered emergent if it is not present in smaller models but is present in larger models. The size of a model can be measured by training FLOPs, the number of model parameters, or the training dataset size.
이 글을 번역하는데 핵심은 Emergence - 라고 하는 개념을 정의하고 어떤 것이 Emergence 한 것인지 설명하는 것입니다.
구글로 번역하기
출현은 과학적 맥락에서 양적 변화에서 발생하는 질적 변화를 의미합니다. 언어 모델의 맥락에서 능력이 더 작은 모델에는 없지만 더 큰 모델에는 있는 경우 능력이 창발적인 것으로 간주됩니다. 모델의 크기는 훈련 FLOP, 모델 매개변수의 수 또는 훈련 데이터 세트 크기로 측정할 수 있습니다.
파파고 번역하기
과학적 맥락에서 출현은 양적 변화에서 발생하는 질적 변화를 의미한다. 언어 모델의 맥락에서 능력은 작은 모델에 존재하지 않고 큰 모델에 존재하는 경우에 중요한 것으로 간주된다. 모델의 크기는 훈련 FLOP, 모델 매개 변수의 수 또는 훈련 데이터 세트 크기로 측정할 수 있다.
DeepL 번역 하기
과학적 맥락에서 출현은 양적 변화에서 발생하는 질적 변화를 의미합니다. 언어 모델에서는 작은 모델에는 존재하지 않지만 큰 모델에 존재하는 능력을 새로운 능력으로 간주합니다. 모델의 크기는 훈련 FLOP, 모델 매개변수의 수 또는 훈련 데이터 세트 크기로 측정할 수 있습니다.
ChatGPT 번역하기
사이언티픽 컨텍스트에서의 발생은 양적 변화에서 나오는 품질적 변화를 의미합니다. 언어 모델의 컨텍스트에서는, 더 작은 모델에서는 존재하지 않지만, 더 큰 모델에서는 존재하는 능력이 발생적으로 간주됩니다. 모델의 크기는 훈련 FLOPs, 모델 매개변수의 수, 또는 훈련 데이터셋 크기로 측정할 수 있습니다.
4가지 번역 엔진 모두, Emergence라는 것을 제대로 정의하고, 두 번째 문장에서 이 정의를 설명하는데 어색함이 있습니다. 첫 번째와 두 번째 문장 모두가 동일한 용어를 써야 하는데 이걸 파악하지는 못하는 것 같네요. 과학적인 글에서는 이러한 용어 정의, 일관된 용어 사용이 필요합니다. 그래서 어떤 번역 엔진을 쓰더라도 이 부분은 수동으로 사람이 해 줘야 할 것 같습니다.
ChatGPT에게 과학적인 내용의 지문이라 알려주고 다시 번역을 시켜 보았습니다.
Prompt: The following is a passage from a scientific paper. Translate the following text into Korean as a scientific article.
Text: Emergence, in the scientific context, refers to a qualitative change that arises from quantitative changes. In the context of language models, an ability is considered emergent if it is not present in smaller models but is present in larger models. The size of a model can be measured by training FLOPs, the number of model parameters, or the training dataset size.
과학적 측면에서, 진화(Emergence)는 양적 변화에서 발생하는 품질적 변화를 의미합니다. 언어 모델의 컨텍스트에서, 능력은 작은 모델에 없지만 큰 모델에 있다면 나타나는 것으로 간주됩니다. 모델의 크기는 훈련 FLOPs, 모델 매개변수 수 또는 훈련 데이터셋 크기로 측정할 수 있습니다.
이렇게 다시 물어보았지만 Emergence와 Emergent 두 단어를 사용해서 용어를 설명하는 것이 제대로 번역되진 않네요. 이걸 명시해서 번역하면 제대로 번역 할까요?
Prompt: The following is a passage from a scientific paper about emergence in the context of language models. Translate the following text into Korean as a scientific article.
...
과학적 맥락에서, 진화는 양적 변화에서 나타나는 품질적 변화를 의미합니다. 언어 모델의 맥락에서, 능력은 작은 모델에 존재하지 않지만 큰 모델에서는 존재할 경우, 진화적으로 간주됩니다. 모델의 크기는 훈련 FLOPs, 모델 매개변수 수, 또는 훈련 데이터셋 크기를 기준으로 측정할 수 있습니다.
드디어 ChatGPT가 용어 Emergence/Emergent를 같은 단어로 번역하기 시작했습니다!
물론 다른 번역 엔진에도 이러한 전문 용어를 사전에 주의시키는 기능이 존재합니다. 하지만, 그렇게 쓰기 위해서는 각 엔진의 사용 방법을 따로 학습해야 합니다. ChatGPT는 비록 아직 한글을 뽑아내어 주는 속도는 느리지만, 자연어로 그런 명령을 내릴 수 있어, 인터페이스를 따로 배우지 않아도 되는 장점이 있습니다.
물론 다른 번역 엔진에도 이러한 전문 용어를 사전에 주의시키는 기능이 존재합니다. 하지만, 그렇게 쓰기 위해서는 각 엔진의 사용 방법을 따로 학습해야 합니다. ChatGPT는 비록 아직 한글을 뽑아내어 주는 속도는 느리지만, 자연어로 그런 명령을 내릴 수 있어, 인터페이스를 따로 배우지 않아도 되는 장점이 있습니다.
문학 분야 비교
번역할 원문은 Jack Kerouac, On The Road 에서 유명한 구절을 가져왔습니
The only people for me are the mad ones, the ones who are mad to live, mad to talk, mad to be saved, desirous of everything at the same time, the ones who never yawn or say a commonplace thing, but burn, burn, burn like fabulous yellow roman candles exploding like spiders across the stars.
구글 번역
나에게 유일한 사람들은 미친 사람들, 살기에 미친 사람들, 말하는 데 미친 사람들, 구원받는 데 미친 사람들, 동시에 모든 것을 갈망하는 사람들, 결코 하품하거나 평범한 말을 하지 않고 불타고 타는 사람들입니다. , 별을 가로 질러 거미처럼 폭발하는 멋진 노란색 로마 양초처럼 타십시오.
구글은 burn, burn, burn, 과 같은 문학적 표현을 제대로 이해하지 못한 것 같아 번역이 어색합니다.
DeepL 번역
저에게는 미친 사람들, 살기 위해 미치고, 말하기 위해 미치고, 구원받기 위해 미치고, 동시에 모든 것을 갈망하는 사람들, 하품도 하지 않고 평범한 말도 하지 않지만 별을 가로질러 거미처럼 폭발하는 멋진 노란 로마 양초처럼 불타고, 불타고, 불타고 있는 사람들만이 제게 있습니다.
DeepL의 경우는 이걸 하나의 문장으로 주어, 동사 배치를 다시 하다보니, 원문에서 첫 몇 단어만 읽고 -- 나에게 남은 사람들은 이런 사람들이다. 이러한 사람, 이러 이러한 사람 ... -- 이렇게 알 수 있는 것을 3줄짜리 문장을 다 읽어야 비로소 이해할 수 있습니다.
파파고 번역
파파고 번역
내게 유일한 사람들은 미친 사람들이다. 살기 위해 미친 사람들, 이야기하기 위해 미친 사람들, 구원받기 위해 미친 사람들, 모든 것을 동시에 갈망하는 사람들, 하품을 하거나 평범한 말을 하지 않고 별들을 가로질러 거미처럼 폭발하는 멋진 노란 로마 촛불처럼 타고, 타고, 타는 사람들이다.
파파고는 이러한 긴 문장을 한글로 바꿀 때 문장을 나누어 먼저 전달할 내용을 전달하고, 뒤이은 부분을 다음 문장으로 연결해서 적절한 번역 결과를 보였습니다.
ChatGPT 번역
나에게만 있는 사람들은 미친 사람들뿐입니다, 살아가려고 미친 사람들, 말하기를 원하는 사람들, 구원을 원하는 사람들, 모든 것을 동시에 원하는 사람들, 절대 졸거나 일상적인 말을 하지 않는 사람들입니다. 그들은 황금색 로마의 저주의 촛불처럼 타오르고, 별 사이로 거미처럼 폭발합니다.
저의 문학 상식으로는 (거의 없습니다..) ChatGPT는 꽤나 잘 번역을 한 것 같습니다. 하나의 거대한 문장으로 번역하지도 않았고, Only도 함께 번역을 해 줘서 더 느낌이 살아 있습니다. 하나의 샘플로 모든 것을 얘기할 수 없겠지만, 문학적인 글의 번역은 꽤 성능이 괜찮아 보입니다.
그럼 이 글이 문학의 일부라는 것을 알려주고 번역하면 더 잘 번역해 줄 수 있을까요?
Prompt: The following is a famous passage from English literature. Translate the following text into Korean. Make it sound like literature.
그럼 이 글이 문학의 일부라는 것을 알려주고 번역하면 더 잘 번역해 줄 수 있을까요?
Prompt: The following is a famous passage from English literature. Translate the following text into Korean. Make it sound like literature.
나에게 유일한 이들은, 살아가려는 광기에 미친 이들, 말하기를 원하는 이들, 구원을 원하는 이들, 모든 것을 동시에 원하는 이들, 절대 졸음이나 평범한 말을 하지 않는 이들입니다. 그들은 황금색 로마의 저주처럼 불타, 별 사이로 거미처럼 폭발하며 빛납니다.
크게 차이가 없어 보입니다. 하지만 ~~이들, 폭발합니다 -- 가 아닌 폭발하며 빛납니다 - 와 같은 표현으로 좀 더 문학적으로 들리는게 아닐까 싶어요.
결론은, 문학적인 글을 번역하는데 있어서 ChatGPT는 상당히 잘 해내는 것 같습니다.
결론은, 문학적인 글을 번역하는데 있어서 ChatGPT는 상당히 잘 해내는 것 같습니다.