diff --git a/src/lib/i18n/locales/ko-KR/translation.json b/src/lib/i18n/locales/ko-KR/translation.json index 5efc9be09..a2526f53d 100644 --- a/src/lib/i18n/locales/ko-KR/translation.json +++ b/src/lib/i18n/locales/ko-KR/translation.json @@ -548,7 +548,7 @@ "Leave empty to include all models from \"{{URL}}/models\" endpoint": "", "Leave empty to include all models or select specific models": "특정 모델을 선택하거나 모든 모델을 포함하고 싶으면 빈칸으로 남겨두세요", "Leave empty to use the default prompt, or enter a custom prompt": "기본 프롬포트를 사용 시 빈칸으로 남겨두세요, 아니면 커스텀 프롬포트를 입력하세요", - "Light": "Light", + "Light": "라이트", "Listening...": "듣는 중...", "LLMs can make mistakes. Verify important information.": "LLM에 오류가 있을 수 있습니다. 중요한 정보는 확인이 필요합니다.", "Local": "", @@ -649,7 +649,7 @@ "October": "10월", "Off": "끄기", "Okay, Let's Go!": "좋아요, 시작합시다!", - "OLED Dark": "OLED Dark", + "OLED Dark": "OLED 다크", "Ollama": "Ollama", "Ollama API": "Ollama API", "Ollama API disabled": "Ollama API 비활성화", @@ -839,9 +839,9 @@ "Set whisper model": "자막 생성기 모델 설정", "Sets how far back for the model to look back to prevent repetition. (Default: 64, 0 = disabled, -1 = num_ctx)": "", "Sets how strongly to penalize repetitions. A higher value (e.g., 1.5) will penalize repetitions more strongly, while a lower value (e.g., 0.9) will be more lenient. (Default: 1.1)": "", - "Sets the random number seed to use for generation. Setting this to a specific number will make the model generate the same text for the same prompt. (Default: random)": "", "Sets the size of the context window used to generate the next token. (Default: 2048)": "", - "Sets the stop sequences to use. When this pattern is encountered, the LLM will stop generating text and return. Multiple stop patterns may be set by specifying multiple separate stop parameters in a modelfile.": "", + "Sets the random number seed to use for generation. Setting this to a specific number will make the model generate the same text for the same prompt. (Default: random)": "생성을 위한 무작위 숫자 시드를 설정합니다. 이 값을 특정 숫자로 설정하면 동일한 프롬프트에 대해 동일한 텍스트를 생성합니다. (기본값: 무작위)", + "Sets the stop sequences to use. When this pattern is encountered, the LLM will stop generating text and return. Multiple stop patterns may be set by specifying multiple separate stop parameters in a modelfile.": "중단 시퀀스를 설정합니다. 이 패턴이 발생하면 LLM은 텍스트 생성을 중단하고 반환합니다. 여러 중단 패턴은 모델 파일에서 여러 개의 별도 중단 매개변수를 지정하여 설정할 수 있습니다.", "Settings": "설정", "Settings saved successfully!": "설정이 성공적으로 저장되었습니다!", "Share": "공유", @@ -904,7 +904,7 @@ "The maximum file size in MB. If the file size exceeds this limit, the file will not be uploaded.": "최대 파일 크기(MB). 만약 파일 크기가 한도를 초과할 시, 파일은 업로드되지 않습니다", "The maximum number of files that can be used at once in chat. If the number of files exceeds this limit, the files will not be uploaded.": "하나의 채팅에서는 사용가능한 최대 파일 수가 있습니다. 만약 파일 수가 한도를 초과할 시, 파일은 업로드되지 않습니다.", "The score should be a value between 0.0 (0%) and 1.0 (100%).": "점수는 0.0(0%)에서 1.0(100%) 사이의 값이어야 합니다.", - "The temperature of the model. Increasing the temperature will make the model answer more creatively. (Default: 0.8)": "", + "The temperature of the model. Increasing the temperature will make the model answer more creatively. (Default: 0.8)": "모델의 온도. 온도를 높이면 모델이 더 창의적으로 답변합니다. (기본값: 0.8)", "Theme": "테마", "Thinking...": "생각 중...", "This action cannot be undone. Do you wish to continue?": "이 액션은 되돌릴 수 없습니다. 계속 하시겠습니까?", @@ -1035,7 +1035,7 @@ "What are you trying to achieve?": "", "What are you working on?": "", "What’s New in": "새로운 기능:", - "When enabled, the model will respond to each chat message in real-time, generating a response as soon as the user sends a message. This mode is useful for live chat applications, but may impact performance on slower hardware.": "", + "When enabled, the model will respond to each chat message in real-time, generating a response as soon as the user sends a message. This mode is useful for live chat applications, but may impact performance on slower hardware.": "활성화하면 모델이 각 채팅 메시지에 실시간으로 응답하여 사용자가 메시지를 보내는 즉시 응답을 생성합니다. 이 모드는 실시간 채팅 애플리케이션에 유용하지만, 느린 하드웨어에서는 성능에 영향을 미칠 수 있습니다.", "wherever you are": "", "Whisper (Local)": "Whisper (로컬)", "Why?": "이유는?",