From b2428f1a73c1c82461d180bf0ad6e370e7d04e9a Mon Sep 17 00:00:00 2001 From: Nextcloud bot Date: Sat, 9 Nov 2024 01:34:02 +0000 Subject: [PATCH] Fix(l10n): Update translations from Transifex Signed-off-by: Nextcloud bot --- l10n/ko.js | 6 +++--- l10n/ko.json | 6 +++--- l10n/lt_LT.js | 1 + l10n/lt_LT.json | 1 + 4 files changed, 8 insertions(+), 6 deletions(-) diff --git a/l10n/ko.js b/l10n/ko.js index 982a140f..a9c3165d 100644 --- a/l10n/ko.js +++ b/l10n/ko.js @@ -24,7 +24,7 @@ OC.L10N.register( "Face clustering:" : "얼굴 클러스터링:", "faces left to cluster" : "개의 얼굴 남음", "Last clustering run: " : "최근 작업:", - "A minimum of 120 faces per user is necessary for clustering to kick in" : "클러스터링이 작동하려면 사용자당 최소 120개의 얼굴이 필요합니다", + "A minimum of 120 faces per user is necessary for clustering to kick in" : "클러스터링은 계정마다 최소 120개의 얼굴이 인식되었을 때부터 작동합니다", "Enable face recognition (groups photos by faces that appear in them; UI is in the photos app)" : "얼굴 인식 활성화 (사진에 나타나는 얼굴들로 사진을 그룹화합니다. 그룹화된 사진은 photos 앱에서 확인할 수 있습니다)", "The number of files to process per job run (A job will be scheduled every 5 minutes; For normal operation ~500 or more, in WASM mode ~50 is recommended)" : "작업당 처리할 파일 수 (5분마다 작업이 실행되기에 ~500개 또는 그 이상, WASM 모드에서는 ~50개를 권장합니다)", "Object detection & landmark recognition" : "객체 인식 & 랜드마크 인식", @@ -67,7 +67,7 @@ OC.L10N.register( "Resource usage" : "리소스 사용량", "By default all available CPU cores will be used which may put your system under considerable load. To avoid this, you can limit the amount of CPU Cores used. (Note: In WASM mode, currently only 1 core can be used at all times.)" : "기본적으로 모든 CPU 코어가 사용되기에, 시스템에 큰 부하를 줄 수 있습니다. 원한다면, 사용할 CPU 코어 수를 여기서 제한할 수 있습니다. (참고: 현재로서 WASM 모드에서는 단 1개의 코어만 사용됩니다.)", "Number of CPU Cores (0 for no limit)" : "사용할 CPU 코어 수 (0을 입력하면 무제한)", - "By default, recognize will only ever run one classifier process at a time. If you have a lot of resources available and want to run as many processes in parallel as possible, you can turn on concurrency here." : "Recognize는 기본적으로 한 번에 하나의 분류 프로세스만 실행합니다. 많은 리소스를 가지고 있고, 가능한 한 많은 프로세스를 병렬로 실행하고 싶다면, 여기서 동시성을 활성화할 수 있습니다.", + "By default, recognize will only ever run one classifier process at a time. If you have a lot of resources available and want to run as many processes in parallel as possible, you can turn on concurrency here." : "Recognize는 기본 설정으로 한 번에 하나의 분류 프로세스만 실행합니다. 만약 리소스가 충분하고 가능한 한 많은 프로세스를 병렬로 실행하고자 한다면, 여기서 동시성을 활성화할 수 있습니다.", "Enable unlimited concurrency of classifier processes" : "분류 프로세스의 무제한 동시성 활성화", "Tensorflow WASM mode" : "Tensorflow WASM 모드", "Checking CPU" : "CPU 확인중", @@ -75,7 +75,7 @@ OC.L10N.register( "Your machine supports native TensorFlow operation, you do not need WASM mode." : "이 시스템은 Native TensorFlow 작동을 지원하므로, WASM 모드가 필요하지 않습니다.", "WASM mode was activated automatically, because your machine does not support native TensorFlow operation:" : "시스템이 Native TensorFlow 작동을 지원하지 않기 때문에 WASM 모드가 자동으로 활성화되었습니다:", "Enable WASM mode" : "WASM 모드 활성화", - "Recognize uses Tensorflow for running the machine learning models. Not all installations support Tensorflow, either because the CPU does not support AVX instructions, or because the platform is not x86 (ie. on a Raspberry Pi, which is ARM), or because the Operating System that your nextcloud runs on (when using docker, then that is the OS within the docker image) does not come with GNU lib C (for example Alpine Linux, which is also used by Nextcloud AIO). In most cases, even if your installation does not support native Tensorflow operation, you can still run Tensorflow using WebAssembly (WASM) in Node.js. This is somewhat slower but still works." : "Recognize는 기계 학습 모델을 실행하기 위해 Tensorflow를 사용합니다. 모든 시스템이 Tensorflow를 지원하는 것은 아닙니다. 이는 CPU가 AVX 명령을 지원하지 않거나, 플랫폼이 x86이 아니거나 (예: ARM인 라즈베리 파이), 현재 이 Nextcloud가 실행중인 운영 체제(도커를 사용한다면 도커 이미지 내의 OS)가 GNU lib C를 포함하지 않기 때문일 수 있습니다(예: Nextcloud AIO에 사용되는 Alpine Linux). 시스템이 Native TensorFlow 작동을 지원하지 않더라도, Node.js의 WebAssembly(WASM)를 사용하여 TensorFlow를 실행할 수 있습니다. 이는 다소 느리지만 작동합니다.", + "Recognize uses Tensorflow for running the machine learning models. Not all installations support Tensorflow, either because the CPU does not support AVX instructions, or because the platform is not x86 (ie. on a Raspberry Pi, which is ARM), or because the Operating System that your nextcloud runs on (when using docker, then that is the OS within the docker image) does not come with GNU lib C (for example Alpine Linux, which is also used by Nextcloud AIO). In most cases, even if your installation does not support native Tensorflow operation, you can still run Tensorflow using WebAssembly (WASM) in Node.js. This is somewhat slower but still works." : "Recognize는 머신 러닝 모델을 실행하기 위해 TensorFlow를 사용합니다. 하지만 모든 시스템이 TensorFlow를 지원하는 것은 아닙니다. 그 이유는 CPU가 AVX 명령을 지원하지 않거나, 플랫폼이 x86이 아닌 시스템(예:ARM 시스템인 Raspberry Pi)일 수 있으며, 또는 Nextcloud가 실행되는 운영 체제(도커 사용 시 도커 이미지 내 OS)가 GNU lib C를 포함하지 않을 수도 있기 때문입니다(예: Nextcloud AIO에서 사용되는 Alpine Linux). 대부분의 경우, 시스템이 Native TensorFlow 작동을 지원하지 않더라도 Node.js에서 WebAssembly(WASM)를 사용해 TensorFlow를 실행할 수 있습니다. 이 방식은 다소 느리지만 정상적으로 작동합니다.", "Tensorflow GPU mode" : "Tensorflow GPU 모드", "Enable GPU mode" : "GPU 모드 활성화", "Like most machine learning models, Recognize will run even faster when using a GPU. Setting this up is non-trivial but works well when everything is setup correctly." : "다른 기계 학습 모델과 마찬가지로, Recognize는 GPU를 사용하면 더 빠르게 작동합니다. 세팅이 복잡할 수 있지만, 한번 제대로 설정되면 성능이 크게 향상됩니다.", diff --git a/l10n/ko.json b/l10n/ko.json index ca003fb6..cd9f9cb9 100644 --- a/l10n/ko.json +++ b/l10n/ko.json @@ -22,7 +22,7 @@ "Face clustering:" : "얼굴 클러스터링:", "faces left to cluster" : "개의 얼굴 남음", "Last clustering run: " : "최근 작업:", - "A minimum of 120 faces per user is necessary for clustering to kick in" : "클러스터링이 작동하려면 사용자당 최소 120개의 얼굴이 필요합니다", + "A minimum of 120 faces per user is necessary for clustering to kick in" : "클러스터링은 계정마다 최소 120개의 얼굴이 인식되었을 때부터 작동합니다", "Enable face recognition (groups photos by faces that appear in them; UI is in the photos app)" : "얼굴 인식 활성화 (사진에 나타나는 얼굴들로 사진을 그룹화합니다. 그룹화된 사진은 photos 앱에서 확인할 수 있습니다)", "The number of files to process per job run (A job will be scheduled every 5 minutes; For normal operation ~500 or more, in WASM mode ~50 is recommended)" : "작업당 처리할 파일 수 (5분마다 작업이 실행되기에 ~500개 또는 그 이상, WASM 모드에서는 ~50개를 권장합니다)", "Object detection & landmark recognition" : "객체 인식 & 랜드마크 인식", @@ -65,7 +65,7 @@ "Resource usage" : "리소스 사용량", "By default all available CPU cores will be used which may put your system under considerable load. To avoid this, you can limit the amount of CPU Cores used. (Note: In WASM mode, currently only 1 core can be used at all times.)" : "기본적으로 모든 CPU 코어가 사용되기에, 시스템에 큰 부하를 줄 수 있습니다. 원한다면, 사용할 CPU 코어 수를 여기서 제한할 수 있습니다. (참고: 현재로서 WASM 모드에서는 단 1개의 코어만 사용됩니다.)", "Number of CPU Cores (0 for no limit)" : "사용할 CPU 코어 수 (0을 입력하면 무제한)", - "By default, recognize will only ever run one classifier process at a time. If you have a lot of resources available and want to run as many processes in parallel as possible, you can turn on concurrency here." : "Recognize는 기본적으로 한 번에 하나의 분류 프로세스만 실행합니다. 많은 리소스를 가지고 있고, 가능한 한 많은 프로세스를 병렬로 실행하고 싶다면, 여기서 동시성을 활성화할 수 있습니다.", + "By default, recognize will only ever run one classifier process at a time. If you have a lot of resources available and want to run as many processes in parallel as possible, you can turn on concurrency here." : "Recognize는 기본 설정으로 한 번에 하나의 분류 프로세스만 실행합니다. 만약 리소스가 충분하고 가능한 한 많은 프로세스를 병렬로 실행하고자 한다면, 여기서 동시성을 활성화할 수 있습니다.", "Enable unlimited concurrency of classifier processes" : "분류 프로세스의 무제한 동시성 활성화", "Tensorflow WASM mode" : "Tensorflow WASM 모드", "Checking CPU" : "CPU 확인중", @@ -73,7 +73,7 @@ "Your machine supports native TensorFlow operation, you do not need WASM mode." : "이 시스템은 Native TensorFlow 작동을 지원하므로, WASM 모드가 필요하지 않습니다.", "WASM mode was activated automatically, because your machine does not support native TensorFlow operation:" : "시스템이 Native TensorFlow 작동을 지원하지 않기 때문에 WASM 모드가 자동으로 활성화되었습니다:", "Enable WASM mode" : "WASM 모드 활성화", - "Recognize uses Tensorflow for running the machine learning models. Not all installations support Tensorflow, either because the CPU does not support AVX instructions, or because the platform is not x86 (ie. on a Raspberry Pi, which is ARM), or because the Operating System that your nextcloud runs on (when using docker, then that is the OS within the docker image) does not come with GNU lib C (for example Alpine Linux, which is also used by Nextcloud AIO). In most cases, even if your installation does not support native Tensorflow operation, you can still run Tensorflow using WebAssembly (WASM) in Node.js. This is somewhat slower but still works." : "Recognize는 기계 학습 모델을 실행하기 위해 Tensorflow를 사용합니다. 모든 시스템이 Tensorflow를 지원하는 것은 아닙니다. 이는 CPU가 AVX 명령을 지원하지 않거나, 플랫폼이 x86이 아니거나 (예: ARM인 라즈베리 파이), 현재 이 Nextcloud가 실행중인 운영 체제(도커를 사용한다면 도커 이미지 내의 OS)가 GNU lib C를 포함하지 않기 때문일 수 있습니다(예: Nextcloud AIO에 사용되는 Alpine Linux). 시스템이 Native TensorFlow 작동을 지원하지 않더라도, Node.js의 WebAssembly(WASM)를 사용하여 TensorFlow를 실행할 수 있습니다. 이는 다소 느리지만 작동합니다.", + "Recognize uses Tensorflow for running the machine learning models. Not all installations support Tensorflow, either because the CPU does not support AVX instructions, or because the platform is not x86 (ie. on a Raspberry Pi, which is ARM), or because the Operating System that your nextcloud runs on (when using docker, then that is the OS within the docker image) does not come with GNU lib C (for example Alpine Linux, which is also used by Nextcloud AIO). In most cases, even if your installation does not support native Tensorflow operation, you can still run Tensorflow using WebAssembly (WASM) in Node.js. This is somewhat slower but still works." : "Recognize는 머신 러닝 모델을 실행하기 위해 TensorFlow를 사용합니다. 하지만 모든 시스템이 TensorFlow를 지원하는 것은 아닙니다. 그 이유는 CPU가 AVX 명령을 지원하지 않거나, 플랫폼이 x86이 아닌 시스템(예:ARM 시스템인 Raspberry Pi)일 수 있으며, 또는 Nextcloud가 실행되는 운영 체제(도커 사용 시 도커 이미지 내 OS)가 GNU lib C를 포함하지 않을 수도 있기 때문입니다(예: Nextcloud AIO에서 사용되는 Alpine Linux). 대부분의 경우, 시스템이 Native TensorFlow 작동을 지원하지 않더라도 Node.js에서 WebAssembly(WASM)를 사용해 TensorFlow를 실행할 수 있습니다. 이 방식은 다소 느리지만 정상적으로 작동합니다.", "Tensorflow GPU mode" : "Tensorflow GPU 모드", "Enable GPU mode" : "GPU 모드 활성화", "Like most machine learning models, Recognize will run even faster when using a GPU. Setting this up is non-trivial but works well when everything is setup correctly." : "다른 기계 학습 모델과 마찬가지로, Recognize는 GPU를 사용하면 더 빠르게 작동합니다. 세팅이 복잡할 수 있지만, 한번 제대로 설정되면 성능이 크게 향상됩니다.", diff --git a/l10n/lt_LT.js b/l10n/lt_LT.js index 95d9536b..a0e1d973 100644 --- a/l10n/lt_LT.js +++ b/l10n/lt_LT.js @@ -88,6 +88,7 @@ OC.L10N.register( "Bucket" : "Amazon S3 saugykla", "Mountain" : "Kalnas", "Festival" : "Festivalis", + "Event" : "Įvykis", "Public transport" : "Viešasis transportas", "Toy" : "Žaislas", "Vase" : "Vaza", diff --git a/l10n/lt_LT.json b/l10n/lt_LT.json index 2b071cd9..ad5f38ff 100644 --- a/l10n/lt_LT.json +++ b/l10n/lt_LT.json @@ -86,6 +86,7 @@ "Bucket" : "Amazon S3 saugykla", "Mountain" : "Kalnas", "Festival" : "Festivalis", + "Event" : "Įvykis", "Public transport" : "Viešasis transportas", "Toy" : "Žaislas", "Vase" : "Vaza",