Update JSON typos
This commit is contained in:
Øyvind 2024-11-14 13:35:32 +01:00 committed by GitHub
parent 56b0092f43
commit fb582e44a2
No known key found for this signature in database
GPG Key ID: B5690EEEBB952194

View File

@ -270,7 +270,7 @@
"Embedding Batch Size": "Batch-størrelse for innbygging", "Embedding Batch Size": "Batch-størrelse for innbygging",
"Embedding Model": "Innbyggingsmodell", "Embedding Model": "Innbyggingsmodell",
"Embedding Model Engine": "Motor for innbygging av modeller", "Embedding Model Engine": "Motor for innbygging av modeller",
"Embedding model set to \"{{embedding_model}}\"": "Innbyggingsmodell satt til \"{{embedding_model}}\"", "Embedding model set to \"{{embedding_model}}\"": "Innbyggingsmodell angitt til \"{{embedding_model}}\"",
"Enable Community Sharing": "Aktiver deling i fellesskap", "Enable Community Sharing": "Aktiver deling i fellesskap",
"Enable Memory Locking (mlock) to prevent model data from being swapped out of RAM. This option locks the model's working set of pages into RAM, ensuring that they will not be swapped out to disk. This can help maintain performance by avoiding page faults and ensuring fast data access.": "Aktiver Memory Locking (mlock) for å forhindre at modelldata byttes ut av RAM. Dette alternativet låser modellens arbeidssett med sider i RAM-minnet, slik at de ikke byttes ut til disk. Dette kan bidra til å opprettholde ytelsen ved å unngå sidefeil og sikre rask datatilgang.", "Enable Memory Locking (mlock) to prevent model data from being swapped out of RAM. This option locks the model's working set of pages into RAM, ensuring that they will not be swapped out to disk. This can help maintain performance by avoiding page faults and ensuring fast data access.": "Aktiver Memory Locking (mlock) for å forhindre at modelldata byttes ut av RAM. Dette alternativet låser modellens arbeidssett med sider i RAM-minnet, slik at de ikke byttes ut til disk. Dette kan bidra til å opprettholde ytelsen ved å unngå sidefeil og sikre rask datatilgang.",
"Enable Memory Mapping (mmap) to load model data. This option allows the system to use disk storage as an extension of RAM by treating disk files as if they were in RAM. This can improve model performance by allowing for faster data access. However, it may not work correctly with all systems and can consume a significant amount of disk space.": "Aktiver Memory Mapping (mmap) for å laste inn modelldata. Med dette alternativet kan systemet bruke disklagring som en utvidelse av RAM ved å behandle diskfiler som om de befant seg i RAM. Dette kan forbedre modellens ytelse ved å gi raskere datatilgang. Det er imidlertid ikke sikkert at det fungerer som det skal på alle systemer, og det kan kreve mye diskplass.", "Enable Memory Mapping (mmap) to load model data. This option allows the system to use disk storage as an extension of RAM by treating disk files as if they were in RAM. This can improve model performance by allowing for faster data access. However, it may not work correctly with all systems and can consume a significant amount of disk space.": "Aktiver Memory Mapping (mmap) for å laste inn modelldata. Med dette alternativet kan systemet bruke disklagring som en utvidelse av RAM ved å behandle diskfiler som om de befant seg i RAM. Dette kan forbedre modellens ytelse ved å gi raskere datatilgang. Det er imidlertid ikke sikkert at det fungerer som det skal på alle systemer, og det kan kreve mye diskplass.",
@ -471,8 +471,8 @@
"LDAP server updated": "LDAP-server oppdatert", "LDAP server updated": "LDAP-server oppdatert",
"Leaderboard": "Ledertavle", "Leaderboard": "Ledertavle",
"Leave empty for unlimited": "La stå tomt for ubegrenset", "Leave empty for unlimited": "La stå tomt for ubegrenset",
"Leave empty to include all models from \"{{URL}}/api/tags\" endpoint": "La stå tomt for å inkludere alle modeller fra endepunktet \"{{URL}}/api/tags\", "Leave empty to include all models from \"{{URL}}/api/tags\" endpoint": "La stå tomt for å inkludere alle modeller fra endepunktet \"{{URL}}/api/tags\"",
"Leave empty to include all models from \"{{URL}}/models\" endpoint": "La stå tomt for å inkludere alle modeller fra endepunktet \"{{URL}}/api/models\", "Leave empty to include all models from \"{{URL}}/models\" endpoint": "La stå tomt for å inkludere alle modeller fra endepunktet \"{{URL}}/api/models\"",
"Leave empty to include all models or select specific models": "La stå tomt for å inkludere alle modeller", "Leave empty to include all models or select specific models": "La stå tomt for å inkludere alle modeller",
"Leave empty to use the default prompt, or enter a custom prompt": "La stå tomt for å bruke standard ledetekst, eller angi en tilpasset ledetekst", "Leave empty to use the default prompt, or enter a custom prompt": "La stå tomt for å bruke standard ledetekst, eller angi en tilpasset ledetekst",
"Light": "Lys", "Light": "Lys",
@ -658,7 +658,7 @@
"Request Mode": "Forespørselsmodus", "Request Mode": "Forespørselsmodus",
"Reranking Model": "Omrangeringsmodell", "Reranking Model": "Omrangeringsmodell",
"Reranking model disabled": "Omrangeringsmodell deaktivert", "Reranking model disabled": "Omrangeringsmodell deaktivert",
"Reranking model set to \"{{reranking_model}}\"": "Omrangeringsmodell er satt til \"{{reranking_model}}\"": "Omrangeringsmodell er angitt til \"{{reranking_model}}\"", "Reranking model set to \"{{reranking_model}}\"": "Omrangeringsmodell er angitt til \"{{reranking_model}}\"",
"Reset": "Tilbakestill", "Reset": "Tilbakestill",
"Reset Upload Directory": "Tilbakestill opplastingskatalog", "Reset Upload Directory": "Tilbakestill opplastingskatalog",
"Reset Vector Storage/Knowledge": "Tilbakestill Vector lagring/kunnskap", "Reset Vector Storage/Knowledge": "Tilbakestill Vector lagring/kunnskap",
@ -817,7 +817,7 @@
"This action cannot be undone. Do you wish to continue?": "Denne handlingen kan ikke angres. Vil du fortsette?", "This action cannot be undone. Do you wish to continue?": "Denne handlingen kan ikke angres. Vil du fortsette?",
"This ensures that your valuable conversations are securely saved to your backend database. Thank you!": "Dette sikrer at de verdifulle samtalene dine lagres sikkert i backend-databasen din. Takk!", "This ensures that your valuable conversations are securely saved to your backend database. Thank you!": "Dette sikrer at de verdifulle samtalene dine lagres sikkert i backend-databasen din. Takk!",
"This is an experimental feature, it may not function as expected and is subject to change at any time.": "Dette er en eksperimentell funksjon. Det er mulig den ikke fungerer som forventet, og den kan endres når som helst.", "This is an experimental feature, it may not function as expected and is subject to change at any time.": "Dette er en eksperimentell funksjon. Det er mulig den ikke fungerer som forventet, og den kan endres når som helst.",
"This option controls how many tokens are preserved when refreshing the context. For example, if set to 2, the last 2 tokens of the conversation context will be retained. Preserving context can help maintain the continuity of a conversation, but it may reduce the ability to respond to new topics. (Default: 24)": "Dette alternativet styrer hvor mange tokens som bevares når konteksten oppdateres. Hvis det for eksempel er satt til 2, beholdes de to siste symbolene i samtalekonteksten. Bevaring av konteksten kan bidra til å opprettholde kontinuiteten i en samtale, men det kan redusere muligheten til å svare på nye emner. (Standard: 24)", "This option controls how many tokens are preserved when refreshing the context. For example, if set to 2, the last 2 tokens of the conversation context will be retained. Preserving context can help maintain the continuity of a conversation, but it may reduce the ability to respond to new topics. (Default: 24)": "Dette alternativet styrer hvor mange tokens som bevares når konteksten oppdateres. Hvis det for eksempel er angitt til 2, beholdes de to siste symbolene i samtalekonteksten. Bevaring av konteksten kan bidra til å opprettholde kontinuiteten i en samtale, men det kan redusere muligheten til å svare på nye emner. (Standard: 24)",
"This option sets the maximum number of tokens the model can generate in its response. Increasing this limit allows the model to provide longer answers, but it may also increase the likelihood of unhelpful or irrelevant content being generated. (Default: 128)": "Dette alternativet angir det maksimale antallet tokens modellen kan generere i svaret sitt. Hvis du øker denne grensen, kan modellen gi lengre svar, men det kan også øke sannsynligheten for at det genereres uhensiktsmessig eller irrelevant innhold. (Standard: 128)", "This option sets the maximum number of tokens the model can generate in its response. Increasing this limit allows the model to provide longer answers, but it may also increase the likelihood of unhelpful or irrelevant content being generated. (Default: 128)": "Dette alternativet angir det maksimale antallet tokens modellen kan generere i svaret sitt. Hvis du øker denne grensen, kan modellen gi lengre svar, men det kan også øke sannsynligheten for at det genereres uhensiktsmessig eller irrelevant innhold. (Standard: 128)",
"This option will delete all existing files in the collection and replace them with newly uploaded files.": "Dette alternativet sletter alle eksisterende filer i samlingen og erstatter dem med nyopplastede filer.", "This option will delete all existing files in the collection and replace them with newly uploaded files.": "Dette alternativet sletter alle eksisterende filer i samlingen og erstatter dem med nyopplastede filer.",
"This response was generated by \"{{model}}\"": "Dette svaret er generert av \"{{modell}}\"", "This response was generated by \"{{model}}\"": "Dette svaret er generert av \"{{modell}}\"",