mirror of
https://github.com/open-webui/open-webui
synced 2025-05-02 12:03:51 +00:00
Update translation.json
This commit is contained in:
parent
b652b8e5f3
commit
88b93241db
@ -802,10 +802,10 @@
|
||||
"PDF Extract Images (OCR)": "PDF extraheer afbeeldingen (OCR)",
|
||||
"pending": "wachtend",
|
||||
"Permission denied when accessing media devices": "Toegang geweigerd bij het toegang krijgen tot media-apparaten",
|
||||
"Permission denied when accessing microphone": "Toegang geweigerd bij het toegang krijgen tot de microfoon",
|
||||
"Permission denied when accessing microphone": "Toegang geweigerd bij toegang tot de microfoon",
|
||||
"Permission denied when accessing microphone: {{error}}": "Toestemming geweigerd bij toegang tot microfoon: {{error}}",
|
||||
"Permissions": "Toestemmingen",
|
||||
"Perplexity API Key": "",
|
||||
"Perplexity API Key": "Perplexity API-sleutel",
|
||||
"Personalization": "Personalisatie",
|
||||
"Pin": "Zet vast",
|
||||
"Pinned": "Vastgezet",
|
||||
@ -818,44 +818,44 @@
|
||||
"Plain text (.txt)": "Platte tekst (.txt)",
|
||||
"Playground": "Speeltuin",
|
||||
"Please carefully review the following warnings:": "Beoordeel de volgende waarschuwingen nauwkeurig:",
|
||||
"Please do not close the settings page while loading the model.": "",
|
||||
"Please do not close the settings page while loading the model.": "Sluit de instellingenpagina niet terwijl het model geladen wordt.",
|
||||
"Please enter a prompt": "Voer een prompt in",
|
||||
"Please fill in all fields.": "Voer alle velden in",
|
||||
"Please select a model first.": "",
|
||||
"Please select a model.": "",
|
||||
"Please select a model first.": "Selecteer eerst een model",
|
||||
"Please select a model.": "Selecteer een model",
|
||||
"Please select a reason": "Voer een reden in",
|
||||
"Port": "Poort",
|
||||
"Positive attitude": "Positieve positie",
|
||||
"Prefix ID": "Voorvoegsel-ID",
|
||||
"Prefix ID is used to avoid conflicts with other connections by adding a prefix to the model IDs - leave empty to disable": "Voorvoegsel-ID wordt gebruikt om conflicten met andere verbindingen te vermijden door een voorvoegsel aan het model-ID toe te voegen - laat leeg om uit te schakelen",
|
||||
"Presence Penalty": "",
|
||||
"Presence Penalty": "Aanwezigheidsstraf",
|
||||
"Previous 30 days": "Afgelopen 30 dagen",
|
||||
"Previous 7 days": "Afgelopen 7 dagen",
|
||||
"Private": "",
|
||||
"Private": "Privé",
|
||||
"Profile Image": "Profielafbeelding",
|
||||
"Prompt": "",
|
||||
"Prompt": "Prompt",
|
||||
"Prompt (e.g. Tell me a fun fact about the Roman Empire)": "Prompt (bv. Vertel me een leuke gebeurtenis over het Romeinse Rijk)",
|
||||
"Prompt Autocompletion": "",
|
||||
"Prompt Autocompletion": "Automatische promptaanvulling",
|
||||
"Prompt Content": "Promptinhoud",
|
||||
"Prompt created successfully": "Prompt succesvol aangemaakt",
|
||||
"Prompt suggestions": "Promptsuggesties",
|
||||
"Prompt updated successfully": "Prompt succesvol bijgewerkt",
|
||||
"Prompts": "Prompts",
|
||||
"Prompts Access": "Prompttoegang",
|
||||
"Prompts Public Sharing": "",
|
||||
"Public": "",
|
||||
"Prompts Public Sharing": "Publiek prompts delen",
|
||||
"Public": "Publiek",
|
||||
"Pull \"{{searchValue}}\" from Ollama.com": "Haal \"{{searchValue}}\" uit Ollama.com",
|
||||
"Pull a model from Ollama.com": "Haal een model van Ollama.com",
|
||||
"Query Generation Prompt": "Vraaggeneratieprompt",
|
||||
"RAG Template": "RAG-sjabloon",
|
||||
"Rating": "Beoordeling",
|
||||
"Re-rank models by topic similarity": "Herrangschik modellen op basis van onderwerpsovereenkomst",
|
||||
"Read": "",
|
||||
"Read": "Voorlezen",
|
||||
"Read Aloud": "Voorlezen",
|
||||
"Reasoning Effort": "",
|
||||
"Reasoning Effort": "Redeneerinspanning",
|
||||
"Record voice": "Neem stem op",
|
||||
"Redirecting you to Open WebUI Community": "Je wordt doorgestuurd naar OpenWebUI Community",
|
||||
"Reduces the probability of generating nonsense. A higher value (e.g. 100) will give more diverse answers, while a lower value (e.g. 10) will be more conservative.": "",
|
||||
"Reduces the probability of generating nonsense. A higher value (e.g. 100) will give more diverse answers, while a lower value (e.g. 10) will be more conservative.": "Vermindert de kans op het genereren van onzin. Een hogere waarde (bijv. 100) zal meer diverse antwoorden geven, terwijl een lagere waarde (bijv. 10) conservatiever zal zijn.",
|
||||
"Refer to yourself as \"User\" (e.g., \"User is learning Spanish\")": "Refereer naar jezelf als \"user\" (bv. \"User is Spaans aan het leren\"",
|
||||
"References from": "Referenties van",
|
||||
"Refused when it shouldn't have": "Geweigerd terwijl het niet had moeten",
|
||||
@ -867,8 +867,8 @@
|
||||
"Rename": "Hernoemen",
|
||||
"Reorder Models": "Herschik modellen",
|
||||
"Repeat Last N": "Herhaal Laatste N",
|
||||
"Repeat Penalty (Ollama)": "",
|
||||
"Reply in Thread": "",
|
||||
"Repeat Penalty (Ollama)": "Herhalingsstraf (Ollama)",
|
||||
"Reply in Thread": "Antwoord in draad",
|
||||
"Request Mode": "Request Modus",
|
||||
"Reranking Model": "Reranking Model",
|
||||
"Reranking model disabled": "Reranking model uitgeschakeld",
|
||||
@ -877,12 +877,12 @@
|
||||
"Reset All Models": "Herstel alle modellen",
|
||||
"Reset Upload Directory": "Herstel Uploadmap",
|
||||
"Reset Vector Storage/Knowledge": "Herstel Vectoropslag/-kennis",
|
||||
"Reset view": "",
|
||||
"Reset view": "Herstel zicht",
|
||||
"Response notifications cannot be activated as the website permissions have been denied. Please visit your browser settings to grant the necessary access.": "Antwoordmeldingen kunnen niet worden geactiveerd omdat de rechten voor de website zijn geweigerd. Ga naar de instellingen van uw browser om de benodigde toegang te verlenen.",
|
||||
"Response splitting": "Antwoord splitsing",
|
||||
"Result": "Resultaat",
|
||||
"Retrieval": "",
|
||||
"Retrieval Query Generation": "",
|
||||
"Retrieval": "Ophalen",
|
||||
"Retrieval Query Generation": "Ophaalqueriegeneratie",
|
||||
"Rich Text Input for Chat": "Rijke tekstinvoer voor chatten",
|
||||
"RK": "RK",
|
||||
"Role": "Rol",
|
||||
@ -912,11 +912,11 @@
|
||||
"Search options": "Opties zoeken",
|
||||
"Search Prompts": "Prompts zoeken",
|
||||
"Search Result Count": "Aantal zoekresultaten",
|
||||
"Search the internet": "",
|
||||
"Search the internet": "Zoek op het internet",
|
||||
"Search Tools": "Zoek gereedschappen",
|
||||
"SearchApi API Key": "SearchApi API-sleutel",
|
||||
"SearchApi Engine": "SearchApi Engine",
|
||||
"Searched {{count}} sites": "",
|
||||
"Searched {{count}} sites": "Zocht op {{count}} sites",
|
||||
"Searching \"{{searchQuery}}\"": "\"{{searchQuery}}\" aan het zoeken.",
|
||||
"Searching Knowledge for \"{{searchQuery}}\"": "Zoek kennis bij \"{{searchQuery}}\"",
|
||||
"Searxng Query URL": "Searxng Query URL",
|
||||
@ -931,8 +931,8 @@
|
||||
"Select a pipeline": "Selecteer een pijplijn",
|
||||
"Select a pipeline url": "Selecteer een pijplijn-URL",
|
||||
"Select a tool": "Selecteer een tool",
|
||||
"Select an auth method": "",
|
||||
"Select an Ollama instance": "",
|
||||
"Select an auth method": "Selecteer een authenticatiemethode",
|
||||
"Select an Ollama instance": "Selecteer een Ollama-instantie",
|
||||
"Select Engine": "Selecteer Engine",
|
||||
"Select Knowledge": "Selecteer kennis",
|
||||
"Select only one model to call": "Selecteer maar één model om aan te roepen",
|
||||
@ -943,8 +943,8 @@
|
||||
"Send message": "Stuur bericht",
|
||||
"Sends `stream_options: { include_usage: true }` in the request.\nSupported providers will return token usage information in the response when set.": "Stuurt `stream_options: { include_usage: true }` in het verzoek. \nOndersteunde providers zullen informatie over tokengebruik in het antwoord terugsturen als dit aan staat.",
|
||||
"September": "September",
|
||||
"SerpApi API Key": "",
|
||||
"SerpApi Engine": "",
|
||||
"SerpApi API Key": "SerpApi API-sleutel",
|
||||
"SerpApi Engine": "SerpApi-engine",
|
||||
"Serper API Key": "Serper API-sleutel",
|
||||
"Serply API Key": "Serply API-sleutel",
|
||||
"Serpstack API Key": "Serpstack API-sleutel",
|
||||
@ -960,26 +960,26 @@
|
||||
"Set Scheduler": "Stel planner in",
|
||||
"Set Steps": "Stel stappen in",
|
||||
"Set Task Model": "Taakmodel instellen",
|
||||
"Set the number of layers, which will be off-loaded to GPU. Increasing this value can significantly improve performance for models that are optimized for GPU acceleration but may also consume more power and GPU resources.": "",
|
||||
"Set the number of layers, which will be off-loaded to GPU. Increasing this value can significantly improve performance for models that are optimized for GPU acceleration but may also consume more power and GPU resources.": "Stel het aantal lagen in dat wordt overgeheveld naar de GPU. Het verhogen van deze waarde kan de prestaties aanzienlijk verbeteren voor modellen die geoptimaliseerd zijn voor GPU-versnelling, maar kan ook meer stroom en GPU-bronnen verbruiken.",
|
||||
"Set the number of worker threads used for computation. This option controls how many threads are used to process incoming requests concurrently. Increasing this value can improve performance under high concurrency workloads but may also consume more CPU resources.": "Stel het aantal threads in dat wordt gebruikt voor berekeningen. Deze optie bepaalt hoeveel threads worden gebruikt om gelijktijdig binnenkomende verzoeken te verwerken. Het verhogen van deze waarde kan de prestaties verbeteren onder hoge concurrency werklasten, maar kan ook meer CPU-bronnen verbruiken.",
|
||||
"Set Voice": "Stel stem in",
|
||||
"Set whisper model": "Stel Whisper-model in",
|
||||
"Sets a flat bias against tokens that have appeared at least once. A higher value (e.g., 1.5) will penalize repetitions more strongly, while a lower value (e.g., 0.9) will be more lenient. At 0, it is disabled.": "",
|
||||
"Sets a scaling bias against tokens to penalize repetitions, based on how many times they have appeared. A higher value (e.g., 1.5) will penalize repetitions more strongly, while a lower value (e.g., 0.9) will be more lenient. At 0, it is disabled.": "",
|
||||
"Sets how far back for the model to look back to prevent repetition.": "",
|
||||
"Sets the random number seed to use for generation. Setting this to a specific number will make the model generate the same text for the same prompt.": "",
|
||||
"Sets the size of the context window used to generate the next token.": "",
|
||||
"Sets a flat bias against tokens that have appeared at least once. A higher value (e.g., 1.5) will penalize repetitions more strongly, while a lower value (e.g., 0.9) will be more lenient. At 0, it is disabled.": "Stelt een vlakke bias in tegen tokens die minstens één keer zijn voorgekomen. Een hogere waarde (bijv. 1,5) straft herhalingen sterker af, terwijl een lagere waarde (bijv. 0,9) toegeeflijker is. Bij 0 is het uitgeschakeld.",
|
||||
"Sets a scaling bias against tokens to penalize repetitions, based on how many times they have appeared. A higher value (e.g., 1.5) will penalize repetitions more strongly, while a lower value (e.g., 0.9) will be more lenient. At 0, it is disabled.": "Stelt een schaalvooroordeel in tegen tokens om herhalingen te bestraffen, gebaseerd op hoe vaak ze zijn voorgekomen. Een hogere waarde (bijv. 1,5) straft herhalingen sterker af, terwijl een lagere waarde (bijv. 0,9) toegeeflijker is. Bij 0 is het uitgeschakeld.",
|
||||
"Sets how far back for the model to look back to prevent repetition.": "Stelt in hoe ver het model terug moet kijken om herhaling te voorkomen.",
|
||||
"Sets the random number seed to use for generation. Setting this to a specific number will make the model generate the same text for the same prompt.": "Stelt de willekeurigheid in om te gebruiken voor het genereren. Als je dit op een specifiek getal instelt, genereert het model dezelfde tekst voor dezelfde prompt.",
|
||||
"Sets the size of the context window used to generate the next token.": "Stelt de grootte van het contextvenster in dat gebruikt wordt om het volgende token te genereren.",
|
||||
"Sets the stop sequences to use. When this pattern is encountered, the LLM will stop generating text and return. Multiple stop patterns may be set by specifying multiple separate stop parameters in a modelfile.": "Stelt de te gebruiken stopsequentie in. Als dit patroon wordt gevonden, stopt de LLM met het genereren van tekst en keert terug. Er kunnen meerdere stoppatronen worden ingesteld door meerdere afzonderlijke stopparameters op te geven in een modelbestand.",
|
||||
"Settings": "Instellingen",
|
||||
"Settings saved successfully!": "Instellingen succesvol opgeslagen!",
|
||||
"Share": "Delen",
|
||||
"Share Chat": "Deel chat",
|
||||
"Share to Open WebUI Community": "Deel naar OpenWebUI-community",
|
||||
"Sharing Permissions": "",
|
||||
"Sharing Permissions": "Deeltoestemmingen",
|
||||
"Show": "Toon",
|
||||
"Show \"What's New\" modal on login": "Toon \"Wat is nieuw\" bij inloggen",
|
||||
"Show Admin Details in Account Pending Overlay": "Admin-details weergeven in overlay in afwachting van account",
|
||||
"Show Model": "",
|
||||
"Show Model": "Toon model",
|
||||
"Show shortcuts": "Toon snelkoppelingen",
|
||||
"Show your support!": "Toon je steun",
|
||||
"Showcased creativity": "Toonde creativiteit",
|
||||
@ -990,7 +990,7 @@
|
||||
"Sign up": "Registreren",
|
||||
"Sign up to {{WEBUI_NAME}}": "Meld je aan bij {{WEBUI_NAME}}",
|
||||
"Signing in to {{WEBUI_NAME}}": "Aan het inloggen bij {{WEBUI_NAME}}",
|
||||
"sk-1234": "",
|
||||
"sk-1234": "sk-1234",
|
||||
"Source": "Bron",
|
||||
"Speech Playback Speed": "Afspeelsnelheid spraak",
|
||||
"Speech recognition error: {{error}}": "Spraakherkenning fout: {{error}}",
|
||||
@ -1010,13 +1010,13 @@
|
||||
"System": "Systeem",
|
||||
"System Instructions": "Systeem instructies",
|
||||
"System Prompt": "Systeem prompt",
|
||||
"Tags": "",
|
||||
"Tags Generation": "",
|
||||
"Tags": "Tags",
|
||||
"Tags Generation": "Taggeneratie",
|
||||
"Tags Generation Prompt": "Prompt voor taggeneratie",
|
||||
"Tail free sampling is used to reduce the impact of less probable tokens from the output. A higher value (e.g., 2.0) will reduce the impact more, while a value of 1.0 disables this setting.": "",
|
||||
"Talk to model": "",
|
||||
"Tail free sampling is used to reduce the impact of less probable tokens from the output. A higher value (e.g., 2.0) will reduce the impact more, while a value of 1.0 disables this setting.": "Tail free sampling wordt gebruikt om de impact van minder waarschijnlijke tokens uit de uitvoer te verminderen. Een hogere waarde (bijvoorbeeld 2,0) zal de impact meer verminderen, terwijl een waarde van 1,0 deze instelling uitschakelt.",
|
||||
"Talk to model": "Praat met model",
|
||||
"Tap to interrupt": "Tik om te onderbreken",
|
||||
"Tasks": "",
|
||||
"Tasks": "Taken",
|
||||
"Tavily API Key": "Tavily API-sleutel",
|
||||
"Tell us more:": "Vertel ons meer:",
|
||||
"Temperature": "Temperatuur",
|
||||
@ -1028,24 +1028,24 @@
|
||||
"Thanks for your feedback!": "Bedankt voor je feedback!",
|
||||
"The Application Account DN you bind with for search": "Het applicatieaccount DN waarmee je zoekt",
|
||||
"The base to search for users": "De basis om gebruikers te zoeken",
|
||||
"The batch size determines how many text requests are processed together at once. A higher batch size can increase the performance and speed of the model, but it also requires more memory.": "",
|
||||
"The batch size determines how many text requests are processed together at once. A higher batch size can increase the performance and speed of the model, but it also requires more memory.": "De batchgrootte bepaalt hoeveel tekstverzoeken tegelijk worden verwerkt. Een hogere batchgrootte kan de prestaties en snelheid van het model verhogen, maar vereist ook meer geheugen.",
|
||||
"The developers behind this plugin are passionate volunteers from the community. If you find this plugin helpful, please consider contributing to its development.": "De ontwikkelaars achter deze plugin zijn gepassioneerde vrijwilligers uit de gemeenschap. Als je deze plugin nuttig vindt, overweeg dan om bij te dragen aan de ontwikkeling ervan.",
|
||||
"The evaluation leaderboard is based on the Elo rating system and is updated in real-time.": "Het beoordelingsklassement is gebaseerd op het Elo-classificatiesysteem en wordt in realtime bijgewerkt.",
|
||||
"The LDAP attribute that maps to the mail that users use to sign in.": "",
|
||||
"The LDAP attribute that maps to the username that users use to sign in.": "Het LDAP-attribuut dat de gebruikersnaam koppelt die gebruikers gebruiken om in te loggen.",
|
||||
"The LDAP attribute that maps to the mail that users use to sign in.": "Het LDAP-attribuut dat verwijst naar de e-mail waarmee gebruikers zich aanmelden.",
|
||||
"The LDAP attribute that maps to the username that users use to sign in.": "Het LDAP-attribuut dat verwijst naar de gebruikersnaam die gebruikers gebruiken om in te loggen.",
|
||||
"The leaderboard is currently in beta, and we may adjust the rating calculations as we refine the algorithm.": "Het leaderboard is momenteel in bèta en we kunnen de ratingberekeningen aanpassen naarmate we het algoritme verfijnen.",
|
||||
"The maximum file size in MB. If the file size exceeds this limit, the file will not be uploaded.": "De maximale bestandsgrootte in MB. Als het bestand groter is dan deze limiet, wordt het bestand niet geüpload.",
|
||||
"The maximum number of files that can be used at once in chat. If the number of files exceeds this limit, the files will not be uploaded.": "Het maximum aantal bestanden dat in één keer kan worden gebruikt in de chat. Als het aantal bestanden deze limiet overschrijdt, worden de bestanden niet geüpload.",
|
||||
"The score should be a value between 0.0 (0%) and 1.0 (100%).": "Het score moet een waarde zijn tussen 0.0 (0%) en 1.0 (100%).",
|
||||
"The temperature of the model. Increasing the temperature will make the model answer more creatively.": "",
|
||||
"The score should be a value between 0.0 (0%) and 1.0 (100%).": "De score moet een waarde zijn tussen 0.0 (0%) en 1.0 (100%).",
|
||||
"The temperature of the model. Increasing the temperature will make the model answer more creatively.": "De temperatuur van het model. De temperatuur groter maken zal het model creatiever laten antwoorden.",
|
||||
"Theme": "Thema",
|
||||
"Thinking...": "Aan het denken...",
|
||||
"This action cannot be undone. Do you wish to continue?": "Deze actie kan niet ongedaan worden gemaakt. Wilt u doorgaan?",
|
||||
"This channel was created on {{createdAt}}. This is the very beginning of the {{channelName}} channel.": "",
|
||||
"This channel was created on {{createdAt}}. This is the very beginning of the {{channelName}} channel.": "Dit kanaal was gecreëerd op {{createdAt}}. Dit het begin van het {{channelName}} kanaal.",
|
||||
"This ensures that your valuable conversations are securely saved to your backend database. Thank you!": "Dit zorgt ervoor dat je waardevolle gesprekken veilig worden opgeslagen in je backend database. Dank je wel!",
|
||||
"This is an experimental feature, it may not function as expected and is subject to change at any time.": "Dit is een experimentele functie, het kan functioneren zoals verwacht en kan op elk moment veranderen.",
|
||||
"This option controls how many tokens are preserved when refreshing the context. For example, if set to 2, the last 2 tokens of the conversation context will be retained. Preserving context can help maintain the continuity of a conversation, but it may reduce the ability to respond to new topics.": "",
|
||||
"This option sets the maximum number of tokens the model can generate in its response. Increasing this limit allows the model to provide longer answers, but it may also increase the likelihood of unhelpful or irrelevant content being generated.": "",
|
||||
"This option controls how many tokens are preserved when refreshing the context. For example, if set to 2, the last 2 tokens of the conversation context will be retained. Preserving context can help maintain the continuity of a conversation, but it may reduce the ability to respond to new topics.": "Deze optie bepaalt hoeveel tokens bewaard blijven bij het verversen van de context. Als deze bijvoorbeeld op 2 staat, worden de laatste 2 tekens van de context van het gesprek bewaard. Het behouden van de context kan helpen om de continuïteit van een gesprek te behouden, maar het kan de mogelijkheid om te reageren op nieuwe onderwerpen verminderen.",
|
||||
"This option sets the maximum number of tokens the model can generate in its response. Increasing this limit allows the model to provide longer answers, but it may also increase the likelihood of unhelpful or irrelevant content being generated.": "Deze optie stelt het maximum aantal tokens in dat het model kan genereren in zijn antwoord. Door dit limiet te verhogen, kan het model langere antwoorden geven, maar het kan ook de kans vergroten dat er onbehulpzame of irrelevante inhoud wordt gegenereerd.",
|
||||
"This option will delete all existing files in the collection and replace them with newly uploaded files.": "Deze optie verwijdert alle bestaande bestanden in de collectie en vervangt ze door nieuw geüploade bestanden.",
|
||||
"This response was generated by \"{{model}}\"": "Dit antwoord is gegenereerd door \"{{model}}\"",
|
||||
"This will delete": "Dit zal verwijderen",
|
||||
@ -1054,8 +1054,8 @@
|
||||
"This will delete all models including custom models and cannot be undone.": "Dit zal alle modellen, ook aangepaste modellen, verwijderen en kan niet ontdaan worden",
|
||||
"This will reset the knowledge base and sync all files. Do you wish to continue?": "Dit zal de kennisdatabase resetten en alle bestanden synchroniseren. Wilt u doorgaan?",
|
||||
"Thorough explanation": "Gevorderde uitleg",
|
||||
"Thought for {{DURATION}}": "",
|
||||
"Thought for {{DURATION}} seconds": "",
|
||||
"Thought for {{DURATION}}": "Dacht {{DURATION}}",
|
||||
"Thought for {{DURATION}} seconds": "Dacht {{DURATION}} seconden",
|
||||
"Tika": "Tika",
|
||||
"Tika Server URL required.": "Tika Server-URL vereist",
|
||||
"Tiktoken": "Tiktoken",
|
||||
@ -1064,14 +1064,14 @@
|
||||
"Title (e.g. Tell me a fun fact)": "Titel (bv. Vertel me een leuke gebeurtenis)",
|
||||
"Title Auto-Generation": "Titel Auto-Generatie",
|
||||
"Title cannot be an empty string.": "Titel kan niet leeg zijn.",
|
||||
"Title Generation": "",
|
||||
"Title Generation": "Titelgeneratie",
|
||||
"Title Generation Prompt": "Titel Generatie Prompt",
|
||||
"TLS": "TLS",
|
||||
"To access the available model names for downloading,": "Om de beschikbare modelnamen voor downloaden te openen,",
|
||||
"To access the GGUF models available for downloading,": "Om toegang te krijgen tot de GGUF-modellen die beschikbaar zijn voor downloaden,",
|
||||
"To access the WebUI, please reach out to the administrator. Admins can manage user statuses from the Admin Panel.": "Om toegang te krijgen tot de WebUI, neem contact op met de administrator. Beheerders kunnen de gebruikersstatussen beheren vanuit het Beheerderspaneel.",
|
||||
"To attach knowledge base here, add them to the \"Knowledge\" workspace first.": "Om hier een kennisbron bij te voegen, voeg ze eerst aan de \"Kennis\" werkplaats toe.",
|
||||
"To learn more about available endpoints, visit our documentation.": "",
|
||||
"To learn more about available endpoints, visit our documentation.": "Om meer over beschikbare endpoints te leren, bezoek onze documentatie.",
|
||||
"To protect your privacy, only ratings, model IDs, tags, and metadata are shared from your feedback—your chat logs remain private and are not included.": "Om je privacy te beschermen, worden alleen beoordelingen, model-ID's, tags en metadata van je feedback gedeeld - je chatlogs blijven privé en worden niet opgenomen.",
|
||||
"To select actions here, add them to the \"Functions\" workspace first.": "Om hier acties te selecteren, voeg ze eerst aan de \"Functies\" Werkplaats toe.",
|
||||
"To select filters here, add them to the \"Functions\" workspace first.": "Om hier filters te selecteren, voeg ze eerst aan de \"Functies\" Werkplaats toe.",
|
||||
|
Loading…
Reference in New Issue
Block a user