chore: add changes based on 'npm run format'

This commit is contained in:
guenhter 2025-06-20 09:22:57 +02:00
parent a21519f8f2
commit 9821ee5f99
5 changed files with 30 additions and 27 deletions

View File

@ -1593,7 +1593,7 @@ export interface ModelMeta {
profile_image_url?: string;
}
export interface ModelParams { }
export interface ModelParams {}
export type GlobalModelConfig = ModelConfig[];

View File

@ -46,7 +46,9 @@
>
<Tooltip
content={marked.parse(
sanitizeResponseContent(models[selectedModelIdx]?.info?.meta?.description ?? '').replaceAll('\n', '<br>')
sanitizeResponseContent(
models[selectedModelIdx]?.info?.meta?.description ?? ''
).replaceAll('\n', '<br>')
)}
placement="right"
>
@ -96,7 +98,9 @@
class="mt-0.5 text-base font-normal text-gray-500 dark:text-gray-400 line-clamp-3 markdown"
>
{@html marked.parse(
sanitizeResponseContent(models[selectedModelIdx]?.info?.meta?.description).replaceAll('\n', '<br>')
sanitizeResponseContent(
models[selectedModelIdx]?.info?.meta?.description
).replaceAll('\n', '<br>')
)}
</div>
{#if models[selectedModelIdx]?.info?.meta?.user}

View File

@ -274,11 +274,10 @@
<div class=" my-2.5 text-sm font-medium">{$i18n.t('System Prompt')}</div>
<Textarea
bind:value={system}
className={
"w-full text-sm outline-hidden resize-vertical" + ($settings.highContrastMode
? " p-2.5 border-2 border-gray-300 dark:border-gray-700 rounded-lg bg-gray-50 dark:bg-gray-850 text-gray-900 dark:text-gray-100 focus:ring-1 focus:ring-blue-500 focus:border-blue-500 overflow-y-hidden"
: " bg-white dark:text-gray-300 dark:bg-gray-900")
}
className={'w-full text-sm outline-hidden resize-vertical' +
($settings.highContrastMode
? ' p-2.5 border-2 border-gray-300 dark:border-gray-700 rounded-lg bg-gray-50 dark:bg-gray-850 text-gray-900 dark:text-gray-100 focus:ring-1 focus:ring-blue-500 focus:border-blue-500 overflow-y-hidden'
: ' bg-white dark:text-gray-300 dark:bg-gray-900')}
rows="4"
placeholder={$i18n.t('Enter system prompt here')}
/>

View File

@ -37,7 +37,7 @@
"Add content here": "Voeg hier content toe",
"Add Custom Parameter": "",
"Add custom prompt": "Voeg een aangepaste prompt toe",
"Add Files": "Voeg bestanden toe",
"Add Files": "Voeg bestanden toe",
"Add Group": "Voeg groep toe",
"Add Memory": "Voeg geheugen toe",
"Add Model": "Voeg model toe",
@ -193,7 +193,7 @@
"Clear memory": "Geheugen wissen",
"Clear Memory": "Geheugen wissen",
"click here": "klik hier",
"Click here for filter guides.": "Klik hier voor filterhulp.",
"Click here for filter guides.": "Klik hier voor filterhulp.",
"Click here for help.": "Klik hier voor hulp.",
"Click here to": "Klik hier om",
"Click here to download user import template file.": "Klik hier om het sjabloonbestand voor gebruikersimport te downloaden.",
@ -265,7 +265,7 @@
"Copy last code block": "Kopieer laatste codeblok",
"Copy last response": "Kopieer laatste antwoord",
"Copy Link": "Kopieer link",
"Copy to clipboard": "Kopieer naar klembord",
"Copy to clipboard": "Kopieer naar klembord",
"Copying to clipboard was successful!": "Kopiëren naar klembord was succesvol!",
"CORS must be properly configured by the provider to allow requests from Open WebUI.": "CORS moet goed geconfigureerd zijn bij de provider om verzoeken van Open WebUI toe te staan",
"Create": "Aanmaken",
@ -335,7 +335,7 @@
"Description": "Beschrijving",
"Detect Artifacts Automatically": "",
"Dictate": "",
"Didn't fully follow instructions": "Heeft niet alle instructies gevolgd",
"Didn't fully follow instructions": "Heeft niet alle instructies gevolgd",
"Direct": "Direct",
"Direct Connections": "Directe verbindingen",
"Direct Connections allow users to connect to their own OpenAI compatible API endpoints.": "Directe verbindingen stellen gebruikers in staat om met hun eigen OpenAI compatibele API-endpoints te verbinden.",
@ -605,7 +605,7 @@
"File removed successfully.": "Bestand succesvol verwijderd.",
"File size should not exceed {{maxSize}} MB.": "Bestandsgrootte mag niet groter zijn dan {{maxSize}} MB.",
"File Upload": "",
"File uploaded successfully": "Bestand succesvol geüpload",
"File uploaded successfully": "Bestand succesvol geüpload",
"Files": "Bestanden",
"Filter is now globally disabled": "Filter is nu globaal uitgeschakeld",
"Filter is now globally enabled": "Filter is nu globaal ingeschakeld",
@ -987,7 +987,7 @@
"Please select a model.": "Selecteer een model",
"Please select a reason": "Voer een reden in",
"Port": "Poort",
"Positive attitude": "Positieve houding",
"Positive attitude": "Positieve houding",
"Prefix ID": "Voorvoegsel-ID",
"Prefix ID is used to avoid conflicts with other connections by adding a prefix to the model IDs - leave empty to disable": "Voorvoegsel-ID wordt gebruikt om conflicten met andere verbindingen te vermijden door een voorvoegsel aan het model-ID toe te voegen - laat leeg om uit te schakelen",
"Prevent file creation": "",
@ -1230,24 +1230,24 @@
"Theme": "Thema",
"Thinking...": "Aan het denken...",
"This action cannot be undone. Do you wish to continue?": "Deze actie kan niet ongedaan worden gemaakt. Wilt u doorgaan?",
"This channel was created on {{createdAt}}. This is the very beginning of the {{channelName}} channel.": "Dit kanaal is aangemaakt op {{createdAt}}. Dit is het begin van het kanaal {{channelName}}.",
"This channel was created on {{createdAt}}. This is the very beginning of the {{channelName}} channel.": "Dit kanaal is aangemaakt op {{createdAt}}. Dit is het begin van het kanaal {{channelName}}.",
"This chat won't appear in history and your messages will not be saved.": "",
"This chat wont appear in history and your messages will not be saved.": "",
"This ensures that your valuable conversations are securely saved to your backend database. Thank you!": "Dit zorgt ervoor dat je waardevolle gesprekken veilig worden opgeslagen in je backend database. Dank je wel!",
"This is an experimental feature, it may not function as expected and is subject to change at any time.": "Dit is een experimentele functie, het werkt mogelijk niet zoals verwacht en kan op elk moment worden gewijzigd.",
"This is an experimental feature, it may not function as expected and is subject to change at any time.": "Dit is een experimentele functie, het werkt mogelijk niet zoals verwacht en kan op elk moment worden gewijzigd.",
"This model is not publicly available. Please select another model.": "",
"This option controls how long the model will stay loaded into memory following the request (default: 5m)": "",
"This option controls how many tokens are preserved when refreshing the context. For example, if set to 2, the last 2 tokens of the conversation context will be retained. Preserving context can help maintain the continuity of a conversation, but it may reduce the ability to respond to new topics.": "Deze optie bepaalt hoeveel tokens bewaard blijven bij het verversen van de context. Als deze bijvoorbeeld op 2 staat, worden de laatste 2 tekens van de context van het gesprek bewaard. Het behouden van de context kan helpen om de continuïteit van een gesprek te behouden, maar het kan de mogelijkheid om te reageren op nieuwe onderwerpen verminderen.",
"This option enables or disables the use of the reasoning feature in Ollama, which allows the model to think before generating a response. When enabled, the model can take a moment to process the conversation context and generate a more thoughtful response.": "",
"This option sets the maximum number of tokens the model can generate in its response. Increasing this limit allows the model to provide longer answers, but it may also increase the likelihood of unhelpful or irrelevant content being generated.": "Deze optie stelt het maximum aantal tokens in dat het model kan genereren in zijn antwoord. Door deze limiet te verhogen, kan het model langere antwoorden geven, maar het kan ook de kans vergroten dat er onbehulpzame of irrelevante inhoud wordt gegenereerd.",
"This option sets the maximum number of tokens the model can generate in its response. Increasing this limit allows the model to provide longer answers, but it may also increase the likelihood of unhelpful or irrelevant content being generated.": "Deze optie stelt het maximum aantal tokens in dat het model kan genereren in zijn antwoord. Door deze limiet te verhogen, kan het model langere antwoorden geven, maar het kan ook de kans vergroten dat er onbehulpzame of irrelevante inhoud wordt gegenereerd.",
"This option will delete all existing files in the collection and replace them with newly uploaded files.": "Deze optie verwijdert alle bestaande bestanden in de collectie en vervangt ze door nieuw geüploade bestanden.",
"This response was generated by \"{{model}}\"": "Dit antwoord is gegenereerd door \"{{model}}\"",
"This response was generated by \"{{model}}\"": "Dit antwoord is gegenereerd door \"{{model}}\"",
"This will delete": "Dit zal verwijderen",
"This will delete <strong>{{NAME}}</strong> and <strong>all its contents</strong>.": "Dit zal <strong>{{NAME}}</strong> verwijderen en <strong>al zijn inhoud</strong>.",
"This will delete all models including custom models": "Dit zal alle modellen, ook aangepaste modellen, verwijderen",
"This will delete all models including custom models and cannot be undone.": "Dit zal alle modellen, ook aangepaste modellen, verwijderen en kan niet ongedaan worden gemaakt",
"This will delete all models including custom models and cannot be undone.": "Dit zal alle modellen, ook aangepaste modellen, verwijderen en kan niet ongedaan worden gemaakt",
"This will reset the knowledge base and sync all files. Do you wish to continue?": "Dit zal de kennisdatabase resetten en alle bestanden synchroniseren. Wilt u doorgaan?",
"Thorough explanation": "Grondige uitleg",
"Thorough explanation": "Grondige uitleg",
"Thought for {{DURATION}}": "Dacht {{DURATION}}",
"Thought for {{DURATION}} seconds": "Dacht {{DURATION}} seconden",
"Tika": "Tika",

View File

@ -361,9 +361,9 @@ export const generateInitialsImage = (name) => {
const initials =
sanitizedName.length > 0
? sanitizedName[0] +
(sanitizedName.split(' ').length > 1
? sanitizedName[sanitizedName.lastIndexOf(' ') + 1]
: '')
(sanitizedName.split(' ').length > 1
? sanitizedName[sanitizedName.lastIndexOf(' ') + 1]
: '')
: '';
ctx.fillText(initials.toUpperCase(), canvas.width / 2, canvas.height / 2);
@ -514,10 +514,10 @@ export const compareVersion = (latest, current) => {
return current === '0.0.0'
? false
: current.localeCompare(latest, undefined, {
numeric: true,
sensitivity: 'case',
caseFirst: 'upper'
}) < 0;
numeric: true,
sensitivity: 'case',
caseFirst: 'upper'
}) < 0;
};
export const extractCurlyBraceWords = (text) => {