From 106494aa798c5fc929d5590db733acfe79c4d1f9 Mon Sep 17 00:00:00 2001 From: "dependabot[bot]" <49699333+dependabot[bot]@users.noreply.github.com> Date: Tue, 10 Jun 2025 08:56:03 +0000 Subject: [PATCH 1/6] build(deps): bump requests Bumps the pip group with 1 update in the /backend directory: [requests](https://github.com/psf/requests). Updates `requests` from 2.32.3 to 2.32.4 - [Release notes](https://github.com/psf/requests/releases) - [Changelog](https://github.com/psf/requests/blob/main/HISTORY.md) - [Commits](https://github.com/psf/requests/compare/v2.32.3...v2.32.4) --- updated-dependencies: - dependency-name: requests dependency-version: 2.32.4 dependency-type: direct:production dependency-group: pip ... Signed-off-by: dependabot[bot] --- backend/requirements.txt | 2 +- 1 file changed, 1 insertion(+), 1 deletion(-) diff --git a/backend/requirements.txt b/backend/requirements.txt index 9930cd3b6..b1014e193 100644 --- a/backend/requirements.txt +++ b/backend/requirements.txt @@ -7,7 +7,7 @@ python-socketio==5.13.0 python-jose==3.4.0 passlib[bcrypt]==1.7.4 -requests==2.32.3 +requests==2.32.4 aiohttp==3.11.11 async-timeout aiocache From fc83842ab2febbcc48b6a2a1e648965c65751021 Mon Sep 17 00:00:00 2001 From: "dependabot[bot]" <49699333+dependabot[bot]@users.noreply.github.com> Date: Tue, 10 Jun 2025 09:38:48 +0000 Subject: [PATCH 2/6] build(deps): bump requests in the pip group across 1 directory Bumps the pip group with 1 update in the / directory: [requests](https://github.com/psf/requests). Updates `requests` from 2.32.3 to 2.32.4 - [Release notes](https://github.com/psf/requests/releases) - [Changelog](https://github.com/psf/requests/blob/main/HISTORY.md) - [Commits](https://github.com/psf/requests/compare/v2.32.3...v2.32.4) --- updated-dependencies: - dependency-name: requests dependency-version: 2.32.4 dependency-type: direct:production dependency-group: pip ... Signed-off-by: dependabot[bot] --- pyproject.toml | 2 +- 1 file changed, 1 insertion(+), 1 deletion(-) diff --git a/pyproject.toml b/pyproject.toml index 51ea65890..ef27260c4 100644 --- a/pyproject.toml +++ b/pyproject.toml @@ -15,7 +15,7 @@ dependencies = [ "python-jose==3.4.0", "passlib[bcrypt]==1.7.4", - "requests==2.32.3", + "requests==2.32.4", "aiohttp==3.11.11", "async-timeout", "aiocache", From 02f5bfba73cd9cfed43dcc60667ae7c403e6fcaa Mon Sep 17 00:00:00 2001 From: =?UTF-8?q?Link=20=5B=D0=A1=D0=B2=D1=8F=D0=B7=D0=BD=D0=BE=D0=B9=5D?= Date: Tue, 10 Jun 2025 12:54:31 +0300 Subject: [PATCH 3/6] [i18n] Russian locale update --- src/lib/i18n/locales/ru-RU/translation.json | 6 +++--- 1 file changed, 3 insertions(+), 3 deletions(-) diff --git a/src/lib/i18n/locales/ru-RU/translation.json b/src/lib/i18n/locales/ru-RU/translation.json index 9b6bac885..7aebc7ab5 100644 --- a/src/lib/i18n/locales/ru-RU/translation.json +++ b/src/lib/i18n/locales/ru-RU/translation.json @@ -1192,7 +1192,7 @@ "The batch size determines how many text requests are processed together at once. A higher batch size can increase the performance and speed of the model, but it also requires more memory.": "Размер пакета определяет, сколько текстовых запросов обрабатывается одновременно. Больший размер пакета может повысить производительность и быстродействие модели, но также требует больше памяти.", "The developers behind this plugin are passionate volunteers from the community. If you find this plugin helpful, please consider contributing to its development.": "Разработчики этого плагина - увлеченные волонтеры из сообщества. Если вы считаете этот плагин полезным, пожалуйста, подумайте о том, чтобы внести свой вклад в его разработку.", "The evaluation leaderboard is based on the Elo rating system and is updated in real-time.": "Таблица лидеров оценки основана на рейтинговой системе Elo и обновляется в режиме реального времени.", - "The format to return a response in. Format can be json or a JSON schema.": "", + "The format to return a response in. Format can be json or a JSON schema.": "Формат, в котором будет возвращен ответ. Форматом может быть json или схема JSON.", "The language of the input audio. Supplying the input language in ISO-639-1 (e.g. en) format will improve accuracy and latency. Leave blank to automatically detect the language.": "Язык входного аудиосигнала. Укажите язык ввода в формате ISO-639-1 (например, en), что повысит точность и время ожидания. Оставьте поле пустым для автоматического определения языка.", "The LDAP attribute that maps to the mail that users use to sign in.": "Атрибут LDAP, который сопоставляется с почтой, используемой пользователями для входа в систему.", "The LDAP attribute that maps to the username that users use to sign in.": "Атрибут LDAP, который сопоставляется с именем пользователя, используемым пользователями для входа в систему.", @@ -1210,9 +1210,9 @@ "This ensures that your valuable conversations are securely saved to your backend database. Thank you!": "Это обеспечивает сохранение ваших ценных разговоров в безопасной базе данных на вашем сервере. Спасибо!", "This is an experimental feature, it may not function as expected and is subject to change at any time.": "Это экспериментальная функция, она может работать не так, как ожидалось, и может быть изменена в любое время.", "This model is not publicly available. Please select another model.": "Эта модель недоступна в открытом доступе. Пожалуйста, выберите другую модель.", - "This option controls how long the model will stay loaded into memory following the request (default: 5m)": "", + "This option controls how long the model will stay loaded into memory following the request (default: 5m)": "Этот параметр определяет, как долго модель будет оставаться загруженной в память после запроса (по умолчанию: 5 месяцев).", "This option controls how many tokens are preserved when refreshing the context. For example, if set to 2, the last 2 tokens of the conversation context will be retained. Preserving context can help maintain the continuity of a conversation, but it may reduce the ability to respond to new topics.": "Этот параметр определяет, сколько токенов сохраняется при обновлении контекста. Например, если задано значение 2, будут сохранены последние 2 токена контекста беседы. Сохранение контекста может помочь сохранить непрерывность беседы, но может уменьшить возможность отвечать на новые темы.", - "This option enables or disables the use of the reasoning feature in Ollama, which allows the model to think before generating a response. When enabled, the model can take a moment to process the conversation context and generate a more thoughtful response.": "", + "This option enables or disables the use of the reasoning feature in Ollama, which allows the model to think before generating a response. When enabled, the model can take a moment to process the conversation context and generate a more thoughtful response.": "Эта опция включает или отключает использование функции рассуждения в Ollama, которая позволяет модели подумать, прежде чем генерировать ответ. Если она включена, модель может потратить некоторое время на обработку контекста разговора и выработку более продуманного ответа.", "This option sets the maximum number of tokens the model can generate in its response. Increasing this limit allows the model to provide longer answers, but it may also increase the likelihood of unhelpful or irrelevant content being generated.": "Этот параметр устанавливает максимальное количество токенов, которые модель может генерировать в своем ответе. Увеличение этого ограничения позволяет модели предоставлять более длинные ответы, но также может увеличить вероятность создания бесполезного или нерелевантного контента.", "This option will delete all existing files in the collection and replace them with newly uploaded files.": "Эта опция удалит все существующие файлы в коллекции и заменит их вновь загруженными файлами.", "This response was generated by \"{{model}}\"": "Этот ответ был сгенерирован для \"{{model}}\"", From f55579ce259c5ca2e44eace4517c62ef6d5d5830 Mon Sep 17 00:00:00 2001 From: Timothy Jaeryang Baek Date: Tue, 10 Jun 2025 13:55:25 +0400 Subject: [PATCH 4/6] refac --- README.md | 12 +++++++++++- src/lib/components/chat/SettingsModal.svelte | 2 +- 2 files changed, 12 insertions(+), 2 deletions(-) diff --git a/README.md b/README.md index dce1022fc..9d6a66e41 100644 --- a/README.md +++ b/README.md @@ -73,7 +73,7 @@ Want to learn more about Open WebUI's features? Check out our [Open WebUI docume - N8N • Does your interface have a backend yet?
Try n8n + n8n • Does your interface have a backend yet?
Try n8n @@ -86,6 +86,16 @@ Want to learn more about Open WebUI's features? Check out our [Open WebUI docume Warp • The intelligent terminal for developers + + + + Tailscale + + + + Tailscale • Connect self-hosted AI to any device with Tailscale + + --- diff --git a/src/lib/components/chat/SettingsModal.svelte b/src/lib/components/chat/SettingsModal.svelte index 293d5b766..b50dc995f 100644 --- a/src/lib/components/chat/SettingsModal.svelte +++ b/src/lib/components/chat/SettingsModal.svelte @@ -874,7 +874,7 @@ {#if $user?.role === 'admin'}