A Gradio web UI for Large Language Models. Supports transformers, GPTQ, AWQ, EXL2, llama.cpp (GGUF), Llama models.
一个用于大型语言模型的Gradio网页界面。
其目标是成为文本生成的 stable-diffusion-webui 。
llamacpp_HF
这个项目有一个详细的文档,可以在这里查看:
https://github.com/oobabooga/text-generation-webui/wiki
安装方法:
start_linux.sh
start_windows.bat
start_macos.sh
start_wsl.bat
该脚本会创建一个名为 installer_files 的文件夹,然后使用Miniconda设置一个Conda环境。安装是自包含的:如果需要重新安装,只需删除 installer_files ,然后再次运行启动脚本。
installer_files
你可以使用这些脚本中的一个来启动Web UI:
Linux/WSL: start_linux.sh Windows: start_windows.bat macOS: start_macos.sh WSL: start_wsl.bat
然后打开浏览器,访问:
http://localhost:7860/?__theme=dark
你还可以在启动时使用以下命令行标志:
-h
--help
--multi-user
--character CHARACTER
--model MODEL
--lora LORA [LORA ...]
--model-dir MODEL_DIR
--lora-dir LORA_DIR
--model-menu
--settings SETTINGS_FILE
settings-template.yaml
settings.yaml
--settings
--extensions EXTENSIONS [EXTENSIONS ...]
--verbose
--chat-buttons
你也可以使用以下命令行标志来控制不同的功能:
--loader LOADER
--cpu
--auto-devices
--gpu-memory GPU_MEMORY [GPU_MEMORY ...]
--cpu-memory CPU_MEMORY
--disk
--disk-cache-dir DISK_CACHE_DIR
--load-in-8bit
--bf16
--no-cache
use_cache
False
--xformers
--sdp-attention
--trust-remote-code
trust_remote_code
True
--use_fast
use_fast