Hướng dẫn Cài đặt LocalAI: Từ Docker đến Tùy biến Sâu
1. Cách nhanh nhất: Sử dụng Docker (Khuyến nghị)
Cho hệ thống chạy CPU (Phổ thông)
docker run -p 8080:8080 --name local-ai -ti localai/localai:latestCho hệ thống có GPU NVIDIA (Cần cài NVIDIA Container Toolkit)
docker run -p 8080:8080 --gpus all --name local-ai -ti localai/localai:latest-gpu-nvidia-cuda-122. Cách "Hạt nhân": Cài đặt qua Binary (Không cần Docker)
chmod +x local-ai ./local-ai --models-path ./models --threads 4
3. Quản lý và Cài đặt Model
Cách A: Dùng thư viện có sẵn (Gallery)
Cách B: Thêm Model thủ công (Custom)
4. Kiểm tra trạng thái "Sống sót"
5. NQDEV "Pro-Tips" cho anh em
Last updated