본문 바로가기
github

Open WebUI 완벽 가이드 - 로컬 AI 모델을 ChatGPT처럼 사용하는 오픈소스 (2026)

by bamsik 2026. 2. 20.
반응형

Open WebUI란? - 로컬 AI 모델을 ChatGPT처럼 사용하는 오픈소스 플랫폼

ChatGPT를 사용하면서 데이터 프라이버시가 걱정되셨나요? Open WebUI는 GitHub 스타 12만 4천 개를 돌파한 오픈소스 프로젝트로, Ollama나 OpenAI 호환 API를 통해 로컬에서 AI 모델을 ChatGPT와 동일한 UI로 실행할 수 있게 해줍니다. 인터넷 연결 없이도, 완전한 프라이버시를 지키면서 Llama 3, Mistral, Gemma, DeepSeek 등 최신 오픈소스 모델을 활용할 수 있습니다.

Open WebUI의 핵심 기능

1. Ollama와 완벽 통합

Open WebUI는 Ollama와 가장 잘 통합됩니다. Ollama는 LLM을 로컬에서 쉽게 실행할 수 있는 런타임으로, macOS/Linux/Windows 모두 지원합니다.

# Ollama 설치 (macOS)
brew install ollama
ollama serve

# 모델 다운로드
ollama pull llama3.2
ollama pull deepseek-r1:7b
ollama pull gemma3:12b

2. 멀티 모달 지원

텍스트뿐 아니라 이미지, 문서, 음성 등 다양한 입력 형식을 지원합니다. LLaVA 등 비전 모델을 연결하면 이미지를 업로드해 분석할 수 있습니다.

3. RAG (검색 증강 생성) 내장

문서를 업로드하면 자동으로 벡터 DB에 저장되어 AI가 참고하며 답변합니다. PDF, Word, 웹페이지 URL 등을 지식 베이스로 구성할 수 있습니다.

4. 멀티 사용자 지원

팀 내 여러 사용자가 각자의 계정으로 접속해 독립된 대화 기록을 유지할 수 있습니다. 관리자가 사용자별 모델 접근 권한을 설정할 수 있어 소규모 팀의 사내 AI 플랫폼으로 적합합니다.

설치 및 시작하기

Docker로 빠른 시작 (권장)

# Ollama가 로컬에 설치된 경우
docker run -d \
  -p 3000:8080 \
  --add-host=host.docker.internal:host-gateway \
  -v open-webui:/app/backend/data \
  --name open-webui \
  --restart always \
  ghcr.io/open-webui/open-webui:main

# 브라우저에서 http://localhost:3000 접속

GPU 가속 버전 (CUDA)

docker run -d \
  -p 3000:8080 \
  --gpus all \
  --add-host=host.docker.internal:host-gateway \
  -v open-webui:/app/backend/data \
  --name open-webui \
  --restart always \
  ghcr.io/open-webui/open-webui:cuda

pip으로 설치

pip install open-webui
open-webui serve

주요 설정 및 고급 활용

외부 API 연결 (OpenAI/Claude/Gemini)

Open WebUI는 로컬 모델뿐 아니라 외부 API도 통합할 수 있습니다. Admin Panel → Settings → Connections에서 OpenAI API 엔드포인트와 키를 입력하면 됩니다. 이를 통해 로컬 모델과 클라우드 모델을 동시에 사용하며 필요에 따라 전환할 수 있습니다.

시스템 프롬프트 커스터마이징

각 모델별로 기본 시스템 프롬프트를 설정할 수 있습니다. 예를 들어, 특정 모델은 항상 한국어로만 답변하도록, 다른 모델은 코드 전문가 역할을 하도록 설정할 수 있습니다.

# 예시 시스템 프롬프트
당신은 시니어 풀스택 개발자입니다.
- 항상 한국어로 답변하세요
- 코드 예시는 반드시 포함하세요
- 실용적이고 즉시 적용 가능한 솔루션을 제시하세요
- 보안 취약점이 있는 코드는 경고와 함께 수정안을 제시하세요

파이프라인(Pipeline) 확장

Open WebUI는 Pipelines 기능을 통해 미들웨어 처리가 가능합니다. 입력/출력에 커스텀 Python 코드를 삽입해 필터링, 번역, 로깅 등을 자동화할 수 있습니다.

# pipeline 예시 (간단한 번역 파이프라인)
class Pipeline:
    def __init__(self):
        self.name = "Korean Translator"
    
    async def on_startup(self):
        pass
    
    async def outlet(self, body: dict, user: dict) -> dict:
        # AI 응답을 한국어로 번역 후 반환
        return body

2026년 추천 로컬 모델 조합

코딩 작업

  • DeepSeek-R1 7B/14B: 코드 생성 및 디버깅 최고 성능
  • Qwen2.5-Coder 7B: 가볍고 빠른 코딩 어시스턴트

일반 대화 및 분석

  • Llama 3.2 3B: 4GB RAM으로도 구동 가능한 경량 모델
  • Gemma 3 12B: 구글의 최신 오픈소스 모델, 다국어 지원 우수
  • Mistral Small 3: 속도와 품질의 균형이 뛰어난 모델

이미지 분석 (멀티모달)

  • LLaVA 1.6: 이미지 설명, OCR, 시각적 질문 답변
  • Qwen2-VL 7B: 복잡한 이미지 분석과 차트 해석

팀 AI 플랫폼으로 활용하기

사내 서버 배포

NAS나 사내 서버에 Open WebUI를 배포하면 팀 전체가 공유하는 AI 플랫폼을 구축할 수 있습니다. Nginx 리버스 프록시와 SSL 인증서를 적용해 안전하게 운영하세요.

# nginx.conf
server {
    listen 443 ssl;
    server_name ai.company.internal;
    
    ssl_certificate /etc/ssl/certs/ai.crt;
    ssl_certificate_key /etc/ssl/private/ai.key;
    
    location / {
        proxy_pass http://localhost:3000;
        proxy_set_header Host $host;
        proxy_set_header X-Real-IP $remote_addr;
    }
}

모델 공유 및 프리셋 관리

관리자 계정으로 자주 사용하는 모델 설정과 시스템 프롬프트를 모델 프리셋으로 저장해 팀원들과 공유할 수 있습니다. 신규 팀원도 최적화된 AI 환경을 즉시 사용할 수 있습니다.

Open WebUI vs 다른 로컬 AI UI 비교

항목 Open WebUI LM Studio Msty
오픈소스 ✅ 완전 무료 ❌ 무료+유료 ❌ 유료
서버 배포 ✅ Docker ❌ 데스크탑만 ❌ 데스크탑만
멀티 사용자
RAG 내장 제한적
파이프라인 확장

마무리 - 데이터 주권을 지키는 AI 플랫폼

Open WebUI는 AI 시대에 데이터 프라이버시와 비용 절감을 동시에 달성하는 최선의 솔루션입니다. 12만 4천 GitHub 스타가 증명하듯, 개발자들의 열광적인 지지를 받고 있습니다. 사내 AI 플랫폼이 필요한 팀이라면, 또는 ChatGPT 비용이 부담스러운 개인 개발자라면 지금 당장 Docker 명령어 하나로 시작해보세요. 모든 대화가 내 서버에만 저장되는 완전한 AI 자유를 경험할 수 있습니다.

반응형