はじめに

Open WebUIとVertex AI Searchの連携は、生成AIの活用を大きく広げる可能性を秘めています。しかし、現時点では公式なパイプラインが公開されていないため、自力でパイプラインを作成する必要があります。本記事では、Open WebUIとVertex AI Searchを連携させるためのカスタムパイプラインの作成方法を解説します。

Open WebUIとは?
Open WebUI は、大規模言語モデル(LLM) をローカル環境で手軽に利用するための、Web ベースのインターフェース です。

※詳しくはこちらを参照下さい。
Open WebUI
Gitソース

導入手順

※Open WebUIのソースをGitからclone済み

① Open WebUIのコンテナに必要なモジュールと環境変数をセットする

docker-compose.uml

services:
  ollama:
    volumes:
      - ollama:/root/.ollama
    container_name: ollama
    pull_policy: always
    tty: true
    restart: unless-stopped
    image: ollama/ollama:${OLLAMA_DOCKER_TAG-latest}

open-webui:
  build:
    context: .
    args:
      OLLAMA_BASE_URL: '/ollama'
    dockerfile: Dockerfile
  image: ghcr.io/open-webui/open-webui:${WEBUI_DOCKER_TAG-main}
  container_name: open-webui-test
  volumes:
    - open-webui:/app/backend/data
    - ${GOOGLE_APPLICATION_CREDENTIALS}:/tmp/keys/key.json:ro
  depends_on:
    - ollama
  ports:
    - ${OPEN_WEBUI_PORT-3000}:8080
  environment:
    - 'OLLAMA_BASE_URL=http://ollama:11434'
    - 'WEBUI_SECRET_KEY='
    - 'GCLOUD_PROJECT=${GCLOUD_PROJECT}'
    - 'GOOGLE_APPLICATION_CREDENTIALS=/tmp/keys/key.json'
  extra_hosts:
    - host.docker.internal:host-gateway
  restart: unless-stopped

volumes:
  ollama: {}
  open-webui: {}

.env

GCLOUD_PROJECT={使用しているプロジェクト}
GOOGLE_API_KEY={APIキー}
GOOGLE_APPLICATION_CREDENTIALS=/{認証情報が置いてあるpath}/application_default_credentials.json

GOOGLE_API_KEY取得手順
Gemini Developer API

cretcredentials取得手順
※参照 アプリケーションのデフォルト認証情報を設定する

backend/requirements.txt

langchain-google-community==1.0.7
langchain-google-vertexai==1.0.10
langchain-google-community[vertexaisearch]
※追加

② Pipeをセットする

※今回はVertex AI SearchにLang Chainを使って接続

Vertex AI Search接続用のPipe

conectVertexAISearch.py

import os
from pydantic import BaseModel, Field
from typing import List, Union, Iterator
from langchain_google_community import VertexAISearchRetriever
from langchain_core.prompts import ChatPromptTemplate
from textwrap import dedent
from langchain_google_vertexai import ChatVertexAI
from langchain_core.runnables import RunnablePassthrough
from langchain_core.output_parsers import StrOutputParser
import google.generativeai as genai

# Set DEBUG to True to enable detailed logging
DEBUG = True
PROJECT_ID = os.getenv("GCLOUD_PROJECT")  # Set to your Project ID

class Pipe:
    class Valves(BaseModel):
        GOOGLE_API_KEY: str = Field(default="")
        STORE_ID: str = Field(default="")


    def __init__(self):
        self.id = "self-mode"
        self.type = "api connect"
        self.name = "Vertex AI Search connect:"
        self.valves = self.Valves(
            **{
                "GOOGLE_API_KEY": os.getenv("GOOGLE_API_KEY", ""),
            }
        )

    def get_vertex_aisearch_google_models(self):
        if not self.valves.GOOGLE_API_KEY:
            return [
                {
                    "id": "error",
                    "name": "GOOGLE_API_KEY is not set. Please update the API Key in the valves.",
                }
            ]
        try:
            genai.configure(api_key=self.valves.GOOGLE_API_KEY)
            models = genai.list_models()
            valid_model_names = ["gemini-1.5-pro", "gemini-1.0-pro-001", "gemini-1.0-pro", "gemini-1.0-pro-002",
                                 "gemini-1.5-flash-001"]
            return [
                {
                    "id": model.name[7:],  # remove the "models/" part
                    "name": model.display_name,
                }
                for model in models
                if "generateContent" in model.supported_generation_methods
                if model.name[7:] in valid_model_names
            ]
        except Exception as e:
            if DEBUG:
                print(f"Error fetching Google models: {e}")
            return [
                {"id": "error", "name": f"Could not fetch models from Google: {str(e)}"}
            ]

    def pipes(self) -> List[dict]:
        return self.get_vertex_aisearch_google_models()

    def pipe(self, body: dict) -> Union[str, Iterator[str]]:
        if not self.valves.STORE_ID:
            return f"Error: STORE_ID is not set. Please update the STORE_ID in the valves."

        try:
            retriever = self.get_retriever(self.valves.STORE_ID)

            system_prompt: str = """
                                 {任意のシステムプロンプト}
                                 """

            premise = dedent(system_prompt).strip()

            prompt = ChatPromptTemplate.from_template(
                dedent(
                    """
                    Premise: {premise}

                    Context: {context}

                    Question: {question}
                    """
                ).strip(),
                partial_variables={"premise": premise},
            )

            model_id = self.setModel(body)

            if not model_id.startswith("gemini-"):
                return f"Error: Invalid model name format: {model_id}"

            llm = ChatVertexAI(model_name=model_id, temperature=0)

            def format_docs(docs):
                return "\n\n".join(doc.page_content for doc in docs)

            chain = (
                    {"context": retriever | format_docs, "question": RunnablePassthrough()}
                    | prompt
                    | llm
                    | StrOutputParser()
            )

            return chain.stream(self.setQuery(body))

        except Exception as e:
            if DEBUG:
                print(f"Error in pipe method: {e}")
            return f"Error: {e}"

    @staticmethod
    def setQuery(body):
        messages = body["messages"]
        history = "\n".join([msg["content"] for msg in messages[:-1]])
        current_query = messages[-1]["content"]
        return f"History:\n{history}\n\nCurrent Query:\n{current_query}"

    @staticmethod
    def setModel(body):
        model_id = body.get("model", "gemini-1.5-pro")

        if "." in model_id:
            model_id = model_id.split(".", 1)[-1]

        return model_id

    @staticmethod
    def get_retriever(store_id: str) -> VertexAISearchRetriever:
        return VertexAISearchRetriever(
            project_id=PROJECT_ID,
            data_store_id=store_id,
            location_id='global',
            max_documents=5,
        )

※ValvesのGOOGLE_API_KEY/STORE_ID入力必須

おまけ

Open WebUIからVertex AI Searchを搭載したバックエンドにAPIで接続するPipe

connect_api.py

import requests
import os
from pydantic import BaseModel, Field
from typing import List, Union, Iterator
import google.generativeai as genai

# Set DEBUG to True to enable detailed logging
DEBUG = True
class Pipe:
    class Valves(BaseModel):
        CONNECT_API_URL: str = Field(default="")
        GOOGLE_API_KEY: str = Field(default="")
        STORE_ID: str = Field(default="")
        PROJECT_ID: str = Field(default="")

    def __init__(self):
        self.id = "self-mode"
        self.type = "api connect"
        self.name = "API connect: "
        self.valves = self.Valves(
            **{
                "GOOGLE_API_KEY": os.getenv("GOOGLE_API_KEY", ""),
            }
        )

    def get_vertex_aisearch_google_models(self):
        if not self.valves.GOOGLE_API_KEY:
            return [
                {
                    "id": "error",
                    "name": "GOOGLE_API_KEY is not set. Please update the API Key in the valves.",
                }
            ]
        try:
            genai.configure(api_key=self.valves.GOOGLE_API_KEY)
            models = genai.list_models()
            valid_model_names = ["gemini-1.5-pro", "gemini-1.0-pro-001", "gemini-1.0-pro", "gemini-1.0-pro-002",
                                 "gemini-1.5-flash-001"]
            return [
                {
                    "id": model.name[7:],  # remove the "models/" part
                    "name": model.display_name,
                }
                for model in models
                if "generateContent" in model.supported_generation_methods
                if model.name[7:] in valid_model_names
            ]
        except Exception as e:
            if DEBUG:
                print(f"Error fetching Google models: {e}")
            return [
                {"id": "error", "name": f"Could not fetch models from Google: {str(e)}"}
            ]

    def pipes(self) -> List[dict]:
        return self.get_vertex_aisearch_google_models()

    def pipe(self, body: dict) -> Union[str, Iterator[str]]:

        for key in ['CONNECT_API_URL', 'STORE_ID', 'PROJECT_ID', 'GOOGLE_API_KEY']:
            if not getattr(self.valves, key):
                return f"Error: {key} is not set. Please update the {key} in the valves."

        try:
            r = requests.post(
                self.valves.CONNECT_API_URL,
                json={"body": body, "valves": {
                    'PROJECT_ID':  self.valves.PROJECT_ID,
                    'STORE_ID':  self.valves.STORE_ID,
                }},
                stream=True
            )
            if r.status_code == 200:
                return (line.decode('utf-8') + '\n' for line in r.iter_lines(chunk_size=10))

            else:
                return "Failed. status code: " + str(r.status_code)

        except Exception as e:
            if DEBUG:
                print(f"Error in pipe method: {e}")
            return f"Error: {e}"</pre>

※バックエンドの仕様によって、APIへ渡すパラメーターは適宜変更して下さい。
※バックエンドで処理する形にするとOpen WebUI側にモジュールのインストールが不要となるので、
Open WebUI側に手を入れたくない方はこちらがおすすめです。

まとめ

Open WebUIからVertex AI Searchを組み合わせることで、よりマネージドで高度な機能を備えたRAGシステムの構築が可能かと思います。今回ご紹介したPipeを軸として、要件に合わせて処理を追加・変更していくことが可能なのでより柔軟で幅の広いシステム構築が実現していけると思います。