この記事について

最近、AWSの生成AIサービスを使ったPoC(Proof of Concept:概念実証)の案件に携わることがあり、そこでAWSが提供するgenai-quickstart-pocsを使用し、便利だなと感じたので記事にしました。

genai-quickstart-pocsとは何?

リポジトリのREADMEにはこんな記載がされています。

This repository contains sample code demonstrating various use cases leveraging Amazon Bedrock and Generative AI. Each sample is a separate project with its own directory, and includes a basic Streamlit frontend to help users quickly set up a proof of concept.

ざっくりお伝えするならば、Amazon Bedrockと Generative AIを活用して、様々なユースケースを実証できるサンプルコードを提供してくているリポジトリです。
なんと、このリポジトリを使って37種類もの検証を行うことができます。

37種類のプロジェクトを一挙ご紹介!!

実際に37個のプロジェクトを紹介したいと思います。わかりやすさのため簡単に分類して紹介します。

RAG系

  • Amazon-Bedrock-RAG-OpenSearchServerless-POC
  • Amazon-Bedrock-Knowledgebases-RAG-POC
  • Amazon-Bedrock-Langchain-RAG-POC
  • Amazon-Bedrock-RAG-Kendra-POC
  • Amazon-Bedrock-Semantic-Cache

Amazon Bedrock KnowledgeBases やLangChainと組み合わせてRAGを実現することができます。

テキスト/画像/動画生成・分析系

  • Amazon-Bedrock-Claude3-Image-Analysis-POC
  • Amazon-Bedrock-Video-Chapter-Search-POC
  • Amazon-Bedrock-Image-Generation-POC
  • Amazon-Bedrock-PowerPoint-Generator
  • Amazon-Bedrock-Alt-Text-Generator
  • Amazon-Bedrock-GenAI-Sentiment-Analysis-POC

Amazon TranscribeとAmazon Bedrockを組み合わせてビデオの生成や、検索ができたり、画像からデータを抽出することができます。パワポの生成ができるサンプルもあります。

チャットボット系

  • Amazon-Bedrock-Chat-POC
  • Amazon-Bedrock-Speech-to-Text-Chat-POC
  • Amazon-Bedrock-CSV-Chatbot-POC
  • Amazon-Bedrock-Converse-API-POC
  • Amazon-Bedrock-Converse-Stream-API-POC

チャット機能を提供する各種PoCで、音声入力やCSVデータを活用したチャットボットが含まれています。会話の文脈を保持して回答する機能もあり、柔軟な対話型AIを実装できます。

データベースクエリ・SQL生成系

  • Amazon-Bedrock-Amazon-Redshift-POC
  • Amazon-Bedrock-Amazon-RDS-POC
  • Amazon-Bedrock-Amazon-Athena-POC

自然言語の質問をSQLクエリに変換し、Redshift、RDS、Athenaといったデータベースに対してクエリを実行します。データベースの操作を簡単に行えるため、分析やレポート生成に役立ちます。

ドキュメント処理系

  • Amazon-Bedrock-Summarization-Long-Document-POC
  • Amazon-Bedrock-Document-Generator
  • Amazon-Bedrock-Document-Comparison-POC
  • Amazon-Bedrock-Intelligent-Document-Processing
  • Amazon-Bedrock-Claude3-Long-Form-Output-POC
  • Amazon-Bedrock-Text-Extraction-POC

テンプレートを基にしたドキュメント生成や、PDFファイル同士の比較を行うプロジェクトです。ドキュメント処理の効率化に役立ちます。

ストリーミング処理系

  • Amazon-Bedrock-Streaming-Response-POC
  • Amazon-Bedrock-Claude3-Streaming-Response-POC

ユーザーが選択したLLMに対して、直接ゼロショットのリクエストを入力することができる、かつリアルタイムのストリーミングレスポンスを実現できます。Claude3を使用したレスポンス実装も可能です。

その他

翻訳・言語処理

  • Amazon-Bedrock-Translation-POC

Amazon Translateと組み合わせて、テキストを異言語に翻訳することができます。

ミーティング記録・要約

  • Amazon-Bedrock-Meeting-Minutes-Summarization-POC

ミーティングの録音を基に、要約とアクションアイテムを生成できます。

非同期処理

  • Amazon-Bedrock-Asynchronous-Invocation-POC

非同期で複数のモデルを同時に呼び出し、レスポンスの時間を削減できます。

モデルのカスタマイズ

  • Amazon-Bedrock-Model-Customization-POC

モデルのカスタマイズや事前トレーニングを行い、用途に合わせたモデルを実装できます。

モデルの評価

  • Amazon-Bedrock-Model-Eval-POC

特定のプロンプトやデータを使ってモデルのパフォーマンスをテストし、その応答の品質や精度を評価できます。

ガードレール

  • Amazon-Bedrock-Guardrails-POC

Amazon Bedrockのガードレール機能を試すことができ、不適切なプロンプトや応答を制御できます。

プレイグラウンド

  • Amazon-Bedrock-Model-Playground-POC

Amazon Bedrockで利用可能な様々なモデルの回答の結果を比較することができます。

動的プロンプト

  • Amazon-Bedrock-GenAI-Dynamic-Prompting-Explained-POC

few-shot promptとdynammic promptの働きを理解することができます。

クイズ生成

  • Amazon-Bedrock-Quiz-Generator-POC

名前の通り、クイズを生成してくれます。遊び心があっていいですね。

タスク分類

  • Amazon-Bedrock-Task-Classification

ユーザーからの入力内容を解析して、特定のワークフローに自動分類させることができます。入力に基づいた分類とそれに対応するレスポンスが得られるので、タスク処理の自動化に役立ちそうです。

実際に使ってみよう〜Amazon-Bedrock-RAG-Kendra-POC編〜

今回は上記で紹介したものの中でも、Amazon-Bedrock-RAG-Kendra-POCを使い、簡単なRAGチャットアプリを作成してみました。

前提

今回の検証にはPython3.9.13Streamlit1.30.0を使用しました。
また、実施にあたっては仮想環境venvを使用しました。

事前準備

Kendraのindex作成、データソースを追加

方法は問いませんが、事前にAmazon Kendraのindexを作成し、データソースを追加する必要があります。

必要なライブラリのインストール

$ pip install -r requirements.txt

で必要なライブラリをインストールしてください。

Claudeのモデルアクセスのリクエスト

今回、Amazon Bedrock Claude3モデルが使用可能になっていることを確認してください。使用可能になっていない場合はAmazon Bedrock 基盤モデルへのアクセスをリクエストするを参照し、モデルへのアクセスをリクエストしてください。

コード

amazon-bedrock-rag-kendra-pocのディレクトリ構成は以下のような形になっています。※.envファイルは各自で作成を行なってください。

amazon-bedrock-rag-kendra-poc/
├── app.py
├── kendra_bedrock_query.py
└── requirements.txt

kendra_bedrock_query.py→Kendra検索を行い、その結果をClaudeに渡し、生成AIに渡す役割
app.py→Streamlitで作成するフロントエンドを構築。kendra_bedrock_query.pyから帰ってきた生成AIの回答を表示させる役割
をになっています。

全体のコードは以下の通りです。
【.env】

profile_name = "プロファイル名"
kendra_index = "(作成したKendraのindexのID)"

【Kendra_bedrock_query.py】
一点注意点ですが、KendraSearch関数内の、kendra.queryの引数で指定するAttributeFilterで、_language_codeをja(日本語)に指定しないと日本語のドキュメントに関しては期待する結果が得られないので気をつけましょう。(初歩的な部分ですが、私はこれに気づかず30分以上時間を費やしました、、)

        AttributeFilter={
            "EqualsTo": {
                "Key": "_language_code",
                "Value": {
                    "StringValue": "ja"
                }
import boto3
import os
from dotenv import load_dotenv
import json
import urllib
from botocore.client import Config

# .envに記載の環境情報読み込み
load_dotenv()
# AWSCLIに設定のprofileを元に、boto3のセッションを確立
boto3_session = boto3.Session(
    region_name="ap-northeast-1", profile_name=os.getenv('profile_name'))
# Bedrock clientの初期化
bedrock = boto3_session.client('bedrock-runtime', 'ap-northeast-1',
                               endpoint_url='https://bedrock-runtime.ap-northeast-1.amazonaws.com', verify=False)


def kendraSearch(question):
    """
    Primary function that performs a kendra search, using the retrieve API and passes the kendra response into the
    invoke LLM function.
    :param question: The question the user inputs within app.py or the frontend
    :return: Returns the final response of the LLM that was created by the invokeLLM function
    """
    # kendra clientの初期化
    kendra = boto3_session.client('kendra')
    # kendraの、queryメソッドで検索
    kendra_response = kendra.query(
        IndexId=os.getenv('kendra_index'),  # Put INDEX in .env file
        QueryText=question,
        PageNumber=1,
        PageSize=10,
        AttributeFilter={
            "EqualsTo": {
                "Key": "_language_code",
                "Value": {
                    "StringValue": "ja"
                }
            }
        })

    print(kendra_response)
    # Kendra検索結果を署名付きURLに変換
    signed_urls = generateSignedUrls(kendra_response)
    print(signed_urls)

    # ユーザーの質問、Kendraのレスポンス、署名付きURLを元にLLMを呼び出す
    return invokeLLM(question, kendra_response, signed_urls)


# 署名付きURLを返却する関数
def generateSignedUrls(kendra_response):
    """
    Generate signed URLs for documents found in Kendra search results.
    :param kendra_response: The response from the Kendra query
    :return: A list of signed URLs for the documents
    """
    # S3clientの初期化 
    s3_client = boto3_session.client(
        's3', region_name='ap-northeast-1', config=Config(signature_version="s3v4"))
    signed_urls = []

    for result in kendra_response.get('ResultItems', []):
        # ドキュメントURIにS3パスが存在するかのチェック
        if 'DocumentURI' in result and "s3.ap-northeast-1.amazonaws.com" in result['DocumentURI']:
            s3_url = result['DocumentURI']
            try:
                print(f"DocumentURI: {s3_url}")

                # プロトコル部分(https://)を削除
                s3_path = s3_url.replace("https://", "")

                #パスを、バケット名とオブジェクトのキーに分割
                parts = s3_path.split('/', 1)
                if len(parts) == 2:
                    bucket_name = parts[0].split('.')[0]
                    object_key_encoded = parts[1]

                    # キー名が日本語の場合、すでにエンコードされているため、一度デコードする(署名付きURLの生成がうまくいかないため)
                    # 参照:https://github.com/aws-samples/generative-ai-use-cases-jp/pull/294/commits/d3463e0ec42bf2ccf3e83070d21fbedc74b9634b
                    object_key = urllib.parse.unquote(object_key_encoded)

                    print(f"Decoded Object Key: {object_key}")
                    print(f"Bucket Name: {bucket_name}")
                    print(f"Object Key: {object_key}")

                    # 署名付きURLの生成
                    signed_url = s3_client.generate_presigned_url(
                        'get_object',
                        Params={'Bucket': bucket_name, 'Key': object_key},
                        ExpiresIn=3600  # URL valid for 1 hour
                    )
                    signed_urls.append({
                        "document_name": result.get('DocumentTitle', 'Unknown Document').get('Text'),
                        "signed_url": signed_url
                    })
                    print(f"signed_urls: {signed_urls}")
                else:
                    print(f"Unexpected S3 path format: {s3_url}")
            except Exception as e:
                print(f"Error generating signed URL: {e}")

    return signed_urls


def invokeLLM(question, kendra_response, signed_urls):
    """
    This function takes in the question from the user, along with the Kendra responses as context to generate an answer
    for the user on the frontend.
    :param question: The question the user is asking that was asked via the frontend input text box.
    :param kendra_response: The response from the Kendra document retrieve query, used as context to generate a better
    answer.
    :return: Returns the final answer that will be provided to the end-user of the application who asked the original
    question.
    """
    # 参照させるドキュメント
    document_references = "\n".join(
        [f"Document: {doc['document_name']}, URL: {doc['signed_url']}" for doc in signed_urls])
    print(document_references)
    # プロンプト
    prompt_data = f"""\n\nHuman:    
【指示】:
- 以下の「質問」と「検索結果」に基づいて、ユーザーの質問に正確に回答してください。
- 質問の回答の際には、その情報が見つかったソース(ドキュメント名)をリンク形式で示してください。
- ドキュメント名と署名付きURLは、次の形式で記載してください:
  - 「情報源: [ドキュメント名](署名付きURL)」
- 署名付きURLが複数ある場合は、それらを全てリンク形式で含めてください。
- 検索結果に回答が含まれていない場合は、「該当する情報は見つかりませんでした」と明示してください。


###
Question: {question}

Context: {kendra_response}

Documents:
{document_references}

###

\n\nAssistant:

"""
    # モデルに渡すパラメータ調整
    prompt = {
        "anthropic_version": "bedrock-2023-05-31",
        "max_tokens": 4096,
        "temperature": 0.5,
        "messages": [
            {
                "role": "user",
                "content": [
                    {
                        "type": "text",
                        "text": prompt_data
                    }
                ]
            }
        ]
    }
    # プロンプトをJSON形式に整形
    json_prompt = json.dumps(prompt)
    # モデル呼び出し
    response = bedrock.invoke_model(body=json_prompt, modelId="anthropic.claude-3-5-sonnet-20240620-v1:0",
                                    accept="application/json", contentType="application/json")
    # レスポンス取得
    response_body = json.loads(response.get('body').read())
    answer = response_body['content'][0]['text']
    # 質問の回答と署名付きURLを返却
    return answer, signed_urls


【app.py】
フロントエンドはほぼサンプル実装そのままですが、一部修正を加えました。

import streamlit as st
from kendra_bedrock_query import kendraSearch

st.title(f""":black[Kendra-Bedrock-RAG検証]""")

# configuring values for session state
if "messages" not in st.session_state:
    st.session_state.messages = []
# writing the message that is stored in session state
for message in st.session_state.messages:
    with st.chat_message(message["role"]):
        st.markdown(message["content"])
# # adding some special effects from the UI perspective
st.balloons()
# evaluating st.chat_input and determining if a question has been input
if question := st.chat_input("質問を入力してください"):
    # with the user icon, write the question to the front end
    with st.chat_message("user"):
        st.markdown(question)
    # append the question and the role (user) as a message to the session state
    st.session_state.messages.append({"role": "user",
                                      "content": question})
    # respond as the assistant with the answer
    with st.chat_message("assistant"):
        # making sure there are no messages present when generating the answer
        message_placeholder = st.empty()
        # putting a spinning icon to show that the query is in progress
        with st.status("Determining the best possible answer!", expanded=False) as status:
            # passing the question into the kendra search function, which later invokes the llm
            answer, signed_urls = kendraSearch(question)

            # Prepare the response content
            response_content = answer + "\n\n"
            if signed_urls:
                response_content += "関連する情報源:\n"
                for item in signed_urls:
                    document_name = item['document_name']
                    signed_url = item['signed_url']
                    # Add the document link using markdown
                    response_content += f"- [{document_name}]({signed_url})\n"

            # writing the answer and links to the front end
            message_placeholder.markdown(response_content)
            # showing a completion message to the front end
            status.update(label="Question Answered...",
                          state="complete", expanded=False)
    # appending the results to the session state
    st.session_state.messages.append({"role": "assistant",
                                      "content": response_content})

※Kendraのqueryメソッドから返却されるデータソースのドキュメントURLを使用し、署名付きURLを生成し、さらにそれを

response_content += f"- [{document_name}]({signed_url})\n"
message_placeholder.markdown(response_content)

でマークダウン形式で表示できるようにしています。

動作確認

上記コードを記載した上で
ターミナルで

$streamlit run app.py

を実行します。

すると、こんな画面が立ち上がります。
st.balloons()をつけることで風船のエフェクトをつけることができるようです。

 

実際に質問を入力してみましょう。

今回は事前にKendraのindex内に登録されているAWSのドキュメントに関する質問をしてみます。

参照元のドキュメントと合わせて回答が返却されることを確認できました。

以上のような形で、簡単にRAGチャットを実装することができました。

 

所感

生成AIを使ったPoCを行う場合、「準備にそこまで時間をかけたくない」「スピード感を持って実施したい」ニーズは一定数あると思います。そんなニーズに応える非常に便利なリポジトリだなと感じました。今回私が検証で使用したのもそんな動機からでした。実際使用してみて、便利さを享受できました。
また、一人の生成AI学習者目線としても、「生成AIを使ったアプリケーションをお手軽に少し触ってみる」、という使い方や、「生成AIアプリケーションがどういった形で実装されているかなどをコードリーディングを通して学習」したりできるため、非常に便利な教材だと感じています。
興味を持った方は、一度使ってみてはいかがでしょうか。

参照サイト