生成AI自体の存在は把握しつつも、どのような活用方法があるかを全然知らない筆者がGoogle Cloud Generative AI Summit Osakaへ参加してきたので色々聞いてみた中で思った事を記載していきます。
セッションの細かい内容についてはセクション動画とスライドが概要ページにリンクされているのでそちらをご覧下さい。
また、他のメンバーもレポートを書いていますので、そちらもご参考にどうぞ。
元々は生成AIでの活用については全然イメージがついておらず、よく出てくるChatGPTやStable Diffusionのイメージ程度しか持っていませんでしたが、それだけではなく情報の分析等でかなり活躍出来そうという風に感じました。
中でも、基調講演のデモであったBigQueryを利用したWAVデータのテキスト化からの要約などが凄く印象に残っており、今までデータ分析を行うには難しかった非構造データも生成AIによって分析対象に出来るようになるという点で色々な使用方法がありそうですね。
Googleのイベントという事で基本的にGoogle Cloudを用いた情報が多かったですが、AWSではどのような構成にする事で似たような事が出来るだろうかなどを考える切っ掛けになりました。
セッションの超概要
- 【基調講演】生成 AI の未来:創造性とイノベーションの新たな時代
- 生成AIの基本的な情報
- Geminiの紹介
- BigQueryによる生成AI利用のデモ
- 実践 生成 AI 〜 Vertex AI で始める Google の大規模言語モデルの活用〜
- Vertex AIの利用パターン
- Vertex AIにて使える機能
- 注意点などの説明
- カスタマイズ手法について
- 生成 AI 時代のデータ エンジニアリング入門 〜 Google Cloud で実現する 生成 AI データ エンジニアリングの第一歩 〜
- 生成AIを利用した際のデータエンジニアリングの変化
- BigQuery関連の情報・機能など
- 生成 AI を活用した検索アプリやチャットボットを迅速に開発する 〜Vertex AI Search and Conversation 紹介〜
- Vertex AI Serch & Conversationのユースケース紹介
- アプリケーションの製作イメージ
- 検索の進化について
- Duet AI がもたらす新たな働き方の世界
- Google WorkspaceのAIへの取り組み
- DuetAIを活用シーン
- Google Cloud 生成 AI パートナー エコシステムのご紹介
- 発表者のGoogle AIの使用ケース紹介
- 生成 AI による SQL 作成支援機能と AI 活用文化の醸成
- 発表者のGoogle AIの使用ケース紹介
- Vertex AI を使った社内情報高度検索実現への取り組み
- 発表者のGoogle AIの使用ケース紹介
参加する前の認識
- ChatGPTの名前はよく聞く
- 誤った内容をそれなりに出力する
- プロンプトの書き方で結果が大きく変わりそう
- 最新情報には疎そう
- どんな活用をするかは想像出来ていなかった
参加後の認識
- 単純にモデルを使用した処理だけでは元の認識のとおり誤った内容をそれなりに出力する(ハルシネーション(幻覚)と呼ばれる現象)
- グラウンディングで外部データを参照する事で誤った内容を出力する可能性を軽減させる事が出来る。
- 社内情報などもグラウンディングによって参照を行わせる事で自力でモデルに学習させる事なく利用が出来る。
- 検索結果を参照させる事で最新情報を使った推論も可能となる。
- プロンプトと出力のセットを用いてLLMのパラメータ調整を行い、出力のチューニングも可能。(ファインチューニング)
- 但し新情報の学習には向いていないため、そちらはグラウンディングを使用した方がよさそう。
- プロンプトの書き方はやはり大事。
- 細かく条件等を指定する事で求められる情報に近づく。
- マルチモーダル対応モデルの場合、テキスト以外にコードや音声、画像、ビデオから推論が出来るので幅が拡がる
- 2016年頃に既に存在していたが、単語をベクトル化して意味空間に配置し、意味の距離検索を行う手法で検索を行い、その結果をLLMによる要約を行うなど発展した情報抽出も出来る。
- 非構造データを用いた情報の分析等、今までと異なる情報分析の流れが出来ていると感じた。
気になった話題
セッションの内容については他の方も書いていらっしゃるので、筆者が気になった内容について簡単に記載していこうとおもいます。
Bard
Google Workspaceにて提供されている対話型AIツールで、Googleが提供しているPaLM2
というモデルが使用されている。また、日程は発表されていないが2024年Q1にてGemini
というモデルが利用可能になる予定となっている。
イベント後、日本語にてGoogleドキュメントやGoogleドライブのデータを用いた回答を行える機能が発表され、パーソナライズされた回答を得ることが出来る様になった。
Google Japan Blog: Bard が マップ や Gmail, YouTube などの Google のサービスと連携
上記のデータ利用を選択したとしてもモデルのトレーニングには利用されないと明言されているため、会社内のGoogle Workspaceのデータを用いた対話側AIによる処理が行う事が出来るのではないかと考えており、社内情報の確認などもBardに聞くだけで抽出出来るなども想像できる。
誤った内容
生成AIの界隈ではハルシネーション(幻覚)
という言葉で表現されている。これはモデルの学習時点までしか情報を持っておらず、その情報下で推論を行ってもっともらしい出力を作成する為に発生する。
これを回避する為、グラウンディング
という外部データを用いた最新情報や自社データをモデルが使用出来る状態にする手法が利用されてきており、前述のBardではWebの検索結果をモデルにて処理する事で精度を高めているらしい。
マルチモーダル
今まではテキストのみがプロンプトとして使用出来ていたが、コードや画像・音声・動画をプロンプトとして扱うことが出来るようになっている。
画像等の意味をモデルが推論して利用出来るようになる。
これにより、画像とテキストの両方にてモデルにプロンプトを渡し、その回答を得るなどが出来るので活用の幅が広がっていると感じた。
ベクトルデータ
2016年頃に少し触っていたベクトルデータが現在のAI界隈でも利用されている事を知った。
単語の意味を意味空間上にベクトルとして配置し、その情報を持って意味上の距離を計算する事で入力された文章から意味の近い情報を検出する事ができる。
このベクトルデータを用いて関連度の高い情報を抽出した上でLLMにて処理を行う事で入力した意味に近い情報を要約するなどの処理を行う事が出来るようになる。
まとめ
今までは活用方法についての想像がついておらず、ChatGPT等の検索代わりや画像生成などの漠然としたイメージしか持っていなかったのですが、実際の活用方法や現在のAIの状況の話を聞くことが出来たことで実際のアプリケーションへの適応などのイメージが掴むことが出来ました。
また単純利用する際に問題なんじゃないかと想像していたハルシネーションに対しても今では軽減策が出てきており、ビジネス情報も外部データとして扱うことでモデルに学習させる以外の方法が行われていることを知れた事で懸念していたモデル情報に学習させなければ使えないのでは無いかという考えも一新することができました。
それにより生成AIを活用していこうという考えも出てきたので生成AI無学者であっても為になったイベントでした。