最近の生成 AI の進化は目覚ましい。
ただ、法律は追いつかないことがある。
では何に拠るべきか?
→これが倫理!
「人前で堂々とそれを説明できますか?」
ただ AI を有効利用すれば良いということではない。
「責任ある AI」を追及すべき。
Google も、目指すところと目指さないところを明確にしている。
7つの目標と4つのやらないことを掲げている。
Google の AI 原則(7つの目標)
1. 社会的に有益であること
2. 不当な偏見を生み出したり強化したりしないようにする
3. 安全性を確保するために構築およびテストされる
4. 人々に対して責任を持つ
5. プライバシー設計原則を組み込む
6. 科学的卓越性の高い基準を維持する
7. これらの原則に従って使用できるようにすること
4つのやらないこと
1. 全体的に害を及ぼす可能性が高い
1. 主に傷害を引き起こすことを目的とした技術
1. 国際的に認められた規範に違反する監視
1. 国際法と人権に違反する目的
https://ai.google/responsibility/responsible-ai-practices/
Google のサービス(主に Vertex AI)を用いてどのように「責任ある AI」を目指すか?を学べるトレーニングだった。
ラボ1テーマ:公平性と信頼性
公平性と信頼性が高い責任ある AI の構築に努める必要がある。
TensorFlow には TensorFlow Data Validation(TFDV)と TensorFlow Model Analysis(TFMA)という 2 つのツールが用意されており、 TFDV と TFMA を使用して、それぞれデータとモデルの AI 公平性を分析する方法を学習した。
- TFRecords を使用してレコード指向のバイナリ形式データを読み込み
- TFDV を使用して統計情報を生成し、TFDV ウィジェットを使用して質問に回答。
- TFMA と公平性インジケーターを使用して公平性の指標を計算し、その API を使用してモデルの分析結果にプログラムでアクセス
ラボ2テーマ:解釈可能性と説明可能性
機械学習モデルは複雑なシステムだが、開発者はその動作 (の一部) を理解して説明する必要がある。
そのための高度なツールとして、Vertex AI には、Explainable AI と呼ばれるモデルの解釈性に特化したサービスがある。
- Vertex AI Model Registry を使用してカスタム トレーニングされたモデルを読み込み、説明を構成
- Vertex Explainable AI を使用して、サンプリングされた Shapley メソッドで特徴ベースの説明を取得
- Matplotlib を使用して説明を視覚化し、モデルの洞察を収集
Vertex Explainable AI を使用して解析した結果、各ワードをポジティブかネガティブかを数値的に表現することができる。その中で例えば、「black」を否定的にとらえていることなどがわかった。
(なぜそうなるのか、ではどう対策するか、については次のステップとなる)
ラボ3テーマ:プライバシーとセキュリティ(安全性)
プライバシーや安全性は必須要件である。
例えば、PaLM の安全性をテストする任務を与えられた場合、会社のアプリケーションで追加のフィルタリングが必要な場所について、推奨事項を提供する必要がある。
新しいアプリケーションからの応答に含めたくないさまざまな機密事項に対して PaLM がどのように反応するかをテストしたり、悪意のある可能性のある例を含む任意の入力に対して、新しい内部ツールを安全に使用できるかどうかをテストしたりすることができる。
- Vertex AI Studio を使用して PaLM の安全性をテスト(簡単で迅速でした)
- 基本的な敵対的テストを実施
- 安全フィルターのしきい値や温度といったパラメータを操作するだけでテストできた。
所感
まとめてしまうと、基本的なアプリケーション開発の考え方と同じ(機能の信頼性は必要だし、仕様には設計思想などの説明責任が生じるし、セキュリティは言わずもがな)だが、それを具体的に解決していけるツールが Google Cloud に揃っていることが学べた。
今までなんとなく Google Cloud は AI が強いみたいなイメージがあったが、その具体的な裏付けを得られた感覚。
まだ自分の言葉で説明できるほど消化できていないが、今後の AI 技術のキャッチアップに非常に有意義なトレーニングであった。