はじめまして、25卒の畑咲人です!
先日、AWS Certified AI Practitioner(通称 AIF)という、昨年から始まったAWSのAI系認定資格を受けてきました!人生2つ目のAWS資格試験でとても緊張しましたが、無事に1回で合格することができました。
私が2週間という短期間で学習に取り組み、どんな工夫や苦労をしたのか、そして試験を終えて感じたことや今後の目標について、具体的にお伝えしたいと思います。
これからAIF受験を目指す方や、AWSのAIサービスに興味がある方の参考になれば嬉しいです!
AIFとは
AIFとは、AWS Certified AI Practitionerの略称です。AIF は、AI の学習手法、ML / 生成 AI に関連するAWSサービスに重点を置いた出題がされていました。具体的なサービスとしては、ML 開発 / 生成AIモデル利用をサポートするAmazon SageMaker、音声をテキストに自動変換するAmazon Transcribe、生成AIアプリ開発に用いられるAmazon Bedrockや生成 AI アシスタントであるAmazon Qなど、昨今話題の生成AIのみでなくAI技術に関連するサービス全般が対象です。
AWS Certified AI Practitioner について
合格までの軌跡
【1・2日目】試験ガイドを読み込み、関連するサービスについて調べる
まず初めに行ったのは、AWS公式が提供している「AWS Certified AI Practitioner (AIF-C01) 試験ガイド」の概要と試験範囲を読みこむことでした。AIFの試験ガイドはPDFで20ページほどあり、出題分野や傾向、そして出題範囲のサービス名が付録に書かれています。AIや機械学習自体の知識だけでなく、「AWSでどう扱うか」という視点で幅広く問われるのがAIFの特徴です。そのため、全体像をつかむことを最優先に、2日間かけて試験範囲のコアサービスの概要を覚えました。
AWS公式サイトに掲載されているサービス概要から、それぞれの用途、特徴の違いをざっくり把握することに力を入れました。
【3〜7日目】サービス活用例で理解を深める
各サービスの基本的な内容を一通り学習した後、私自身が特に意識したのは「それぞれのサービスが実際のビジネス現場でどのように活用されているのか」を具体的にイメージすることでした。現時点で私は現場経験がないため、単なる機能一覧や公式リファレンスだけでなく、実際の事例や業務での使われ方を知ることで、より深い理解につなげたいと考えました。そこで、AWS公式ブログやBlack Beltセミナーの資料など、公式情報に加え、現場視点のユースケース解説に積極的に目を通すようにしました。
Amazon SageMakerについては、Black Belt資料を丁寧に読み込む中で、「推論」という一つの機能に対しても、リアルタイム推論・バッチ変換推論・非同期推論・サーバーレス推論など多様な方式が用意されていることに気付きました。それぞれの特徴や用途の違いが整理されて紹介されており、なぜ複数の推論方式が必要なのか、どのような場面で選択されるのかという観点で具体的な事例を調べ、理解を深めていきました。
実際に、リアルタイム推論はチャットボットやレコメンデーションシステムなど、ユーザーからの入力に即座に応答する必要があるシーンで多く利用されており、主に小売業界やWebサービス業界での活用が目立ちました。一方、バッチ推論は大量データを一定時間ごとにまとめて処理する場面で利用され、製造業や物流業では夜間バッチで効率化を図っている事例が印象的でした。また、SageMakerの自動スケーリングやマルチモデルエンドポイントといった運用面の工夫についても、Black Belt資料の図解やケーススタディを通じて具体的な運用イメージが掴め、単なる理論や仕様だけでなく「現場でどのように設計・管理されているか」への理解が格段に深まりました。
また、Amazon Bedrockについては、AWS公式ブログやiret.mediaで紹介されている豊富な導入事例が非常に参考になりました。Bedrockは、Anthropic ClaudeやAmazon Titan、Meta Llamaといった複数のファウンデーションモデル(FM)を単一のAPIで柔軟に利用できる点が際立っており、生成AIの基盤としての多様性と拡張性が高いことを実感しました。加えて、エンタープライズ向けに求められるセキュリティや権限制御、プロンプト履歴の管理、RAG(Retrieval-Augmented Generation)連携など企業システムに、安全に生成AIを組み込むための設計思想が随所に見られました。
具体的なユースケースとしては、Knowledge Bases for Amazon Bedrockを活用し、Amazon S3上の膨大で複雑な社内ドキュメントをBedrockとRAGで連携した生成AI検索アシスト基盤により、Slack上で自然言語検索できる仕組みが多く散見されました。ユーザーがチャットで質問すると、内部データベースや過去のSlackスレッドをベースに検索と要約が即座に行われるため、必要な情報へのアクセスが圧倒的に迅速になり、日常業務やナレッジ共有やスキル継承の現場で活用されることも分かりました。
https://www.iret.co.jp/works/24-16.html
また、BedrockのIDP(Intelligent Document Processing)機能を活用して、請求書や契約書、音声・動画といった非構造化データからテキスト情報を抽出し、社内のワークフローに自動連携させる取り組みがされていることも知りました。たとえば請求書PDFをアップロードするだけで、必要な項目が抽出され会計システムに自動登録されるなど、AIによるバックオフィス業務の効率化が成されるようです。
さらに、AIによる出力内容に企業独自の「ガードレール」を設け、意図しない応答や不適切な生成が発生しないように運用管理を強化している例も見られます。
このように、実際の現場事例や活用ノウハウに触れることで、当初は抽象的で漠然としていたAWSの生成AIサービス群が、「現実のビジネス課題に対して、どのような仕組みとアプローチで解決を図っているのか」を、より具体的かつ実感をもって理解できるようになりました。
【7〜14日目】繰り返しの演習で知識を“自分のもの”に
残りの7日間は、学んだ知識を定着させるための「アウトプット重視」の学習を行いました。具体的にはオンライン学習プラットフォームの模擬試験問題集を活用して勉強しました。
毎日、模擬試験を一通り解き、その都度「なぜ自分はこの問題を間違えたのか」「次はどうすれば正答できるか」という反省点や気づきを自分の言葉でノートに書き留めるように心掛けました。インプット中心の学習から一歩進み、アウトプットを通じて理解が深まっていく手応えを感じることができました。
また、単に「正解を選ぶ」だけでなく、「なぜこの選択肢が誤りなのか」「どこに落とし穴があったのか」といった観点から毎回徹底的に分析しました。分からない点や納得できない箇所があれば、AWSの各サービスの公式ドキュメントに立ち返り、疑問が解消するまで徹底的に調べることを繰り返しました。この「自分で調べて自分の言葉で理解する」プロセスが、最終的な定着度を大きく高めてくれたと実感しています。
受験後の感想と今後について
AIFの学習と受験を通じて最も強く感じたのは、単なるサービス名や用語の暗記だけでは現場では通用しない、ということです。AWS各サービスの設計思想や責任共有モデル、実際の運用やセキュリティ、さらには「AI倫理」や「説明責任」といった、現場で直面しうる幅広いテーマについて問われるため、「このサービスがなぜ必要なのか」「どのように他サービスと組み合わせることで現場で価値を発揮できるのか」といったリアルなユースケースを常に意識しながら学習することが重要だと痛感しました。
特に、抽象的な説明だけにとどまらず、「自分が実際に現場に立った場合、どのようにAWSのAIサービスを活用できるか」という視点を持つことで、知識の定着や理解の深まりが大きく進んだように思います。
今回の学習・受験経験を通じて得られた気づきを、今後の資格試験取得や実務での学びにも活かし、より一層成長していきたいと考えています。