「マイクロソフト系技術情報 Wiki」は、「Open棟梁Project」,「OSSコンソーシアム .NET開発基盤部会」によって運営されています。
目次 †
概要 †
- Azure OpenAI Serviceは、Microsoft Azureの一部として提供されるサービスで、OpenAIの高度な人工知能(AI)モデルをAzureプラットフォーム上で利用可能にするものです。
- 具体的には、GPT-3やその後継モデルなどの自然言語処理(NLP)モデルを利用して、テキスト生成、言語翻訳、質問応答、要約、感情分析など、多様なアプリケーションを開発できます。
- 高性能なAIモデル:
GPT-3やその後のバージョンなど、OpenAIの最先端のAIモデルを利用できます。これにより、自然な言語生成や高度な理解力を持つアプリケーションを構築可能です。
- スケーラビリティ:
Azureのクラウドインフラストラクチャを利用することで、大規模なデータ処理や高トラフィックに対応できます。必要に応じてリソースを拡張・縮小することが容易です。
- セキュリティとコンプライアンス:
Microsoft Azureのセキュリティフレームワークを活用し、データのプライバシーとセキュリティを確保できます。多くの業界標準や規制にも対応しています。
- 統合とカスタマイズ:
- Azureの他のサービス(例えば、Azure Cognitive ServicesやAzure Machine Learning)と簡単に統合できるため、包括的なAIソリューションを構築しやすくなっています。
- さらに、モデルのカスタマイズやトレーニングもサポートされており、特定のビジネスニーズに合わせた調整が可能です。
- ※ 法人利用において、特に重要な点に、リージョンの指定があり、コレをサポートしている(グローバル標準デプロイでない、標準デプロイでサポートされているモデルを選択する)。
- APIベースのアクセス:
RESTful APIを通じてAIモデルにアクセスできるため、さまざまなアプリケーションやプラットフォームから簡単に利用できます。
詳細 †
実際に構築してみる。
MSのポータル利用手順で †
- ポータルでAzureOpneAIを検索
- AzureOpneAIの作成ボタンを押下する。
リソースの作成 †
- 基本情報としてリソース作成に関する入力欄に入力を行い[次へ]
- サブスクリプション、リソース グループ、リージョン、名前、価格レベル
ネットワーク セキュリティの構成 †
必要に応じて、後で構成するため、[次へ]
構成確認+リソース作成 †
- [次へ] → [確認と送信] → [作成]
- [デプロイが完了しました](この時点でデプロイはまだされていない)
- [リソースに移動] → [Azure AI Foundry ポータルに移動]
モデルをデプロイ †
Azure AI Foundry ポータルで、使用可能ないくつかのモデルから選択してデプロイする。
- [プレイグラウンドで実験する]を押下し[エージェント プレイグラウンド]に遷移する。
- [エージェント プレイグラウンド]でプロジェクト名を付与し[プレイグラウンド] → [チャット] → [デプロイを作成]選択する。
- とりま、モデル[gpt-4o]を種類[グローバル標準]でデプロイする(デプロイ名は既定値から要変更、また、種類[リージョン]選ぶと意味不なクォータ画面に飛ぶ)。
動作確認 †
- 「基本的なコード サンプルを実行する」のコードを「コチラ」のpython仮想環境を使用して実行すると良い。
- Jupyter環境を作るのが面倒だったんで、nano で x.py ファイルに上記のサンプルコードを書き込んで、「python x.py」で実行して動作確認できた。
参考 †
構築 †
github.com †
Tags: :インフラストラクチャ, :クラウド, :BI/AI, :Azure