Computer Weekly のレポートによると、Google Cloudは人工知能(AI)のセキュリティに対する懸念に対応するため、新しいセキュアAIフレームワークを発表しました。Google Cloudの最高情報セキュリティ責任者であるフィル・ヴェナブルズ氏は、このフレームワークがソフトウェアライフサイクルのリスク、データガバナンス、運用リスク管理の3つの主要な分野に焦点を当てていると説明しました。
包括的なセキュリティツール
このフレームワークは、企業がAIの導入に伴う複雑さに対処できるよう、Vertex AIに統合されたツールを提供し、ソフトウェア開発の管理やデータの整合性を確保します。また、Model Armorのような機能を通じてデータフローを管理し、データポイズニングやプロンプトインジェクションなどのセキュリティ脅威を防止します。ヴェナブルズ氏は、Google Cloudがハードウェアからモデルに至るまで、AIの全スタックを管理していることが、強力なセキュリティ対策を構築する上での大きな利点であると強調しました。
業界の協力を重視
レポートによると、このセキュアAIフレームワークはオープンソース化されており、Google Cloudはテック業界全体の協力を促進し、ベストプラクティスの開発をさらに進めています。Gemini AIモデルの開発においても、Google Cloud自身がこのフレームワークを採用していることから、同社の取り組みへのコミットメントが示されています。
企業のAI導入支援
ヴェナブルズ氏は、多くの企業がまだAIのプロトタイプから本格的な運用に移行している段階にある一方で、Google Cloudのツールはセキュリティやガバナンスのプロセスを効率化し、AIの導入をより安全かつ管理しやすくしていると強調しました。
詳細については、Computer Weekly のレポートをご覧ください。こちら.