AI モデルとアプリケーションの検証では、モデルの安全性とセキュリティの脆弱性の評価がアルゴリズムによって自動的に実行され、AI 脅威リサーチチームによって継続的に更新されます。そして、新たな脅威によるアプリケーションへの影響の程度を理解し、AI ランタイムガードレールによって保護できるようになります。
AI サプライチェーン攻撃からの保護
開発者は、Hugging Edge や GitHub などのパブリックリポジトリからモデルやデータをダウンロードしますが、これは意図せずに組織を大きなリスクにさらします。AI 検証は、オープンソースモデル、データ、ファイルを自動的にスキャンし、環境内で任意のコード実行を可能にする悪意のあるモデルファイルなど、サプライチェーンの脅威をブロックします。新しいモデルをレジストリに追加すると、シンプルな API コールを使用して評価を開始できます。
AI Defense は、OWASP Top 10 for LLM Applications を含む AI セキュリティ標準への準拠を容易にします。MITRE、NIST、OWASP の標準への対応をはじめ、個々の AI リスクについては、AI セキュリティのタクソノミー(taxonomy)をご覧ください。