微調整
あらかじめ学習済みのAIモデルを特定のタスクやデータセットに適応させ、新しいデータを用いて学習を続けることで、しばしばタスク特有のパフォーマンスを向上させます。
汎用的な大規模事前学習モデル(例:BERT、ResNet)を、学習率を抑えつつドメイン固有のラベル付きデータで追加学習する転移学習手法です。ファインチューニングは開発を加速し、タスク固有データの必要量を削減するとともに、幅広い特徴表現を活用できます。ガバナンスの観点では、再現性を確保するために、ベースモデルの来歴、ライセンス準拠状況を追跡し、ファインチューニングに使用したデータセットおよびハイパーパラメータの選定内容を文書化する必要があります。
あるリーガルテック企業は、ラベル付けされた50,000件の契約条項データを用いてBERTモデルをファインチューニングしました。ゼロから学習する場合の10分の1のデータ量で条項分類において90%の精度を達成し、社内QA基準を満たす契約レビューの自動化を実現しています。

私たちは、お客様が答えを見つけるお手伝いをします
Enzaiはどのような問題を解決しますか?
Enzaiは、エンタープライズグレードのインフラストラクチャを提供し、AIリスクとコンプライアンスを管理します。AIシステム、モデル、データセット、ガバナンスの決定が文書化され、評価され、監査可能な中央記録システムを作成します。
Enzai は誰のために作られていますか?
Enzaiは他のガバナンスツールとどのように異なりますか?
既存のAIガバナンスプロセスがない場合でも開始できますか。
AIのガバナンスはイノベーションを遅らせるのか?
Enzaiはどのように進化するAI規制と整合性を保っていますか?
リサーチ、インサイト、更新情報
組織がAIを採用し、管理し、監視する能力を、企業レベルの信頼性で強化します。規模で運営する規制対象の組織向けに構築されています。
