AIポリシー
前文
ファビュラ株式会社(以下「当社」)は、企業向けにAIサービスを開発・提供するテクノロジーカンパニーです。
AI技術は、業務のあり方や組織の構造を大きく変える可能性を持っています。同時に、ハルシネーション、ユーザーの期待への過度な迎合、不適切な業務委任、セキュリティやプライバシーに関するリスクも伴います。
当社は、AIに関する価値や原則を一方的に掲げるだけでは不十分だと考えています。顧客と対話を重ね、AIのメリットだけでなくリスクや限界も率直に説明したうえで、それぞれの状況に適した解をともに探します。
1. 基本的な考え方
当社は、総務省・経済産業省のAI事業者ガイドラインに示される考え方を尊重し、AIの開発・提供・利用に関する責任を果たします。
- 顧客と十分に対話し、AIのプラスの側面だけでなく、同時に発生し得る不利益やリスクも率直に説明します。
- AI技術の進歩とリスクの変化を継続的に収集・蓄積し、自社サービスの改善だけでなく、顧客支援にも還元します。
- 人間中心、安全性、公平性、プライバシー保護、セキュリティ確保、透明性、アカウンタビリティ、教育・リテラシー、公正競争確保、イノベーションを事業活動の指針とします。
2. AIサービス提供における原則
2.1 人間中心
AIは人の意思決定を支援するために活用されるべきものです。当社は、人間の尊厳と個人の自律を尊重し、AIに単独で最終判断を委ねない設計を基本とします。
2.2 安全性
AIの出力には限界があり、想定する精度に達しない場合があります。当社は、信頼度の可視化、人間による確認ステップ、サービス特性に応じたガードレール等の安全策を講じます。
2.3 公平性
AIが内包するバイアスを完全に排除することは困難であることを認識し、不当な差別や偏見を助長しないよう努めます。問題が確認された場合には、速やかに調査・是正措置を講じます。
2.4 プライバシー保護
プライバシー・バイ・デザインの考え方に基づき、AIシステムの設計段階から個人情報の適切な管理・保護を組み込みます。入力データだけでなく、AIの出力データにもプライバシー保護の配慮が必要であることを認識します。
2.5 セキュリティ確保
一般的なセキュリティ対策に加え、プロンプトインジェクション等のAI固有のセキュリティリスクにも対応します。最新の脅威動向を継続的に把握し、対策を更新します。
2.6 透明性
AIを利用している事実、活用範囲、適切な使用方法、AIの技術的特性や出力の限界について、利用者に分かりやすく説明します。
2.7 アカウンタビリティ
利用規約およびプライバシーポリシーを整備し、当社と顧客の責任範囲を明確にします。AIサービスに関する疑問や懸念に対して、誠実に対応します。
3. 全社的な取組み
経営層のコミットメント
経営層自らがAIガバナンスに関する知見と意識を持ち、AIに関するリスクと機会を経営課題として位置づけます。
ガイドライン等への準拠
国内外の法令・ガイドライン・社会的要請を継続的に確認し、当社の事業に適用される要件への対応を更新します。
従業員の教育
AI倫理・リスク・セキュリティ・プライバシーに関する教育を実施し、全従業員のAIリテラシー向上に努めます。
動的ガバナンス
AIガバナンスは一度整備すれば完了するものではありません。当社は、技術動向や法規制の変化を踏まえ、ガバナンスを機動的に見直します。蓄積した知見は、AX Platform等を通じて顧客にも還元します。
4. 事業における取組み
当社は、顧客の状況やニーズに合わせてAI導入・活用を支援する中で、AI倫理上の課題について顧客とともに取り組みます。
- サービス内容、顧客の事業、エンドユーザーの意向を踏まえて、重視すべき価値を顧客と検討します。
- ハルシネーション、過度な迎合、不適切な業務委任、業務品質低下等のリスクを説明し、対策をともに考えます。
- AIを現場で使われる仕組みにするため、設計、実装、運用、改善を一体で支援します。
5. ポリシーの変更
本ポリシーは、技術の進展、法令・ガイドラインの改定、社会情勢の変化等に応じて改定します。改定を行った場合には、当社ウェブサイト上で公表します。
ファビュラ株式会社
代表取締役 宮政 博人