· トレンド・試験情報  · 2 min read

AIはどこまで許される?試験に出る「AI倫理」ガイドラインの要点

3行まとめ

  • AIの利用に関わる人権侵害、バイアス、プライバシーのリスクを抑えるための規範
  • ITパスポート試験では、ガバナンス(統治)の観点で問われる
  • 人間中心のAI社会原則に基づいた信頼性の確保が鍵

シラバス上の位置付け

  • ストラテジ系 / 法務 / 権利保護(AI倫理)
  • ストラテジ系 / 企業活動 / 情報システム戦略(AIガバナンス)

出題キーワード

  • 人間中心のAI社会原則
  • 説明責任(アカウンタビリティ)
  • バイアス(偏見)

試験での出題ポイント

試験では、AIの不適切な利用例(差別的な判定、プライバシー侵害、ハルシネーションの放置など)を問う問題が頻出します。

  1. 公平性: 学習データに偏り(バイアス)がないか。
  2. 安全性: 予期せぬ動作で人に危害を与えないか。
  3. プライバシー: 本人の承諾なしに個人情報をAI学習に使わない。

【AIハック】生成AIで最速暗記

AI倫理をAIに「自己分析」させると理解が深まります。

プロンプト例:

「生成AIの普及によって、人間のプライバシーが侵害されるリスクを3つ挙げて、それぞれ対応策を簡潔に回答してください。」

Back to Blog