· トレンド・試験情報 · 2 min read
AIはどこまで許される?試験に出る「AI倫理」ガイドラインの要点

3行まとめ
- AIの利用に関わる人権侵害、バイアス、プライバシーのリスクを抑えるための規範
- ITパスポート試験では、ガバナンス(統治)の観点で問われる
- 人間中心のAI社会原則に基づいた信頼性の確保が鍵
シラバス上の位置付け
- ストラテジ系 / 法務 / 権利保護(AI倫理)
- ストラテジ系 / 企業活動 / 情報システム戦略(AIガバナンス)
出題キーワード
- 人間中心のAI社会原則
- 説明責任(アカウンタビリティ)
- バイアス(偏見)
試験での出題ポイント
試験では、AIの不適切な利用例(差別的な判定、プライバシー侵害、ハルシネーションの放置など)を問う問題が頻出します。
- 公平性: 学習データに偏り(バイアス)がないか。
- 安全性: 予期せぬ動作で人に危害を与えないか。
- プライバシー: 本人の承諾なしに個人情報をAI学習に使わない。
【AIハック】生成AIで最速暗記
AI倫理をAIに「自己分析」させると理解が深まります。
プロンプト例:
「生成AIの普及によって、人間のプライバシーが侵害されるリスクを3つ挙げて、それぞれ対応策を簡潔に回答してください。」