AIのリスク対応急げ


Pocket

『日本経済新聞社』経済教室(2017年4月26日)より抜粋

副題として「個人の尊重」揺るがす恐れとし、3つのリスクを指摘している。
(1)個人の人格や能力をAIにより確率的に判断し、様々な可能性を事前に否定することは個人の尊重原理と鋭く矛盾する。最先端の情報技術を使って、われわれを固定的で予定調和的な「前近代的」世界へと引き戻すようなものだ。

(2)「企業は今やカモを待つのではなく、自らつくり出せる」という米国のある情報科学者の言葉は、AIネットワーク社会では消費者は商品購入などを「自ら決める」のではなく、一段と他者に「決めさせられる」ようになる危険性を示している。

(3)今後はAIで有権者の支持政党などを予測し、特定の情報を選択的に配信することで関係者が投票行動を恣意的に操作する「デジタル・ゲリマンダリング」なる選挙戦略も表れるといわれる。

一方でEUで来年度施行予定の「一般データ保護規則(GDPR)」のプロファイリングの規制を紹介している。以下を参照。

EUのプロファイリング規制(一般データ保護規則)

【1】プロファイリングの中止を求める権利(21条)
→行使されれば原則中止(マーケティング目的の場合、例外なく中止)
【2】AIなどによる自動処理のみによって重要な決定を下されない権利(22条)
→例えば、人間の関与がない採用・不採用の決定は原則禁止(人間の関与が必要)
【3】透明性の確保(13条、15条)
→決定のロジックなどを情報主体に告知する義務など

 

 

Pocket


PAGE TOP