ニュース記事概要
欧州連合(EU)の欧州委員会は人工知能(AI)の倫理指針案を公表した。
AIが社会にもたらす恩恵を最大化し、リスクを最小に抑えるには「人間中心」のアプローチで「信頼できるAI」をめざすべきだと強調。
人種や性別による差別を防ぐことや、AIによる判断を人間が監視することなどAI開発のための10の必要条件を定めた。
(1)相反する2つ以上の意見
アンシプ副委員長(欧州委)
「人々がAIに基づくシステムを受け入れて利用するには、プライバシーが尊重され、(AIによる)決定が偏っていないと知り、AIを信頼する必要がある」
須藤修(東京大学教授)
「このままではAIやデータで途上国などの弱者を食いものにする国や企業が力を持つ。国際協調の枠組みとして世界に提案していく。(軍事利用禁止など)合意形成できない項目を含めるのはリスクになる」
(2)仮説(450文字以内)
・GAFA、中国のBAT(バイドゥ、アリババ、テンセント)が国民の消費データ等を正確に把握しつつある。AIでその力を強化される前に、欧州連合はルールで規制したいのではないか。
・「人間中心」という言葉が気になる。
仮に人間と同じように判断できるAIができた場合、
その判断を人間が監視するというのは難しいのではないか。
何万通りのシミュレーションの結果これが一番良いとAIに言わたときに人間は何と答えるのか?もし仮にその結果を否定しようとした場合、感情とか感性、規範で判断することになるのではないか。