本格的リニューアル構想中のため、一部表示に不具合があります m(_ _)m

(経済教室)憲法学のフロンティア(上)AIのリスクに対応急げ「個人の尊重」揺るがす恐れ 山本龍彦・慶応義塾大学教授

経営管理会計トピック テクノロジー
この記事は約10分で読めます。

■ 便利とリスクは裏腹の関係。憲法学から見たプロファイリング問題とは?

経営管理会計トピック

昨今流行のビッグデータをAIで解析して最適な行動を人間に提案することに多くの技術者のしのぎを削っていますが、その裏側では、これまでの人間社会を破壊する可能性の高い大きな危険が潜在しています。生活にとって便利は危険と隣り合わせ。石油化学技術の発展により身の回りにはプラスチック製品が溢れ、様々な容器や梱包材、化繊などに利用されていますが、その廃棄物がマイクロプラスチック(マイクロビーズ)として、深刻な海洋汚染を引き起こし、現在、大きな環境問題となっています。ネット生活には欠かせないレコメンド機能。これも、便利の裏側に大きな問題を抱えていると言わざるを得ません。

2017/4/26付 |日本経済新聞|朝刊 (経済教室)憲法学のフロンティア(上)AIのリスクに対応急げ「個人の尊重」揺るがす恐れ 山本龍彦・慶応義塾大学教授

「ビッグデータや人工知能(AI)の利活用による日本再興は重要な国家的プロジェクトの一つとなっている。政府もAIの社会的実用化に向けた議論を推進する立場を明確にしている。AIの可能性を考えればこの方向性は基本的に支持できるし、情報技術の「指数関数的成長の力」からみてこの流れは不可避だ。」

(下記は、同記事添付の山本龍彦教授の写真を引用)
やまもと・たつひこ 76年生まれ。慶応義塾大法卒、同大博士(法学)。専門は憲法学

20170426_山本龍彦・慶応義塾大学教授_日本経済新聞朝刊

<ポイント>
○AIの否定的評価で社会排除の可能性も
○欧米ではAIのリスク踏まえて憲法論議
○日本は技術的問題に終始し憲法論進まず

(注)日本経済新聞の記事へ直接リンクを貼ることは同社が禁じています。お手数ですが、一旦上記リンクで同社TOPページに飛んでいただき、上記リード文を検索すればお目当ての記事までたどり着くことができます

憲法研究者である山本教授が最新のネット技術に憲法学の見地から警鐘を鳴らしていることをきちんと理解するには、教授がAIやビッグデータ関連技術の何を問題視しているかの理解から入らねばなりません。それが、「プロファイリング」です。

プロファイリングとは?
「個人の購買履歴・ウェブの閲覧履歴・全地球測位システム(GPS)位置情報・交流サイト(SNS)の情報などから、当人の趣味嗜好や健康状態などをAIに自動的に予測させる技術のことをいう。」

皆さんがECサイト、AmazonやYoutubeなどのサイトにアクセスした際、過去に閲覧したことのある商品や、自己の趣味に関連した商品の広告や動画が推奨(レコメンド)されてきて、ビックリしたり、その便利さに小さな喜びを感じたりした経験がおありかと思います。こうしたレコメンド機能は、あなたの購買履歴・閲覧履歴からあなたの趣味嗜好を丸裸で覗き見られていることと同義なのです。

 

■ ECサイトのレコメンド機能に満足している消費者の裏側で起きていることとは?

本論に入る前に、ECサイトなどで、プロファイリングによる商品のレコメンド機能がどのように働くのか、その原理をごくごく簡単にご紹介します。

そうしたECサイトには「レコメンドエンジン」が搭載されており、その手法は大別すると次の3つ。

(1)協調フィルタリング
・Webアクセス履歴やユーザの行動履歴をもとに商品をレコメンドする仕組み
・商品Aを閲覧・購入した人には商品Bを閲覧・購入した人が多いという相関関係を得る
・この相関分析によってあなたが、商品Aを閲覧したら、すかさず商品Bの広告を表示
・ユーザ(あなた)は「売れ筋や趣向にあった商品の発見」を体験することができる

(2)コンテンツベース・フィルタリング
・商品・サービスの属性情報とユーザの興味関心との関連性からレコメンドする仕組み
・あらかじめ用意されたコンテンツの属性や関連性を各種カテゴリに分類しておく
・この属性分類によってあなたが、商品Aを閲覧したら、同じカテゴリに属する商品A’の広告を表示
・ユーザ(あなた)は「同種の商品を探す手間が省ける」という体験をすることができる

(3)ハイブリッド・タイプ
・複数のフィルタリング手法を組み合わせてレコメンドする仕組み
・例)「コールドスタート問題」の解決やAIによる強化学習機能を活用したりする
・ユーザ(あなた)は「思いがけない商品の発見」を体験することができる

こうしたレコメンド機能が提供される代表的なサービス形態は次の4つ。

(1)パーソナライズ機能
・個人に最適な商品を自動提案する機能で、個々人のニーズに合わせて商品を表示する
・ニーズ適合は、事前に取り決めたルールや個人の反応に合わせて商品の表示を変えることで実現する

(2)リピート表示機能
・ニーズの掘り起こしのためにサイトを訪れるたびに新しい商品を表示する

(3)補てん機能
・十分なユーザの行動分析情報が無く、表示条件に満たない場合でも空白とせずに自動的に商品を表示して機会損失を防ぐ

(4)テキストマイニング機能
・サイト内での検索・閲覧といった膨大なデータからユーザ個人の趣向やニーズ情報を類推し、ユーザの興味を予測して適合する商品を表示する

こうしたサービスが十分に機能するためには、Cookie(クッキー)が必要です。クッキーにはユーザが表示したページの数、直前に表示していたウェブページの情報、ウェブサイトの訪問回数などの情報が総合的に記録されており、ユーザが訪問したサイトから発行されるテキスト情報です。ほとんどのウェブブラウザではクッキーを自動的に受け入れるよう設定されています。クッキーの利用を停止する場合は、ユーザが明示的にクッキーを削除・拒否する必要があります。

閑話休題。

 

■ プロファイリング問題が潜在的なプライバシー侵害以上の災いになる可能性とは?

企業がプロファイリング技術により、顧客のプライバシー領域に自由にアクセスしうることが明らかになった問題が報道されたことがありました。

「以前、米小売り大手のターゲットが特定のサプリメント・大きめのバッグ・無香料性の化粧水といった購入履歴から、顧客の妊娠の有無や出産予定日を予測し、この結果に基づいてベビー用品の案内などを選択的に送っていたことが報じられた。」

この事件が意味する真に怖い所は、

① 取得に厳格な同意が要求されるようなセンシティブ情報も、AIに周辺情報を分析させることで、企業側が迂回的に手に入れられる
② 消費者として心の奥底に秘めた私事も、AIには常に見透かされている

これらも従来のプライバシー権を巡る議論の枠内のもので、セキュリティー問題にとどまらず重要な憲法問題の一つでありますが、プロファイル問題はそれ以上の問題を孕んでいます。

(1)AIによる社会的排除
ひとたび評価づけられた「プロファイリング情報」は、その人について回り、「いったんAIにより不適格の烙印(らくいん)を押された者は、「確率という名の牢獄(ろうごく)」「バーチャルスラム」とも表現される見えない塀の中で一生過ごさざるを得なくなるかもしれない」可能性を引き起こす。

転職エージェントや採用担当者が扱う求職者の職務能力に関する否定的評価を一度、AIが下しただけで、人事部が下した人事評価・査定を面談で覆すことが難しくなるだけでなく、「ネットワークを通じてローンや保険会社などの信用スコアと結び付けられ、雇用以外の場面での排除をドミノ式に引き起こす可能性」があるということです。

独立した個々人の生き方をまるでAIが一度の判定で決定づけ、その後の人生を方向付ける。そういうハリウッド映画がありましたね~。

「近代憲法が最も重視する「個人の尊重」原理に直接関わる。この原理は、身分のような集団的属性により個人が短絡的・概括的に判断されたり、生き方が事前に決められたりした「前近代」を否定・克服し、一人ひとりの具体的事情を尊重し主体的に人生を創造することを認めようとするものだ。個人の人格や能力をAIにより確率的に判断し、様々な可能性を事前に否定することは個人の尊重原理と鋭く矛盾する。」

 

■ プロファイリング問題がヒトの自由意思や民主主義の根幹を揺るがす存在になる!

(2)自己決定原理の揺らぎ
「ビッグデータ解析から、女性は鬱状態にあるときに化粧品の購買傾向が高まるという結果が出たことを受け、閲覧履歴などに基づき消費者が鬱状態にあるかを予測し、その瞬間を狙って広告配信することを推奨する」ことを試みている企業があります。これは、個人の精神状態をのぞき見る点でプライバシーの問題以前に、「「精神的に最も脆弱な瞬間」につけ込み、商品購入に向けた意思形成過程を操作」することで、消費者が生産者のいいカモに成り下がってしまうことも意味しています。

「AIネットワーク社会では消費者は商品購入などを「自ら決める」のではなく、一段と他者に「決めさせられる」ようになる危険性」を孕んでおり、他人(生産者・企業)に自分の消費行動をマインド・コントロールされるのと同義であるかもしれません。そうなれば、どこまでが主体的な判断か、一方的にかつ大量に送りつけられる情報の何が正しいか、自分でどこまで自信を持って判断できているか、不安になってきた人が大分いらっしゃるのではないでしょうか。

(3)民主主義原理の揺らぎ
「個人がAIの予測した政治的信条に合致したニュースや論評のみを配信され、それ以外の情報をフィルタリング(閲覧制限)される現象は「フィルターバブル」と呼ばれる。こうなると自身は心地よくても、信条を異にする他者との接触機会を減じられ、おのおのの思想が極端化して政治的分断が一層深刻化すると指摘されている」

これは現にECサイトの初歩的なレコメンド機能が用いるアルゴリズムでも発生していることで、「いつも同じような商品しか推奨されてこない」という類のものです。それがECサイトのレコメンド機能だったら罪も軽いのでしょうが、SNS等でのフェイクニュースが取り沙汰されている昨今、身の回りの全て自分が嗜好する情報だけに収斂してきて、批判的な、客観的な情報に接する機会が失われていくと、自己判断にも自信が持てなくなりそうです。

やがて、マスメディアは限定されたコミュニティ内のコミュニケーションツールに変容するとするジャーナリズム研究家の意見もあります。

これが政治の世界に持ち込まれるとしたら、
「既に近年の米大統領選挙ではビッグデータ分析が多用されている。今後はAIで有権者の支持政党などを予測し、特定の情報を選択的に配信することで関係者が投票行動を恣意的に操作する「デジタル・ゲリマンダリング」なる選挙戦略も表れるといわれる。」

一体、民主主義とは何か、という問いに古代ギリシアの時代にまで遡って議論する必要があるかもしれません(ちょっと大げさか?(^^;))。

 

■ プロファイリング問題を過大視している人たちの取り組みとは?

AIネットワーク化のもたらすリスクはプライバシー問題という枠を超え、個人の尊重や民主主義といった近代憲法の基本的な諸原理にも及ぶようになりました。それを受けて、米国や欧州連合(EU)では既に積極的な憲法論議が交わされています。

<米国>
「プロファイリングが人種差別を助長しうるとの認識の下で、ビッグデータによる社会的排除や格差拡大の問題が活発に議論されている。」
→ 米連邦取引委員会が昨年公表した報告書のタイトル「ビッグデータ――包摂の道具か排除の道具か?」

<EU>
来年施行予定の「一般データ保護規則(GDPR)」の中で、プロファイリングに明確な定義を与え、規制を大幅に強化する。AIによる確率的判断に対抗する権利などが盛り込まれる予定。

(下記は、同記事添付の「EUのプロファイリング規制」を引用)

20170426_EUのプロファイリング規制_日本経済新聞朝刊

憲法的な基本的諸原理を侵食し、国や個人のあり方を根本的に変容させる力を持つAIネットワーク化について、社会や法の在り方を真剣に議論している欧米に比べ、未だ「「情報漏洩を防ぐセキュリティーシステムとは何か」といったこまごました技術的問題を中心に議論が進んでおり、国民を巻き込んだ憲法論は不活性なまま」という日本の議論の未成熟さを山本教授は大いに憂いて警鐘を鳴らしています。

日本人の気質が、社会風土的に宗教観的に、元よりロボットなどの科学技術の発展に寛容なのと、技術躍進が戦後の高度成長を支えたことの成功体験、自発的な市民革命を経ないで近代社会に移行した歴史的経緯などが、相まって現代日本を形作っているのではと推察しています。まあ、筆者も含めてデジタルデバイドされている熟年世代より、デジタルネイティブの若年世代の活躍を心から祈っております!(^^;)

(注)職業倫理の問題から、公開情報に基づいた記述に徹します。また、それに対する意見表明はあくまで個人的なものであり、筆者が属するいかなる組織・団体の見解とも無関係です。

コメント