■ 端的に人工知能(AI)時代の倫理問題を整理しよう!
本稿は、日本経済新聞掲載の経済教室にて、人工知能(AI)全盛時代となり得る近未来において、科学者がAIというテクノロジーと社会のあり方に対する警鐘を取り上げたものを整理するものです。専門家というものは、新技術に対し、手放しのイノベーション礼賛をするものかと思いきや、人間社会への負のインパクトにも思いを馳せるべき、という見解を、これまた専門家ならではの目線で丁寧に論じられています。
2016/9/6付 |日本経済新聞|朝刊 (経済教室)人工知能の光と影(上)日米欧、倫理問題 対応急ぐ 様々な可能性 視野に議論 西田豊明・京都大学教授
「人工知能(AI)は「第4次産業革命」といわれる革新的な社会サービス基盤をけん引する原動力として脚光を浴びている。その半面、AIの負の側面としてこれまで様々な懸念が表明されてきた。そのいくつかを紹介しよう。」
(下記は、同記事添付の西田豊明教授の写真を転載)
にしだ・とよあき 54年生まれ。京都大工学博士。専門は人工知能、会話情報学
<ポイント>
○制御可能性や自律兵器開発に懸念広がる
○AI登場で人間の統治が行き届かぬ恐れ
○社会の支持獲得へ倫理問題の議論公開を
(注)日本経済新聞の記事へ直接リンクを貼ることは同社が禁じています。お手数ですが、一旦上記リンクで同社TOPページに飛んでいただき、上記リード文を検索すればお目当ての記事までたどり着くことができます
教授が示された人工知能(AI)が引き起こしかねない倫理的懸念点は次章にまとめました。
■ 人工知能(AI)時代の倫理的5つの懸念点とは!?
(1)AIの安全性と制御可能性の問題
深層学習(ディープラーニング)の名前で知られている大量のデータからのベイズ統計額的な学習手法が、多様で複雑な現実世界において、いついかなる状況でも適切な予測を導けるかの保証がまだついていない
(2)AIによる日常生活のリスク増加の問題
現在のAIはビッグデータ解析がベースになっているため、圧倒的な質と量の(IoTの名で既に知られている)センサーネットワークとAIの自動解析技術による①プライバシー、②セキュリティに関する権利保護が破たんする恐れ
(3)AIによる失業の問題
人間がこれまで手掛けていたいわゆるホワイトカラー層の高度な専門的な仕事を、高速かつ低価格でのデータ処理を得意とするAIが代替することによって大規模な失業が生じる恐れ
(4)自律兵器の開発の問題
教授が言うところの「道徳的責任能力のある人間の介入なしに自律的に攻撃目標を定め、人々を殺傷に至らしめてしまう兵器が開発されるのではないかという懸念」
→これについては、既に米軍をはじめ、各国の軍隊にて実用化されている兵器も既に存在しており、恐れ・懸念ではなく、既にそこにある危険となってしまっています。
(5)AIによる人間社会の衰退の問題
AIの進化が、人類が培ってきた人間力とか社会力とか、人間社会を形成してきたいろいろなコミュニケーションを中心とした組織形成、ネットワーク維持の各種調整能力がAIによるアルゴリズムに代替されることによって、生身の人間が訓練する機会がなくなってしまう恐れ
(1)については、自動車の自動運転について、サイバーテロ風に自動車制御の乗っ取り技術が公開されたり、部分的自動運転車による人身事故の例が報道されています。これらは、AI技術の更なる進化で解決されるのか、それとも最後まで生身の人間の判断を超えることができなくなるのか、その判断が待たれるところです。
自動運転技術につきましては、自動走行の制御技術の進展と、それを管理する各種法律の整備が同時並行的に進んでおり、全く手放しで安心はできないものの、まあ、安全性の面ではそこそこレベルがこれからも上がっていくでしょう。そもそも、人間が運転する自動車による事故で尊い生命が今も絶たれているわけで、いうなれば殺人可能な車両が往来を行き来しているのは現状でも同じです。完全に車道と人の往来を遮断する交通システムの構築の問題がそこで人の生命をリスクから遮断するために必要で、自動運転車の事故を全てAIの責にする報道も如何なものかと思ったりします。
(5)については、むしろ、AI全盛期になれば、教育や社会的コミュニケーションに携わる職業は生身の人間でないと不可能である、もっとそういう社会的コミュニケーション能力を磨く職業訓練を通じた産業間の人員シフトも計画されるべき、という論もあり、一概に完全なリスクオンリーの論点ではないことも確かです。
⇒「人工知能(AI)の研究者2人に聞く! AI研究の方向性とこれからの人間教育について(前編)日経新聞より」
⇒「AI、弱点は「常識知らず」状況把握が苦手、活用に課題」
⇒「(経済教室)人工知能は職を奪うか(下)意思疎通能力、一層重要に 労働市場の整備カギ 柳川範之 東京大学教授」
⇒「(エコノミクス トレンド)技術革新は職を奪うか 新たな仕事生む面も 鶴光太郎 慶大教授」
■ こうした懸念が生まれる背景を教授が読み解く!
西田教授によりますと、上記のような懸念は、
「具体的な事故や惨事に起因する問題意識というよりも、現在起きつつある急速な変化を示す種々の兆候から生じた不安という色彩が濃い」
そうで、そうした不安の背後関係をチャートを用いながら分かりやすく説明して頂いています。
(下記は、同記事添付の「現在および近未来の人工知能利用の枠組み」の説明図を転載)
人工知能(AI)全盛時代に、どうAIと向き合うか、社会的な立場の違いが複数あることをまず教授は言及されています。
① 通常の市民
この人が接するのは通常の情報端末、あるいはロボットやコンピューターグラフィックスで実現された「人型インターフェース(接点)」
② その「人型インターフェース(接点)」を操作する人
③ AIの製造販売をする立場の人
④ AIの研究開発をする立場の人
教授によると、これまでは、上記①の人が何らかの端末やインターフェースに向かってなにか生産活動や日常生活を行う際には、そうした「プロセスは社会の構成員の参加により稼働し、プロセスの細部に至るまで社会によるガバナンス(統治)のもとに置かれていることが社会規範となっていた」のですが、ここで問題視されているのは、そのプロセスがAIに代替されることにより、「AIが急速に高度化して、掌握しきれなくなったとき」に倫理的な問題が発生し得ることです。
その詳細は享受によりますと、
「①の立場の人が通常の情報端末あるいは人型インターフェースを通して接する「相手」が、普通の人間のレベルをはるかに上回る知力を持つAIになると、①の立場の人は安全性や悪用に関して弱い立場に追い込まれてしまう。」
「②の立場でサービスを提供する人にとっては、自分が掌握しきれないAIに任せた業務(例えば運転)で生じた損失や責任を引き受けねばならなくなる。」
「③の立場の人も同様で、製造者としての責任を果たしきれなくなる。」
→上記②や③については、損害賠償責任やPL法による製造者責任を規定した法律をAI時代に適したものに変える必要があります
「④の立場の人については、社会問題を引き起こした道義的責任が問われることになる。」
→かつて、哲学者・科学者による「ラッセル=アインシュタイン宣言」(1955年:イギリスの哲学者・バートランド・ラッセル卿と、アメリカの物理学者・アルベルト・アインシュタイン博士が中心となり、米ソの水爆実験競争という世界情勢に対して提示された核兵器廃絶・科学技術の平和利用を訴えた宣言文)といった、動きがAIの分野でも十分に怒り得ます。
そして、
「他方、社会にとっても、AIを使ったサービスが適切に提供されるようガバナンスを維持することが困難になる。」
となり、AIは単なるテクノロジーの問題ではなくなり、社会問題となるのです。iPS細胞も同様の問題をはらんでいます。だって、この技術を使えば男性から卵子、女性から精子を作ることも可能となり、同性配偶による子の誕生も可能になりますから。生命科学、生命倫理だけでなく、社会構成そのものの在り方の根幹を揺るがせかねない問題でしょう。科学の進歩というものは、こういう社会的問題と表裏一体である点については、原水爆やiPS細胞とAIは同レベルの驚異的テクノロジーでしょう。
■ 西田教授の解決策への提案
こうした懸念について、教授によれば、次のような対抗策を講じることが必要であるとのことです。
(1)②~④の立場の人に一定の職業倫理に従うことを求める
(2)社会全体がリテラシー(知識)を共有するよう啓蒙するアプローチと、安全性や制御可能性を中心とする依拠可能なAIの設計開発技術の確立を目指したアプローチを併用する
それを受けて、「AIの健全で有益な発展の方向を促すための具体的な取り組み」が様々な機関で実践されています。
・日本の人工知能学会が14年に立ち上げた倫理委員会
「今年6月、誠実性や説明責任など、AI研究開発者があまねく順守すべき事項を示した倫理綱領案を公開」
・米ボランティア団体FLI(Future of Life Institute)
「15年に、オープンレター(公開書簡)という方法をとり、世界中のAI研究開発者に具体的な項目を挙げて、倫理を考慮した研究開発をすることを呼びかけた。負の側面に配慮しつつ、人間社会に有益なAIを開発すべきだという声明には、8千人超が署名した。さらに自律兵器開発反対の声明には2万人超が署名した。その後、頑健で有益なAI研究推進に資する研究提案を募集し、37件に研究資金を提供した。」
・英工学物理研究会議(EPSRC=Engineering and Physical Sciences Research Council)
「AIを搭載する可能性の高いロボットに道徳判断機能を持たせるべきではないという考え方が強い。は、ロボットの研究開発と適用を手掛ける人間の責任の所在を明確化し、情動や意図を持つかのように振る舞って利用者の弱みに付け込んではいけないとする5原則を提案している。」
・米人工知能学会
「08~09年に、AIが社会に与える影響を視野に入れて、今後100年間にわたるAIの健全で有益な研究開発に関する公的な議論を開始した。現在は米スタンフォード大学がホストとなり、常任委員会を設置して「AI100」として活動を継続している。」
高い職業倫理の確立というものについて、そんな曖昧なもの、強制力のないものでは心もとない、と感じられる人も多いかもしれません。しかし、どんな分野でもまず専門家が自律的に、自信の専門分野における研究開発結果がどのように人間社会に影響するのか、まず考える最適任者でもあります。そもそも、そういう技術者・専門家を縛る強制力のある法律を立法するためにも、専門家の知見に頼らざるを得ないのが通常です。民主主義とか立憲主義とか、所詮、そういうレベルのものです。
その昔、「ノブレスオブリージュ」という言葉が流行った時期がありました(?)。
「高貴さは(義務を)強制する」
「財産、権力、社会的地位の保持には責任が伴う」
この言葉に、専門分野の専門知識を持っている者も加えておきましょうか。(^^;)
(注)職業倫理の問題から、公開情報に基づいた記述に徹します。また、それに対する意見表明はあくまで個人的なものであり、筆者が属するいかなる組織・団体の見解とも無関係です。
コメント