アルゴリズムの弊害 「巨大IT企業に制約を」 米数学者オニール氏

スポンサーリンク
AI IT

アルゴリズムの弊害 「巨大IT企業に制約を」 米数学者オニール氏

アルゴリズムを盲信していたらとんでもないことになりかねない

 ソーシャルメディアや企業の採用試験など、私たちの暮らしで広く使われている人工知能(AI)。米数学者キャシー・オニール氏は2016年の著書「あなたを支配し、社会を破壊する、AI・ビッグデータの罠(わな)」で、AIのアルゴリズム(計算手法)による偏見や格差の拡大に警鐘を鳴らした。あれから6年たち、状況はどう変わったのか。オニール氏に聞いた。

――そもそも、アルゴリズムとは何ですか。

 大半のアルゴリズムは、予測のためのものだ。過去のパターンにもとづいて、未来を予測しようとしている。たとえば、誰がこの広告をクリックするか、誰がこの製品をオンラインで買うか、誰がこの投稿を友人とシェアするか、誰がこの動画を見るか。これらはすべて予測だ。アルゴリズムは、こうした予測の精度を上げる手助けをする。

 私たち自身も過去の記憶に基づいて、頭の中で予測をしている。過去に着た服の情報に基づいて、今日着ている服は快適だろうかと考える。コンピューターもこれと同じようなことをしている。違いは、コンピューターは我々よりもずっと愚かだということだ。一方で、コンピューターは飽きることがない。誰が広告をクリックするかなどの計算を数え切れない回数こなしてくれる。

 コンピューターは、人間や世界についてのとても小さなモデルを作っているにすぎない。彼らは人間を深いレベルでは理解しておらず、人々についての集められた情報を持っているだけだ。そのため、彼らの推測は当てずっぽうよりはましだが、核心を突くようなものではない。

以下元サイトでお読みください。

アルゴリズムを疑え  数学者でデータサイエンティストCathy O’NeilのTED講演 「専制君主のようなアルゴリズムに対して説明を求める必要があります」

 インターネット時代、多くのことがコンピューターの「アルゴリズム」によって決められている。しかし、アルゴリズムが何かを正確に説明できる人は多くはないだろう。情報処理の手順だが、それがどのようにプログラムされて、何を基準に演算処理がなされ、情報が配られてくるのか全くブラックボックスの中にある。

●「アルゴリズムは秘密のタレ」

  数学者でデータ科学者のキャシー・オニールがアルゴリズムを盲信していたらとんでもないことになりかねない、とTED講演で警告を発している。アルゴリズムとは純粋科学的で客観的なもののように見えるが、実はプログラムする人間の価値観が演算の鍵を握っているという。つまり、プログラムする人物の価値観によってまったく異なるアルゴリズムになりえる、というのだ。だから、キャシー・オニール氏はしばしばアルゴリズムを検証するために演算の数式を見せて欲しい、と調査を行っているのだという。それを調べたら、どのような価値観が注入されて人間を選別しているのかがわかるのだ、という。だから「専制君主のようなアルゴリズムに対して説明を求める必要があります」と述べる。そして、そのことは政治闘争なのだ、と。アルゴリズムをより公平なものにするために監査を常に行って修正を求める必要があるという。そう言えば、身近なところではグーグルの情報検索でもアルゴリズムが使われている。そこには様々な価値観が挿入されていると言われている。どんなウェブサイトを上位にして、どれを下げるか、と言った基準である。

   以下のリンクがTEDでのキャシー・オニールの講演で非常に面白い。誰にでもわかる言葉で複雑なアルゴリズムを説明している。カリフォルニア大学バークレー校とハーバード大学で数学を学んだオニールが言葉の使い方も巧みであることが伝わって来る素晴らしい講演だと思う。

  「アルゴリズムは、誰がローンを組めるか、誰が就職面接を受けられるか、誰が保険を掛けられるかなど、様々なことを決めています。ただアルゴリズムは自動的に公平性を生む訳ではありません。数学者でデータサイエンティストのキャシー・オニールは、秘密で、重要性が高く、悪影響を及ぼすアルゴリズムに『大量破壊数学』と名付けました。アルゴリズムの裏側にある隠れた意図を、もっと知ろうではありませんか。」(TEDの紹介から)


■Robot-Proof: Higher Education in the Age of Artificial Intelligence (MIT Press) 「ロボット時代を生き抜くための高等教育」

マイコメント

ITの世界ではAIの浸透が著しいが、Aiはもともと人が作ったものなので、製作者の意図がそこに
注入されていることを忘れてはならない。

世界を支配しようとするAIを作ろうとすればいかようにも可能なのです。

AIによる入社試験前の選別などが実際に行われているが、そこに人種差別や性差別、あるいは
思想による差別がプログラムされていれば意図しない形で落とされる人も出てきます。

数学者オニール氏の背敵はまさにそこにあり、そのアルゴリズムを公開せよと述べているのです。
そうしないとAI万能主義に流れたときにとんでもないことが起こる可能性が出てきます。

コメント

タイトルとURLをコピーしました