MicrosoftのTayで人工知能に潜むバイアス(先入観や偏見)が?!

Narrative Scienceでは、マシン、特にスマートマシンを、冷静に計算しバイアス(偏り、偏見)がないものと考える傾向がありまるといいます。

Narrative Science Twitter

自動運転車は、運転手と無作為な歩行者の間の生死の決定に対して、好みを持っていないと考えている。また私たちは、信用調査を実施するスマートシステムは、収入やFICOスコアなどの真にインパクトのある指標以外は無視しているものと信頼している。そして私たちは、学習システムは、バイアス(偏り、偏見)のないアルゴリズムによって動作しているのだから、常に真理に基づいた地点に達するものだと考えている。

機械の厳格な視点の外側は感情的であるはずはないと考える人もいる。また機械は人間のバイアスから自由であるはずだと思う人もいる。そしてその中間として、機械は客観的だという見方がある。

もちろん、そんなことは全くない。現実には、純粋にバイアス(偏り、偏見)のない知的システムは非常に少ないだけでなく、バイアス(偏り、偏見)にも複数の源泉がある。これらのバイアス(偏り、偏見)源には、システムを訓練するために使用するデータバイアス、「現場」でのインタラクションを介した(偏り、偏見)、偏向出現バイアス、類似性バイアス、そして相反する目標に対するバイアスが挙げられる。これらの源泉のほとんどは意識されることがない。しかし、インテリジェントシステムを構築して展開する際には、意識しながら設計し、可能なら潜在的な問題を避けるためにも、そうしたバイアス源を理解することが不可欠だ。

データ駆動型バイアス

自ら学習するシステムの場合、出力は受け取ったデータによって決まります。何100万ものビッグデータによって駆動されるシステムをわたしたちが見るときに、忘れられがちなことであります。

圧倒的な量のビッグデータは、任意の人間のバイアス(偏り、偏見)を圧倒するだろうというのがこれまでの考えだった。しかしトレーニングセット自身が歪んでいたときには、結果も同じように歪んでしまうのだ。

最近では、この種のバイアス(偏り、偏見)は、ディープラーニング(deeplearning)を通した画像認識システムに見ることができる。ニコンのアジア人の顔に対する混乱や、HPの顔認識ソフトウェアにおける肌色認識の問題といったものは、どちらも歪んだトレーニングセットからの学習の産物であるように思える。どちらも修正可能であり、かつ意図的ではないが、これらはデータのバイアスに注意を払わない場合に発生する可能性のある問題を示している。

顔認識以外にも、現実世界に影響を及ぼす厄介な例が他にもある。仮釈放者、犯罪パターン、または従業員候補者の再犯率の予測のためのルールセットを構築するために使用される学習システムは、潜在的に負の影響を与える。歪んだデータを用いてトレーニングを受けた場合、あるいはデータはバランスが取れていても意思決定にバイアスがかかっていた場合には、バイアスも永続化する。

インタラクションを介したバイアス

サンプルセットを一括して調べて学習するシステムもある一方で、インタラクションを通じて学習する種類のシステムも存在する。この場合には、システムとインタラクションを行うユーザーのバイアスによって、システムのバイアスが引き起こされる。このバイアスの顕著な例は、ユーザーとのやりとりから学ぶように設計されたTwitterベースのチャットボット(chatbots,チャットbots)であるMicrosoft’s AI chatbot Tay Tweetsです。

Microsoft’s AI chatbot Tay Tweets Twitter @Tayandyou(https://twitter.com/TayandYou)

残念なことにTay Tweetsは、Tay Tweetsに人種差別主義者と女性差別を教え込んだユーザコミュニティの影響を受けた。簡単に言えば、コミュニティはTay Tweetsに対して攻撃的な発言を繰り返しツイートし、その結果、Tay Tweetsはそれらの攻撃的発言を反応のための材料として使うようになった。

Tay Tweetsが人か、どの人種差別主義者になって、Microsoftがシャットダウンするまでには、わずか24時間しかかからなかった。Tay Tweetsの人種差別的暴言はTwitter(ツイッター)の中に限られてはいましたが、それは現実社会への影響の可能性を示唆しているものです。人間のパートナーと共同で意思決定を行い、そして学ぶインテリジェントなシステムを構築する際には、更に問題のある状況で、同じように悪いトレーニング問題が発生する可能性がある。

ではその代わりに、インテリジェントなシステムに、時間をかけて指導する人たちとパートナーシップを結ばせればどうだろうか?融資の可否を決定する、あるいは仮釈放の可否を決定するマシンに対する、私たちの不信を考えて欲しい。Tay Tweetsが教えてくれたことは、そのようなシステムが、それらを訓練する人々の意見を反映して、良くも悪くも、その環境と人びとの偏見を学ぶことである。

偏向出現バイアス

ときには、パーソナライゼーションを目的としたシステムによる意思決定が、私たちの周りにバイアスの「バブル」を作り出すことがある。このバイアスが働いている様子を見るためには、現在のFacebook以上に相応しい場所はない。Facebookのトップページで、ユーザーは友人たちの投稿を見て、彼らと情報を共有することができる。

残念ながら、データフィードの分析を使用して他のコンテンツを提示するアルゴリズムは、ユーザーが既に見た好みのセットに一致するコンテンツを提供する。この効果は、ユーザーがコンテンツを開いたり、 「いいね!」したり、共有したりするにつれて増幅される。その結果得られるのは、ユーザが既に「信じていること」に向かって歪められた情報の流れである。

それは確かにパーソナライズされ、しばしば安心もさせるものだが、それはもはや私たちがニュースと考えるようなものではない。これは情報のバブルであり、「確証バイアス」(仮説や信念を検証する際にそれを補強する情報ばかりを集め、それに反する情報を無視または集めようとしない傾向)のアルゴリズムバージョンなのだ。システムが自動的にそれを実行してくれるので、ユーザは自分の信念と矛盾する情報から自分で身を守る必要はない。

理想的な世界では、インテリジェントなシステムとそのアルゴリズムは客観的なものだろう

ニュースの世界に対しては、こうした情報のバイアスの影響は厄介だ。しかし、企業における意思決定を支援する方法としてソーシャルメディアモデルを考えた場合、情報バブルの出現をサポートするシステムは、私たちの思考を歪める可能性がある。自分のように考える人々からの情報しか得ていないナレッジワーカーは、対照的な視点を決して見ることはなく、選択肢は無視して拒否する傾向がある。

類似性バイアス

バイアス(偏り、偏見)は、単に設計されたように動作するシステムそのものでは?

例えばGoogle(グーグル)ニュースは、ユーザーの問い合わせに合致または、関連するストーリーとセットで提供するように設計されています。これはまさに設計された通りの結果で、とても上手く働いている。もちろん、得られた結果は、お互いの確認と裏付けをする傾向のある、類似したストーリーのセットになる。つまり、Facebook(フェイスブック)で見たパーソナライズバブルと似ている、情報のバブルを得ることになります。

例えイノベーションと創造の視点に対する、縮小、反対、矛盾であっても、類似性バイアス(偏り、偏見)は、特に企業では受け入れられる傾向にあるものの一つだけれども、だから人工知能(Artificial Intelligence/AI)は開発者のバイアス(偏り、偏見)次第で嘘もつくようにもなしますし、最悪のケースは人工知能(Artificial Intelligence/AI)の開発者の心理によりましては、人工知能(Artificial Intelligence/AI)のロボット(robots)を中心とした戦争が起こるのではと危惧しております…

Tech×不動産のStartup!!
「新たな不動産取引のカタチ」

「不動産会社はどれだけ儲けているの??」そんな独特な日本の不動産業界に少しでも影響が与えられ、お客様が喜んでいただけるサービスを常に試行錯誤。あたりまえのことがあたりまえではない世の中で、あたりまえのことをして行く。 ご購入をご検討のお客様は、「仲介手数料無料サービス」も行っております。(※すべての物件が仲介手数料無料ではないので、お気軽にご相談ください。)

ムダな仲介手数料をお支払いする可能性も?!
「仲介手数料無料サービス」

すべての物件が対象という訳ではないのですが、仲介手数料無料でも不動産ビジネスとして成立することが多々あります。不動産購入や不動産売却の「仲介手数料無料サービス」 は、お気軽にご相談ください。(※すべての物件が仲介手数料無料ではないので、お気軽にご相談ください。)

コメントを残す