AI採用面接PART2 

どうも、武信です。(No178) 

 

前回の記事が以下です。

「AI採用面接」

 

今回は、前回の記事よりもっと深く考察した記事になっています。

 

「大量破壊兵器」ではなく、「数学破壊兵器」という概念も紹介します。

 

中国でも、AI化が急速に進んでいる現状も紹介します。

 

今回の記事は有料級だと思います。

興味ある方は続きをお読み下さい。

 

1 前回の記事の要約。 

 

前回の記事が以下です。「AI採用面接」というタイトルです。

「AI採用面接」

 

軽く要約すると、「AI採用面接は学歴フィルターをかけるより、有効な選抜になる」という予測です。

 

そして、AI採用面接に7割の学生が反対しており、僕の予測ではこの7割の層は自信がない層(主に銘柄大学ではない層)だと予測していて、だからこそ反対していると、僕が指摘している内容です。以上、ここまで。

 

2 AIの現在。 

 

「教育・宣伝・仕事・信用・健康・政治・犯罪など」といった場面で、データ活用が進んでいます。 

 

私達の能力・適性・信用・善悪や身体などの定量化しにくい(数値化しにくい)ことまで、データとして計算され、評価されています。

 

 AI・ビッグデータを動かすアルゴリズムは、けっして万能ではありません。(むしろ欠陥だらけです) 

 

それを詳しく書いたのが、「あなたを支配し、社会を破壊する、AI・ビッグデータの罠」という本です。

 

アルゴリズムの作り手の先入観や誤解や偏見などが、無意識のうちに紛れ込むのです。

過去のパターンを参照するので、従来の価値観がそのまま引き継がれて使われます。

 

また元になるモデルは、扱う事柄を単純化していて、リアルな世界の複雑さや機微などは捨て去っていますし、重要な情報も抜け落ちます。

 

さらに、どのようなデータを集め、どんな目的に使うのかという選択においても、作り手や企業の価値観やニーズが反映されるのです。

 

つまり、アルゴリズムとは数学のなかに「見解」や「成功の定義」を埋め込んだものということです。

 

このアルゴリズムは悪質なので、「数学破壊兵器」と本では呼ばれています。

 

特徴として、仕組みが「不透明」で修正されにくく、急速に成長する「規模拡大」性を備えており、不公平な内容などによって、「有害」な影響を及ぼす3点があります。

 

その影響力が強大になれば、評価される側はアルゴリズムに気に入られるように行動・態度を変えたりします。

 

単純化された評価項目に適応しようとして、皆が同一化し、多様性が失われていきます。

 

また、職場での能力で数値化されないコミュ力などの人間的スキルは、アルゴリズムの評価の対象から外れます。

 

こうして、アルゴリズムに評価されなくなると、有害なフィードバックが生じるようになります。

 

例えば、信用格付けがいったん落ちれば、就職やローンなどで不利になり、その影響が多分野に及ぶ悪循環に陥り、どんどん評価された者と評価されない者の格差が広がります。

 

データの誤情報で、被害を受けることもあります。

悪く評価されても、自分の評価が悪かった理由は通常わかりません。(アルゴリズムの中身は企業秘密なのです)

 

個人の行動や健康などがデータ化され、企業での報酬の評価に結びつけたりする事例も発生しています。

 

選挙では、個人個人に違う画面を見せる手法で、選挙行動の操作が可能です。

 

本では、主に米国のデータ活用の事例を扱っていますが、日本も他人事ではないでしょう。(米国なので、人種差別などが特に強調されています)

 

データ活用することで、人間の偏見や誤謬を避けて、公平・中立な判断が期待できるかと思いきや、データにも偏見や誤謬がつきものであり、しかも企業などは公平・公正より効率・利便性・収益を優先するという始末です。以上、ここまで。

 

本では、数学破壊兵器のアルゴリズムの改善法なども載っており、有益でした。

 

3 中国で数学破壊兵器が蔓延。

 

以下の記事を貼ります。「中国政府、外交に人工知能やビッグデータ導入で競争力向上へ」というタイトルです。(消されたようです)

 

 一部、引用します。

 

中国は既にそのほかのセクターでAIを導入しており、2020年までに全国民に適用されることになっている「社会信用システム」は大きなニュースになった。

 

同システムは監視ツールや機械学習ツールを活用して、国民を監視・スコア化し、スコアが高い者に恩恵を、低い者に罰を与えることで社会の管理を目指すもの

 

このシステムの下、政府に批判的な人々が航空便の利用や土地の購入を禁止されたり、子どもをいい学校に通わせることができなかったりするという事態が起こっている。以上、ここまで。

 

まさに、アメリカで起きている数学破壊兵器そのものが中国でも起きているようです。

 

4 僕の意見。 

 

僕の主張としては、AIのアルゴリズムをブラックボックス化する利点と欠陥があり、どちらの言い分も一理あるように感じます。

 

「アルゴリズムブラックボックス派」は、それを公開してオープンにしてしまうと、AI面接であれば受験生がそれに合わせてくるという欠陥を主張します。

 

大学受験でも、京大で採点ミスがあったことを発端に、「採点基準を明確にせよ」と言われ、京大側はしぶしぶ了承したようですが、採点基準を明確にすると受験生はそれに必ず合わせてきます

 

そうなると、本当に自分の頭で考える人材なのか不明になるのです。

 

次に、「アルゴリズム透明派」は上記であげた、「数学破壊兵器」の例のような弊害が生まれると主張します。

 

また「ある日突然AIがあなたの会社に」という本によれば、人事評価は評価に至った経緯やプロセスをオープンにし、その中でAIがどれくらい関わっていて、どういったパラメーターで評価したかを明確にするべきだと言っています。

 

外資系企業では、人事評価や給与査定の過程やパラメーターを、すべて開示している会社もあるようです。 

 

すべてをオープンにすれば、文句があっても言うことができず、納得するしかないです。

 

間違った箇所があれば、補正することもできます。(数学破壊兵器のようになりません)

 

「AIはこのように査定していますが、あなたの場合はこうだから、そのあたりを評価しました」「AIはこう判断していますが、ちょっとチームワークの面で問題がありました」などになります。

 

国や経団連が人事に関するガイドラインをきっちり決めて、それに基づいて評価を行い、最後は人間が判断を下す仕組みにすべきと著者は言っています。

 

ただ、リストラの場合はAIの判断とした方がスッキリするとも言っています。

 

 AIの活用には賛否が分かれるといえます。

 

ではこの辺で。(3079文字)

 

このブログは個人的見解が多いですが、本・記事・YouTube動画などを元にしつつ、僕の感性も加えて、なるべく役立つ・正しいと思われる記事を書いています。

あくまで読者がさらに深く考えるきっかけとなればいいなぁという思いですので、その辺は了解ください。

 参考・引用文献。

「あなたを支配し、社会を破壊する、AI・ビッグデータの罠」

「ある日突然AIがあなたの会社に」

最新情報をチェックしよう!