http://reps-consul.jugem.jp/?mode=sitemap

職場にAI(人工知能)が、 AI導入のリスクを探る!

0

    リスクマネジメントの専門家がお伝えします。

    あなたの職場にAI(人工知能)が......

    会社を運営するにあたって、「AI最大のリスク」が何処にあるか理解されていますか?

    (これは、私のブログを見ている友人からの質問です)

     

    このリスク、AIに何をさせるかによって違ってきますが。

    AIのリスクを総じて言えば、outputされた結果に対し、「なぜこの結果になったのか」 誰も説明することができない点です。

    (AIの判断プロセスはBlack boxの中で処理されるため誰も把握できないのです)

     

    私は、先輩方から「ある判断に置いて 、結果も重要だが結果と同じくらいそのプロセス(過程)が大事だ」と言い聞かされてきました、そのプロセスが闇の中にあることはとても不安に感じます。このように感じるのは私だけでしょうか。

    また、 ”判断プロセスの過程で苦しんだ経験はあなたを成長させる” この言葉、今でも心に残っています......

    これは不安ではなく不満かもしれません...... 。 少し話がずれてしまいました。

     

    言い換えれば、”正しいのか、誤っているのか” 誰も分からない。

    だから、AIの出した結果は正しいと信じるしかないと言うことになります。

    このことがAI最大のリスクなのです。

     

    しかしこのリスクは、AIの特性から推測することが出来ます。

     Ⓐ AIの出す答えの多くは統計値(統計学)です。

     Ⓑ 統計であればバラツキがあります。

     © バラツキは確率に置き換えられます。(統計と確率はセットです)

     Ⓓ バラツキはinputデータを多くすることで少なくすることが出来ます。

     Ⓔ バラツキが少なくなれば確率は高くなります。

     これらは統計の特性です。

    この特性から言えることは......

     

    バラツキはAIの ”一つの弱点” であると言えます。

    そのため、いかにバラツキを抑えるかが重要になります。

     

    このバラツキを抑えるのに最も効果的であるのはビッグデータを使用することです。比較データが多くなればなるほどバラツキは少なくなります。

    ”1万データよりも、100万データのほうが正解に近い近似値が得られます” これは大数の法則で確率論の極限定理です。

    逆の表現をすれば、少ないデータではバラツキが多く正解に近い近似値は得られないと言えます。

     

    AIにはもう一つ都市伝説的な話もあります。

    「常に最善策を選ぶようなプログラムばかりで組み上げられたAIは、時に異常な動作を起こすことがある」だから出来の悪いプログラムも組み込まなければならない。その真意は不明ですが......

     

    これらから言えることは、「AIの出した結果がいつも正しいとは限らない」と言うことです。

    特に少ないデータで出された結果は「信頼できない」と言えます。

     

     

    ここからが本題とも言える内容です。

    AIの出した結果に対し「誰が責任を負う」のか、その責任の所在は明確になっていますか。

     

    AIの出した結果を基に経営判断を行ったが、大きな損失を生むことになった。

    また、AIは機械ですので故障することもあります、故障のため重要な経営判断が出来ず大きな損失を生むことになった。

    このような場合、責任をとるのは誰でしょうか。

     

    ”AIが出した結果だから責任はAIにある” とは言えませんよね。

     

    経営に大きな影響を与えるような判断にAIが出した結果を使用する場合、「結果の信憑性」が必ず問われます。

     

    だからAIの出した「結果を信頼させられる根拠」が必要となります。

    この説明が出来なければAIの出した結果を経営判断に使用することは出来なくなります。

    だからこの問題は軽視できません。

     

    あなたならどのような説明をしますか。

     

    説明すべきポイントを一つお教えします。

     どのようなデータを入力したかを説明することです。

    入力したデータは結果に大きな影響を与えます。だから適切な入力データは結果の信頼性を高める効果があります。

    まだありますので考えてみてください。

     

     

    もう一つ隠れたリスクがあります。

    それは ”AIの導入で社内の賃金格差は更に広がる” ことになります。

    過度な格差は組織の一体感や連帯感とモラルを喪失させるリスクになるのです。

     

    AIの導入で会社の利益は上昇します。(AIは24時間労働しますから)

    そして、その利益向上の最大の功労者はAIですが、AIには給与も賞与もありません。

    ではその利益、どのように分配されるのでしょうか。

     

    成果主義の概念から言えば、AIの導入を進めた経営陣になります。これでは経営陣と従業員の格差は更に広がるだけで良策ではありません。

     

    AIの導入は従業員の功績機会を奪うことに繋がります。功績を挙げたいのにその機会がない従業員が生まれるのです。

     

    このことを経営陣は認識し、利益をシェアする新たな仕組みを考案しなければ「組織の一体感、連帯感、モラル」はやがて喪失することになります。


    コメント
    コメントする








       
    この記事のトラックバックURL
    トラックバック

    calendar

    S M T W T F S
     123456
    78910111213
    14151617181920
    21222324252627
    28293031   
    << October 2018 >>

    REPs consul 西野 泰広

    repsBLOG1.jpg

    REPs Consultig HomePage

    ホームページにリンク
    URL:http://www.reps-consul.com/

    相談&問い合わせ メール
    blog.nishino■reps-consul.com

    注意) 表記のメールアドレスは迷惑メール対策を行っております。 アドレス■には@を入れて送信ください。


    相談サービス
    「ご相談」や「ご質問」はこちらをご覧ください。


    REPsコンサルティング 苦情・クレーム相談
    ワンタイムサポート 中小企業のCSM

    コラムにリンク  ⇩

    パールハーバーPD


     ランキングUPにご協力をお願いします。

     記事の内容に共感されましたら、下記

     バナーのクリックをお願いいたします。
    人気ブログランキング

    ANALYZE

    selected entries

    categories

    archives

    recent comment

    • 不正・不祥事 と 「経営者の心に取りつく呪縛」
      nanimono
    • 2017年 企業不祥事の予測は 「高止まり」 です。 この予測は的中する?
      kakauなかじま
    • 東京都議会での ”セクハラ ヤジ問題の対処” それでよいのか?
      みや

    links

    profile

    書いた記事数:110 最後に更新した日:2018/10/05

    search this site.

    others

    mobile

    qrcode

    powered

    無料ブログ作成サービス JUGEM