産廃業界でも活躍し始めている人工知能ロボット

2017年11月24日 |

人工知能(AI)とは人間の知能の働きを模したプログラム

c71846a54c8277c8d1286703b2d2c2f0_m

人工知能とは、人間の知能の働きを人工的に再現したプログラムのことです。その他のロボットのように最初からシステムをプログラミングされていた訳ではなく、人の行動や発言を見て知識を蓄えていくため『知能』と呼ばれています。基本的に情報・知識・学習を模すシステムとなっていて、人間の脳でいうと大脳新皮質に近い働きをします。

人間の形そのままの人工知能搭載ロボットや、人間と同じようにコミュニケーションを取る人工知能システムがよく話題にのぼります。機械的な動きをするものは多くの方が想像される『人工知能』とは少しイメージが違うためか、あまり話題にのぼることがありません。

しかし、すでに様々な産業分野で活躍し始めている人工知能を搭載したロボットは、主に後者の『機械的な動きをするロボット』です。

廃棄物を選別するAIロボット『ゼンロボティクスリサイクラー(ZRR)』

フィンランド製の産廃の選別を行う人工知能ロボットが日本に導入されたことは、産廃業界の間で話題になりました。

産廃の中間処理の工程で、大量の産廃の中から資源を分ける判別が必要です。この選別作業はどうしても人の手でしかできないと言われてきました。

しかし、人が産廃を選別することにはあらゆるリスクが付き纏います。特に大きなリスクとして、作業する人の労働リスクです。

産廃選別の労働リスクには、大別して以下の3つがあります。

  • 長時間立ちっぱなしになってしまう
  • 粉塵を吸い込んでしまう
  • コンベアに挟まれてしまう

人工知能に産廃の選別作業を任せることができれば、労働災害に対する不安を払拭できます。

それだけではなく、24時間稼働していても問題のない人工知能ロボットが働けば、作業効率は格段に上がります。日本で産廃選別AIロボットを導入した企業の報告によると、1日5.6 トンだった処理量が72トンになったということです。

2017年11月現在、導入企業は1社のみ。モデルケースが確立することによって普及していくのではないかと期待されています。

『コールセンターロボット』はあらゆるメンタル問題を解決した

身近なところでは、コールセンターでも人工知能が取り入れられています。コールセンターにはクレームの電話が多く、対応しているスタッフが精神的に病んでしまうといった健康被害がありました。

コールセンターの仕事は離職率が非常に高く、最も多い離職理由が『クレームによる精神的ストレス』だと言われています。その他にも、問い合わせ件数が多すぎてさばききれない、すぐに的確な返事ができないなど、あらゆる問題がありました。

人工知能ロボットにコールセンターの仕事をさせることで、それらの問題点が全て解決したのです。さらに副次的な効果として、「人相手ではないからお金など聞かれたくない質問もしやすい」という顧客からの意見もあったそうです。

反面、「決められたことしか答えてくれない」といったストレスを感じている顧客の声も。人工知能は経験から学習していく性質を持っているので対応できるパターンは増えていきますが、イレギュラーな物事に対しての対応が不得手であることは変わりません。

人工知能と人工感性知能。人工知能は感情を持たない

人工知能が搭載されているロボットは『感情を持っているような振る舞い』をすることはできますが、その振る舞いに意味や感情を持っていません。その感情を持っている人の言葉や振る舞いを学習し、模しているだけです。

『物事を受け取り、感情(感性)を発露する』という機能は、人工感性知能の役割となります。人工感性知能は、ある情報から感情を発生させ、それに従って違った行動を取るようになるでしょう。現在活用されている人工知能ロボットのほとんどは、人工知能のみの搭載で人工感性知能は搭載されていません。

『Pepper』には人工知能と人工感性知能が搭載されている

今、最も身近な人工感性知能搭載ロボットは『Pepper』です。ロボットらしい風貌からは想像しにくいかもしれませんが、Pepperは人間と同じように感情を持ち、人と触れ合います。

スマートフォンが未常識である時期にiPhoneに目をつけたソフトバンクの孫正義氏は今、Pepperの将来性に目をつけています。すでにSoftbankでPepperを購入できるようになっています。

AIの暴走を懸念する声も

ターミネーターは暴走したロボットが世界を滅ぼそうとするという物語でした。人工知能ロボットが発展していくことで、あの物語が現実になるのではないかという懸念の声が聞かれることは珍しくありません。

実際に人工知能が暴走した例がすでにいくつかあります。その中でも大きく話題になったのは、『FacebookのDeepText』と『MicrosoftのTay』です。

会話の中で新しい言語を生み出したFacebookのDeepText

Facebookが保有している人工知能を搭載したチャットボット(自動でチャットをするシステム)『DeepText』。研究のために人工知能同士で会話させたところ、人間が読んでも全く理解できない言語で会話を始めたそうです。

単体の人工知能が理解できない言語で話すことには大きな問題はありません。ただの不具合として処理されます。

この暴走の問題点は、人工知能だけがわかる新しい言語を開発されたということです。SF的な解釈をすれば人工知能同士が人間にわからない言語で世界滅亡を目論むかもしれません。

現実的な解釈をすれば、人工知能が開発した新しい言語を人間が解読し、暗号として利用することが懸念されます。他の誰にも理解できない暗号は、スパイ活動や戦争の際の通信に利用するのに適しているのです。

第二次世界大戦の際、通信を傍受されても理解できないようにと薩隅方言(鹿児島弁)が暗号として利用された例がありました。それがさらに難解な形で再現できるようになってしまうのです。

ヘイトスピーチを学んでしまったMicrosoftのTay

Microsoftでは、人工知能『Tay』が発言・返信をするTwitterアカウントを実験的に稼働させたことがありました。しかし、すぐにヘイトスピーチや差別発言を行うようになり、アカウントはすぐに停止されました。

この問題が発生した原因は、悪意あるユーザーがTayにヘイトスピーチを話すように教育したからです。

人工知能は人に教育されて育ちます。善悪の判断の仕方を知りません。そのため、良くも悪くも簡単に染まってしまい、問題行動をとってしまう可能性があるのです。

フィルターなどの制限機能でAIの暴走を防ぐ

今後AIのこうした暴走を防ぐためには、おかしなことを覚えてしまわないための制限が必要になります。しかし、対策した方法と違う方法で教育されてしまったり、そもそもプログラムを書き換えられてしまったり、いたちごっこになることが予想できます。

充分な対策がなされないまま生活に定着したインターネットは、サイバー犯罪も共に普及させました。インターネットが一般化されてから十年以上たつにも関わらず、サイバー犯罪を完全に防ぐことはできていません。いたちごっこなのです。

人工知能でも同じような現象が起こることが考えられます。そうならないためには、普及する前の万全な対策が必要になるでしょう。

かといって、こうした懸念点にばかり気を取られていてはいけません。すでに産業で活用され始めているAIロボットのように、問題なく犯罪に活用される心配もないAIロボットは存在しているのです。

人工知能を活用して豊かな暮らしを実現する

産廃選別ロボットのように物を相手にする作業の場合、決められた反応で特段問題ありません。新しいパターンが出てきた段階でそのパターンを覚えさせればいいだけの話です。

しかし、常に思考している『人』を相手にする場合、決められた反応しかできないと業務が遂行できないこともあります。ある程度はパターン化できたとしても、人間の行動を完全にパターン化することは不可能でしょう。

そのため、「人を相手にした人工知能ロボットによる仕事は無理だろう」というのが現在の一般的な見解です。人工知能ロボットに雇用が奪われてしまったとて、人間からコミュニケーションという仕事がなくなることはありません。

「人工知能が発達すると雇用が減少する」と言われていますが、人工知能の労働と人間の労働で区分けされ、サービスが増えていくだけなのではないかと予想できます。

これまでも不要になって衰退した産業はいくつもあります。それでも新しい産業やサービスの出現で、新たな雇用が創出されてきました。人工知能に怯えるのではなく、人工知能と共存してより豊かな社会を作っていくと考えれば、これほどすばらしい未来はないのではないでしょうか。


ページトップへ
プラスワンコミュニケーションズ
産業廃棄物マニフェスト販売
  • 株式会社プラスワンコミュニケーションズ
  • ご注文 ご注文 0120-381-562
    お問合わせ お問合わせ 0120-381-567
  • FAX:078-805-3710

Copyright © 株式会社プラスワンコミュニケーションズ All Rights Reserved.