IBM、3段階のAIについて語る
日本IBMは、IBM Watson Summit 2017を都内で開(h┐o)、AIとクラウドが今後ますますTびつきを(d┛ng)め、それらをW(w┌ng)することで業改革をさらに進められることを(j┤)した。これまでIBMは人工(m┬ng)ΑAI)とは言わずコグニティブコンピューティングと}んでいたが、このSummitではAIやマシンラーニングとの違いを確に(j┤)した。

図1 IBMのHybrid Cloud兼IBM Research Director担当Corporate Senior VPのArvind Krishna(hu━)
AIでは、データがすべてだ。IoTセンサからのデータやビジネスからのデータなどさまざまなアナログの撻如璽燭あふれている。IBMのHybrid Cloud兼IBM Research Director担当Corporate Senior VPのArvind Krishna(hu━)(図1)は、「毎日作成されるデータは2.5EB(エクサバイト:10の18乗バイト)。世c中のデータの90%はこの2Q間で作成され、世cの科学\術レポートは9Qごとに2倍のペースで\えていく」と述べ、「ではどうやってデータを扱うのか。それがAIだ」と言する。もはや、プログラミングではない。ルールでもない、来のコンピューティングでもない。
AIの最初の基礎段階はマシンラーニングと}ばれ、ここでは、統アルゴリズムを使い、パターン認識を可Δ砲掘▲如璽織疋螢屮鵑陵襲Rを行ってきた。次の段階がAIであり、O言語処理から始める。学{によって(m┬ng)識を蓄え、推bを行う。例えばコールセンターへの応では、Q&AのやりDりを中心に行う。これによってユーザーは、効率よく解策を(m┬ng)ることができるが、マシンラーニングによる答えはブラックボックスであり、その中身の理y(t┓ng)についてはわからない。
しかし人間は、答えを(m┬ng)ってもその答えの背景にあるものが何かを(m┬ng)りたくて、しかもどのような証拠があるのかについても(m┬ng)りたい。これが次のステップになるコグニティブコンピューティングだ。どのようにして判をめるのか、どのようにして、深いドメインに瓦靴討睛y(t┓ng)けを行うのかをめなくてはならない。IoTのセンサからa(b┳)度や振動、C耗などのデータを処理し、判するのかをめなくては予防メインテナンスをできない。a(b┳)度やC耗などのX(ju└)況がきるまで待ってめる要がある。これらのT思定を、クラウドを通じて行う。
コグニティブコンピューティング「ワトソン」は、BによるT思定、専門覦茲瓦垢訖b、エビデンスに基づく説を行うとしており、あくまでもビジネスを[定している。ワトソンのAPI(Application Program Interface)は(図2)、ビジネスのためのAIの頭NとしてTしている。すなわち、(m┬ng)識の?y│n)、高度な推b、言語処理、共感、スピーチ(音m認識処理)、ビジョン(認識処理)がワトソンのスキルである。アプリケーションの開発にこれらのスキルをクラウドベースで使うことをi提としている。
図2 IBMワトソンは、さまざまなAPIをTしている
コグニティブコンピューティングは、限られた専門性のある分野での応をビジネスとしている。そのために業cに化した学{済みのワトソンを、]業やOE、コールセンター、セキュリティなど80|類ラインアップを揃えた(図3)。
図3 業cに化した学{済みワトソンを80|類そろえた これを使えば、推bのアルゴリズムさえ開発すれば業をAIに任せることが可Δ砲覆
Krishna(hu━)にIBMが開発したニューロチップTrueNorthについて聞いてみると、TrueNorthはアクセラレータのkつと位けているという。このニューロチップは消J電が70mWと3桁小さいので、今のところエッジ応を[定している。ニューロチップは、CNN/DNN(Qみ込みニューラルネットワーク/ディープニューラルネットワーク)などの画鞠Ъ韻里燭瓩離▲襯乾螢坤爐砲茲覬に向き、バイオサイエンスのブレインワークとは違うとしている。例えば、CMOSイメージセンサの後段においてビデオ処理するのに向くという。もうkつの応は、モバイルAIだろうと述べている。