読者です 読者をやめる 読者になる 読者になる

A.I.lab(エー・アイ・ラボ)- 人間の、人間による、人間のための人工知能メディア

人工知能の考察、ディープラーニング、機械学習、各種アルゴリズムなど。

Google翻訳が人工知能を活用した翻訳をスタート!その精度は?

Google翻訳?あれはだめだよ。実務では使えない。」そうしたやり取りを幾度となく目にしてきた筆者ですが、ついに人工知能の機能を搭載したGoogle翻訳にアップグレードされました!

f:id:ailab:20161113200732p:plain
https://translate.google.co.jp/community?source=t-new-user

どの程度の精度向上という情報はすでにネット上に数多くありますので、そちらをご覧ください。

bita.jp

本サイトでは、少し違った視線から、Google翻訳の精度向上について意見を述べていきたいと思います。主に、仕事で活用できるようにならないかなと心待ちにしているユーザーの視点から考え、今回の精度向上から、何が変わるかというところにフォーカスして考えていきたいと思います。

レベルが中途半端だと何も変わらないのでは?

一旦の結論は「何も変わらない」です。なぜかというと、もともとのGoogle翻訳の精度でも、ぶつ切りの単語くらいは吐き出してくれていたわけで、結果的に意味を理解することができたのでは?と感じるからです。

問題だったのは、ビジネスユース。予算はないけれど、簡単に英語版は作りたいんです!というノリで仕方なくGoogle翻訳を試してみた方も多いはずです。しかし、結果はいつも「これでは出せない・・・」そんな経験はありませんか?

しかし、一定以上の精度が向上したところで、それが一般的に恥ずかしくない文章か?いう判断ができなければ、ビジネスへの使用はためらわれます。

なので、精度が格段に上がって、「さすがGoogle氏!」となるだけで、実際はまだ実用的とまで言えないというのが筆者の考えです。みなさんはどうお考えでしょうか。

とはいえ、最先端の技術が興味深い

ニューラルネットワークという脳の仕組みを模倣したアルゴリズムを利用しているということで、知性的な機能が取り入れたれたのは間違いありません。

ポイントは、使用すればするほど、精度はヒューマナイズされていくということです。

現時点ではまだ実用レベルではなくとも、ネイティブの人が「コレデジュウブンツタワル!」と毎回言えるくらいまで進化しれば、Google翻訳が一つのサービスとして認められることになることでしょう。

とくにGoogleのような大企業では、集まるデータ量も世界有数の規模だと思いますので、機械が学習するスピードも桁違いになります。

また、1年後くらいにはビッグニュースとなって新たな進化をみせてくれるのではないでしょうか。楽しみですね。

 

人工知能の音声認識分野の新星とパーソナルアシスタントの未来

2016年10月、人工知能を使用した音声アシスタントを開発する企業「Viv」がサムスンによって買収されました。

iPhoneなどをはじめとするiOSでは「Hey Siri!」、Androidでは「OK Google!」と2大アシスタントが認知されているなか、新米のVivはどのように参戦していくのでしょうか?

f:id:ailab:20161113153910p:plain
出店:http://viv.ai/

Vivは知能的なインターフェイスを開発する会社

現在、Vivの開発分野はApple社のSiri, Googleの音声アシスタントと同じく、音声認識アシスタントを開発しています。もともと、Apple社のSiriを開発していたチームが立ち上げたプロジェクトともあり、本質的なノウハウは引き継がれている、つまり、Siriとは血がつながっている関係だとも認識することができるかもしれません。

特徴的なのは、どんなアプリや環境でも使えるようにしようというコンセプトです。

たとえば、Siriは現時点でiPhoneiPad、最新のmacOSなどのみで起動しています。つまり、パソコン内のコンシェルジュ的な立ち位置にあるように見受けられます。

Googleはもう少しオープンで、きっとAPIなどの対応もどんどん進んでいき、人工知能周りのアプリケーション開発にある程度柔軟に対応していくことが予想されます。

さて、Vivの立ち位置ですが、コンセプトだけ見れば、パーソナルアシスタントという言葉が一番しっくりきます。環境依存をなくし、対ヒトに対してサービスを提供する。まさに人間のためのアシスタントです。

もちろん、表面的にはすべてパーソナルアシスタントなんですが、やはり、大企業の管轄となると、完全にオープンソースとして運用するというのは難しいのでしょう。

プロダクトの競争力の一つになりえる技術ですし、それはそれで納得です。

さて、そうした大企業の対抗馬として独立した活動を行っていたVivですが、果たして今後、当初のコンセプト、理念が守られていくのかはわからなくなってきましたね。

サムスンがその技術だけを吸収して、つまらないアプリになってしまう可能性だってあります。一般個人からこうしたオープンソースプロジェクトが発生するのは目に見えている分野なので、やるなら今なのではないかと思いますが、トータルでサムスンに買われたほうがメリットがあったのでしょう。今後の展開を楽しみにしたいものですね。

f:id:ailab:20161113153105p:plain
音声アシスタント

パーソナルアシスタントの未来

人間をサポートするという意味では、現時点はまだまだ初歩的なだんかいであるといえます。究極的には脳はから人間の意思を汲み取り、思っただけで人工知能が物事を遂行してくれるというのが究極的ではないかなと思います。

ただ、技術力はもちろん、世の中のルールも適合していかないと成立しないのですぐには実現はできないことでしょう。しかし、その一歩として、Vivはとても意味があることをやっているように思えます。(今後はわかりませんが・・・)

つまり、世界の様々なプログラマーやクリエイターがつくる創造的な製品に搭載できる可能性があるということに意味があるのです。

そこが現在のパーソナルアシスタントの可能性を制限している部分であり、また、きっと多くの議論が重ねられているところなのではないかと想像しています。

結局、ヒトは一つ一つの物事を組み合わせて目的を達成していくわけですから、そこが自由になることで、様々なタスクをこなすことができるようになります。

Vivはパーソナルアシスタントの本質的な課題に立ち向かっていくという点で、注目を集めたのでしょう。パーソナルアシスタントの今後の発展に大事な試みなので、理念を保ってサードパーティ対応の多様性を保っていただきたいものです。

以上、人工知能音声認識の機能における、断片的なものの見方でした。

「学習」とは何か?ヒトが学習する仕組みを知って、人工知能をゼロから考えてみる

わたしたちは日々学習を行なっています。試験問題の答えを解いたり、人を想いやることができるのは、何が最適解であるかを過去の経験や記憶から導き出すことで、人は答えを出力します。あたりまえにやっていることですが、改めて考えることの少ない「学習」について、掘り下げて考えていきたいと思います。

f:id:ailab:20161030171039j:plain
学習とは?

学習とはどういうことか?

一般的な学習の定義としては、「知識を脳で記憶すること」「勉強することそのもののとりくみ」となりますが、本質的には、意味を理解し、記憶し、再現性のあるアルゴリズムを構築することというところまでが学習と言えるのではないでしょうか。

賛否両論あるとは思いますが、この記事内では上記の定義を「学習」とすることといたしましょう。なぜなら、記憶するということで言えば、システム的に言えば、データベースに格納すること、保存することと同義になってしまいます。ひとつひとつの物事を「知っている/知らない」という軸だけで学習していると言えるのであれば、それは人工知能における学習にはなりません。人間の機能で言えば、「理解すること」「理解しているからできる解の算出」までできて、はじめて「学習できた」とするのが自然かと思うからです。

それでは、人が「学習」するまでのプロセスについて一つずつ分解してみてまいりましょう。

ヒトが学習するまでに必要な機能 

ヒトが何かしらの解を求めるとき、どのようなプロセスで、求めるのか考えたことはありますか?まずは、根本を整理することで、頭の中に思考の幹をつくっていきましょう。

基本的な機能は3つです。

整理することで、あることに気づきます。認識をアプリケーション、記憶をデータベース、そしてアルゴリズムに変換すると、そのままパソコンなどの計算機器と似ているのです。

f:id:ailab:20161030171236j:plain
ITの仕組みと似ている

そう考えると、人工知能の実現ができるような気がしてきますね。

しかしながら実際は違います。人工知能は肉体的な意味意外においても、まだまだ人間には追いつきません。完全な人工知能(人間と同じ機能)の実現は不可能だという派閥まであるほどです。

では、どこのプロセスで、機械的な人工知能と人間の決定的な違いがでるのでしょうか。ひとつひとつの機能について、紐解いていきましょう。

1. 認識

機械の世界で言えば、ディープラーニングなどを用いて話題となった画像認識技術、AppleのSiriなどをはじめとする音声認識技術、その他、人工知能分野で研究が進められている、物理的な情報からインプットする技術です。

ヒトでいえば、五感がそれにあたります。例えば、視覚、嗅覚、触覚などです。認識においては、精度や情報の量が機械とは段違いに性能が高いといえます。人工知能の世界では各五感は研究分野が分かれていて、一部の認識技術を一部の機能として使うという限定的な用途で使われており、すべてが複合的に利用できる状態になっていないという状態です。この点において、進化が加速すれば、それぞれの機能を複合的に利用した人工知能が出現しますので、ハードウェアが低価格になり、開発が加速していけば、実現の可能性は十分にあると考えられます。

2. 記憶

機械の世界でいえば、これはデータベースにあたります。五感を通じて得た情報を頭の中の引き出しにしまっていきます。無意識に行なっていることですが、たとえば、「白」という情報を認識し、次に「色」という情報を認識したとします。そして、「白は色のひとつである」とカテゴライズしていくのです。ヒトにおいて、理解ができているという概念は、このカテゴライズがより正しく、情報の量が多い状態を指し、それをいつでも引き出せる状態といえるかもしれません。逆に、ひとつひとつの情報を独立して記憶した場合、「言葉だけは聞いたことがある」という状態になるわけです。

情報を保存すると同時に、カテゴライズを同時に行なって、情報をより効率的に出力できるようにする。これが記憶の役割です。プログラマーの方であれば馴染みのある、正規化を行うわけです。

人間の機能で言えば、「記憶」ということになりますが、この分野で言えば、人工知能には絶対に勝てません。なぜなら、わたしたち人間は「無意識に忘れる」機能がありますが、データベースには意図を持った削除を行わなければ記憶し続けることは容易です。記憶力では人工知能には勝てないのです

3. 再現性のあるアルゴリズムの構築

アルゴリズムといって、難しく捉えないでください。ここでは、単純且つ大雑把に、答えを導き出すための計算式と捉えていただければ結構です。

この、アルゴリズムを創り出す機能については、人間は抜群に優れています

なぜなら、人工知能アルゴリズムのほとんどは、人間がアルゴリズムをプログラミングしています。つまり、アルゴリズムアルゴリズムを生み出すということが難しいわけです。ソフトウェアにおいても、記述した範囲のアルゴリズムのみで動いているという事例は少なくありません。

ヒトにおいては、得意分野である認識力の高さから、それらを材料にした複雑なアルゴリズムを瞬時に構築することができます

例えば、「嫌い/好きの判断」を学習するに至るまでのプロセスには、多くの情報が関与しています。

「視覚的にムリ」「生理的にムリ」という表現がありますが、その答えをはじきだすまでには、まず、視覚や嗅覚、触覚から情報がインプットされるところから始まります。

仮に、唇がペットボトルくらいの厚さを持っている新人類がいたとします。きっと多くの人は「視覚的にも、整理的にもムリ」つまり、「嫌い」と判断をしてしまうのではないでしょうか。

インプットした結果が自身のアルゴリズムやデータベースに合致せず、予測の範囲を超えている場合、人間は「恐怖」を覚えます。恐怖を覚えるものは「好きではない」はずです。(よほどモノ好きでなければ・・・)結果、その唇がペットボトルくらいの新人類はその人にとって「嫌い」という答えとなるわけです。

つまり、一つのアルゴリズムを利用する際に、今回の場合で言えば、「異常の検知」などの他のアルゴリズムを複合的に使用しているのです。

また、そのアルゴリズムをセットとしてインプットし、次回の判断を迅速にするための再現性を確保します。

これをプログラミングしようとすると、高機能なアルゴリズムが複数必要になりますので、この複雑性が人工知能の壁の一つであることは間違いありません。

記憶の領域は人工知能が超えているが、認識、アルゴリズム構築に関しては人間のほうが優れている

f:id:ailab:20161030172625j:plain
人間はよくできている

記憶力以外はまだまだ人間の方が優れていると考えるのが自然かと思います。

しかし、認識技術やアルゴリズムの高度化は時間の問題です。その他、センサー技術やハードウェアの進歩によって、やはり、人工知能は人間を超えるというのが本誌の見解です。

記憶について、なぜ人工知能が簡単に追い越せるレベルにしか人間は機能していないのかということを考えると、それはそういうものだといえばそれまでですが、勝手な考えではありますが、ヒトは忘れないと生きていけないということだと思っています。

機能が高すぎる故に、ヒトは制限をすることで、創造力を高めているのだと考えられます。ヒトの機能の限界なのです。限界を超えると生命を維持しようと機能を低下あるいはシャットダウンしてしまいます。継続して機能を維持するためにヒトは「忘れる」。そしてまた目の前にあることに集中して、新たな価値を創出する

人工知能はハードウェア/ソフトウェア/アルゴリズムの進歩と比例して広がり続けていくと考えられます。

だとすると、人間はより制限して生きていくことが幸せなのかもしれませんね。

情報が飽和することで、ミニマリストが生まれ、身近なものに価値を見出すという現代の社会が反映しているように。