日本マイクロソフトは9月28日、AIチャットボットに関する記者説明会を開催。8月に提供を開始した新機能などを紹介した。
日本マイクロソフトは9月28日、AIチャットボットに関する記者説明会を開催した。
 日本マイクロソフトが2015年にリリースした女子高生AI「りんな」。LINEとTwitterのチャットボットとして提供されており、サービス開始から2年で登録ユーザー数は約600万人にまで拡大した。
 
 りんなは、Web上でソーシャルデータ化されている大量の会話データや、りんながユーザーとやりとりした会話データから学習し、“友達と会話しているような”自然な対話をするチャットボットとして成長している。
最近では、テキストチャットだけでなく、合成音声でしゃべる機能も追加された。

AzureのCognitive Servicesで「同時通訳」機能を実装

 大量の会話データの学習、合成音声の作成と洗練化のための学習、600万ユーザーからのトラフィック処理を担っているのは、マイクロソフトのクラウドサービスAzureだ。
Azureのコンピュータリソースを使っての深層学習、機械学習サービス「Azure Machine Learning」によって会話データを学習し、りんなの会話力は日々向上している。
また、クラウドならではのスケーラビリティにより、ピーク時には1秒間10万回、1日数10億回にも及ぶりんなとユーザーとのチャットで発生するトランザクションを処理する。
 
 そのほかにも、りんなではAzureのAI API「Cognitive Services」を使った様々な機能を提供している。
例えば、8月にりんなの新しい機能としてリリースした「同時通訳」は、Cognitive Servicesの音声認識API、テキストの音声変換API、機械翻訳APIを併用して、入力した外国語を日本語に翻訳する。
 
AzureのGPUインスタンスを使って「肖像画」を描く
 同じく8月に追加された「肖像画」機能は、りんなに顔画像を送るとモナリザ風やピカソ風なタッチの肖像画を描いてくれるサービスだが、
写真をフィルタ加工するようなアプリとは異なり、ここでもAzureを使ってなかなか高度な画像処理を行っている。
 
 「肖像画」機能では、5月にマイクロソフトリサーチが発表した論文「Deep Image Analogy」をもとに、畳み込みニューラルネットワーク(CNN)と呼ばれる深層学習手法によって画像から学習&抽出した特徴を使う。
ユーザーが送信した顔画像から、輪郭や目鼻の位置などをCNNで学習して特徴を抽出。
同様にモナリザや、ピカソが描いた人物画からも特徴を抽出しておき、画像と絵の特徴を対応させることによって、モナリザ風、ピカソ風の肖像画を作成するという仕組みだ。

https://headlines.yahoo.co.jp/hl?a=20170929-00000013-ascii-sci