AI(人工知能)の実用化にはNLPの知識が必要?

近頃はメディア等で “AI” という言葉を目にしない日はありませんが、フト目にした記事で面白い内容のものを見つけました。

以下、AP通信の記事よりの引用です。

//////////

「日本製ロボット 販売員としては役立たずでクビに」

2018年01月23日 02:01

日本のソフトバンクがオフィスや店頭で働く用に世界で初めて開発した人型ロボット「ペッパー」が業務をこなせなかった。

技術ニュースポータルの「デジタル・トレンズ」によれば、ペッパーを販売員として購入した英エジンバラの店「マルジオッタ・フード&ワイン」は使用1週間後には、ペッパーをフロアからはずした。

理由はペッパーの働きぶりが幹部の眼鏡にかなわなかったため。

同店で使われたペッパー例えば「牛乳はどこで売っていますか」との問いに「乳製品売り場です」と答えるなど、顧客の要求の核心を捉えることができず、何の助けにもならない場面が続いていた。

また騒がしい店内では相手の言葉を正確にとらえることができなかった。

ペッパーは販売員としては役に立てなかったものの、他の店員らからは早くもペッパーの「クビ」を惜しむ声がもれている。

店員らはペッパーが仕事を開始したときは慣れるのに1週間かかったものの、その姿が店から消えるとおもうと寂しくなってしまうと語っている。

(引用終わり)
//////////

単純に読めば、単なる笑い話のようにも見えますが、NLP或いは、言語学の視点から突っ込んで考えてみると、この人間同士の会話というものには深い意味と洞察力が必要と考えてもよいかもしれません。

「牛乳はどこで売っていますか」

の質問に対して、

「乳製品売り場です」

という答えは論理的には破綻していませんが、人間の脳が処理する大事な部分を見落としているように感じます。

それは、今までのこのブログの記事でも何度か取り上げていますが、

「人間の発する質問には、質問の “前提” となる無意識の中で自動的に省略された内容があり、質問に適切に答えるには脳の無意識の中でその “前提” の内容を処理する必要がある」

というものです。

この “質問のパワー” が現代社会においてはセラピーやコーチングに活用される訳ですが、AIにはその “隠された前提” を処理する事ができない、と考えられます。

今回の、

「牛乳はどこで売っていますか」

という質問には、

「私は店に牛乳を買いに来て、その具体的な場所を知りたいのだ」

というものが “前提” に当たるでしょう。

或いは、こんな質問をしたのですから、質問をしたお客さんは、初めて店に訪れたのかも知れません。

ですから、お客さんにとって、

「牛乳は乳製品売り場で手に入る」

という事は既知の前提であり、この質問に適切に答えるには、

「”五階にある” 乳製品売り場です」

と言う答えがお客さんの欲する答えでしょうし、もしかしたら、牛乳はドリンク・コーナーで売っているのかもしれません。

また、この質問だけでは細かい事をつつけば、お客さんが何のために質問を発しているのか、その “意図” が分かりませんので、それをまず明確にするのがベターでしょう。

NLPのメタモデルという技法において、人間の会話には常に、

  • 省略
  • 削除
  • 歪曲

が付きまとう事から、本来の質問を正確に再現するとすれば、例えば、

「私はこの店に牛乳を買いに来たのですが、初めて来るお店なので、どこで売っているか分かりません。私は何階のどこに行けば牛乳を買うことができますか?」

という長々とした内容を、

「牛乳はどこで売っていますか?」

という非常に短いフレーズに省略してペッパー君に質問を発したのです。

或いは、別の “前提” や “意図” があるかもしれないので、これはあくまでも一例ですが、我々人間同士の会話では、このような長い台詞をワザワザ言わなくても、短いフレーズの質問でも、受け手の脳はある程度の “推測” を交えて答えることが出来るのです。

今回の話は、イギリスで恐らくは英語の使ったのでしょうが、これが日本語となったら、その処理は膨大な内容になるかと考えられます。

日本語で使われる、

「阿吽(あうん)の呼吸」

など、とても機械あるいはプログラムでは処理は無理なんじゃないかと考えられるかもしれません。

[title01]
[title02]
[body]
[channel]