ホンモノのエンジニアになりたい

ITやビジネス、テクノロジーの話を中心とした雑記ブログです。

ヒアラブルデバイスについて考える

こんちわ。

昨日の日経新聞にヒアラブルデバイスの記事があったので、ご紹介と考えたことを書いてみようと思います。

もくじ

 

f:id:kwnflog:20180105171856p:plain

 

記事のダイジェスト

今は街でも電車でも皆が下を向いて情報収集をしているが、将来は耳につけたイヤホン型デバイス内にいる執事から様々な情報を受け取ることになるだろう。

そんな未来を見据えたデバイスの開発をNECは行っており、補聴器程度の大きさで4~5時間駆動の電池、Bluetooth、センサーが搭載されている。NECの中の人は「耳は体の中で最も異物に対する抵抗感が少ない」と述べている。耳の中の形は人により異なるため、反響音による認証にも使える。

手と視線が解放されるため、人本来の感性が研ぎ澄まされる。既にイヤホン型のデバイスは市場に出現している。AirPodは通話が出来るし、エクスペリアイヤーは対話アプリ、ニュース読み上げができる。しかし今のところは「電話のできるイヤホン」の領域だ。

手のひらの小さな端末から解放されれば、眼前の世界に敏感になり五感を使って世界を感じることができるようになるでしょう。

 

 

NECまとめ

記事中で紹介されていたNECの取り組み、開発内容を調べてみました。

NEC社は「ヒアラブルデバイス向けWeb API群」の開発を実施しているそうです。まだ製品化はしていないようですが、センサーおよびセンサーデータ取得のAPI開発、それを利用するアプリケーションを開発している模様。

↓ここにAPI群のイメージ図があります。

http://jpn.nec.com/nsp/hearable/index01.html?

 

センサーは光学・モーション・地磁気の3つのセンサーがあってそれらが取得したデータはAPIを通してアクセス可能となる。恐らくペアリングしたデバイス上のアプリケーションからAPIを呼ぶとデータが取れて、アプリかクラウド上でデータをいじくり回すものと思われます。

 

未来的な動画も公開していました。内容は未来的なんですが、動画の感じがどうも古臭くて、新しいんだか古いんだかよくわからないハイセンスな動画です。

これを見ると確かに将来そんな生活スタイルになっていくんだと思いますが、10年はかかるのではないかと思います。動画は↓を参照。

 

jpn.nec.com

 

AirPodやSONYのイヤホン型デバイスと比較してヒアラブルデバイスはセンサーが入っていて、ペアリングした機器のアプリケーションでセンサーデータを色々いじくれるというのが特徴となるようです。 センサーが付いているウェアラブルなホームスピーカーと言ったところですかね。(例えが悪いのは認識している)

 

ヒアラブルの特性を考える

耳は感覚器官の中でも割とタフな器官で、目鼻口と比較して痛覚も感じにくい部位になるため、ウェアラブルデバイスと相性がよさそうです。イヤホンは100年前からあるインタフェースなので、多くの人に受け入れられているというのも利点。

また色々と研究はあるようですが、人間が取得する情報は視覚が8割、聴覚が1割、その他三感のようなので、情報取得に重要な器官である目を自由にさせるという点でグラスより優れているとも言えそうです。

 

ヒアラブルデバイスのメリット/デメリットを考えてみました。

 

メリット

  • ハンズフリー
  • 自然な姿勢
  • グラスより安全(な気がする)
  • グラスより見た目が自然
  • 視線が固定化されないので、”ながら”が楽にできる
  • 視覚障碍者も使える

 

デメリット

  • 電池容量が少ない
  • デバイスへのインプットが難しい
  • 単位時間当たりの情報取得量が少ない

 

メリットは”見なくていい”ことですから、手と目がデバイスから解放される点がまず挙げられると思います。それによって自然な姿勢を取れ、横を向いていてもうつ伏せの状態でも情報を取得できます。朝、鏡に向かって歯磨きをしながら、当日の天気や交通情報を聞くという感じですね。

 

反対にデメリットは、恐らく構造上大きな電池を積めないので一度の充電で使える時間が短いことですね。これは使い方の工夫と小型化で何とかなる気がします。

個人的に気になるのはインプットについてです。デバイスへのインプットはモーションセンサーかマイクになるので、変な動きをするか、インプット内容を声に出さなくてはならない。私は別にやましい事は無くとも、書いている途中のメールやLINEのやり取りなどを他人に見られるのが好きではありません。あと周りの人に電話で話している内容を聞かれる状況も居心地がよろしくない。イヤホン付けてブツブツ電話している人すげーなといつも思っています。街中でOKグーグル!と言える人は抵抗感無く使えそうですが。

もう一つは単位時間当たりに得られる情報量が少ないということですかね。これは音や聴覚の特性上仕方ないですが、読み上げ速度を上げると高音になって聞き取りづらくなります。視覚の場合は飛ばし読みや声帯を動かさないで読むことで脳が理解できる限界スピードで情報を取得できます。テレビから得られる情報とググって得られる情報の速度の違いですね。テレビは人が話す分、頭に情報が入りやすいですが、結局は人が喋るスピード以上に情報を取得できません。

 

 

未来予想

ヒアラブルがスマホに取って代わる存在となるには、提供する情報の価値が大きな壁となる気がします。何かを調べようとしたときに、Wikipediaの情報をそのまま読み上げられると効率が悪いので、重要な部分だけを答えてくれるようなプラットフォームが必要になります。「今日の天気」のような情報量が少ない割に価値のある情報はそのままでいいですが、ちゃんと調べるという行為には向いていません。それはスマホなりで補完すれば十分ですが、性質的に類似点のあるスマートウォッチはうまくいっていないので、その辺りの課題をどう乗り越えるかによるのかもしれません。

 

あともう一つ、これは予想というより妄想です。たぶん誰もがヒアラブルデバイスを持つ頃にはAI・機械学習分野も技術が進み、デバイスの向こう側には当たり前のようにAIがいる時代になっていると思います。そうなるとそのAIはアシスタントなのか、その人自身を操る支配者なのか、人によって違う解釈が生まれそうな気がしています。そして一部の人たちはAIに支配された人生なんてまっぴらよ、と考えてアンチテクノロジーを貫く自然主義者となり・・・というマンガみたいな世界がやってくると。

 

妄想で終わりは何とも収まりが悪い気がしますが、これでおしまい。