APlayで、Twitterのニュースアカウントを活用する方法

APlayを使うと、Twitterをものすごく便利に活用できるのですが、設定方法がわからない!という方もいらっしゃるため、ご紹介させていただきます。

例えば、先日の米大統領選

11月9日の米大統領選挙は当初の予想に反して、ドナルド・トランプが勝利しました。開票直後はヒラリー優勢でしたが、正午にかけてトランプが一気に盛り返し、その後はトランプ優勢のまま勝利してしまいました。

世界が注目する1日ということもあり、ニュースサイトやTwitterには多くの情報が掲載されていましたが、選挙の流れが気になりつつも、膨大な情報をリアルタイムで追えなかった人は多かったのではないでしょうか?

リアルタイムな最新情報をどのようにキャッチするか?

ニュースサイトを開いて情報を追おうとしたり、Twitterのタイムラインを開いてみても、リアルタイムで知りたい情報がすでに過去のものになっていたりして、流れがよくわからなくなってしまうということがよくあります。

APlayとTwitterを組み合わせると、その悩みを解決できます。
na1l-001

APlay(エープレイ)を使うとスマホの画面を見ることなく、音声でTwitterのタイムラインを聞くことができ、最新の情報をリアルタイムで追えるようになります。

具体的には、APlayとペアリングしているAndroid端末で、Twitterの主要なニュースメディアをフォローし、通知をオンにしておくだけです。

以下はCNN.co.jpのTwitterアカウントの設定例になります。
まずは、Twitterアプリでツイートを聞きたいアカウントを選び、通知アイコンを押しましょう。

screenshot_20161116-233715

次に、アカウント通知のチェックを入れます。

screenshot_20161116-222454以上です。これだけで、APlayでCNN.co.jpのツイートを聞くことができるようになりました。ラジオ感覚でツイートを聞くことは普通のBluetoothイヤフォンではできません。

ニュースの流し聞きに使えるTwitterアカウント

例に上げたCNN.co.jp(@cnn_co_jp)の他にも、ニュースの流し聞きに向いているTwitterアカウントをいくつかご紹介します。

1.日経新聞電子版(@nikkei

主に経済ニュースがメインなので、市場動向のキャッチを行いたい方におすすめです。

2.Yahoo!ニュース(@YahooNewsTopics

ビジネスに限らず幅広いニュースをバランスよく聞きたい方におすすめです。

3.ハフィントンポスト日本版(@HuffPostJapan

政治、ビジネス、社会情勢のアウトラインをキャッチするのにおすすめです。

APlayを使い込んでくると、読み上げに向いているTwitterアカウントが見えてくると思いますよ。

みなさんもAPlayで聞いているTwitterアカウントがあればぜひ教えてくださいね。

 

AirPods から考えた次世代のインタフェース

ネインは APlay の第1世代の販売を開始し、同時に次モデルの開発を進めています。先日発表された AirPods は、ワイヤレス・イヤフォンの進化の過程としてインパクトのあるプロダクト。色々考えることがありました。

インターネットの新しいインタフェース

これまでPCで利用していたインターネットのインタフェースが変わった瞬間は、iPhone の誕生。これによって、Windows OS から、OS X / iOS へのシフトがどんどん進んでいった。

スマートフォンは、音楽、電話、インターネットを利用できるデバイス。iPhone はそれらを革新的なタッチパネルで利用できるようにした。入力としてレイテンシーが少なく繊細なタッチに対応したタッチパネル。出力としてリアリティーにこだわったRetinaディスプレーに進化していった。

ヒアラブルは、音楽、電話、インターネットを利用できるデバイス。AirPods はそれを音声入力で利用できるようにする。入力としての音声認識精度にこだわり、出力として滑らかな音声合成に進化し続けている。

iphone7-jetblk-34br_airpods-laydown-ob-print

シンプルにこだわり、極限まで削ることで生まれることで生まれる技術的な制約を超え、新たなイノベーションを生み出す、というのがアップルが示したこと。iPhone が出る前のスマートフォンはハードウェアのキーボードを搭載していた、その存在を否定したことで、全面タッチパネルの iPhone が生まれた。

イヤフォンには3つのボタンがあり、ケーブル接続だった。ボタンを無くし、ケーブルをなくした。無くしたことで、音声入力で操作する AirPods が生まれた。もちろん Apple Watch があることによって、体験が補完されるというのも想定されているとは考える。

どんな状況でも使えるインタフェース

スマートフォンはインターネットどこでも使えることが大きな特徴、ただ、どんな状況でも使えない。どんな状況でも、を叶えるために、IoT や AI が力を発揮し、自動運転、Amazon echo、スマート・ロックなど、スクリーンから解放する技術開発が進んでいる。その一つがヒアラブルと考えています。

ただ、その革新的なインタフェースが音声入力かというとそうでもないと考えています。音声入力は EarPods でも使えたものだが、実際に利用するシーンは文字入力をするときに限られている。

音声インタフェースは、技術以上に適した利用空間が必要になる。自宅、車が適している。最近、プロダクトとして最も成功した例は Amazon echo。しゃべって Pandora を再生してくれるスピーカーが、シーンと用途にマッチした。車も元々ニーズはあったが、最近になってやっと満足できるレベルに近づいてきている。

一方で、モバイルはそうではない。少なくとも日本の電車の中では利用できず、万能ではないのは明らか。そうなると、音声インタフェースは、ハードウェア・キーボードと同じ存在と考えられます。必要ではあるが、常に使うわけではない。使いたいときに使えればよいということ。
iPhone のキーボードは必要なときに出て、必要ないときにはなくなる。キーボード入力ではなく、フリックやスワイプといったタッチ入力の方が重要になる。

重要になってくるのは、音声ではなく、コンテキスト。つまり、人の行動把握を入力にすることに気づいた。コンテキスト・センス、Apple、Google がやっていないわけではありません。むしろ進んでいます。Siri のプロアクティブ動作、Google の Google Now です。

しかし、それらはあくまで スマートフォンの操作体験を高めるためのもので、AirPods のセンサーを見ても、そこまで想定されているとは思えない。やはり、iPhone 、Apple Watch ありきと考えられる。

APlay は、インターネットの新しいインタフェースになることを想定している

私たちは、どんな状況でもインターネットに繋がる、というゴール一点を見て技術をつなぎ合わせ、最適化することで、唯一無二の体験を作ろうとしています。

以前のブログでも書きましたが、ヒアラブルというデバイスは、ウェアラブル・コンピュータ。スマートフォンがモバイル・コンピューターに対して、ウェアラブルにになりずっと身につけるコンピュータになるという点が大きな変化です。

どんな状況でも、を考えた場合に、ヒアラブルの役割は非常に大きい。

breakfast-1663295_1920

コンテキスト・センスによる音声プッシュ

先に書いた様に、コンテキスト・センス。つまり、人の行動を入力とする。その人が何をしようとしているかを捉え、必要な情報を自動提示するといったインタラクションが、音声よりも重要になってくる。

例えば、朝 APlay を耳に装着すると、天気、今日の予定、出発時刻を教えてくれ、駅についたら何分後に電車が来るか教えてくれる。電車に乗っているときに運行情報の変化を教えてくれる。メッセージが来たら教えてくれて、中身を読み上げ、いつでもすぐに返信できる。それを、朝ごはんを食べ、葉を磨き、駅で歩いているとき、電車に乗っているときに、その行動を妨げずに行える。

img_4554_s

シンプルを実現するための複雑さ

多くは明かしませんが、APlay の第2世代は、そのコンテキスト・センスの活用が必須と考えており、少なくとも下記の様なデバイスになると考えています。

  • ケーブルが一切ないステレオ・ワイヤレス
  • ハードウェアボタンはなし
  • コンテキスト・センスによって、情報が自動で流れてくる
  • 必要なタイミングで音声入力
  • iOS / Android 対応

さらにメディア・コンテンツへのアクセスも、今までの常識を変えるものにしようとしています。

また、ケーブルレスについては色々議論がありました。イヤフォンを外したときに、それをどうするか。それが課題でした。ただ、一旦極限までシンプルにし、出てきた課題を色んな角度から考える事、それがイノベーションにつながると考え、一旦すべてを削除することにしました。

当初、年内に現行モデルを iOS 対応するプランを考えていました。しかし、資金面の目処がつかず。次のモデルの開発も迫ってきて、時期がかぶってきました。第2世代に集約し、それを革新的なモデルにすることに集中したいと思います。iOS をお使いの方は APlay の体験をなかなかできず恐縮ですが、もうしばらくお待ちください。

忙しくても使えるデバイスであること

スマートフォンの基本価値は、生活の生産性を向上するために便利。エンタテイメントのための道具ではない。

スマートフォンは元々、どこでもメールをチェックできることが大きな実用価値でした。ビジネスピープルの勢いによって支えられてきたデバイスです。毎日の生産性を上げることで、仕事、生活の効率を向上させるため。エンタテイメントのためのデバイスは必須ではないため、PSP や 3DS 以上に普及させることはできない。

生産性を向上するため、インターネットにつながっていないと生きられない存在になってきています。メガネやコンタクトは、必要な矯正するウェアラブルです。身につければ、必要なスマホと同じ感覚になれ、スマホより自由に行動できるウェアラブルがあれば、身につけないわけがない。身につけないのは、それがまだ同じ感覚を生み出せるに至っていないから。したがって迷う理由はありません。なければ作ればいいんです。その方が快適に生活にできるのだから。

APlay でも生活の生産性を向上する。クリエイティビティーあふれる、夢を追いかけている若い世代が、スクリーンに縛られず自由に行動し、パフォーマンスを発揮できるようになるはず。

描いている人物は、映画で アン・ハサウェイが描く主人公です。とにかく夢を追いかけて頑張っている若い世代。彼ら、彼女らが、APlay を必須のツールとして毎日を駆け回るような世界を作っていきたい。というのが思いですし、映画の彼女が使えるシンプルなデバイスにする必要があると考えています。

さらに、私は深セン出張によく行きますが、そこで見る子供の多さ、若者の多さに驚かされます。さらに、若い世代ほどコミュニケーション量が多い。日本、サンフランシスコ、ニューヨークだけでなく、アジアの若者が迅速にコミュニケーションするためのツールとして活用してもらう絵を描いています。

APlay を世界へ

WiForce の見積もりでは、ヒアラブル市場は 2020 年に 2兆円ほどになると見積もられています。現在、ヘッドフォン市場は 1兆円弱で、Beats が市場の牽引車であり 15% ほど。一方で、日常よく見る iPhone の標準イヤフォンをカウントすると、トップはアップルになるかもしれませんが。戦えるプロダクトがあれば、可能性は開かれており、ヒアラブルの先行者になるには今がそのタイミングです。

ヘッドフォンでは、市場をリードしている Beats に対抗するため、各社同様のアーティスト・ブランディングをぶつけようとしていました。私は、Beats はアーティストブランドというよりも、優れたテクノロジーとデザイン、それを第一線のパフォーマーが支持したことが大きいと感じています。

APlay は、革新的なテクノロジーと、優れたデザインを大事にする。それによって、目利きのユーザー、先程の映画の主人公の様な第一線のクリエイターが不自由なく使えるようなデバイスになることで、市場を獲得していこうと考えています。

正念場

一方で、現在ネインは、アップルで言うと、APPLE I を開発し、APPLE II を開発しようとしているフェーズです。APPLE I を BYTE SHOP で売り、少し資金を得たが、APPLE II を開発するには、より多くの資金が必要になり、スティーブ・ジョブズは、マイク・マークラに出会った。

ネインもクラウドファンディングによる支援を受け、販路を増やして少しずつ売上を建てようとしているところです。なんとか初回生産はできましたが、といっても追加生産するにもお金は必要。生産資金がないため、自転車操業で年内なんとか 2000台程度を見込めるかという状況です。それでは、次の革新的な APlay を作るための開発費は賄えない。APPLE II 同様に第2世代で革新的な商品を世の中に出すため、資金調達を進めています。

ヘッドフォンの成長は beats が牽引していました。ワイヤレス・イヤフォンはさらに成長している領域で、同じ工場を使っているメーカーで3年で100億の売上に成長している企業もあります。私たちは、ヒアラブルという新しい領域で、市場を開拓していきます。

さらに未来へ

冒頭で、音楽、通話、インターネットがスマートフォンの機能としましたが。ヒアラブルで仮に同様のことができるとすると、「電話」というデバイスそのものの存在も変わってくると考えています。

おそらく、スティーブ・ジョブズならそこまで行くでしょうし、ネインもそこまで見て進めています。

MV制作のお手伝い in メルボルン 🎥⚡️👀

お久しぶりです。メルボルンから、こんにちは。と、言いたい所。な ん で す が、、諸々ワケ有りで、日本に帰国しております。と い う わ け で、本日はジャパンからメルボルンでの経験を振り返りつつ、その記憶からブログを綴っていきたいと思います。さてさて、本日ご紹介したいテーマは!(ドラムロール)チャちゃん!!

映像

 

僕自身、このトピックには以前から興味が有り、メルボルンに来て兼ねてからの念願の初カメラ、GOPRO HERO4 SILVER を手にいれる事が出来ました。見た目は、こんな感じの普通によく見るGOPROです。

GOPRO HERO4 SILVER

 折角買ったので、映像制作をチョロチョロカジってみたりしていました。というわけで、本日は、現地メルボルンで映像というキーワードを軸にしたアクションの中で、テクノロジーやサービスを通して受けた恩恵や、その中で扱った新しいデバイスなどを紹介出来ればと思います。それでは!早速私事になるのですが、”現地で映像関係の仕事を見つける!”とは言わないまでも、ボランティアでアーティストのMV制作のお手伝いをしたり、個人的に面白そうな人をインタビューし、その動画を編集したり等、していたのですが。一見、『現地で、そうゆう事をするのは、めちゃ難しそう。』と思われがちなんですが、僕は有るグループの存在を知る事が出来、その壁をササッと越える事が出来ました。

グループページの充実

メルボルンには需要同士を結びつけるオンラインのコミュニティページが盛んに作られていて、コミュニケーションの段階まで辿り着くのは案外簡単だったりしました。僕が助けられたページは、実は皆さんご存知、SNSサービスのFacebook上に有りました。

Melbourne Film Crewing

Screen Shot 2016-08-22 at 17.03.30

 

こちらの、Melbourne Film Crewing というページは、Crew(映像制作のメンバー)が欲しい人と、Crewになりたい人がマッチングする為のグループで、募集する側の人は”こうゆうコンテンツの映画の、この役割が欲しい”と投稿したり、Crewになりたい人は、”自分は、このポジションで、こうゆう事が出来ますよ。”という投稿をしていきます。需要が上手くマッチすれば実際に、このページでマッチした人と、チームとして撮影に進んだり、ビジネスとしてお金の交渉の話に進んだり、という事が起きたりします。(因みに、こういったマッチングの為のFBのグループページは、映像だけにとどまらず家探しをする人々や、ルームメイト募集をするオーナーの為に、同じ要領で存在しました。代表ページ:Fairy Floss Real Estate)
僕自身、上述のアーティスト、ラッパーであるJonny Freesh 君と、このグループページ、Melbourne Film Crewing を通して運良く出会う事ができました。

Jonny Freesh

Rockin the mic at Can I Kick It? at @horsebazaar.com.au the best Freestyle Open Mic Night in #Melbourne

Jonny Freeshさん(@jonnyfreesh)が投稿した写真 –

 彼は、なんと映像制作ほぼ未経験の僕をカメラマンとして起用し、一つMVを一緒に作ろうという流れになりました。(この話に限って言うと、僕のホボ現場での経験無しの状態で、カメラマンが出来た事は、割と奇跡的事例だと思います。笑)因みに、この撮影で使用したカメラは”GOPRO HERO4 BLACK” と、DRONE PHANTOMでもお馴染みのDJI さんの”DJI OSMO” の2種でした。この2機種目のOSMOは使ってみて、僕も欲しくなりました。

イケてる撮影機材

DJI さんの機種と言うだけあり、スタビライザーが凄く、どんなに動いてもカメラを水平に保つことが出来るブレない動画・写真の撮影が可能な所がイケてるポイントですね。その点がGOPROと一線を画している所かと思いますね。

DJI OSMO

そしてこれが、実際に僕たちが、このDJI OSMOとGOPROを使用して作ったMVですね。(余談ですが、このMV撮影では、ゲリラで、オフィスビルのエレベーターで撮影をしたり。現地の大学生と偽り老人ホームと交渉し、老人達を演者として起用するシーンの撮影をしたりと、なかなか貴重でクレイジーな体験が出来ました。笑)

Rap hands – Jonny Freesh

もう一つ、DJI OSMOが現代の若者ウケしそうな点としてあげたいのは、GOPROと共通して言える事で、やはりハイクオリティなセルフ撮影が出来てかつ、スマホとデバイスを簡単コネクトし、FacebookやInstagram等、SNSへのシェアがイージーに出来てしまうという点ですね。ここで紹介したい動画がもう一つあり、こちらです。彼、Jonny Freesh がマウンテンバイクに乗りながらDJI OSMOを使用して作成したMV ですね。僕が言いたいのは、この作成動画をSNSのinstagramにササッと投稿している所もポイントです。:)

Feel The Bern – Jonny Freesh

#FeelTheBern ✊✊✊✊✊✊ Prayin for a #Bernie victory in California tomorrow #berniesandersforpresident

Jonny Freeshさん(@jonnyfreesh)が投稿した動画 –

 ただ、このDJI OSMO、カメラ自体のデザインや重量を考えると、若者女子には少し抵抗が有りそうな感じがしますね(笑)その点、若者女子から、プロの映像制作会社まで、かなりの幅で浸透している、GOPROの、馴染みやすさは素晴らしいですね。はい!と い う わ け で!!本日は、現地メルボルンでの映像制作に携わるまでのプロセスの中で役に立ったサービスと、実際に制作の現場で使用したカメラデバイスにスポットライトを当てて、お話しして参りました。ちょっと余談ですが、文化もよく知らない、知り合いもあんまり居ない、海外で何か新しい事をスタートする際は、やはりネットを駆使するべきかと、経験を通しても思いましたね。勿論リアルで人と出会い繋がって行くという古典的方法も大事であり、これからも持続すべきですが、オフラインから、オンラインに繋がっていけるというのが今の時代に生きる人達の強味であり、これからもその傾向を増していくと思うので、自分の置かれる状況に応じて、リアルな生活も大切にしつつ、オンライン、すなわちネットと上手く付き合って行ければ良いですね。

 

APlay はウェアラブル・コンピュータになる

ヒアラブル = イヤフォン + コンピュータ + センサー + DSP + ネットワーク

これまでイヤフォンには搭載されなかったCPUが、ワイヤレスイヤフォンが成熟されたことでどんどん普及するようになってきた。

CPU

main-board-89050

これまでのワイヤードのイヤフォンは、音を聴くだけなので、計算回路は必須ではありませんでした。

ワイヤレスイヤフォンが出てきたことで大きく変わったのが、イヤフォンにCPUが内蔵されるということ。それはワイヤレスにするために作られたものですが、CPUが搭載されたことによって、可能性が大きく広がりました。

現在ネインが行っている様に、特殊なコマンドのやりとりをスマートフォンとおココなうこともできます。さらに、そのチップはシンプルなものは音楽を再生する機能、高性能なものはDSP、デジタル信号処理と言われるもので音の制御もできる。

センサー

さらに大きいのがセンサー、BLE によって省電力でセンサー情報のやりとりが可能になった。

すでに心拍を取得できるイヤフォンがある様に、人に密着するセンサーとしての役割も非常に大きくなります。常に人の状態を取得することで、健康状態のモニタリングを行うことが可能になります。

技術的な話としては、音楽系の Bluetooth と、センサー情報を受け渡す BLE の接続方式は異なる。したがって、チップ側では同時にその接続を取り扱う必要があり、一部のチップではそれが利用できるようになっている。

DSP

イヤフォンにCPUとセンサーが加わって情報端末になると、情報へのアクセシビリティーが重要になる。

現在は音楽を楽しむときにつけるため意識する必要がないが、これから 24時間でもつけれるような快適さを目指そうとすると、外部の音とどうミックスされるか、というデザインが重要になってくる。

その際に必要な技術要素として、DSPによる音場調整とミックス技術。それらを活用することによって、人と話している時、音楽を聴いている時、外で歩いているときでも違和感なく、安全かつ快適に生活できるデザインの実現が求められる。

ネットワーク

さらに、ネットワークが接続されることで、それらの要素をクラウドと繋ぎ、新しいコンテンツ体験を作る土台となる。センサーの情報をクラウドへ、クラウドの情報を音に変換し、クラウドのDSPのデータを元に音場がコントロールされる。

APlay が目指すもの

超パーソナライズ

binary-1327493_640

これまでは得られなかったユーザーの情報を得ることで、よりパーソナライズが可能になる。これまでは画面上に表示していたか、アクションをしたか、という履歴でパーソナライズしていた。

これからは、それが大きく変わる。

ネインでは、独自のハードウエアと、そのハードウェアから吸い上げた情報をクラウド上で処理、情報の関連性を機械学習させることで、新しいパーソナライズを可能にするための研究開発を進めています。その技術に寄って、コンテンツレコメンドによるユーザー体験の向上に加え、広告配信などへのビジネス応用が期待されます。

超自動

car-1209912_640

人と常に一体になっているセンサーがあれば、そのデバイスと、他のデバイスが連携することによって、人が知らない間に人が快適な空間を作っている。

自動運転は現在は外部環境を中心にしたもの。徐々に乗車している人に配慮した運転をするかもしれない。コーヒーメーカーが、自動でルンゴか、カプチーノかを何も言わなくても入れるかもしれない。

デバイスからの情報をサーバにアップし、リアルタイムに情報をやりとりできるシステムを独自開発。システムを経由することで、他のデバイス同士が遅延なく、人をサポートする世界を構築しようとしています。

超音響

cello-1149967_640

ヒアラブルは耳につけるもの、AR的にこれまで聴きづらかった音声が聴きやすくなったり、MR的にバーチャルな音をリアルタイムで聞くことができたり。

音楽もある意味バーチャルなものですが、生活音と、バーチャル音がシームレスにつながる音の環境というものが作れるようになる。

安全性と、没頭感、効率性を兼ね備えた音響空間を作ることが可能になる。

APlay としてハードウェアを独自開発することでDSPを使った音響制御を可能とし、新しい音響空間について検討を進めています。

情報インタフェースとしての第一世代

目指すものは、技術的、時間的、な制約条件を超えながら作っていかないといけない。一方で、今できる技術で、今解決できる課題はある。それを一歩一歩積み重ねて前進していく考えで第一世代を開発しました。

APlay の 第一世代は、スマートフォンの通知を読み上げ、メッセージにはレスポンスを返せるというもの。構成としては、イヤホン + コンピュータ というシンプルなもの。DSPは内蔵していますが音場のミックスといったものは使っていない、まだセンサーは内蔵していない。

私達が解決したい課題は、何かしながらの、情報アクセスやコミュニケーション。その中でも、最も顕著に解決したい課題が、メッセージのやりとりでのストレスを解消するもの。

その最小限な構成として、DSPやセンサーはToo muchになるため、課題解決に相応しい構成にしました。

APlay はウェアラブル・コンピュータとして進化していく

vlcsnap-2016-07-06-11h06m06s913

現在は、Android ユーザーに向けて、さらに次は、iOS 対応。

そして、センサー対応の開発を進めようとしています。その後は音響拡張、IoT連携と拡げていく形。外部環境や技術的制約によって、順序が変わるかもしれないですが、現状はこの流れ。

開発を進めるにあたって、新しい障害や苦労が出てくると思います。やっていることが新しいが故に、だれも体験したことのない課題が出てくる。

しかし、それを解決していくことで、ネインでしかできない新しいユーザーインタフェースを構築できると考えています。

ネインのヒアラブルが世界中で便利に利用できるように、一気に広めていきたい。その上でクラウドファンディングは力になりましたし。今後、事業提携なども踏まえてどんどん成長していきます。

APlay x Twitter – ラジオ感覚でナガラ仕事

APlay の開発を行っているネインでは、APlay がヤミツキになっています。それぞれ使い方が異なるので、たまに使い方を共有するのですが、その中で流行っている面白い『APlay』の活用方法をご紹介します。

APlay x Twitter でラジオ感覚

通知を音声に変えるため、いくつかのアプリで試していたところ。Twitter との相性が非常にいいことがわかりました。

ニュースをリアルタイムでチェック

最初は Smartnews との連携が相性いいかな?と考えていたのですが。意外と、通知してくれない。普段は通知のながら聴きなんてしないため、通知が少ない方がいいのですが。

APlay の場合は、ながら聴きが合っているため、通知がたくさん来たほうが、進展していく報道情報をリアルタイムでチェックできるので非常に面白いんです!

ニュースも幅広いソースがあるので、経済、スポーツ、テクノロジー、ゴシップなど、自分の興味に合わせてセッティングできるので、使い方は無限大。

例えば、スマホに下記の様な通知が来ると、、

こんな感じで読み上げます。進展していく情報をリアルタイムにキャッチできます。

帰りの電車の運行状況チェック 

こちらも電車通勤している我々にとっては非常に重要な情報。これから帰るぞ!というときに止まってしまうと非常にショッキング。そんな情報もリアルタイムにチェックできます。

Screenshot_20160715-221617

こういった感じで読み上げてくれます。山手線が止まるなんて考えると、ヒヤっとしますよね。

癒しが欲しいとき

ずっとニュースを聴いていると非常に堅苦しいので、合間合間に、おもしろツィートを差し込むと、ちょっと気持もリラックスしながら仕事ができます。また、帰りの電車で、ちょっと自分に浸る時間を作ったりできます。

例えば、こんな通知が来ると、、

Screenshot_20160715-201519

こんな感じで読み上げます。。前を向きましょう。。

他にも、路線情報、天気など、様々なツィートと連携すると、用途は無限大に広がってきます。

読み上げを止めたいとき ⚠️

音楽を聴いているときと同じで、通知ががんがん流れていると、人と話をするときにはちょっと通知再生を止めたいときがあります。

しかも急いでいるときに、首元にあると間違えてボリュームボタンを教えてしまったりします。

そんなときに、えいや、で止められるように、3つのボタンを、ドン!と押して、通知の読み上げを止められるようにしました。

通常のイヤフォンだと、音楽のコントロールしかできませんが、『APlay』は音楽と、音声が同時に流れてきます。そのたびに音楽が急に再生、停止しないようにコントロールを分けることで、快適に利用できるようにしました。

APlay 停止

 

@nain_jp でもオススメの使い方をどんどん発信していきます

 

APlayの声に活きる!? 音の勉強会@音響エンジニアリング様

本日、音響エンジニアリング様のご好意で、AGS – Acoustic Grove System を視聴させていただく貴重な機会をいただきました。

AGS – Acoustic Grove System とは

AGS – Acoustic Grove System は森のなかの音場を体験できるもの。人の声だと感覚的にわかりやすいのですが、静かな森だと声は点で聞こえますが、普段部屋の中で話をしていると、声は拡散して聞こえてきます。
このシステムは森にいるときのような効果を生み出してくれます。
https://www.noe.co.jp/product/pdt1/pd1_12.html

IMG_1051

森の音がなぜいいか

その良さを体験するために、今回視聴させていただきました。

なんとなくイメージでは、反響が少ないデッドな音になると予想して視聴させていただたいのですが、その予想を遥かに超えていました。

IMG_1053

パワースポット!

聴いた瞬間に感じた印象は、もう、ありがたい、音でした。最初に聴いたのは、オーケストラと聖歌だったというのも、もちろんありますが。その後に聴いたカーペンターズや、マイケル・ジャクソンも、すべてが同じ印象でした。

パワースポットにいるような神々しさ

高野山にいるような厳かな雰囲気

一緒に聴いたネインのメンバーも全員同じ印象を受けました。

そこで感じたのは、あの、気を感じる、パワーを感じる、ということは、音の影響もすごく大きのではないか、という印象を受けました。

余韻が聴こえる

これもすごくはっきりわかる。歌で発音した後、楽器の弦を弾いた後、の余韻の伸びが違いました。はっきりすっと波を見ている様に消えていく。

そこを一番感じたのはユーミンの曲でした。そこまで音が聴こえると、作った人の余韻の処理がすごく丁寧に作られていることがわかる。

丁寧な工芸品を見るや、絵画を見ると、ため息が出て、尊敬してしまいます。最近は音楽をナガラ聴きしてしまうますし、じっくり楽しむ環境がないためどうしても流されてしまいますが。すごくもったいないな。と改めて感じました。

大感動

いい曲には感動させられますが、聴いている場が高尾山にいるようで、作っている人の情熱も感じられ、さらに感動周波数が抜けてきます。

アリアナ・グランデ、マイケル・ジャクソンなどもそうですが、高音に吊り上げてくるようなボーカル、中低音に深みのあるボーカル、自分の中では感動周波数と勝手に言ってますが。その周波数がものすごい勢いで抜けてきます。AGS前は、鼻より下に音がはりつく感じだったのですが、AGS後は、鼻から上にスコンと抜ける感じで、鼻づまりがとれるような感覚ですごいすっきりに。

音は波ですが、心を揺さぶってくる波が、ストレートに来る。海で複数の波が来る中泳ごうとしても泳ぎづらいですが、一つの綺麗な波が来ると乗りやすくて、遠くまで行ける。そんな感覚ですね。

APlay にツナガル

そこで AGS で、トークを聴かせていただきました。面白いのが、AGS前は部屋で聞いている感覚なのに対し、AGS後は、外で聞いている声の印象を受けました。

今クラウドファンディングを行っている『APlay』は、声で情報を届けるのが大きな特徴です。目指している声はありますが、なかなかその声にたどり着くヒントを見つけるのが大変でした。

また、今日まさに、そのアイデアが閃くとは全く考えていなかったのですが。

まさに、今日。自分が描きたい声での方向性について、大きなヒントを得ることができました!

音楽で感動を得られる場所

私自身、音楽評論家ではないですが、熊谷とは「子供に聴かせてあげたいようね。」という結論で感動的な試聴会を終えました。

代々木にも音楽を楽しむバーがありますが、ちょっと雰囲気は違う。もっと音楽に酔える場所があってもいいなと思いました。

今、一番音に浸れる場所はクルマかもしれないですね。

梅雨で雨ですが、帰り道は、夏な曲をガンガンにかけて爽快に帰りました。こんなときは音よりも気分ですね。
(昔あまり聴かなかったんですが。Def Tech の Eight ってアルバムが最近お気に入りです。他に、Town & Country もいいですけど。もろにトロピカル・ハウスな、Justin Bieber  Sorry ですが。。イントロのピアノはいいです。)

 

APlay – 灼熱の👍編

暑い日差しの中

打ち合わせの合間、炎天下の中フラフラしながら歩くこともしばしば。

 

なんかスマホに通知が来た

 

なんだろう、ただのニュースか、Twitter のメンションか、LINE か、大事な仕事のメールか、、

この暑い日差しの中、太陽に焦がされながらスマホを取り出さなければいけないのか

スマホの通知のために、日陰を探さないといけないのか

 

 

サバンナでどんな獲物でも捉えるオレも、こんなスマホにはやれやれだ

BW74DLB8MM

 

 

そんなときに『APlay』

D_5_1894

あなたにとって大事なメッセージなら、通知を音声で確認できます

音声:「熊谷さんからメッセンジャーのメッセージ:じゃあ、ここに6時で」

 

 

おっと、熊谷じゃないか。さっきの俺のメッセージへの返信だ。

この流れは、とりあえずのリアクション。定番の👍。

 

 

しかし、

この暑い日差しのなか、スマホを取り出さなければいけないのか?

この暑い日差しのなか、熱にうなされながらテキストを打たなければいけないのか?

おれは人生で一体何回、👍をするために日陰を探すんだ?

おれは人生で一体何回、👍のためにスマホを開くんだろうか?

 

おれの人生は👍なんだろうか?

 

 

東京砂漠で超人達と戦うオレも、こんなスマホにはやれやれだ。

BW74DLB8MM

 

 

こんなとき『APlay』

D_5_1907

メッセージが音声で読み上げられたら、スマートにボタン操作だけで👍を返せる

 

何百回、何千回でも、おれは👍を打ち返してみせる

 

こんなことのためにスマホを開くなんて、いままでなんてもったいない人生を過ごしてきたんだろうか。

おれには、👍をするために日陰を探し、スマホを取り出し、メッセンジャーを開き、👍を探しして打つもっとやるべきことがある

 

IMG_1024

 

これでおれの人生は救われた

サンキュー 『APlay』

APlay とは

APlay / エープレイ

今日は、 Makuake にてクラウドファンディング開始と共に招待が明らかになる、APlay というプロダクトについて、お伝えいたします。

APlay はBluetooth ワイヤレスで スマートフォンと連携する、スマート・イヤフォンです。

スマートフォンにアプリをインストールすることで、ランニング中、通勤で移動中に、天気、ニュース、メッセージなどの情報を音声で聴き、音声認識またはボタン操作で返信できます。

目指したのは、何かしながらでも、つながれること

運転中にスマートフォンにメッセージが来るのはすごいストレスです。それに近いストレスが、ジムで走っている時、通勤しているときにも起こります。

スマートフォンも、スマートウォッチも画面に頼るデバイスのため、どうしても視線を奪われ、移動を停止せざるを得なくなってしまいます。

走りながらでも、メッセージを聴ける

音楽を聴きながらジムで走っている最中に、友だちからの「遊びに行こう、場所はミッドタウンのスタバで待ち合わせ。」というメッセージを読み上げてくれます。

APlay のボタンを操作することで、「了解」という簡単なメッセージや、「今ジムだから、30分後に移動する。」といった具体的なメッセージを音声認識で返すことができます。

気になるメッセージをチェックするために、走るスピードを落とす必要はありません。

通勤しながら、路線情報を聴ける

毎日の通勤、突然駅に向かう途中に、「山手線は遅延しています。」という情報を歩きながら聞くことができます。山手線が遅れているなら、丸の内線を使おう。と歩きながら行動を切り替えることができます。

歩きながら、ニュース、天気をチェックできる

突然のゲリラ豪雨、歩いている途中に「雷雨が近づいています」という情報を事前に受けられれば、ちょっとカフェで休んでいこう。と行動を変えることができます。

使い方は無限大、ストレスフリーな生活へ

どんなアプリの通知を読み上げるため、例えば路線情報、天気、ニュースなど様々なアプリと組み合わせることができます。これまで目で見ていた情報が、音声に変わることで、スマートフォンを取り出す際の面倒がなくなるシーンが増えていきます。

クラウドファンディングを開始します

私達が目指すプロダクトの姿は、00年代のアップル、80年代のソニーです。

コンセプト x デザイン x テクノロジー 高いバランスで調和したプロダクトを今後生み出していきたいと考えています。

その上で必要なのは、生み出す資金です。エンジニア・チーム x デザイン・チームで最高のプロダクトを作っていきたいと考えています。

是非、支援をよろしくお願いいたします。

スマートウォッチから、スマートイヤホンに行き着くまで

Internet for People On The Go  – ナガラ、ツナガル、インターネットをつくる

というのが現在のネインという会社の方向。

人はそもそも話しながら歩けるし、考え事をしながら料理をできる。

でも、歩きスマホ、運転中チャットに代表されるように、人って何かしながら、スマホを操作しようとすると、たちまち危険にさらされる。

運転中チャットは、自動運転で近いうちに解決される。でも、自動歩行は、まだ。もしかしたらミニ・セグウェイが解決してくれるかもしれない。

一秒でコミュニケーション

2015年のネインの方向性。

とてつもなく、クイックに、余計な操作や段取りをゼロにしてコミュニケーションをつくる。ことを目指していました。

歩きスマホ、運転中チャットで代表されるように、人が何かしているときにストレスを感じる多くが通知。さらにチェックしたい通知は、メッセージ。コミュニケーションに関する情報。したがって、できるだけ通知を減らす、つまり、不要なメッセージを減らす。そのために、近しい関係の人が、自動で状況をシェアするサービスをスタートしました。

悩んだのはどこまでプライベートな情報をシェアするかで、行き着くと、GPSで詳細の場所までシェアできます。AppStore でもフィーチャーされているアプリもあります。しかし、毎日使えるようにしたかったので、プライバシーが気になるようなフィーチャーを入れなかった。

ただ、進めていくうちに、だんだんサービスが方向とずれてくる。2015年に登壇した際の Slash Asia の事前ピッチ練習の際に、Messenger For People On The GO がわかりやすいんじゃないか?というアドバイスを受け、さらに元々の方向性とずれが生じてきた。課題を解決するために、できるだけクイックに。という視点で進めていたのが、できるだけ自動で。というより進化した形でずれていった。

この頃は、より若者視点、サービス視点が強かった、小濱とよくサービスについて議論してましたね。今の状況だけシェアすれば良いので、「今だけ、Twitter」でいいんじゃないか。や、クイックさを追求すべきだ、とか。状況の表現をもっと具体的にすべきでは?などなど。だんだん発散方向に向かっていきました。

モノに憑依するアシスタント

課題がブレていなくても。実現方法がブレると、会社としても右往左往する。

そこで改めて、何かしている人は、そのとき何をして欲しいのか。ということに立ち戻って考えた。

そこで見えてきたものは、モノにアシスタントを憑依させよう、ということ。AI 活用は手段と捉え、何をして欲しいのか、に合ったサービスを作ること。

その考え方に切り替えると、Nain というアプリは、特に複雑なアルゴリズムを使っていないが、コミュニケーション・アシスタント、という形で、いざというときに、急に気になる互いの状況を知らせ合うアシスタント、という概念でスポッと方向性にはまった。

この時点で方向性は固まったものの、今やっていることが、課題解決するためにベストな選択なのか、という方向性の中で別のアプローチがあるんじゃないか。という議論になる。

この頃は、「本質的に、」というワードが出る議論が多くなり。このワード出るとき、本質がどうかというより、その人が腑に落ちてないってことなんですよね。なので時間かけて、チームとしてのモヤっと感を解消しよう。と考えて、進めました。
チーフ・エンジニアの高野もがんがん議論をリードするようになってきて。議論は多くなり、スピードは遅くなるが、でも早いサイクルでPDCAを回す、と考えると。非常に重要な時間と割り切りました。

思いついたアイデアをプロトタイプ

2016年1月〜2月あたりですね。

サービスのアップデートもしつつ、とにかくアイデアを見える化しようと。わかりきったことも、動かしてみて、感じてみよう。ということを意識して進めました。

  • オフィスに入ったらビーコンが検知して、より詳細にオフィスにいることがわかる
  • 部屋に入ったら、Hueカードを出してライトを操作する
  • オーディオの前に行ったら、オーディオカードを出す
  • BLE、WiFiの相対距離からどの部屋にいるかを検知する
  • 互いのBLEを検知して、誰と一緒にいるかをGPSよりも正確に把握する
  • 各社ディープラーニングのオープンソースを動かしてみる
  • Google、Microsoft の画像認識結果を比較してみる
  • 誕生日の音楽をいい感じに自動で選曲するため、Apple, Spotify から MusicBrain などの API をつなぎあわせてみる
  • Slack を音声で読み上げて、プログラミングに集中できるアプリ
  • Edison に振動センサーを付けて、洗濯終了検知をしてみる
  • メガネに骨伝導スピーカーをくっつけて、音に特化したグラスを作ってみる(アメリカで出てますね)

など、実時間で1ヶ月くらいで色々一気にやりました。IoT周りの技術を触ってみて、OSの制約がより具体的にわかってきて。サービスの可能性、技術的課題を勉強することができました。
さらに、元々、考えて作るスピードに不満がありましたが、このステップをすたおかげで、今はこのノリを体に叩きこんで進められるようになりました。結果的に、メンバーの成長につながったと考えています。

接続している ≠ 繋がっていない

色々やってわかったのが、これだけテクノロジーが充実しているが、身の周りの自動化はあまり進んでいないということ。

さらに、スクリーンに UI が依存しすぎているのが制約となっているケースが多く、スクリーンから離れたUIを考える必要があるということ。

元々私自身、カーナビ、カーオーディオを10年以上やって来ましたが。一番ストレスフリーな運転は、覚えている道を音楽やラジオを聴きながら走ること。やはり、スクリーンに依存しない UI、運転でも使えるような UI を日常生活にも持ち込もう。という発想に切り替わりました。スマートウォッチも触覚という新たなUIは加わっているものの、利用シーンとしての多くはスクリーンに依存している。

この時点で、スクリーンに依存しないUIとなるハードウェアを作ることで、ネインで目指しているものを実現できる可能性が高い、ということがわかりました。

2つの衝撃

Amazon Echo

そう視点を切り替えた瞬間、いままで存在は知っており、シリコンバレーで盛り上がってきているデバイスの存在が急に光るモノになりました。

極端に言うと、モノが存在し、話しかけるだけで、身の回りのモノの操作をすべてできてしまう。作り自体は非常にシンプルなもので、誰でも思いつきそうなアイデア。

ただ、優れた音声合成や、音声認識技術、しかもクルマと違って外部のノイズが少ないというメリットもあり。普通に使えてしまう。実際には、Ford が Alexa 連携をすると、すぐに発表しましたので、2017年のCESでは、クルマ x Alexa の事例が出てくると思います。

これを知った瞬間にもっと視野を広げてもいい、と感じて、Internet for People On The Go という方向性が見えた。

映画 her

見よう、見ようと思って見ていませんでしたが。ちょうど Siri が出てきたくらいのタイミングで公開されていました。

見た瞬間に、この世界だと思いました。ちょうど技術的にも実現できそうな時代なので、今見れて本当にいいタイミングだったと思いました。

まず、実現したいのは、あの映画の中の世界です。

なので、もうハードウェアから作るしかない、と思い立ちました。

イヤホン x  アシスタント

もうそのままで、誰でも思いつくかもしれませんが。イメージとしては見えやすい。

ただ、これは、あくまで手段の話なので、実際役に立つかどうかを作ってみよう。ということで、イヤホンを使ってGmailを読み上げるプロトタイプを作ったり、Wit.ai を使って音声認識でコントロールするなど、いくつか実験をしました。

結果的には、イヤホンを音声認識を自発的に使いたいタイミングって、そんなに多くなかった。AI を入れるよりも先にやるべきことがあるな、とわかって開発を始めたのが、APlayです。

ここまでたどり着いたのが、2月終わり頃で。速攻ベンダー探しを始めました。

音声認識サービスは、もっとコンパクトにならないか

丁寧に伝えないとわからない音声認識

2000年〜2010年の音声認識よりも、遥かに使いやすくなった音声認識。

2003,4年くらいは 1GHz のデスクトップPCで連続音声認識をやっとできていたレベルだけど。今や、Hey Siri を余裕でこなす。

ただ話している言葉を分解して、意味を理解する必要があるので。人が話す言葉の量は多くなる。

「Hey Siri, 80年代の曲をかけて、よりも、もっと簡単に。」

コンテキストを捉えて

あれ、それ、でわかるのが人間

人の過去を理解したり、そのときの状況を人はなんとなく捉えている。

「80年代」

といったら、その人にとっては音楽かもしれないし、アートかもしれないし、ファッションかもしれない。

その人のコンテキストと、言葉を組み合わせると、ラクな音声認識ができるんじゃないかと考えている。