Internet for People On The Go – ナガラ、ツナガル、インターネットをつくる
というのが現在のネインという会社の方向。
人はそもそも話しながら歩けるし、考え事をしながら料理をできる。
でも、歩きスマホ、運転中チャットに代表されるように、人って何かしながら、スマホを操作しようとすると、たちまち危険にさらされる。
運転中チャットは、自動運転で近いうちに解決される。でも、自動歩行は、まだ。もしかしたらミニ・セグウェイが解決してくれるかもしれない。
一秒でコミュニケーション
2015年のネインの方向性。
とてつもなく、クイックに、余計な操作や段取りをゼロにしてコミュニケーションをつくる。ことを目指していました。
歩きスマホ、運転中チャットで代表されるように、人が何かしているときにストレスを感じる多くが通知。さらにチェックしたい通知は、メッセージ。コミュニケーションに関する情報。したがって、できるだけ通知を減らす、つまり、不要なメッセージを減らす。そのために、近しい関係の人が、自動で状況をシェアするサービスをスタートしました。
悩んだのはどこまでプライベートな情報をシェアするかで、行き着くと、GPSで詳細の場所までシェアできます。AppStore でもフィーチャーされているアプリもあります。しかし、毎日使えるようにしたかったので、プライバシーが気になるようなフィーチャーを入れなかった。
ただ、進めていくうちに、だんだんサービスが方向とずれてくる。2015年に登壇した際の Slash Asia の事前ピッチ練習の際に、Messenger For People On The GO がわかりやすいんじゃないか?というアドバイスを受け、さらに元々の方向性とずれが生じてきた。課題を解決するために、できるだけクイックに。という視点で進めていたのが、できるだけ自動で。というより進化した形でずれていった。
この頃は、より若者視点、サービス視点が強かった、小濱とよくサービスについて議論してましたね。今の状況だけシェアすれば良いので、「今だけ、Twitter」でいいんじゃないか。や、クイックさを追求すべきだ、とか。状況の表現をもっと具体的にすべきでは?などなど。だんだん発散方向に向かっていきました。
モノに憑依するアシスタント
課題がブレていなくても。実現方法がブレると、会社としても右往左往する。
そこで改めて、何かしている人は、そのとき何をして欲しいのか。ということに立ち戻って考えた。
そこで見えてきたものは、モノにアシスタントを憑依させよう、ということ。AI 活用は手段と捉え、何をして欲しいのか、に合ったサービスを作ること。
その考え方に切り替えると、Nain というアプリは、特に複雑なアルゴリズムを使っていないが、コミュニケーション・アシスタント、という形で、いざというときに、急に気になる互いの状況を知らせ合うアシスタント、という概念でスポッと方向性にはまった。
この時点で方向性は固まったものの、今やっていることが、課題解決するためにベストな選択なのか、という方向性の中で別のアプローチがあるんじゃないか。という議論になる。
この頃は、「本質的に、」というワードが出る議論が多くなり。このワード出るとき、本質がどうかというより、その人が腑に落ちてないってことなんですよね。なので時間かけて、チームとしてのモヤっと感を解消しよう。と考えて、進めました。
チーフ・エンジニアの高野もがんがん議論をリードするようになってきて。議論は多くなり、スピードは遅くなるが、でも早いサイクルでPDCAを回す、と考えると。非常に重要な時間と割り切りました。
思いついたアイデアをプロトタイプ
2016年1月〜2月あたりですね。
サービスのアップデートもしつつ、とにかくアイデアを見える化しようと。わかりきったことも、動かしてみて、感じてみよう。ということを意識して進めました。
- オフィスに入ったらビーコンが検知して、より詳細にオフィスにいることがわかる
- 部屋に入ったら、Hueカードを出してライトを操作する
- オーディオの前に行ったら、オーディオカードを出す
- BLE、WiFiの相対距離からどの部屋にいるかを検知する
- 互いのBLEを検知して、誰と一緒にいるかをGPSよりも正確に把握する
- 各社ディープラーニングのオープンソースを動かしてみる
- Google、Microsoft の画像認識結果を比較してみる
- 誕生日の音楽をいい感じに自動で選曲するため、Apple, Spotify から MusicBrain などの API をつなぎあわせてみる
- Slack を音声で読み上げて、プログラミングに集中できるアプリ
- Edison に振動センサーを付けて、洗濯終了検知をしてみる
- メガネに骨伝導スピーカーをくっつけて、音に特化したグラスを作ってみる(アメリカで出てますね)
など、実時間で1ヶ月くらいで色々一気にやりました。IoT周りの技術を触ってみて、OSの制約がより具体的にわかってきて。サービスの可能性、技術的課題を勉強することができました。
さらに、元々、考えて作るスピードに不満がありましたが、このステップをすたおかげで、今はこのノリを体に叩きこんで進められるようになりました。結果的に、メンバーの成長につながったと考えています。
接続している ≠ 繋がっていない
色々やってわかったのが、これだけテクノロジーが充実しているが、身の周りの自動化はあまり進んでいないということ。
さらに、スクリーンに UI が依存しすぎているのが制約となっているケースが多く、スクリーンから離れたUIを考える必要があるということ。
元々私自身、カーナビ、カーオーディオを10年以上やって来ましたが。一番ストレスフリーな運転は、覚えている道を音楽やラジオを聴きながら走ること。やはり、スクリーンに依存しない UI、運転でも使えるような UI を日常生活にも持ち込もう。という発想に切り替わりました。スマートウォッチも触覚という新たなUIは加わっているものの、利用シーンとしての多くはスクリーンに依存している。
この時点で、スクリーンに依存しないUIとなるハードウェアを作ることで、ネインで目指しているものを実現できる可能性が高い、ということがわかりました。
2つの衝撃
Amazon Echo
そう視点を切り替えた瞬間、いままで存在は知っており、シリコンバレーで盛り上がってきているデバイスの存在が急に光るモノになりました。
極端に言うと、モノが存在し、話しかけるだけで、身の回りのモノの操作をすべてできてしまう。作り自体は非常にシンプルなもので、誰でも思いつきそうなアイデア。
ただ、優れた音声合成や、音声認識技術、しかもクルマと違って外部のノイズが少ないというメリットもあり。普通に使えてしまう。実際には、Ford が Alexa 連携をすると、すぐに発表しましたので、2017年のCESでは、クルマ x Alexa の事例が出てくると思います。
これを知った瞬間にもっと視野を広げてもいい、と感じて、Internet for People On The Go という方向性が見えた。
映画 her
見よう、見ようと思って見ていませんでしたが。ちょうど Siri が出てきたくらいのタイミングで公開されていました。
見た瞬間に、この世界だと思いました。ちょうど技術的にも実現できそうな時代なので、今見れて本当にいいタイミングだったと思いました。
まず、実現したいのは、あの映画の中の世界です。
なので、もうハードウェアから作るしかない、と思い立ちました。
イヤホン x アシスタント
もうそのままで、誰でも思いつくかもしれませんが。イメージとしては見えやすい。
ただ、これは、あくまで手段の話なので、実際役に立つかどうかを作ってみよう。ということで、イヤホンを使ってGmailを読み上げるプロトタイプを作ったり、Wit.ai を使って音声認識でコントロールするなど、いくつか実験をしました。
結果的には、イヤホンを音声認識を自発的に使いたいタイミングって、そんなに多くなかった。AI を入れるよりも先にやるべきことがあるな、とわかって開発を始めたのが、APlayです。
ここまでたどり着いたのが、2月終わり頃で。速攻ベンダー探しを始めました。