普段開発に打ち込んでて、20%ルールもないネインですが。
スマホのスクリーンを使わず、何かしながらやりたいことが済んでしまう世の中にしてやろうと。人とのコミュニケーション、モノとのインタラクションを自動化できるアシスタントを作るため、日々いろんな実験をしています。
今回は音の分析。所謂Echonest, Gracenotes, Pioneer的な楽曲解析まではやってないので、シンプルなところから。散々やりましましし、好きなところですが、そこはネインの解く問題領域ではないので。。
最近やってたのは、音の演出で。よくグラフィック・イコライザーで見かける光景ですが。
EDM系のイベントでキラキラしたもの付けている人を見て、誰でもキラキラできたらいいだろうな。と考えて、音にとにかく反応するライティングアプリを作ってみました。
調整はZEDD聴きながらやりましたが、映像はGragebandのループでサクッと。最初、単なる音量でやってましたが、キック、フィルへの反応がいまいちで盛り上がりに欠けたので、FFTで周波数帯を見て、幾つか音楽かけながら反応調整しました。
ニーズがあれば、ゲイン調整、もっとえげつないカラーリングなどやってリリースもしようかと。Apple Watch連携も試したのですが、スリープ入るとホーム画面に戻されるのでいまいちでした。Android Wear ではありかな??
あとは、音楽の特徴をディープラーニングして、アシストするなんてのもありかなと。
ちょっと試してみようかとは、考えてます。
メインはアシスタント開発ですが、いろいろ実験したい若手エンジニア募集中!