なにをやっているのか
データアグリゲーションサービスをやっています。 技術的にはクローラーを作ってスクレイピングしてインターネット上のデータを解析するということをしています。
分析対象は多岐にわたっています。 EC系データ、コンテンツ系データ、ソーシャルメディアを組み合わせて、ユーザ動向や運営動向のトレンドを分析するというのが提供価値です。
スクレイピングという得意分野を生かして、管理画面を完全自動化するRPA事業が拡大中です。
また、機械学習という得意分野を生かして、スマートスピーカースキル開発や音声合成エンジンの開発も行ってます。
なぜやるのか
まずはデータが好きだから。
エンジニアだからプログラミングはもちろん大好きなんだけど、インターネットのエンジニアリング醍醐味は多くのデータを扱えるというところにあると思っています。
誰もが新人のころにインターネットのどこかのサイトをスクレイピングして、ちょっとしたデータベースを作るという喜びがあったかと思います。それを突き詰めていくことでデータ専業のエンジニア集団になりました。
データサイエンティストって職種もあちこちの企業で登場してきています。しかしデータサイエンティストもデータがないと仕事を始めることさえできない。データサイエンスは前処理が大半とは言うもののその前処理にも経験値は必要です。
どうやっているのか
Rubyでクローラーを書いています。サーバは全部クラウドで動かしています。
機械学習の際にはPythonを使用し、スマートスピーカーのバックエンドはサーバレスアーキテクチャで作るのでJavaScriptで作っています。
フロントエンドは事業としてはあまりやっていません。あくまでデータの提供・連携というところがキモになっているため、データ納品やAPI形式での納品が多いです。