中途採用としてご入社いただくデータエンジニアの方には、当社のコア事業であるデータ基盤構築・AI導入プロジェクトの要となる役割を担っていただきます。具体的には、以下のような業務をお任せします。
■任せたい仕事
次世代データ活用基盤のアーキテクチャ検討・構築
Databricks、BigQueryなどを活用したDWH構築・データパイプライン設計
Terraformなどを使ったインフラタスク自動化を含む、クラウド環境全体の設計・実装
セマンティックレイヤーの検討と導入(データ定義・メタデータ管理・権限管理など)
既存システムとのデータ連携アーキテクチャを要件定義段階からリードし、ビジネス要件を反映した最適な構成を実現
データパイプラインの運用・最適化
ETL/ELTプロセスの開発・運用・パフォーマンスチューニング
データ品質を保つための仕組み・モニタリング体制の構築
コスト最適化やセキュリティ強化を視野に入れた運用設計
AIモデル導入・運用サポート
機械学習モデルや需要予測モデルを運用するための環境整備
MLOps手法を用いたモデルの継続的改善・自動化のサポート
Dataiku上での機械学習パイプライン設計など、PoCから本番運用まで一貫して対応
チームリード
顧客の要件定義から実装・評価・運用までをトータルにリード
チームメンバーや外部パートナーの育成、技術的リード
ビジネス成果と技術要件のバランスを保ちながらプロジェクトを推進
■応募資格
クラウド(GCP, AWS, Azure,Databricks等)上でのデータ基盤構築・運用経験
SQLを用いたデータモデリング、データ抽出・集計の実務経験
Python等のプログラミングスキル、および開発プロジェクトでのコード管理(Gitなど)経験
チームやクライアントと円滑にコミュニケーションをとり、要件を技術に落とし込める方
セキュリティの重要性を理解し、機密情報・顧客データを適切に取り扱える方
【あれば尚、歓迎】
Databricks、Dataikuなどのデータプラットフォームでの開発・運用経験
セマンティックレイヤーの設計やメタデータ管理への理解・実務経験
LookerやTableau、Power BIなどのBIツールによるダッシュボード構築経験
MLOps、機械学習モデルの本番運用経験(CI/CD、モデル監視・再学習など)
大規模データやリアルタイムデータの処理基盤(Kafka、Pub/Subなど)の知見
ChatGPTなど生成系AIのビジネス活用事例に関心がある方、実務に取り入れてみたい方
雇用形態:正社員(試用期間3ヶ月あり)
就業時間:9:00~18:00(時差出勤可)
リモートワーク:業務内容・プロジェクトにより相談可、リモートワークは基本週2日まで(試用期間中は要相談)※案件により、セキュリティ上の理由にてリモートワークが許可できない場合あり
GCP資格取得支援制度:(受験費用会社負担、資格手当支給、学習教材提供)など
勤務地:〒105-0013 東京都港区浜松町2丁目3-8 WTC annex 11-12階
コンパスオフィス拠点を利用。フレキシブルなワークスペースで働けます。