長期就業可!【Python/GCP】データパイプライン設計/構築エンジニアの募集

単価/月
90~100万円
勤務地
東京都,港区

案件概要

マネジメント企業のデータ基盤チームにてプロダクトチームと連携しながら、
データドリブンな意思決定を支える基盤づくりを推進していただける方を募集しています。

<業務内容>
・データパイプラインの設計・実装・運用
・データマート/データモデルの設計・構築
・既存パイプラインのリファクタリング・パフォーマンス改善
・運用を見据えた実装方針の提案・ドキュメント整備
・障害対応・データ品質モニタリングの仕組みづくり
・プロダクトチームとの要件調整・仕様策定

<データ基盤の詳細>
概要: 社内プロダクトデータと、SNSプラットフォームデータを収集し、プロダクトへデータを連携する統合データ基盤
主な用途: クリエイターキャスティング、プロモーションレポーティング、機械学習用データセット提供
ユーザー: インフルエンサー、社内営業、データアナリスト

<技術環境>
クラウド: GCP (Terraform)
DWH: BigQuery
ETL/ELT: Cloud Composer (Airflow) / Apache Beam / Dataflow
言語: Python
BIツール: Tableau / Redash
バージョン管理: GitHub
CI/CD: GitHub Actions
監視: Cloud Monitoring

<就業時間>
10:00-19:00

期間

2026-02-01 ~ 長期

必須スキル・経験

・仕様提案から影響範囲の洗い出し、リリース計画・調整、リリースまで一気通貫で遂行した経験
・Pythonを用いた開発経験(3年以上目安)
・BigQueryやRDBに対してSQLを用いる開発経験
・以下いずれかの経験
- データ基盤・データパイプラインの開発
- バックエンドサービスの開発(データ処理を含むもの)
・チーム開発の経験(GitHub / Git Flow など)

歓迎するスキル・経験

・Airflow / Cloud Composer を用いたワークフロー構築経験
・Apache Beam / Dataflow を用いたデータ処理経験
・BigQuery / Redshift などDWHの設計・運用経験
・dbt などのデータ変換ツールの利用経験
・データモデリング(スタースキーマ、Data Vault など)の知識
・CI/CDパイプラインの構築経験

稼動日数

週5日

商談回数

1回

最寄駅

各線 六本木駅

案件の詳細

商談1回 / 長期案件(6ヶ月~) / 私服OK / 10時開始 / 一部リモート

リモート詳細

週1日オンサイト、残りはリモート

精算条件

140-180h

支払サイト

月末締めの翌月末日払い
案件担当のおすすめポイント
GCP(BigQuery / Airflow)を用いたデータパイプライン設計構築エンジニアを募集しています。