データ領域エンジニアの案件・求人一覧
公開案件数 1797 件(07/02更新)
63 件中 1−20を表示
- 単価/月
- 45~55万円
- 勤務地
- 東京都,港区
以下業務をご対応いただきます。
・データマート構築
・データ抽出/集計
・ダッシュボード構築
<担当領域>
・プロジェクト進行
・案件定義
・基本設計
・詳細設計
・開発※クエリ作成/レポーティング
・保守改修
<開発環境>
・言語:SQL、LookML
・ツール:GitHub、Slack、Confluence
・データ基盤:BigQuery
・BIツール:Looker
・開発マシン:Windows or Mac(どちらか選択)
・データマート構築
・データ抽出/集計
・ダッシュボード構築
<担当領域>
・プロジェクト進行
・案件定義
・基本設計
・詳細設計
・開発※クエリ作成/レポーティング
・保守改修
<開発環境>
・言語:SQL、LookML
・ツール:GitHub、Slack、Confluence
・データ基盤:BigQuery
・BIツール:Looker
・開発マシン:Windows or Mac(どちらか選択)
- 単価/月
- 52~62万円
- 勤務地
- 東京都,新宿区
企業が抱えるマーケティング課題を解決するプロダクトにおいて、下記業務をお任せいたします。
・データ連携のイレギュラー対応
・ダッシュボードの作成(データの可視化)
・運用データのワークフロー構築(開発ではない)
・自社プロダクトの納品業務と納品に付随する関連業務
・データ連携バッチの開発
<開発環境>
・主要開発言語/フレームワーク:
-フロントエンド:TypeScript/NextJS
-バックエンド:Golang/Rust/Python/NodeJS
・開発ツール:GitHub、Slack、Confluence
・DB : MySQL、Bigquery
・クラウド : GCP
<就業時間>
10:00-19:00
・データ連携のイレギュラー対応
・ダッシュボードの作成(データの可視化)
・運用データのワークフロー構築(開発ではない)
・自社プロダクトの納品業務と納品に付随する関連業務
・データ連携バッチの開発
<開発環境>
・主要開発言語/フレームワーク:
-フロントエンド:TypeScript/NextJS
-バックエンド:Golang/Rust/Python/NodeJS
・開発ツール:GitHub、Slack、Confluence
・DB : MySQL、Bigquery
・クラウド : GCP
<就業時間>
10:00-19:00
- 単価/月
- 60~70万円
- 勤務地
- 東京都,千代田区
金融SaaSサービス運営企業におけるデータサイエンティストとしてデータ解析及び機械学習モデルの活用に携わっていただきます。
<業務内容>
・データの前処理、特徴量エンジニアリング、モデル構築・評価おびよび改善
・機械学習モデルのパフォーマンス最適化
・プロダクト内および社内へのAI導入"
<開発環境>
・開発言語:Python、Typescript
・機械学習・統計モデリング:scikit-learn、LightGBM、pandas、numpy etc.
・クラウドプラットフォーム:Google Cloud Platform
・分析基盤:BigQuery
・アプリケーション:Next.js、FastAPI
・構成管理ツール:Terraform、Cloud Build
・データモデリング:Dataform
・データビジュアライゼーション:Metabase/Redash
・その他:Docker、GitHub、Slack、Github Copilot etc.
<就業時間>
フルフレックス(基本的にはデイタイム)
<業務内容>
・データの前処理、特徴量エンジニアリング、モデル構築・評価おびよび改善
・機械学習モデルのパフォーマンス最適化
・プロダクト内および社内へのAI導入"
<開発環境>
・開発言語:Python、Typescript
・機械学習・統計モデリング:scikit-learn、LightGBM、pandas、numpy etc.
・クラウドプラットフォーム:Google Cloud Platform
・分析基盤:BigQuery
・アプリケーション:Next.js、FastAPI
・構成管理ツール:Terraform、Cloud Build
・データモデリング:Dataform
・データビジュアライゼーション:Metabase/Redash
・その他:Docker、GitHub、Slack、Github Copilot etc.
<就業時間>
フルフレックス(基本的にはデイタイム)
- 単価/月
- 60~70万円
- 勤務地
- 東京都,千代田区
Databricksをベースとした既存データ分析基盤からの即時キャッチアップが求められており、
加えて即時運用開発へ移行いただける方を募集しております。
<業務内容>
・既存システムのキャッチアップ
・データ分析基盤の保守開発
<就業時間>
9:00-18:00
加えて即時運用開発へ移行いただける方を募集しております。
<業務内容>
・既存システムのキャッチアップ
・データ分析基盤の保守開発
<就業時間>
9:00-18:00
- 単価/月
- 50~60万円
- 勤務地
- 東京都,渋谷区
大手通信会社向けデータパイプライン開発プロジェクトにご参画いただきます。
<プロジェクト概要>
通信業において、お客様の声に関する情報をGCP基盤上(新規構築:GCS+BigQuery)に蓄積し、
新規構築するアプリケーションからお客様の声のデータを活用するというプロジェクト。
<業務内容>
・要件定義の実施:どのデータソース元から、どのデータを取得する必要があるのかをアプリケーションチームと連携し進める
・アプリケーションチームが整理したデータマートの要件を基に、データパイプラインの設計/開発/試験を実施し、その後の運用保守(追加開発)を実施
・データソース元にはAPIでデータを取得し、GCP内で加工集計する想定・Pythonでの開発を想定
<プロジェクト概要>
通信業において、お客様の声に関する情報をGCP基盤上(新規構築:GCS+BigQuery)に蓄積し、
新規構築するアプリケーションからお客様の声のデータを活用するというプロジェクト。
<業務内容>
・要件定義の実施:どのデータソース元から、どのデータを取得する必要があるのかをアプリケーションチームと連携し進める
・アプリケーションチームが整理したデータマートの要件を基に、データパイプラインの設計/開発/試験を実施し、その後の運用保守(追加開発)を実施
・データソース元にはAPIでデータを取得し、GCP内で加工集計する想定・Pythonでの開発を想定
- 単価/月
- 45~55万円
- 勤務地
- 東京都,新宿区
自社開発のCDPの納品業務および納品に付随する関連業務をご対応いただきます。
<業務内容>
・データ連携バッチの開発
・CDPワークフロー / Looker Dashboardの構築
※全ての顧客データの中心となり、GenerativeAIとの掛け合わせでデータを解析する
最先端AIマーケティングの中核を担えます。
<就業時間>
10:00-19:00
<服装>
自由
<業務内容>
・データ連携バッチの開発
・CDPワークフロー / Looker Dashboardの構築
※全ての顧客データの中心となり、GenerativeAIとの掛け合わせでデータを解析する
最先端AIマーケティングの中核を担えます。
<就業時間>
10:00-19:00
<服装>
自由
- 単価/月
- 56~66万円
- 勤務地
- 東京都,港区
データ分析支援に関する業務支援をご対応いただきます。
<業務内容>
1.データ分析要望に対する支援業務
・要望依頼部門へのヒアリング、要件の整理
・要望実現のための手法や基礎データの検討
・データ運用計画策定
・上記業務に関するドキュメント作成
2.分析用データ作成支援業務
・分析用アウトプットデータの作成
・分析用アウトプットデータの精査、確認
・既存のデータ分析ツールの改修
・データ分析要望に基づくBIツールの作成支援
3. 分析用データ運用支援業務
・データ運用計画に基づくデータ利用者(データ分析要望部門)、データ運用作業者との業務調整
・データ運用作業者向けマニュアル作成
・データ利用者向けマニュアル作成
・関係システムでの障害発生時におけるデータへの影響調査などの対応作業
・データ分析要望、その他データ利用に関する各種申請業務支援
・関連する各種問い合わせ対応
4. その他付帯業務
<業務内容>
1.データ分析要望に対する支援業務
・要望依頼部門へのヒアリング、要件の整理
・要望実現のための手法や基礎データの検討
・データ運用計画策定
・上記業務に関するドキュメント作成
2.分析用データ作成支援業務
・分析用アウトプットデータの作成
・分析用アウトプットデータの精査、確認
・既存のデータ分析ツールの改修
・データ分析要望に基づくBIツールの作成支援
3. 分析用データ運用支援業務
・データ運用計画に基づくデータ利用者(データ分析要望部門)、データ運用作業者との業務調整
・データ運用作業者向けマニュアル作成
・データ利用者向けマニュアル作成
・関係システムでの障害発生時におけるデータへの影響調査などの対応作業
・データ分析要望、その他データ利用に関する各種申請業務支援
・関連する各種問い合わせ対応
4. その他付帯業務
- 単価/月
- 65~75万円
- 勤務地
- 東京都,新宿区
エンタープライズ企業向けのエンド内サービス導入プロジェクトにおいて、
顧客が持つ基幹系システムなどとのデータ連携における要件に関する
要件定義~設計~自社開発チームへの情報連携までをご担当いただきます。
担当業務にはドキュメントの作成や顧客折衝も含まれます。
システム間のデータ連携の特性上、データ移行のシーンにおいても対応が発生する場合がございます。
<就業時間>
10:00〜19:00
顧客が持つ基幹系システムなどとのデータ連携における要件に関する
要件定義~設計~自社開発チームへの情報連携までをご担当いただきます。
担当業務にはドキュメントの作成や顧客折衝も含まれます。
システム間のデータ連携の特性上、データ移行のシーンにおいても対応が発生する場合がございます。
<就業時間>
10:00〜19:00
- 単価/月
- 50~60万円
- 勤務地
- 東京都,新宿区
旅行・宿泊予約プラットフォームにおけるデータアナリスト募集案件です。
<業務内容>
・旅行予約サービスに関する新規事業の効果検証
・データ分析基盤の構築
・BigQuery、Looker Studioを活用したデータ分析
・経営陣向けの報告資料作成
・データ集計、レポート作成、報告業務
<就業時間>
9:00-18:00 ※フレックス相談可
<業務内容>
・旅行予約サービスに関する新規事業の効果検証
・データ分析基盤の構築
・BigQuery、Looker Studioを活用したデータ分析
・経営陣向けの報告資料作成
・データ集計、レポート作成、報告業務
<就業時間>
9:00-18:00 ※フレックス相談可
- 単価/月
- 61~71万円
- 勤務地
- 東京都,港区
社内のデータ分析基盤のマネジメント業務に携わっていただきます。
データアナリストやデータエンジニアと連携し、
データの信頼性、精度、整合性を確保するための取り組みをリードいただきます。
<業務内容>
・データ分析基盤の設計、構築、および運用
・データ品質の監視、評価、および改善
・データパイプラインの最適化と自動化
・データガバナンスおよびデータ管理のベストプラクティスの導入と実践
・データベースおよびデータウェアハウスの管理
・データセキュリティとプライバシーの確保
・データアナリストチームおよび開発チームとの連携
<環境>
使用言語: Python, SQL, HCL(Terraform)
ETL:dbt, Trocco
データストア: MySQL, Snowflake
インフラ: AWS, GCP
プロジェクト管理ツール: GitHub, Slack, Notion
データアナリストやデータエンジニアと連携し、
データの信頼性、精度、整合性を確保するための取り組みをリードいただきます。
<業務内容>
・データ分析基盤の設計、構築、および運用
・データ品質の監視、評価、および改善
・データパイプラインの最適化と自動化
・データガバナンスおよびデータ管理のベストプラクティスの導入と実践
・データベースおよびデータウェアハウスの管理
・データセキュリティとプライバシーの確保
・データアナリストチームおよび開発チームとの連携
<環境>
使用言語: Python, SQL, HCL(Terraform)
ETL:dbt, Trocco
データストア: MySQL, Snowflake
インフラ: AWS, GCP
プロジェクト管理ツール: GitHub, Slack, Notion
- 単価/月
- 56~66万円
- 勤務地
- 東京都,新宿区
SaaSプロダクトにおける、データ処理・連携機能の強化を行っていただく案件です。
技術力重視で、アジャイル開発を取り入れた現場です。
<具体的には…>
・法人向けSaaSプロダクトにおけるデータパイプラインの設計・構築・最適化
・外部データソース(Google Drive、Dropbox、Webページ等)とのデータ連携処理の実装
・データの正確性、完全性、一貫性を保証する品質管理プロセスの設計・実装
・パイプライン健全性を監視するシステムの構築
技術力重視で、アジャイル開発を取り入れた現場です。
<具体的には…>
・法人向けSaaSプロダクトにおけるデータパイプラインの設計・構築・最適化
・外部データソース(Google Drive、Dropbox、Webページ等)とのデータ連携処理の実装
・データの正確性、完全性、一貫性を保証する品質管理プロセスの設計・実装
・パイプライン健全性を監視するシステムの構築
- 単価/月
- 52~62万円
- 勤務地
- 東京都,新宿区
大手通信事業者のモバイルペイメント決済に関する加盟店管理システム刷新プロジェクトにおいて、
データ移行およびクレンジング業務のDevリードポジションをご担当いただきます。
現在、旧システムから新システムへの大規模データ移行を実施しており、以下の業務をご担当いただきます。
・複数のデータソース構造や品質の調査・把握
・SQL/Pythonを用いたデータクレンジング処理の設計・実装
・データ移行スクリプトの作成およびツールの構築・運用
・データ移行後の検証および品質管理ツールの検討・導入
・データ基盤(データレイク~DWH~データマート)の構築支援(ETL設計等)
<開発環境>
言語:Python、SQL、Java
インフラ:AWS(予定)
その他:データレイク、DWH、データマート構成予定"
※※こちらの案件は現在募集を終了しております※※
データ移行およびクレンジング業務のDevリードポジションをご担当いただきます。
現在、旧システムから新システムへの大規模データ移行を実施しており、以下の業務をご担当いただきます。
・複数のデータソース構造や品質の調査・把握
・SQL/Pythonを用いたデータクレンジング処理の設計・実装
・データ移行スクリプトの作成およびツールの構築・運用
・データ移行後の検証および品質管理ツールの検討・導入
・データ基盤(データレイク~DWH~データマート)の構築支援(ETL設計等)
<開発環境>
言語:Python、SQL、Java
インフラ:AWS(予定)
その他:データレイク、DWH、データマート構成予定"
※※こちらの案件は現在募集を終了しております※※
- 単価/月
- 56~66万円
- 勤務地
- 東京都,渋谷区
ダッシュボードの設計・構築をお任せいたします。
開発チームとの調整やBigQueryを活用したデータ収集、BIツールの設定作業等をご対応いただく想定です。
<就業時間>
10:00-19:00
<服装>
オフィスカジュアル
※※こちらの案件は現在募集を終了しております※※
開発チームとの調整やBigQueryを活用したデータ収集、BIツールの設定作業等をご対応いただく想定です。
<就業時間>
10:00-19:00
<服装>
オフィスカジュアル
※※こちらの案件は現在募集を終了しております※※
- 単価/月
- 80~110万円
- 勤務地
- 東京都,渋谷区
以下、PJ概要となります。
・社内データを収集・蓄積したデータレイクと分析目的別データマートをAWS上へ構築
・AWS上のデータを可視化するTableauダッシュボードの構築・運用
・他部署へのTableau展開支援
<担当業務>
・PMO業務(各種ファシリ、課題管理、各チーム間調整)
・データマネジメント/ガバナンス整備、策定
・Tableauユースケースプロジェクトの進行・管理(要件定義〜リリース)
※※こちらの案件は現在募集を終了しております※※
・社内データを収集・蓄積したデータレイクと分析目的別データマートをAWS上へ構築
・AWS上のデータを可視化するTableauダッシュボードの構築・運用
・他部署へのTableau展開支援
<担当業務>
・PMO業務(各種ファシリ、課題管理、各チーム間調整)
・データマネジメント/ガバナンス整備、策定
・Tableauユースケースプロジェクトの進行・管理(要件定義〜リリース)
※※こちらの案件は現在募集を終了しております※※
- 単価/月
- 60~70万円
- 勤務地
- 東京都,新宿区
顧客が提供する各プロダクトからのデータ収集、加工・集計・可視化、
分析結果からの将来予測などを行っていただく案件です。
<開発環境>
・インフラ:AWS(Athena、Redshift、Glue、QuickSightなど)
・データベース:RDS(Aurora MySQL)
・ETL:AWS Glue
・BIツール:QuickSight
・言語:Python
・コミュニケーション:Slack、Zoom、Backlog、DocBase
<備考>
・勤務時間:9:00~18:00(フレックス制度あり)
・円滑なコミュニケーションを図るため、業務中はZoom常時接続となります(マイクON、アバター表示可)
※※こちらの案件は現在募集を終了しております※※
分析結果からの将来予測などを行っていただく案件です。
<開発環境>
・インフラ:AWS(Athena、Redshift、Glue、QuickSightなど)
・データベース:RDS(Aurora MySQL)
・ETL:AWS Glue
・BIツール:QuickSight
・言語:Python
・コミュニケーション:Slack、Zoom、Backlog、DocBase
<備考>
・勤務時間:9:00~18:00(フレックス制度あり)
・円滑なコミュニケーションを図るため、業務中はZoom常時接続となります(マイクON、アバター表示可)
※※こちらの案件は現在募集を終了しております※※
- 単価/月
- 70~80万円
- 勤務地
- 東京都,港区
大手テレコム事業者向けのデータ分析基盤の構築・運用案件になります。
サービス関連ログ、サービス関連データをSplunkクラスタへ集約し、コールセンターの運用改善を実施しております。
Splunk上でのダッシュボード開発はツール利用者にて行われているため、
基盤の構築・運用や、Splunkへのデータ連携の開発が主なスコープとなります。
データ連携については、Splunk Forwarder、Logstash、Talend(Java)、(一部機能のみ)Pythonを併用しております。
ご依頼予定の作業は、主に『Splunkの設定(スクリプトデータ入力(ターゲットはJSONファイルの想定))』、『データ仕様調整(お客様調整)』などとなります。
※ 方式変更やスコープ変更などにより、多少作業の追加等が発生する可能性があります。
※※こちらの案件は現在募集を終了しております※※
サービス関連ログ、サービス関連データをSplunkクラスタへ集約し、コールセンターの運用改善を実施しております。
Splunk上でのダッシュボード開発はツール利用者にて行われているため、
基盤の構築・運用や、Splunkへのデータ連携の開発が主なスコープとなります。
データ連携については、Splunk Forwarder、Logstash、Talend(Java)、(一部機能のみ)Pythonを併用しております。
ご依頼予定の作業は、主に『Splunkの設定(スクリプトデータ入力(ターゲットはJSONファイルの想定))』、『データ仕様調整(お客様調整)』などとなります。
※ 方式変更やスコープ変更などにより、多少作業の追加等が発生する可能性があります。
※※こちらの案件は現在募集を終了しております※※
- 単価/月
- 70~85万円
- 勤務地
- 東京都,千代田区
大手自動車部品メーカーにて、
主に画像データを、MLOpsで利用できるデータセットとして管理する基盤の構築PJにおける
データエンジニアを募集しております。
顧客の要望に応じ、データの加工、それに伴うデータベースの構築等をご担当いただく想定です。
また、直近ではDWHの移行などの作業もございます。
<環境>
開発形式:アジャイル
使用言語:
・Python言語
使用ツール:
・AWS (Sagemaker、Lambda、SQS、ECS、step functions、DocumentDBなど)
・snowflake
・IaC (Terraform)
<オンサイト時の勤務地>
クライアント先、または秋葉原駅
※※こちらの案件は現在募集を終了しております※※
主に画像データを、MLOpsで利用できるデータセットとして管理する基盤の構築PJにおける
データエンジニアを募集しております。
顧客の要望に応じ、データの加工、それに伴うデータベースの構築等をご担当いただく想定です。
また、直近ではDWHの移行などの作業もございます。
<環境>
開発形式:アジャイル
使用言語:
・Python言語
使用ツール:
・AWS (Sagemaker、Lambda、SQS、ECS、step functions、DocumentDBなど)
・snowflake
・IaC (Terraform)
<オンサイト時の勤務地>
クライアント先、または秋葉原駅
※※こちらの案件は現在募集を終了しております※※
- 単価/月
- 60~80万円
- 勤務地
- 東京都,千代田区
土木建機レンタル会社向けのTableau運用保守支援案件にて、以下の業務をご対応いただきます。
・ユーザーアカウント管理(招待・削除)
・グループ管理(tabcmd利用)
・Tableau機能に関するQA
・ダッシュボードを基にデータ利活用推進
※上から優先度が高い順
<就業時間>
9:30~18:30
※※こちらの案件は現在募集を終了しております※※
・ユーザーアカウント管理(招待・削除)
・グループ管理(tabcmd利用)
・Tableau機能に関するQA
・ダッシュボードを基にデータ利活用推進
※上から優先度が高い順
<就業時間>
9:30~18:30
※※こちらの案件は現在募集を終了しております※※
- 単価/月
- 80~110万円
- 勤務地
- 東京都,品川区,目黒
事業会社におけるBigQueryを用いたコーポレート・データエンジニア案件にて、以下の業務をご対応いただきます。
・各種システムからのBigQueryへのデータパイプラインの構築・運用
・関連部署や関連チームとのコミュニケーション
・BigQuery上のデータウェアハウス・データマートの加工処理の構築・運用
・現行システムから新システムへのデータ移行
<技術環境>
・言語 : Python
・データベース : BigQuqery, Aurora MySQL 2.0/3.0, Aurora PostgreSQL
・インフラ : AWS (EC2, S3, Lambda etc.) , GCP
・バージョン管理 : Github
・CI : GitHub Actions
・データパイプライン実行制御: dagster
・コミュニケーション : Slack, GitHub Projects, Notion
※※こちらの案件は現在募集を終了しております※※
・各種システムからのBigQueryへのデータパイプラインの構築・運用
・関連部署や関連チームとのコミュニケーション
・BigQuery上のデータウェアハウス・データマートの加工処理の構築・運用
・現行システムから新システムへのデータ移行
<技術環境>
・言語 : Python
・データベース : BigQuqery, Aurora MySQL 2.0/3.0, Aurora PostgreSQL
・インフラ : AWS (EC2, S3, Lambda etc.) , GCP
・バージョン管理 : Github
・CI : GitHub Actions
・データパイプライン実行制御: dagster
・コミュニケーション : Slack, GitHub Projects, Notion
※※こちらの案件は現在募集を終了しております※※
- 単価/月
- 65~75万円
- 勤務地
- 東京都,調布市
SNSを活用したマーケティングプラットフォームを運営する顧客にて、
バックエンド開発、分析基盤の構築業務をお任せいたします。
<業務内容>
・オウンドメディアのインタラクションデータを活用した、レコメンドロジックやパーソナライズするための研究開発
・分析結果や要件変更に合わせた継続的なチューニング
・ユーザーの行動ログ(クリック、スクロール、再生回数、滞在時間、購買行動など)の収集・分析基盤
・データパイプラインの構築および運用(リアルタイム/バッチ処理)
・自社サイトのデータやコンテンツを効率的に収集・管理する基盤の設計、実装業務
※※こちらの案件は現在募集を終了しております※※
バックエンド開発、分析基盤の構築業務をお任せいたします。
<業務内容>
・オウンドメディアのインタラクションデータを活用した、レコメンドロジックやパーソナライズするための研究開発
・分析結果や要件変更に合わせた継続的なチューニング
・ユーザーの行動ログ(クリック、スクロール、再生回数、滞在時間、購買行動など)の収集・分析基盤
・データパイプラインの構築および運用(リアルタイム/バッチ処理)
・自社サイトのデータやコンテンツを効率的に収集・管理する基盤の設計、実装業務
※※こちらの案件は現在募集を終了しております※※