データ領域エンジニアの案件・求人一覧
公開案件数 1863 件(12/12更新)
43 件中 1−20を表示
- 単価/月
- 50~60万円
- 勤務地
- 埼玉県
自動車メーカー向け生成AI(RAG)基盤開発支援におけるデータ整備・検証をご対応いただきます。
<具体的な作業内容>
・PDF/Word/Excel/Webページなどからのテキスト抽出・正規化
・OCRによるスキャン文書の文字データ抽出
・メタデータ付与、タグ付け、分類などのデータ前処理
・RAGデータ構造の整合性確認、品質チェック
・生成結果(LLM出力)との照合・品質レビュー補助
<技術環境>
・環境:RAG/LLM基盤(社内ナレッジ連携型)
・言語等 :Python、SQL、OCRツール(Tesseract/Google Vision APIなど)
<備考>
月一回ほど和光市・宇都宮に出張の可能性あり
<就業時間>
9:00-18:00
<具体的な作業内容>
・PDF/Word/Excel/Webページなどからのテキスト抽出・正規化
・OCRによるスキャン文書の文字データ抽出
・メタデータ付与、タグ付け、分類などのデータ前処理
・RAGデータ構造の整合性確認、品質チェック
・生成結果(LLM出力)との照合・品質レビュー補助
<技術環境>
・環境:RAG/LLM基盤(社内ナレッジ連携型)
・言語等 :Python、SQL、OCRツール(Tesseract/Google Vision APIなど)
<備考>
月一回ほど和光市・宇都宮に出張の可能性あり
<就業時間>
9:00-18:00
- 単価/月
- 55~65万円
- 勤務地
- 東京都,千代田区
HRデータ事業部にてデータ抽出業務および要件整理を担当いただきます。
<具体的な作業内容>
・基幹データおよびアクセスログからのデータ抽出
・新規SQLの作成
・既存SQLの調査・改修
・依頼者(事業側)との要件整理
・抽出仕様の検討
・プロジェクト進行管理
<技術環境>
・環境:クラウドDWH(BigQuery / Redshift / Snowflakeなど想定)
・言語等:SQL、(必要に応じて)スクリプト系言語
<就業時間>
10:00-19:00
<具体的な作業内容>
・基幹データおよびアクセスログからのデータ抽出
・新規SQLの作成
・既存SQLの調査・改修
・依頼者(事業側)との要件整理
・抽出仕様の検討
・プロジェクト進行管理
<技術環境>
・環境:クラウドDWH(BigQuery / Redshift / Snowflakeなど想定)
・言語等:SQL、(必要に応じて)スクリプト系言語
<就業時間>
10:00-19:00
- 単価/月
- 80~90万円
- 勤務地
- 東京都,千代田区
数多のアクティブユーザーを抱える化粧品サイト運営企業においてデータエンジニアとしてご稼働いただきます。
現在、データ分析基盤のリプレイスプロジェクトを進めており、
開発を進めていく上でdbtを用いたデータモデリング要員としてご参画いただきます。"
<環境>
- BigQuery
- Docker
- dbt
- Composer
- GitHub"
<備考>
フレックスタイム制
現在、データ分析基盤のリプレイスプロジェクトを進めており、
開発を進めていく上でdbtを用いたデータモデリング要員としてご参画いただきます。"
<環境>
- BigQuery
- Docker
- dbt
- Composer
- GitHub"
<備考>
フレックスタイム制
- 単価/月
- 75~85万円
- 勤務地
- 東京都,新宿区
広告プラットフォーム企業におけるデータエンジニアとして以下業務をご対応いただきます。
・BigQuery、ClickHouseを用いた広告配信データの集計・加工処理
・社内独自のAIエージェントフレームワークを用いた新機能開発
・パフォーマンスとメンテナンス性を考慮した設計・実装"
<開発環境>
フロントエンド:TypeScript, Next.js, React
バックエンド:Python
データ基盤:GCP, BigQuery, ClickHouse
インフラ : GCP, Docker
開発ツール : Slack, Github, Linear, Notion"
<就業時間>
10:00~19:00
・BigQuery、ClickHouseを用いた広告配信データの集計・加工処理
・社内独自のAIエージェントフレームワークを用いた新機能開発
・パフォーマンスとメンテナンス性を考慮した設計・実装"
<開発環境>
フロントエンド:TypeScript, Next.js, React
バックエンド:Python
データ基盤:GCP, BigQuery, ClickHouse
インフラ : GCP, Docker
開発ツール : Slack, Github, Linear, Notion"
<就業時間>
10:00~19:00
- 単価/月
- 75~85万円
- 勤務地
- 東京都,渋谷区
ECアプリケーション運営企業にてデータアナリストとしてご参画いただきます。
プロダクト課題やビジネス課題における定量・定性分析を行い、
課題特定と解決に向けた業務をご担当いただきます。
事業課題に合わせたデータ分析の計画立て、KGIやKPIの設定・可視化・運用、
データの抽出・加工・集計・分析の一連の作業など、幅広い業務をご担当いただきます。
<環境>
・言語:Go
・API:Protocol Buffers, gRPC
・インフラ: Google Cloud (Cloud Run, Cloud Firestore, Cloud Spanner, etc.)
・CI/CD:GitHub Actions, Cloud Build
・構成管理: Terraform
・モニタリング:Cloud Monitoring, Cloud Logging, Cloud Trace
・分析:BigQuery, Looker
・その他:Notion, JIRA, Slack
<備考>
フレックス制度あり(コアタイム:11:00~15:00)
プロダクト課題やビジネス課題における定量・定性分析を行い、
課題特定と解決に向けた業務をご担当いただきます。
事業課題に合わせたデータ分析の計画立て、KGIやKPIの設定・可視化・運用、
データの抽出・加工・集計・分析の一連の作業など、幅広い業務をご担当いただきます。
<環境>
・言語:Go
・API:Protocol Buffers, gRPC
・インフラ: Google Cloud (Cloud Run, Cloud Firestore, Cloud Spanner, etc.)
・CI/CD:GitHub Actions, Cloud Build
・構成管理: Terraform
・モニタリング:Cloud Monitoring, Cloud Logging, Cloud Trace
・分析:BigQuery, Looker
・その他:Notion, JIRA, Slack
<備考>
フレックス制度あり(コアタイム:11:00~15:00)
- 単価/月
- 57~77万円
- 勤務地
- 東京都,渋谷区
ゲーム事業で蓄積されたビッグデータを用いた、
データ分析環境の基盤構築および開発、管理を行っていただきます。
環境構築にとどまらず、各タイトルのデータ分析者やゲームエンジニアとのやりとりを通じて
ゲーム品質やサービス改善に繋がるための業務を担当していただきます。
<業務内容>
・ログ、DBデータのELT処理のためのシステム開発/運用
・大規模データベースの構築/運用/管理
・データ分析者への技術的サポート
・社内BIツール向けデータ集計バッチ開発/運用
<就業時間>
10:00~19:00
データ分析環境の基盤構築および開発、管理を行っていただきます。
環境構築にとどまらず、各タイトルのデータ分析者やゲームエンジニアとのやりとりを通じて
ゲーム品質やサービス改善に繋がるための業務を担当していただきます。
<業務内容>
・ログ、DBデータのELT処理のためのシステム開発/運用
・大規模データベースの構築/運用/管理
・データ分析者への技術的サポート
・社内BIツール向けデータ集計バッチ開発/運用
<就業時間>
10:00~19:00
- 単価/月
- 62~72万円
- 勤務地
- 東京都,新宿区
広告代理店向けの高度AI分析プロダクト開発PJです。
現在PMFフェーズであり、プロダクトの核となる分析機能の開発を加速させる重要な役割を担います。
LLMやAIエージェント技術を活用し、データ分析基盤の設計から実装まで一貫して携わっていただきます。
<クライアント>
東証上場企業グループのAI特化スタートアップ企業です。
LLMやAIエージェントなど最先端技術の研究開発に注力しており、国内外で事業を展開しています。
スタートアップの柔軟性と迅速な意思決定の下、最先端技術をいち早く取り入れる文化があります。
<主な業務>
・広告配信データを分析し、インサイトを導出するAI分析機能の開発
・BigQuery、ClickHouseを用いた広告配信データの集計・加工処理
・Pythonによる分析アルゴリズムの実装
・社内独自のAIエージェントフレームワークを用いた新機能開発(プロンプト設計、ワークフロー設計含む)
・OpenAI API, Anthropic Claude APIとの統合
・GCP (Cloud Run, Cloud Functions) 上でのサービス開発
<開発環境>
・言語:Python, TypeScript
・DB:BigQuery, ClickHouse
・その他:React, Next.js, GCP (Cloud Run, Cloud Functions), Docker, OpenAI API, Anthropic Claude API
現在PMFフェーズであり、プロダクトの核となる分析機能の開発を加速させる重要な役割を担います。
LLMやAIエージェント技術を活用し、データ分析基盤の設計から実装まで一貫して携わっていただきます。
<クライアント>
東証上場企業グループのAI特化スタートアップ企業です。
LLMやAIエージェントなど最先端技術の研究開発に注力しており、国内外で事業を展開しています。
スタートアップの柔軟性と迅速な意思決定の下、最先端技術をいち早く取り入れる文化があります。
<主な業務>
・広告配信データを分析し、インサイトを導出するAI分析機能の開発
・BigQuery、ClickHouseを用いた広告配信データの集計・加工処理
・Pythonによる分析アルゴリズムの実装
・社内独自のAIエージェントフレームワークを用いた新機能開発(プロンプト設計、ワークフロー設計含む)
・OpenAI API, Anthropic Claude APIとの統合
・GCP (Cloud Run, Cloud Functions) 上でのサービス開発
<開発環境>
・言語:Python, TypeScript
・DB:BigQuery, ClickHouse
・その他:React, Next.js, GCP (Cloud Run, Cloud Functions), Docker, OpenAI API, Anthropic Claude API
- 単価/月
- 59~69万円
- 勤務地
- 東京都,八王子市
業務用複合機から取得した各種データをクラウド上に蓄積し、可視化するダッシュボードの開発およびAWS上での環境構築・システム設計をお任せいたします。
・技術:Python,(一部C/C#)、SQL、 Metabase
・技術:Python,(一部C/C#)、SQL、 Metabase
- 単価/月
- 84~94万円
- 勤務地
- 東京都,千代田区
データエンジニアとして、様々なデータ関連の業務に関わっていただきます。
データ基盤の構築、データ分析、SaaSの開発、生成AI関連開発など、
ご志向やご経験に合わせて幅広い業務に挑戦することができます。
<具体的な業務内容>
・Snowflake + Terraform + dbt を用いたデータ基盤構築
・Terraform によるリソース・権限管理
・ETLパイプラインの設計・実装・運用
<技術環境>
AWS
※掲載金額は週5日稼働です※
データ基盤の構築、データ分析、SaaSの開発、生成AI関連開発など、
ご志向やご経験に合わせて幅広い業務に挑戦することができます。
<具体的な業務内容>
・Snowflake + Terraform + dbt を用いたデータ基盤構築
・Terraform によるリソース・権限管理
・ETLパイプラインの設計・実装・運用
<技術環境>
AWS
※掲載金額は週5日稼働です※
- 単価/月
- 67~77万円
- 勤務地
- 東京都,港区
リース会社のデータ連携基盤の検討・構築案件です。
API連携部分は MuleSoft を使用し、Salesforce環境の追加構築も担当いただきます。
チームリーダーとしてご活躍いただける方を募集しています。
API連携部分は MuleSoft を使用し、Salesforce環境の追加構築も担当いただきます。
チームリーダーとしてご活躍いただける方を募集しています。
- 単価/月
- 58~68万円
- 勤務地
- 東京都,新宿区
大手保険会社のシステム統合におけるデータ分析基盤の構築案件となります。
AWS環境でDatabricks上にBIツールを構築していただきます。
現在は詳細設計を行っており、10月からの実装工程からご参画いただきます。
AWS環境でDatabricks上にBIツールを構築していただきます。
現在は詳細設計を行っており、10月からの実装工程からご参画いただきます。
- 単価/月
- 50~60万円
- 勤務地
- 東京都,品川区
大手企業のデータ利活用案件です。
データ収集、データレイクに蓄積し、BIツールで
経営幹部やユーザに対してデータを見える化するためのシステム構築を行っていただきます。
※※こちらの案件は現在募集を終了しております※※
データ収集、データレイクに蓄積し、BIツールで
経営幹部やユーザに対してデータを見える化するためのシステム構築を行っていただきます。
※※こちらの案件は現在募集を終了しております※※
- 単価/月
- 33~43万円
- 勤務地
- 東京都,港区
大手通信サービス/企業向けサービスサイトのGA分析・レポート作成をご対応いただきます。
<業務内容>
・Webサイト分析/数値集計/レポート(業務量:大)
-GA4による分析/数字集計業務
-分析結果報告のためのレポート作成業務
-レポート報告対応(MTG)
※クライアント先とのコミュニケーションもあり
※※こちらの案件は現在募集を終了しております※※
<業務内容>
・Webサイト分析/数値集計/レポート(業務量:大)
-GA4による分析/数字集計業務
-分析結果報告のためのレポート作成業務
-レポート報告対応(MTG)
※クライアント先とのコミュニケーションもあり
※※こちらの案件は現在募集を終了しております※※
- 単価/月
- 49~59万円
- 勤務地
- 東京都,新宿区
情シス部門にて、社内向けシステムの開発・運用・保守を担当いただきます。
マルチベンダー開発体制の一員として、新規導入システムや既存システムのエンハンス、障害対応を行っていただきます。
<作業工程>
設計、開発、テスト、運用保守
※※こちらの案件は現在募集を終了しております※※
マルチベンダー開発体制の一員として、新規導入システムや既存システムのエンハンス、障害対応を行っていただきます。
<作業工程>
設計、開発、テスト、運用保守
※※こちらの案件は現在募集を終了しております※※
- 単価/月
- 67~77万円
- 勤務地
- 東京都,品川区
小売流通業界の大手企業が自社開発するEC管理システムのプロダクトグロースとして、
GAアクセスログを中心としたデータ集計/分析および
分析結果に基づいたプロダクトの機能提案(設計)を担当していただきます。
また、データのモニタリングを通じたプロダクトの継続的なグロース改善や、
プロダクトのフェーズに応じてデータ分析基盤の整備、
より高度な分析機能の提供などプロダクトに関わるデータ分析業務全体に対して、広い範囲でご活躍していただきます。
<対応工程>
・GAアクセスログを中心としたデータ集計/分析
・上記分析結果に基づいたプロダクトの機能提案(設計)
・データのモニタリング環境の整備、継続的なグロース改善
・データ分析基盤の整備
・高度なデータ分析機能の立案/提供
<就業時間>
9:00-18:00
※※こちらの案件は現在募集を終了しております※※
GAアクセスログを中心としたデータ集計/分析および
分析結果に基づいたプロダクトの機能提案(設計)を担当していただきます。
また、データのモニタリングを通じたプロダクトの継続的なグロース改善や、
プロダクトのフェーズに応じてデータ分析基盤の整備、
より高度な分析機能の提供などプロダクトに関わるデータ分析業務全体に対して、広い範囲でご活躍していただきます。
<対応工程>
・GAアクセスログを中心としたデータ集計/分析
・上記分析結果に基づいたプロダクトの機能提案(設計)
・データのモニタリング環境の整備、継続的なグロース改善
・データ分析基盤の整備
・高度なデータ分析機能の立案/提供
<就業時間>
9:00-18:00
※※こちらの案件は現在募集を終了しております※※
- 単価/月
- 50~60万円
- 勤務地
- 東京都,品川区
Microsoft Fabricの構築案件にご参画いただきます。
<業務内容>
・Data Factory(パイプライン、データフロー)のデータ連携処理設計、製造、単体テスト
・データ蓄積処理、データ加工処理、データ結合処理、スケジュール設定
・GUIツールベースでの開発
・方式の検討
※SQLによるストアド開発は行いません。
※※こちらの案件は現在募集を終了しております※※
<業務内容>
・Data Factory(パイプライン、データフロー)のデータ連携処理設計、製造、単体テスト
・データ蓄積処理、データ加工処理、データ結合処理、スケジュール設定
・GUIツールベースでの開発
・方式の検討
※SQLによるストアド開発は行いません。
※※こちらの案件は現在募集を終了しております※※
- 単価/月
- 60~72万円
- 勤務地
- 東京都,渋谷区
ダッシュボードの設計・構築を進めていただきます。
開発チームとの調整業務、BigQueryなどを活用したデータ収集やBIツールの設定作業等をお任せする想定です。
仮説・検証を繰り返し、アジャイル開発で進めていきます。
<開発環境>
・工程:要件定義~
・ツール・言語等:Lookerstudio、Trocco、BiqQuery、SQL等
<就業時間>
10:00-19:00
<服装>
オフィスカジュアル
※※こちらの案件は現在募集を終了しております※※
開発チームとの調整業務、BigQueryなどを活用したデータ収集やBIツールの設定作業等をお任せする想定です。
仮説・検証を繰り返し、アジャイル開発で進めていきます。
<開発環境>
・工程:要件定義~
・ツール・言語等:Lookerstudio、Trocco、BiqQuery、SQL等
<就業時間>
10:00-19:00
<服装>
オフィスカジュアル
※※こちらの案件は現在募集を終了しております※※
- 単価/月
- 68~85万円
- 勤務地
- 東京都,中央区
プロセス系製造業の顧客にて、データ基盤構築案件を推進中です。
現在、基本構想としてアーキテクチャの概要を検討中で、今後 要件定義を開始し稼働させる計画です。
製品構成はSnowflake+Talend ETL+AWS(DATAOPTERYX)です。
データパイプラインとしては、今年度は基幹システムからのデータ連携、
原価管理系ユースケースの為のデータ連携機能を開発予定です。
上記案件にご参画いただき、
基幹システムからのデータ連携・加工機能の要件定義をご担当いただきます。
<服装>
オフィスカジュアル
※※こちらの案件は現在募集を終了しております※※
現在、基本構想としてアーキテクチャの概要を検討中で、今後 要件定義を開始し稼働させる計画です。
製品構成はSnowflake+Talend ETL+AWS(DATAOPTERYX)です。
データパイプラインとしては、今年度は基幹システムからのデータ連携、
原価管理系ユースケースの為のデータ連携機能を開発予定です。
上記案件にご参画いただき、
基幹システムからのデータ連携・加工機能の要件定義をご担当いただきます。
<服装>
オフィスカジュアル
※※こちらの案件は現在募集を終了しております※※
- 単価/月
- 58~68万円
- 勤務地
- 東京都,千代田区
Databricks環境におけるバッチの設計、開発、テストをご対応いただきます。
<開発環境>
Python, SQL, Databricks, Apache Spark, AWS Glue, Amazon EMR, AWS, Azure, GCP
<担当工程>
設計~開発~テスト
※※こちらの案件は現在募集を終了しております※※
<開発環境>
Python, SQL, Databricks, Apache Spark, AWS Glue, Amazon EMR, AWS, Azure, GCP
<担当工程>
設計~開発~テスト
※※こちらの案件は現在募集を終了しております※※
- 単価/月
- 50~60万円
- 勤務地
- 東京都,港区,中央区
データ変換ツール作成およびBIダッシュボード開発支援をお任せいたします。
<業務内容>
・Pythonでの変換ツール作成
・Snowflakeでのテーブル作成
・Tableau Prepでのフロー、データソース作成
・Tableau Desktopでのダッシュボード、ビュー作成
・各種ドキュメント作成(設計書、手順書)
<開発環境>
Python, Snowflake, Tableau Prep, Tableau Desktop
<担当工程>
要件定義~設計~開発~テスト
※※こちらの案件は現在募集を終了しております※※
<業務内容>
・Pythonでの変換ツール作成
・Snowflakeでのテーブル作成
・Tableau Prepでのフロー、データソース作成
・Tableau Desktopでのダッシュボード、ビュー作成
・各種ドキュメント作成(設計書、手順書)
<開発環境>
Python, Snowflake, Tableau Prep, Tableau Desktop
<担当工程>
要件定義~設計~開発~テスト
※※こちらの案件は現在募集を終了しております※※