SQLの案件・求人一覧
公開案件数 1526 件(04/30更新)
73 件中 1−20を表示
- 単価/月
- 50~60万円
- 勤務地
- 東京都,品川区
<業務概要>
開発・運用プロダクトのデータ活用を主務とするエンジニアとして、
AI活用を前提としたダッシュボードの構築運用、管理、各種ログデータ分析を行い課題解決を支援していただきます。
・BI構築、データ取得、ETL処理、パイプライン構築をアジャイルプロジェクトにて実行
・プロダクトや各部署に対し、AI活用を前提としたダッシュボードやログ分析結果を提供
・外部データの取り込みや、新機能・新サービスの業務プロセスへの落とし込み
<勤務時間>
9:30~18:30
開発・運用プロダクトのデータ活用を主務とするエンジニアとして、
AI活用を前提としたダッシュボードの構築運用、管理、各種ログデータ分析を行い課題解決を支援していただきます。
・BI構築、データ取得、ETL処理、パイプライン構築をアジャイルプロジェクトにて実行
・プロダクトや各部署に対し、AI活用を前提としたダッシュボードやログ分析結果を提供
・外部データの取り込みや、新機能・新サービスの業務プロセスへの落とし込み
<勤務時間>
9:30~18:30
- 単価/月
- 45~56万円
- 勤務地
- 東京都,品川区,横浜市,西区
お客様の自動化要望に沿って、自動化ツールの作成をチーム体制で実施いただきます。
主にインフラ側での自動化がメインとなります。
主にインフラ側での自動化がメインとなります。
- 単価/月
- 55~70万円
- 勤務地
- 東京都,千代田区
大手旅行サイトのデータ基盤開発を行って頂きます。
<業務内容>
・Pythonを用いたデータ分析基盤の作成、テスト
・データの提供プラットフォームへのパイプライン構築
・GCP上での機能追加・改善
・本番環境上での安定運用と障害対応
<基本時間>
10:00~19:00
<業務内容>
・Pythonを用いたデータ分析基盤の作成、テスト
・データの提供プラットフォームへのパイプライン構築
・GCP上での機能追加・改善
・本番環境上での安定運用と障害対応
<基本時間>
10:00~19:00
- 単価/月
- 45~70万円
- 勤務地
- 東京都,千代田区
データ分析基盤の追加開発や運用保守を行っていただく案件です。
<業務内容>(上から優先度が高い順)
1.詳細設計、実装
2.単体・結合テスト項目作成とテスト実施
単体テスト、結合テスト、システムテスト
3.運用保守
4.バッチ処理仕様調整
<作業時間>
9:30~18:30
<業務内容>(上から優先度が高い順)
1.詳細設計、実装
2.単体・結合テスト項目作成とテスト実施
単体テスト、結合テスト、システムテスト
3.運用保守
4.バッチ処理仕様調整
<作業時間>
9:30~18:30
- 単価/月
- 85~95万円
- 勤務地
- 東京都,千代田区
大手インターネット企業におけるMLエンジニアを募集しています。
<業務内容>
・全社データ分析基盤のアーキテクチャ設計・構築
・データレイク / DWH(BigQuery)基盤の設計・運用
・ETL / ELTパイプラインの設計・開発
・クロスクラウドデータ連携(OCI → GCP)の設計・実装
・データモデリング(OBT / mart)の設計
・Terraformを用いたIaCによるインフラ管理
・データ基盤に関わるネットワーク・セキュリティ設計(IAM / VPC / データガバナンス)
・AIデータアクセス基盤(MCP / Agent)の構築"
<環境>
-Cloud
Google Cloud(BigQuery / GCS / STS / VPC-SC / IAM)
Oracle Cloud(Exadata / Data Flow)
-Data
SQL / Python
Apache Spark / Apache Beam
Parquet / Iceberg
dbt core
-Infra / DevOps
Terraform
GitHub
-AI / Data Access
MCP Server
Agent / RAG
<業務内容>
・全社データ分析基盤のアーキテクチャ設計・構築
・データレイク / DWH(BigQuery)基盤の設計・運用
・ETL / ELTパイプラインの設計・開発
・クロスクラウドデータ連携(OCI → GCP)の設計・実装
・データモデリング(OBT / mart)の設計
・Terraformを用いたIaCによるインフラ管理
・データ基盤に関わるネットワーク・セキュリティ設計(IAM / VPC / データガバナンス)
・AIデータアクセス基盤(MCP / Agent)の構築"
<環境>
-Cloud
Google Cloud(BigQuery / GCS / STS / VPC-SC / IAM)
Oracle Cloud(Exadata / Data Flow)
-Data
SQL / Python
Apache Spark / Apache Beam
Parquet / Iceberg
dbt core
-Infra / DevOps
Terraform
GitHub
-AI / Data Access
MCP Server
Agent / RAG
- 単価/月
- 56~66万円
- 勤務地
- 東京都,新宿区
リユースサイト運営会社向けに、ビジネスにおける意思決定をデータ利活用を通じてご支援いただきます。
特に経営層や事業担当者を中心に、BI環境構築や新規事業・施策の効果測定・原因分析・改善提案まで、
幅広くご担当いただくことが可能です。
またご希望に応じて、事業側を巻き込んで施策推進もご担当いただくことも可能です。
特に経営層や事業担当者を中心に、BI環境構築や新規事業・施策の効果測定・原因分析・改善提案まで、
幅広くご担当いただくことが可能です。
またご希望に応じて、事業側を巻き込んで施策推進もご担当いただくことも可能です。
- 単価/月
- 85~95万円
- 勤務地
- 東京都,品川区
大手自動車販売会社の社内業務システムにおけるRubyエンジニアとして参画をしていただきます。
少数精鋭のチームに所属して頂き、スクラム開発を通じて継続的なプロセス改善にも取り組んで頂きます。
バックエンド、フロント、インフラなどフルスタックに活躍いただきます。
<開発環境>
・使用言語:Ruby、Python、Dart
・FW:RoR、Flutter
・インフラ:AWS、GCP
・開発手法:スクラム(1週間スプリント)
<就業時間>
9:30~18:30
少数精鋭のチームに所属して頂き、スクラム開発を通じて継続的なプロセス改善にも取り組んで頂きます。
バックエンド、フロント、インフラなどフルスタックに活躍いただきます。
<開発環境>
・使用言語:Ruby、Python、Dart
・FW:RoR、Flutter
・インフラ:AWS、GCP
・開発手法:スクラム(1週間スプリント)
<就業時間>
9:30~18:30
- 単価/月
- 50~60万円
- 勤務地
- 東京都,千代田区
大手求人掲載サイトのバッチプロジェクトにおいて、現行システムのJava1.5からKotlinへの移行とリファクタリングによるパフォーマンス向上を行うプロジェクトに携わって頂きます。
本プロジェクトは4つのフェーズに分かれ、現在はフェーズ3に取り組んでいます。
具体的な作業内容は、詳細設計、Kotlinでの実装、テスト工程です。
※プロジェクトのリリースは2024年5月予定
フェーズ3完了後、フェーズ4へのご参加も検討されています。
その場合、最長で2025年10月までご協力をお願いする可能性もあります。
<基本時間>
10:00~19:00
<服装>
私服
本プロジェクトは4つのフェーズに分かれ、現在はフェーズ3に取り組んでいます。
具体的な作業内容は、詳細設計、Kotlinでの実装、テスト工程です。
※プロジェクトのリリースは2024年5月予定
フェーズ3完了後、フェーズ4へのご参加も検討されています。
その場合、最長で2025年10月までご協力をお願いする可能性もあります。
<基本時間>
10:00~19:00
<服装>
私服
- 単価/月
- 65~75万円
- 勤務地
- 東京都,西東京市
消費者パネルのデータを活用し、小売ID-POSから消費者のプロフィールを推計するシステムのGenometrics snowflake化対応をしております。
<業務内容>
システム最適化(snowflake化)の一環として現状EMRで動作している処理をsnowflakeに置き換え中です。
提供系システム全般(一部既存メンバーが手を付けていた)の調査・開発・テスト・検証と社内系を含めた全体テストを担当していただきます。
<服装>
オフィスカジュアル
<業務内容>
システム最適化(snowflake化)の一環として現状EMRで動作している処理をsnowflakeに置き換え中です。
提供系システム全般(一部既存メンバーが手を付けていた)の調査・開発・テスト・検証と社内系を含めた全体テストを担当していただきます。
<服装>
オフィスカジュアル
- 単価/月
- 50~55万円
- 勤務地
- 東京都,新宿区
web広告業務において実績からのダッシュボードの作成と、ダッシュボードの運用補助ツール開発
・運用中システムの運用保守
・Google Cloud Platformによるwebシステムを中心とした開発
<基本時間>
9:30 ~ 18:30
・運用中システムの運用保守
・Google Cloud Platformによるwebシステムを中心とした開発
<基本時間>
9:30 ~ 18:30
- 単価/月
- 50~60万円
- 勤務地
- 東京都,千代田区
ECサイトをグローバル展開する企業にて、
商品情報の品質向上や最新化を目的としたデータ抽出・加工ツールの運用保守・追加改修をお任せ致します。
クライアント要望に応じ、PythonやSQL、AWSサービスを使った機能改修・運用を主にご担当いただきます。
<基本時間>
9:30~18:30
商品情報の品質向上や最新化を目的としたデータ抽出・加工ツールの運用保守・追加改修をお任せ致します。
クライアント要望に応じ、PythonやSQL、AWSサービスを使った機能改修・運用を主にご担当いただきます。
<基本時間>
9:30~18:30
- 単価/月
- 45~56万円
- 勤務地
- 東京都,港区
社内システム開発のリードエンジニアを募集する案件となります。
<基本時間>
10:00~19:00
<基本時間>
10:00~19:00
- 単価/月
- 48~58万円
- 勤務地
- 東京都,豊島区
保険業界のクライアントにおけるデータ連携基盤システムのETL開発、導入をお任せ致します。
・ETLジョブの機能テスト、性能テスト、データ移行テスト、SQLチューニング、本番システム導入
※コアメンバーとして顧客折衝(作業の調整、仕様の確認、調査等の作業)もご対応頂く想定です。
・ETLジョブの機能テスト、性能テスト、データ移行テスト、SQLチューニング、本番システム導入
※コアメンバーとして顧客折衝(作業の調整、仕様の確認、調査等の作業)もご対応頂く想定です。
- 単価/月
- 53~63万円
- 勤務地
- 東京都,渋谷区
クラウドサービスのセキュリティ評価情報を提供するSaaSのインフラ整備・運用保守を行っていただきます。
<使用言語>
- インフラ: Google Cloud, Terraform, Kubernetes
- データベース: Postgres, Firestore
- バックエンド: Scala/PlayFramework, Python, Go
- フロントエンド: React, TypeScript
- データ基盤: BigQuery, Airbyte, dbt, Elementary, Lightdash
- ツール: GitHub, Slack, Notion, Figma, Datadog, ChatGPT, Claude Code
<勤務時間>
10:00-19:00
<リモートについて>
オンサイト日が週に3日定まっており、キャッチアップ期間以降は月・火・金のうち最低週1日オンサイトできる方を希望します。
※参画中のメンバーは金曜オンサイトが多いです
<使用言語>
- インフラ: Google Cloud, Terraform, Kubernetes
- データベース: Postgres, Firestore
- バックエンド: Scala/PlayFramework, Python, Go
- フロントエンド: React, TypeScript
- データ基盤: BigQuery, Airbyte, dbt, Elementary, Lightdash
- ツール: GitHub, Slack, Notion, Figma, Datadog, ChatGPT, Claude Code
<勤務時間>
10:00-19:00
<リモートについて>
オンサイト日が週に3日定まっており、キャッチアップ期間以降は月・火・金のうち最低週1日オンサイトできる方を希望します。
※参画中のメンバーは金曜オンサイトが多いです
- 単価/月
- 90~100万円
- 勤務地
- 東京都,港区
マネジメント企業のデータ基盤チームにてプロダクトチームと連携しながら、
データドリブンな意思決定を支える基盤づくりを推進していただける方を募集しています。
<業務内容>
・データパイプラインの設計・実装・運用
・データマート/データモデルの設計・構築
・既存パイプラインのリファクタリング・パフォーマンス改善
・運用を見据えた実装方針の提案・ドキュメント整備
・障害対応・データ品質モニタリングの仕組みづくり
・プロダクトチームとの要件調整・仕様策定
<データ基盤の詳細>
概要: 社内プロダクトデータと、SNSプラットフォームデータを収集し、プロダクトへデータを連携する統合データ基盤
主な用途: クリエイターキャスティング、プロモーションレポーティング、機械学習用データセット提供
ユーザー: インフルエンサー、社内営業、データアナリスト
<技術環境>
クラウド: GCP (Terraform)
DWH: BigQuery
ETL/ELT: Cloud Composer (Airflow) / Apache Beam / Dataflow
言語: Python
BIツール: Tableau / Redash
バージョン管理: GitHub
CI/CD: GitHub Actions
監視: Cloud Monitoring
<就業時間>
10:00-19:00
※※こちらの案件は現在募集を終了しております※※
データドリブンな意思決定を支える基盤づくりを推進していただける方を募集しています。
<業務内容>
・データパイプラインの設計・実装・運用
・データマート/データモデルの設計・構築
・既存パイプラインのリファクタリング・パフォーマンス改善
・運用を見据えた実装方針の提案・ドキュメント整備
・障害対応・データ品質モニタリングの仕組みづくり
・プロダクトチームとの要件調整・仕様策定
<データ基盤の詳細>
概要: 社内プロダクトデータと、SNSプラットフォームデータを収集し、プロダクトへデータを連携する統合データ基盤
主な用途: クリエイターキャスティング、プロモーションレポーティング、機械学習用データセット提供
ユーザー: インフルエンサー、社内営業、データアナリスト
<技術環境>
クラウド: GCP (Terraform)
DWH: BigQuery
ETL/ELT: Cloud Composer (Airflow) / Apache Beam / Dataflow
言語: Python
BIツール: Tableau / Redash
バージョン管理: GitHub
CI/CD: GitHub Actions
監視: Cloud Monitoring
<就業時間>
10:00-19:00
※※こちらの案件は現在募集を終了しております※※
- 単価/月
- 91~111万円
- 勤務地
- 東京都,千代田区
データ分析基盤チームにご参画いただきます。
<業務内容>
・新しく立ち上げるサービスのリリースに向けてデータの収集、加工、可視化対応を行う
・既存のデータ抽出の移行や統合対応
・マーケティング施策のための顧客データ基盤構築対応
・仕様策定
・要求の明確化
・エンジニアのチーミング対応
<就業時間>
9:00~18:00 ※フレックス制度あり(コアタイム10:00~15:00)
※※こちらの案件は現在募集を終了しております※※
<業務内容>
・新しく立ち上げるサービスのリリースに向けてデータの収集、加工、可視化対応を行う
・既存のデータ抽出の移行や統合対応
・マーケティング施策のための顧客データ基盤構築対応
・仕様策定
・要求の明確化
・エンジニアのチーミング対応
<就業時間>
9:00~18:00 ※フレックス制度あり(コアタイム10:00~15:00)
※※こちらの案件は現在募集を終了しております※※
- 単価/月
- 58~68万円
- 勤務地
- 東京都,渋谷区
企業のセキュリティ評価情報を提供するSaaSの開発・保守業務を担っていただきます。
既存アーキテクチャの移行(React SPA / Scala API → ReactRouter SSR)をメインでお願いする予定です。
業務やプロダクトの拡大に伴い、エンジニアとして開発をサポートいただける方を募集しています。
<技術スタック>
- バックエンド: TypeScript, 一部Scala
※React Router(Framework mode)でSSRの構成としています
※ScalaのAPIから移行しており将来的にScalaの部分はなくなる見込みです
- フロントエンド: React, TypeScript
- インフラ: Google Cloud, Terraform
- データベース: Postgres, BigQuery
- AIコーディング: Claude Code, GitHub Copilot
- ツール: GitHub, Slack, Notion, Figma, Datadog, Gemini
<就業時間>
10:00-19:00
※※こちらの案件は現在募集を終了しております※※
既存アーキテクチャの移行(React SPA / Scala API → ReactRouter SSR)をメインでお願いする予定です。
業務やプロダクトの拡大に伴い、エンジニアとして開発をサポートいただける方を募集しています。
<技術スタック>
- バックエンド: TypeScript, 一部Scala
※React Router(Framework mode)でSSRの構成としています
※ScalaのAPIから移行しており将来的にScalaの部分はなくなる見込みです
- フロントエンド: React, TypeScript
- インフラ: Google Cloud, Terraform
- データベース: Postgres, BigQuery
- AIコーディング: Claude Code, GitHub Copilot
- ツール: GitHub, Slack, Notion, Figma, Datadog, Gemini
<就業時間>
10:00-19:00
※※こちらの案件は現在募集を終了しております※※
- 単価/月
- 67~77万円
- 勤務地
- 東京都,港区
データエンジニアとして、以下業務をご対応いただきます。
・クライアントの業務要件・課題を理解し、Snowflakeを駆使したソリューションを提案
・Snowflakeを活用したデータウェアハウスの設計・開発・運用
・会計データを中心としたデータウェアハウスおよびデータモデルの設計、最適化
・ETLパイプラインの構築・保守
・SQLデータベースやERPなど複数ソースからのデータ統合・変換
・データ品質管理、モニタリングシステムの導入
・Snowflakeのパフォーマンスチューニング
・プロジェクト進行におけるデータウェアハウス環境におけるクライアントとのコミュニケーション、課題解決のリード
・グローバルメンバーと協力し、プロジェクト目標の達成に向けてタスクの遂行
※※こちらの案件は現在募集を終了しております※※
・クライアントの業務要件・課題を理解し、Snowflakeを駆使したソリューションを提案
・Snowflakeを活用したデータウェアハウスの設計・開発・運用
・会計データを中心としたデータウェアハウスおよびデータモデルの設計、最適化
・ETLパイプラインの構築・保守
・SQLデータベースやERPなど複数ソースからのデータ統合・変換
・データ品質管理、モニタリングシステムの導入
・Snowflakeのパフォーマンスチューニング
・プロジェクト進行におけるデータウェアハウス環境におけるクライアントとのコミュニケーション、課題解決のリード
・グローバルメンバーと協力し、プロジェクト目標の達成に向けてタスクの遂行
※※こちらの案件は現在募集を終了しております※※
- 単価/月
- 50~60万円
- 勤務地
- 埼玉県
自動車メーカー向け生成AI(RAG)基盤開発支援におけるデータ整備・検証をご対応いただきます。
<具体的な作業内容>
・PDF/Word/Excel/Webページなどからのテキスト抽出・正規化
・OCRによるスキャン文書の文字データ抽出
・メタデータ付与、タグ付け、分類などのデータ前処理
・RAGデータ構造の整合性確認、品質チェック
・生成結果(LLM出力)との照合・品質レビュー補助
<技術環境>
・環境:RAG/LLM基盤(社内ナレッジ連携型)
・言語等 :Python、SQL、OCRツール(Tesseract/Google Vision APIなど)
<備考>
月一回ほど和光市・宇都宮に出張の可能性あり
<就業時間>
9:00-18:00
※※こちらの案件は現在募集を終了しております※※
<具体的な作業内容>
・PDF/Word/Excel/Webページなどからのテキスト抽出・正規化
・OCRによるスキャン文書の文字データ抽出
・メタデータ付与、タグ付け、分類などのデータ前処理
・RAGデータ構造の整合性確認、品質チェック
・生成結果(LLM出力)との照合・品質レビュー補助
<技術環境>
・環境:RAG/LLM基盤(社内ナレッジ連携型)
・言語等 :Python、SQL、OCRツール(Tesseract/Google Vision APIなど)
<備考>
月一回ほど和光市・宇都宮に出張の可能性あり
<就業時間>
9:00-18:00
※※こちらの案件は現在募集を終了しております※※
- 単価/月
- 47~57万円
- 勤務地
- 東京都,中野区
企画構想(要件定義)に基づき、外部設計(基本設計)への落とし込みから
内部設計(詳細設計)、製造、単体、結合試験、総合試験、ユーザ受入試験、画面側の開発は
生成AIまたはオフショアで対応する可能性がございます。
開発手法はウォーターフォールです。
<開発環境>
Java(Springboot)、SQL(PL/SQL)、Linuxコマンド、Shell
<担当フェーズ>
要件定義~ユーザ受入試験
※※こちらの案件は現在募集を終了しております※※
内部設計(詳細設計)、製造、単体、結合試験、総合試験、ユーザ受入試験、画面側の開発は
生成AIまたはオフショアで対応する可能性がございます。
開発手法はウォーターフォールです。
<開発環境>
Java(Springboot)、SQL(PL/SQL)、Linuxコマンド、Shell
<担当フェーズ>
要件定義~ユーザ受入試験
※※こちらの案件は現在募集を終了しております※※