フリーランスエンジニア向けIT案件・求人検索サイト【フリーランスジョブ】

東京都

WEBサービス

業務委託

140時間 ~ 180時間

実装
テスト
運用・保守
案件詳細

本サービスはデータの収集、処理、分析、可視化、そしてソリューション提供までを包括する多様なデータ活用モジュールを提供しています。ビッグテック企業で培った情報検索技術を活かし、情報発見の精度向上、多様な検索・レコメンドエンジン、需要予測、生成AIにおける知識検索・情報取得(RAG)など、クラウドサービスとオープンソースソフトウェア(OSS)を最大限に活用し、最先端技術を駆使したインフラ構築、プロダクト開発・販売に挑戦しています。さらに、2024年6月に新機能をリリースしまし、高度な情報検索技術と生成AI技術を駆使し、企業内に眠る多種多様なデータを誰もが簡単に活用できるよう支援するプロダクトでございます。プロダクト開発本部はフライウィールにて共通的に利用されるインフラストラクチャや、データの課題を解決するプロダクトの企画・開発・運用を行っています。その中でデータエンジニアは、データサイエンティストや他のエンジニアと協力しながら、データ基盤を構築・改善して、大事なデータを守りながら、フライウィール全体およびクライアントのデータ活用を推進します。プロフェッショナルサービスで得られた知見を基に、セキュリティレベルの担保やスムーズなデータ処理を実現しています。

必須要件

・下記の項目を1つ以上満たす方 1.データベース、データウェアハウスを使ったデータ基盤の開発経験 2.データ処理パイプラインの開発経験 3.Apache Hadoop、Sparkなどの分散データ処理の開発経験 ・AWSやGCP、Azureなどのクラウドにおける開発経験 ・コンピューターサイエンスの学士号、もしくはそれに相当する知識と業務経験 ・Java、 Kotlin、Python、C++、Golang などの1つ以上のプログラミング言語でのソフトウェア開発の経験 ・新しい技術、ツール、プログラミング言語を必要に応じて学ぶ能力と意欲 ・臨機応変に状況に対応できる柔軟性

尚可要件

・1日あたり数GB~数TB規模のデータ処理を行うシステムの開発、運用経験 ・Apache Airflow等のデータ処理ワークフローソフトウェアを使ったデータパイプライン処理の開発、運用経験 ・Apache Sparkなどの分散処理フレームワークを用いたデータ処理の開発経験 ・Kubernetesなどのコンテナ関連技術を用いたシステムの開発経験 ・検索やレコメンド、ターゲティング広告など、データがコアであるシステムのバックエンド開発経験 ・Apache Kafkaなどのメッセージキューを用いた開発経験 ・機械学習のモデルの作成と運用経験 ・WebスクレイピングなどのWebから情報を収集するシステムの開発経験

精算基準時間

140時間 ~ 180時間

参画時期

2024/10

出社頻度

出社リモート併用

面談回数

2回

商談方法

対面

外国籍可否

外国籍OK

PC貸与

未設定

服装規定

未設定

最終更新日時

2024/10/23 10:00:00

この案件について相談する

具体的な報酬単価・企業名・労働条件につきましては、
お問合せいただいたのちにご説明させていただきます。