仕事内容
■データ収集
□パートナー・クライアントとのデータの受け渡しをするためのインテグレーションシステムの構築
□Webクローリングやスクレイピングなどの、Webから情報を収集・活用するシステムの構築
年収・労働条件・採用方法をご覧いただくには会員登録が必要です
開発環境
クラウド:AWS
Data Platform:Python, Dagster, dbt, Snowflake, Amazon Athena
Infrustructure:Amazon EKS(Kubernetes), Terraform, Prometheus, Grafana
DevOps:Bazel, GitHub, GitHub Actions
求めるスキル
必須スキル/経験
■下記の項目を1つ以上満たす方
□データベース、データウェアハウスを使ったデータ基盤の開発経験
□データ処理パイプラインの開発経験
□Apache Hadoop、Sparkなどの分散データ処理の開発経験
■AWSやGCP、Azureなどのクラウドにおける開発経験
■コンピューターサイエンスの学士号、もしくはそれに相当する知識と業務経験
■Java、 Kotlin、Python、C++、Golang などの1つ以上のプログラミング言語でのソフトウェア開発の経験
■新しい技術、ツール、プログラミング言語を必要に応じて学ぶ能力と意欲
■臨機応変に状況に対応できる柔軟性
歓迎スキル/経験
□1日あたり数GB~数TB規模のデータ処理を行うシステムの開発、運用経験
□Apache Airflow等のデータ処理ワークフローソフトウェアを使ったデータパイプライン処理の開発、運用経験
□Apache Sparkなどの分散処理フレームワークを用いたデータ処理の開発経験
□Kubernetesなどのコンテナ関連技術を用いたシステムの開発経験
□検索やレコメンド、ターゲティング広告など、データがコアであるシステムのバックエンド開発経験
□Apache Kafkaなどのメッセージキューを用いた開発経験
□機械学習のモデルの作成と運用経験
□WebスクレイピングなどのWebから情報を収集するシステムの開発経験
【以下ソフトウェアエンジニア共通】
□アジャイルな手法を用いたチーム開発の経験
□コンピュータ サイエンス、人工知能、機械学習または関連する技術分野の修士号または博士号
□プロダクトマネジメントの経験
□次の分野に携わった経験:ウェブ アプリケーション開発、Unix / Linux環境、モバイルアプリの開発、分散および並列システム、機械学習、情報検索、自然言語処理、ネットワーキング、大規模ソフトウェア システムの開発、セキュリティ ソフトウェア開発
□クラウド(GCP、AWS、Azureなど)を用いた開発経験
□捉えどころのない複雑な問題に対してソリューションを設計・開発し、高い影響力を示した経験
求める人物像
フライウィールのミッションとバリューに共感できること
仕事の魅力
大規模データを安定的に処理するデータインフラ環境構築の経験ができます。
現在だけでなく将来的にConataを利用する数多くのクライアントに対して、スケーラブルかつ効率的なプロダクトや機能の開発に携われます。
データの進化にも対応できるように拡張性を持たせたデータエンジニアリングの設計、構築に携わることができます。
ビッグテックで開発・データサイエンスの業務に携わってきた方と密に連携しながら働くこともでき、技術的な成長ができ一緒に互いを高め合える環境です。