Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 307 résultats.
Offre d'emploi
Data Engineer - GCP - CDI
Espritek
Publiée le
BigQuery
Google Cloud Platform (GCP)
3 ans
50k-65k €
140 €
Ivry-sur-Seine, Île-de-France
FnacDarty est le leader européen du retail spécialisé omnicanal, avec des marques iconiques telles que Fnac, Darty, Nature et Découverte, WeFix, engagé pour un choix éclairé et une consommation durable. Vous êtes passionné par les outils BI et la data ? Rejoignez la Data & AI Factory de FnacDarty, entité qui regroupe les compétences fonctionnelles et techniques qui contribue au développement de l’activité grâce à la richesse de nos données et aux technologies avancées d’exploitation. L’entreprise recherche un TechLead Data pour intervenir au sein de la squad Exploitation (Améliorer le pilotage opérationnel des magasins, optimiser les processus et soutenir les décision terrain) Description La mission nécessite un profil capable d’assurer à la fois : • un rôle de leadership technique, garant de la cohérence des choix d’architecture, de la qualité des développements et de l’industrialisation des solutions • un rôle opérationnel de développeur, pleinement impliqué dans la conception et la réalisation des pipelines, modèles et orchestrations. Vous interviendrez principalement sur les technologies GCP (BigQuery, Dataform, Cloud Composer,…) et contribuerez également, dans une moindre mesure, à la maintenance et à l’évolution de flux existants sous Talend. En binôme avec le PO, vous participerez au cadrage des besoins, à la structuration du backlog, à la définition des solutions techniques et à la sécurisation de la delivery. Missions principales • Participer au cadrage fonctionnel avec le PO et les parties prenantes métier pour comprendre les impacts business des données et ceux afin de réaliser des conceptions pertinentes et alignées avec les objectifs stratégiques. • Concevoir et développer des pipelines de données robustes et scalables en utilisant les services de Google Cloud Platform (BigQuery, DataForm, Dataflow, Pub/Sub, CloudComposer). Vous serez au cœur de la construction d’une infrastructure de données moderne et performante. • Contribuer ponctuellement aux flux existants sous Talend. • Assure la maintenance corrective ou évolutive • Améliorer la performance et la scalabilité des solutions existantes pour répondre aux besoins stratégiques de l’entreprise. • Maintenir une documentation technique précise et complète sur les processus et les solutions implémentés. • Mettre en place des bonnes pratiques de développement : tests, documentation, revue de code, versioning. • Réalise la recette technique et participe à animer la recette fonctionnelle avec les utilisateurs et le PO • Mettre en place et gérer des systèmes de monitoring et d’alerting pour assurer une supervision proactive des pipelines et systèmes de données, garantissant leur fiabilité et leur disponibilité. • Support au déploiement • S’assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l’équipe • Assurer une veille technologique sur les outils GCP et les frameworks data. Livrables • Conceptions techniques des modèles, pipelines et orchestrations GCP. • Développements et industrialisation des traitements (BigQuery, Dataform, Cloud Composer). • Documentation technique à jour (architecture, transformations, procédures). • Contributions au cadrage et à la structuration du backlog avec le PO. • Mise en place ou renforcement des bonnes pratiques DataOps (tests, CI/CD, monitoring). • Assurer la TMA des pipelines existants (maintenance corrective et évolutive, résolution d’incidents, mises à jour techniques). Compétences Compétences techniques requises : • Langages : Maîtrise de SQL et connaissance de langages comme Python ou Java pour les traitements de données. • GCP : Expérience sur les outils BigQuery, DataForm, CoudComposer/AirFlow, Pub/Sub, Dataflow et d’autres services GCP liés aux données. • Talend : Connaissances et pratiques dans la conception et la gestion des workflows • Outils : Familiarité avec des outils de CI/CD comme Git, Jenkins Compétences transversales : • Esprit analytique et rigueur. • Leadership technique, pédagogie, capacité à embarquer. • Approche orientée résolution de problèmes et fiabilité opérationnelle. • Capacité à gérer des priorités multiples dans un environnement dynamique. • Capacité à travailler en équipe et à collaborer avec des parties prenantes variées. • Autonomie et force de proposition sur les solutions techniques. • Bonne communication et pédagogie pour expliquer les concepts techniques aux non-spécialistes. • Capacité à comprendre les besoins pour proposer aux métiers les solutions leur permettant d’utiliser efficacement les données et de prendre les bonnes décisions
Mission freelance
Data Engineer Senior GCP
TEOLIA CONSULTING
Publiée le
Apache Airflow
Architecture
BigQuery
3 mois
Paris, France
Nous recherchons un Data Engineer Senior pour intervenir au sein d’une plateforme Data stratégique dans un environnement numérique à forte volumétrie. Vous intégrerez une équipe composée d’un Product Owner, d’un Data Steward et de Data Engineers, au cœur d’une architecture cloud moderne orientée scalabilité, gouvernance et performance. Vos missions : Participer aux phases de conception et de planification des développements data Concevoir et maintenir des pipelines data robustes et scalables Collecter et centraliser des sources de données hétérogènes Structurer et optimiser le stockage des données Mettre en place des infrastructures scalables sur Google Cloud Platform Construire et maintenir les workflows CI/CD Garantir la sécurité, la conformité et la stabilité des environnements Contribuer aux initiatives de gouvernance des données Documenter les développements et partager les bonnes pratiques Accompagner les équipes internes dans l’exploitation des données Environnement technique : Google Cloud Platform (BigQuery, Dataproc, PubSub, Cloud Storage) Dataplex Universal Catalog Python SQL Spark Airflow Delta Lake Terraform / Terragrunt Gitlab / Gitlab CI/CD Méthodologies Agile (Scrum ou Kanban) Mission en environnement structuré avec forte exigence de qualité, de performance et de conformité réglementaire.
Offre d'emploi
Data Engineer Senior Databricks / IA (H/F)
WINSIDE Technology
Publiée le
Azure Data Factory
Databricks
IA
40k-50k €
Lille, Hauts-de-France
Démarrage : Avril 2026 Localisation : Lille (59800), modèle hybride Durée : mission longue (extensions prévues 2026–2027) 🎯 Contexte de la mission Un acteur majeur du secteur Retail recherche un Data Engineer très senior pour renforcer son pôle Data & IA. Le consultant interviendra sur des projets stratégiques mêlant architecture data , modélisation avancée , Databricks , et développement d’agents IA . 🚀 Missions principales Concevoir et modéliser des MCP (Modèles Conceptuels de Données). Participer activement à la rédaction des spécifications , au cadrage et à la conception avant développement. Développer sur Databricks (Python / SQL / Notebooks). Construire et optimiser des pipelines Data sur Azure (ouvert à d’autres environnements mais Azure apprécié). Contribuer au développement d’ agents IA et solutions basées sur l’IA générative. Accompagner les équipes métier et techniques, documenter et sécuriser les modèles de données. Intervenir sur des problématiques analytiques liées à Power BI . 🧠 Compétences techniques recherchées Expert Databricks . Maîtrise avancée : Python , SQL , Notebooks Databricks . Azure Data (Data Lake, Data Factory, Synapse, Delta Lake) — appréciée mais non obligatoire. Power BI (structuration, modèles, alimentation). Solide expérience en modélisation : MCP, MLD, MPD. Intérêt affirmé ou expérience sur des cas d’usage IA / agents IA . 🧩 Profil recherché Senior (8–10 ans d’expérience minimum). Expérience significative en environnement Retail . Capacité à cadrer, structurer et concevoir avant de développer. Autonomie, leadership technique, prise d’initiative. Habitué aux contextes de transformation data et à la montée en charge rapide.
Mission freelance
Experienced DATA ENGINEER / TECH LEAD
Codezys
Publiée le
Data management
SQL
12 mois
Toulouse, Occitanie
Contexte de la mission Nous sommes à la recherche d’un(e) expert(e) en gestion de projets techniques, combinant compétences en ingénierie de données, SQL, ETL, et en outils de reporting, pour intervenir sur un secteur crucial lié à la gestion des données du cargo. La mission concerne principalement la manipulation, le chargement et la raffinage de données dans un datawarehouse dédié au domaine du cargo, en particulier pour les filiales d’Air France et KLM (AF&KL). Le(la) candidat(e) retenu(e) aura pour responsabilité d’assister l’équipe dans la maintenance des flux de données existants ainsi que dans le développement de nouvelles fonctionnalités. Il/elle participera activement aux projets en cours, apportant son expertise pour corriger d’éventuels dysfonctionnements et enrichir les solutions existantes. La mission nécessite une capacité à comprendre les enjeux métiers liés au transport de fret aérien et à traduire ces exigences en solutions techniques robustes et efficaces. L’équipe cible est composée de 8 professionnels, ce qui implique une forte collaboration et une communication fluide pour assurer la cohérence et la qualité du livrable dans un contexte dynamique et en constante évolution.
Offre d'emploi
Développeur mobile React Native / Data Engineer
GAGNITECH
Publiée le
Azure
CI/CD
Databricks
6 mois
Paris, France
Nous recherchons un profil hybride, combinant une expertise en développement mobile React Native et une compétence solide en Data Engineering sur Databricks/Azure. Votre mission principale portera sur la maintenance évolutive et corrective d’une application mobile développée en React Native. En fonction de la charge de travail côté front, vous pourrez également intervenir sur la partie back/data du produit afin de contribuer aux traitements et pipelines de données sur Azure/ Databricks. Vos missions Vous interviendrez au cœur d’une squad produit sur les sujets suivants : 1) Développement mobile Assurer la maintenance évolutive et corrective d’une application mobile en React Native Garantir une expérience utilisateur fluide, performante et conforme aux bonnes pratiques (optimisation, modularité, testabilité) Implémenter de nouvelles fonctionnalités ainsi que les tests associés, dans une démarche clean code (sécurité, maintenabilité) 2) Data Engineering Concevoir, développer et implémenter des solutions Big Data Analytics Construire et industrialiser les pipelines de données (collecte, transformation, traitement) dans le Data Lake Développer des notebooks avancés sous Databricks (langage SQL, Framework SPARK) Rédiger la documentation technique (DAT, release notes, etc.) Réaliser des tests unitaires et assurer la qualité des livrables Contribuer à la maintenance évolutive et corrective des traitements Livrer dans un environnement DevOps (CI/CD) et maîtriser les outils associés Dans le cadre de notre besoin, nous recherchons un profil hybride associant : - une expertise confirmée en développement mobile React Native, - et une compétence en Data Engineering sur Azure / Databricks. La mission repose principalement sur la maintenance évolutive et corrective d’une application mobile développée en React Native. En fonction de la charge de travail sur la partie front, le consultant pourra également intervenir sur les traitements back/data, notamment sur les pipelines et notebooks Databricks sur le cloud Azure. - Démarrage souhaité : ASAP - Conscients que ce type de profil hybride est rare, nous vous remercions de ne proposer que des candidats répondant strictement aux critères décrits dans la fiche de mission. - 3 jours obligatoire sur site
Mission freelance
Data Engineer Azure / Databricks
Signe +
Publiée le
Snowflake
12 mois
360-440 €
Clermont-Ferrand, Auvergne-Rhône-Alpes
Contexte Dans le cadre de la structuration de la plateforme data, nous recherchons un Data Engineer pour concevoir, développer et industrialiser les pipelines de données au sein d’une architecture moderne de type Lakehouse sur Azure. Le rôle est orienté build & delivery, avec une forte dimension technique. Missions principales Concevoir et développer des pipelines ELT robustes et scalables Intégrer, transformer et fiabiliser des données issues de multiples sources Développer des traitements distribués en PySpark sur Databricks Orchestrer les flux via Azure Data Factory Optimiser les performances, la qualité et la maintenabilité des jobs Mettre en place des contrôles de data quality, monitoring et alerting Participer à la modélisation des datasets (modèle dimensionnel / star schema) Documenter les flux (lineage, métadonnées, bonnes pratiques) Collaborer avec les équipes BI / Data Analyst / métiers (Power BI) Stack technique Databricks (Spark / PySpark) Azure Data Factory SQL avancé Python Power BI (consommation et compréhension des besoins BI) Azure Data Lake / Lakehouse Compétences requises (must-have) Très bon niveau SQL Python / PySpark confirmé Expérience concrète sur Databricks Expérience Azure Data Factory Conception de pipelines ELT en production Modélisation dimensionnelle Bonne culture performance & fiabilité data Compétences appréciées (nice-to-have) Data quality / data governance / lineage Data Vault Azure Logic Apps Infrastructure as Code (Terraform, CI/CD) Expérience Snowflake ou autres plateformes cloud data Bonne compréhension des enjeux BI / Power BI Profil recherché 3 à 7+ ans d’expérience en Data Engineering À l’aise en environnement cloud Azure Capacité à coder proprement et à industrialiser Esprit produit / orienté valeur métier Autonome, force de proposition
Offre d'emploi
Data Engineer Databricks - Lyon
KOMEET TECHNOLOGIES
Publiée le
Apache Spark
Databricks
45k-55k €
Lyon, Auvergne-Rhône-Alpes
En tant que Data Engineer, vous intervenez sur la conception, le développement et l’optimisation de pipelines de données robustes et scalables. Vous travaillez au cœur des plateformes Data afin de garantir la qualité, la disponibilité et la performance des données utilisées par les équipes métiers, BI et Data Science. Expérience attendue : 3 à 8+ ans en ingénierie Data. Vous correspondez au/à la Data Engineer que nous recherchons si : Vous évoluez efficacement au sein d’équipes agiles et pluridisciplinaires , en collaboration étroite avec les équipes Data, IT et métiers Vous faites preuve d’un fort esprit analytique et d’une grande rigueur Vous êtes autonome , proactif et doté d’un solide sens des responsabilités Vous êtes capable de communiquer clairement avec des interlocuteurs techniques comme non techniques Vous savez prioriser vos tâches , gérer les contraintes et respecter vos engagements Vous disposez d’un bon esprit de synthèse et êtes orienté résultats et valeur métier Vous avez une bonne connaissance des environnements Business Intelligence , Big Data et des architectures Lakehouse Vous avez déjà travaillé sur des plateformes Data modernes (Cloud) Vous maîtrisez SQL comme langage d’interrogation des données et avez des notions de modélisation de données (architecture médaillon, modèle en étoile …) Vous disposez d’un bagage en software engineering , vous permettant d’écrire un code robuste, lisible, maintenable et testable, notamment en Python Vous appliquez les bonnes pratiques de développement : structuration du code, modularité, gestion des dépendances, conventions de nommage Vous êtes sensibilisé aux principes de qualité logicielle (tests unitaires, tests d’intégration, revue de code) Vous êtes à l’aise avec les outils de versioning ( Git ) et les workflows collaboratifs associés Vous savez concevoir des pipelines Data comme de véritables produits logiciels, en tenant compte de la maintenabilité, de l’évolutivité et de l’observabilité
Mission freelance
Data Engineer Azure Python
Cherry Pick
Publiée le
Azure
Python
SQL
12 mois
600 €
Paris, France
Le Datahub est la plateforme centrale du système d’information d’un acteur majeur de l'épargne. Il centralise, normalise et expose l’ensemble des données pour des usages métiers critiques : calcul des commissions, génération de documents clients, finance, marketing et écosystème partenaires. En tant que Data Engineer (Renfort) , vous rejoignez une équipe de 3 personnes pour accélérer le développement, l’industrialisation et la fiabilisation des pipelines de données dans un environnement en pleine transformation. 🛠️ Stack Technique Cloud & Stockage : Azure (Azure SQL, Cosmos DB). Orchestration & ETL : Azure Data Factory (ADF). Langages : SQL (Expertise requise), Python (Azure Functions). DevOps / IaC : Terraform, Azure DevOps, SonarCloud, Snyk. Évolution : Migration vers Airflow prévue prochainement. 🎯 Vos Missions Développement de Pipelines : Concevoir, maintenir et optimiser les flux d'intégration (ingestion, transformation, normalisation) via Azure Data Factory. Expertise Data : Réaliser des transformations et agrégations de données complexes en SQL, avec un focus sur la performance et la qualité. Industrialisation : Automatiser les processus via Python (Azure Functions) et gérer l'infrastructure via Terraform. Collaboration Métier : Travailler en direct avec les équipes Finance, Marketing et Relation Client pour traduire leurs besoins en solutions techniques robustes. Qualité & Sécurité : Garantir la fiabilité des données et la propreté du code (CI/CD, tests, revues de code). 👤 Profil Recherché Expérience : Data Engineer confirmé (3 à 5 ans d'expérience minimum). Maîtrise SQL : Capacité à gérer des traitements de données volumineux et complexes. Expertise Azure : Expérience solide sur ADF et l'écosystème Cloud Microsoft. Culture Dev : Bonne connaissance de Python et des principes DevOps (Git, CI/CD, Terraform). Soft Skills : Force de proposition, capacité d’adaptation et aisance pour échanger avec des interlocuteurs non techniques. Langue : Anglais professionnel (un vrai plus pour l'environnement international). 💼 Modalités Pratiques Démarrage : Sous 1 mois (disponibilité immédiate ou courte). Durée : Visibilité sur l'année 2026. Lieu : Paris (Locaux haut de gamme). Rythme : 3 jours de présence sur site / 2 jours de télétravail (pas de full remote).
Mission freelance
Data engineer
Deodis
Publiée le
Ansible
Apache Airflow
Apache Kafka
1 an
320-330 €
Île-de-France, France
Vous intégrerez l’équipe Data Event Management en charge des offres d’infrastructure de messaging Kafka sur ITCloud OnPremise et IBMCloud/dMZR , avec pour mission de construire, déployer, exploiter et maintenir en conditions opérationnelles les plateformes Kafka du groupe. Vous interviendrez sur des projets structurants incluant la transition vers un nouvel orchestrateur basé sur Python/Airflow/Terraform , l’extension de l’offre Kafka IBMCloud/dMZR avec l’intégration de Lenses , ainsi que la migration du monitoring OnPremise vers une solution hybride Dynatrace + ELK . La prestation s’inscrit dans un cadre ITIL , Agile à l’échelle et Product-Based , au sein d’un environnement moderne mobilisant Kubernetes, Terraform, Git, SQL, Docker, CI/CD GitLab, monitoring (ELK, Dynatrace, Sysdig), sécurité HashiCorp Vault et ITCloud/IBMCloud.
Mission freelance
AWS Senior Data Engineer / Data Architect (Event-Driven & Streaming)
Tenth Revolution Group
Publiée le
Amazon Redshift
AWS Cloud
AWS Glue
6 mois
400-650 €
Auvergne-Rhône-Alpes, France
Contexte Dans le cadre de la modernisation d’une plateforme data, vous concevez et mettez en œuvre des architectures cloud-native orientées événements sur AWS. L’objectif est de remplacer les traitements batch par des pipelines distribués, temps réel ou quasi temps réel, robustes et scalables. Missions principales Vous définissez des architectures data serverless event-driven, concevez des pipelines d’ingestion et de transformation distribués et mettez en place des systèmes découplés basés sur la messagerie en garantissant la scalabilité, la résilience et l’optimisation des coûts. Vous transformez les flux ETL batch en pipelines cloud-native, implémentez les patterns asynchrones (retry, DLQ, idempotence, gestion des timeouts) et industrialisez les déploiements via l’Infrastructure as Code et la CI/CD. Vous déployez le monitoring, le logging et le tracing afin de suivre la performance, la latence et la qualité des flux. Compétences clés Solide expérience des architectures event-driven et des systèmes distribués, de l’event sourcing et du message brokering, de la gestion du backpressure et de la latence ainsi que de la transformation distribuée et du traitement de gros volumes. Ce poste n’est pas orienté BI, reporting ou data engineering batch classique Positionnement Rôle transverse avec une forte interaction avec les équipes data, cloud, DevOps et applicatives, impliquant une responsabilité importante sur les choix techniques et les bonnes pratiques. Synthèse Profil d’architecte data AWS spécialisé en serverless et en architectures orientées événements, capable de concevoir des pipelines distribués scalables et résilients.
Offre d'emploi
Tech Lead Data Engineer Big Data (H/F)
Lùkla
Publiée le
PySpark
6 mois
Lille, Hauts-de-France
Nous recherchons un Tech Lead Data Engineer expérimenté pour intervenir sur une plate-forme Big Data au cœur d’un projet critique à fort enjeu métier . Vous intégrerez une équipe Data dédiée et interviendrez en tant que référent technique , avec un rôle clé dans l’accélération de la mise à disposition des données et la montée en compétence des équipes. Vos principales activités : Réaliser les développements Data afin d’accélérer l’ingestion, le traitement et la mise à disposition des données sur la plate-forme Intervenir sur l’ensemble de la stack Big Data : Spark / PySpark, Kafka, Hadoop, Python Encadrer techniquement l’équipe de développement (revues de code, bonnes pratiques, standards) Assurer le suivi technique des développements et garantir la qualité, la performance et la robustesse des solutions Accompagner et faire monter en compétence l’équipe technique Être force de proposition dans un contexte industriel structuré
Mission freelance
TechLead Data Engineer
MLMCONSEIL
Publiée le
Apache Kafka
Hadoop
PySpark
6 mois
150-490 €
Lille, Hauts-de-France
Pour le besoin de mon client , je suis à la recherche d'un TechLead Data Engineer avec compétence sur la stack technique Spark/PySpark, Kafka, Hadoop, Python Langues : français, l'anglais est un plus Date de démarrage : ASAP .... . .... . .... . .... . .... . .... . .... . . . .... . .... . .... . .... . .... . .... . . . .... . .... . .... . .... . .... . .... . . . .... . .... . .... . .... . .... . .... . . . .... . .... . .... . .... . .... . .... . . . .... . .... . .... . .... . .... . .... .
Mission freelance
Data Engineer Spark/Scala
CAT-AMANIA
Publiée le
Apache Spark
Scala
12 mois
400-550 €
Hauts-de-Seine, France
Au sein de l'équipe Data, vos fonctions consisteront notamment à : Participer à l'estimation de la complexité des chantiers techniques liés à la montée de version SPARK (3.4) Concevoir et développer les traitements applicatifs en collaboration avec les intervenants internes à l'équipe, ou externes à celle-ci (architectes techniques, architectes data, experts sur des technologies liées...) Rédiger les dossiers de conception et documentations techniques nécessaires Concevoir et exécuter les cas de tests unitaires / d'intégration Faire des revues de code croisées avec les collègues de l'équipe Contribuer à l'installation et au déploiement des composants Participer activement aux rétrospectives afin de garantir le process d’amélioration continue Assurer la qualité et le suivi des développements, en participant à la correction des problèmes de production
Mission freelance
Data Engineer (H/F) - 63
Mindquest
Publiée le
Azure Data Factory
Azure Logic Apps
Databricks
6 mois
Clermont-Ferrand, Auvergne-Rhône-Alpes
Context Démarrage ASAP pour une mission de Data Engineer au sein d’une grande équipe data industrielle. La mission s’inscrit dans le remplacement d’un congé maternité, avec une forte probabilité de continuité sur une autre équipe à l’issue de cette période. Environnement structuré, déjà composé de plusieurs freelances intégrés. Mission Collecter, analyser et exploiter les données pertinentes afin d’améliorer le pilotage des activités et la création de valeur. Accompagner les équipes métier dans le développement, le déploiement et l’exploitation de solutions data. Être le référent data pour les sujets d’exposition et d’exploitation des données industrielles. Concevoir et maintenir des pipelines data robustes et optimisés. Produire des analyses et visualisations accessibles aux équipes métiers. Garantir la qualité, la gouvernance et l’éthique des données. Maintenir à jour le catalogue des datasets et la documentation associée. Participer aux tests, à la mise en production et à la formation des utilisateurs.
Offre d'emploi
Data Engineer
CAT-AMANIA
Publiée le
Ansible
Apache Airflow
Apache Kafka
Île-de-France, France
ntégration au sein de l'équipe Data event Management qui gère les trois offres de services suivantes : - Offre Infra. Kafka sur ITCloud OnPremise - Offre Infra. Kafka sur IBMCloud/dMZR. Activités principales - Construction/Déploiement/Support/MCO des offres autour de la technologie de messaging kafka Méthodologie de Travail - ITIL - Agile/Scrum à l'échelle - Product Based Projets principaux en cours - Transition vers un Nouvel Orchestrateur sur l'Offre Infra Kafka IBMCloud/dMZR basé sur Python et Airflow, Terraform - Extension de l'offre Kafka sur IBMCloud/dMZR avec l'intégration du produit Lenses - Migration du monitoring de l'infrastructure OnPremise de Splunk vers une solution Dynatrace combinée avec ELK. Technologies Utilisées - Outils administratifs: ServiceNow, Jira, Confluence - Infrastructure as Code: Ansible, Terraform - Langages: Bash, java (spring/jhipster), python - Repository: Artifactory - Database: SQL Server, PostgreSQL - Contenairsation: Docker/Kubernetes - Provider Cloud: ITCloud, IBMCloud - Orchestration: Airflow, Autosys, BPM - Versionning: Git - Messaging: kafka - CI/CD: GitLab CI - Operating system: Redhat - Monitoring: ELK, Dynatrace, LogDNA, Sysdig - Sécurité: HashiCorp Vault, Cyberarc
Offre d'emploi
Développeur Mobile React Native / Data Engineer (H/F)
NSI France
Publiée le
Développement
1 an
40k-65k €
400-650 €
Île-de-France, France
Développeur Mobile React Native / Data Engineer (H/F) Localisation : Île-de-France Télétravail : 2 jours remote / 3 jours sur site Type de contrat : Mission longue durée Démarrage : ASAP Description du poste Dans le cadre d’un projet stratégique au sein d’un grand groupe, nous recherchons un profil hybride capable d’intervenir à la fois sur une application mobile existante et sur des traitements de données en environnement cloud. Missions principales • Assurer la maintenance et l’évolution d’une application mobile développée en React Native • Concevoir et développer de nouvelles fonctionnalités • Corriger les anomalies et optimiser les performances • Participer aux phases de tests et aux mises en production • Intervenir sur des pipelines de données • Développer et maintenir des notebooks Databricks • Manipuler et transformer des données via Spark • Rédiger et optimiser des requêtes SQL • Travailler dans un environnement Microsoft Azure Environnement technique React Native, Databricks, Spark, SQL, Azure
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Passage en EI régime réel
- Pourquoi est-il si dur de décrocher une mission avec un CV pourtant plutôt intéressant ?
- Cadeau reçu en micro-entreprise
- ARCE | Informations générales-Indemnisation
- Je code pour vous une application gratuitement
- Passage au réel après dépassement micro : notification URSSAF ?
307 résultats
Contrats
Lieu
1
1
France
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois