L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 337 résultats.
Mission freelance
Chef(fe) De Projet Data
Trait d'Union
Publiée le
Big Data
1 an
400-600 €
Île-de-France, France
Au sein de la Direction des Systèmes d’Information, vous intervenez comme Chef(fe) de projet Data rattaché(e) au pôle Architecture et Data. Dans un contexte de transformation des flux de données, impliquant à la fois une évolution méthodologique et un changement de socle technologique, vous pilotez la conception, l’évolution et la mise en œuvre de solutions d’échange de données. Votre rôle consiste à garantir la bonne circulation, la cohérence et la qualité des données entre les différentes applications, qu’elles soient internes ou opérées via un centre de services externe. Vous êtes responsable du cadrage, du pilotage et du suivi opérationnel des projets data, en veillant au respect des délais, des coûts et de la qualité des livrables. Missions : Recueillir, analyser et formaliser les besoins auprès des responsables applicatifs et des parties prenantes. Planifier les différentes étapes des projets data, définir les jalons et assurer le suivi des délais et des livrables. Coordonner l’ensemble des intervenants (équipes internes, partenaires, centre de services externe). Garantir la cohérence et la continuité des flux de données au regard de l’architecture cible du système d’information. Rédiger ou mettre à jour les spécifications fonctionnelles et techniques nécessaires aux développements. Piloter les phases de tests et de recette des livrables. Assurer un reporting régulier sur l’avancement des projets auprès des interlocuteurs concernés.
Offre d'emploi
Accompagnement Service Delivery Manager (SDM)
RIDCHA DATA
Publiée le
KPI
Pilotage
Reporting
1 an
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Contexte de la mission Dans un environnement Cloud & HDS , l’entreprise recherche un Service Delivery Manager Senior pour accompagner les Business Units et assurer le pilotage des prestations IT fournies par la DSI. Le SDM intervient comme interface clé entre la DSI Groupe et les BUs , avec un rôle central dans la qualité de service, la gestion de projets (BUILD & RUN) et l’amélioration continue. Objectifs de la mission Garantir la qualité des services IT fournis conformément aux engagements établis avec les BUs Piloter les prestations et les projets IT en assurant valeur, performance et satisfaction client Structurer et suivre les indicateurs de performance (KPIs) Accompagner les BUs dans le cadrage de leurs besoins et attentes Contribuer à l’amélioration continue des services IT Missions principalesPilotage des prestations Contribuer à la définition et au suivi des conventions de services entre la DSI et les BUs Définir, suivre et analyser les KPIs de qualité de service S’assurer du respect des engagements contractuels et opérationnels Contribuer au suivi financier des services Être garant de la relation client et de la satisfaction des BUs Pilotage projets (BUILD & RUN) Cadrer, collecter et formaliser les besoins métiers des BUs Consolider et valider les propositions techniques et financières Planifier, piloter et suivre les projets IT Animer les comités et réunions de suivi (DSI / BU) Suivre les charges, délais, risques et livrables Piloter la recette et assurer le passage en exploitation Réaliser les bilans projets (REX) Amélioration continue Anticiper les risques impactant la qualité de service (montée en charge, évolutions d’usage, pics d’activité…) Proposer et piloter des plans d’amélioration continue Analyser les indicateurs et définir des actions correctives Cadrer et piloter les tests PCA/PRA Alerter sur l’obsolescence des solutions et proposer des évolutions Compétences requises Gestion de projet : confirmé à senior (impératif) Pilotage de la relation client & KPIs Bonne connaissance des environnements Cloud et On-Premise Compréhension des enjeux DSI / métiers Capacité de coordination transverse et de communication Rigueur, leadership et orientation résultats Livrables attendus Pilotage opérationnel des prestations Reporting et suivi des KPIs Suivi projets BUILD & RUN Plans d’amélioration continue Documentation et bilans projets
Offre d'emploi
Data Engineer Snowflake
KLETA
Publiée le
DBT
Snowflake
3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Data Engineer Snowflake pour concevoir, optimiser et industrialiser des plateformes analytiques cloud modernes. Vous analyserez des architectures existantes, proposerez des trajectoires d’évolution (migration vers Snowflake, optimisation des modèles de données, amélioration des pipelines ELT) et guiderez leur mise en œuvre avec Snowflake, dbt et les outils d’orchestration associés. Vous serez responsable de la structuration des modèles de données, de l’optimisation des performances des requêtes et de la mise en place de mécanismes de gouvernance et de traçabilité. Vous travaillerez main dans la main avec les équipes Cloud, Data et DevOps pour intégrer les traitements dans des pipelines CI/CD fiables et adaptés aux contraintes d’exploitation. Vous aurez également un rôle clé dans la transmission de connaissances, l’animation d’ateliers techniques et l’accompagnement des équipes client sur les meilleures pratiques de data engineering moderne et d’usage avancé de Snowflake. Votre mission combinera expertise technique, rigueur méthodologique et capacité à structurer des solutions scalables et pérennes.
Mission freelance
Développement Spark/Scala - Bordeaux
Signe +
Publiée le
Apache Spark
Big Data
Scala
190 jours
390 €
Bordeaux, Nouvelle-Aquitaine
Description détaillée Afin de renforcer l'équipe de développement, on recherche un Data Engineer expérimenté et connaissant les technos suivantes : Solutions utilisées : - Socle Big Data (OI1) : o Compute : Yarn o Storage: HDFS (avec chiffrement pour C3), Hive o Sécurité des données: Ranger, Ranger KMS, Ldap, Kerberos Frameworks/langage/outils utilisés : - MoveNAStoHDFS - Moteur d'ingestion v2 - Spark Scala - Dictionnaire de données - Socle Data Science : o DataiKu Automation Frameworks/langage/outils utilisés: - Spark 3 - HQL Prestation sur Bordeaux. 2 à 3 jours de présence sur site requise.
Offre d'emploi
Data Engineer DBT
UCASE CONSULTING
Publiée le
Azure
Databricks
DBT
40k-60k €
Île-de-France, France
En tant que Data Engineer , vous intervenez sur la conception, le déploiement et l’optimisation de plateformes data basées sur Azure et Snowflake . Concevoir, développer et optimiser des pipelines de données sur Azure et Snowflake Orchestrer les flux de données avec Azure Data Factory et dbt (Python / Snowpark) Intégrer et exploiter des API pour l’ingestion et la transformation des données Participer au déploiement et à la gestion de l’ infrastructure as code (Terraform) Mettre en œuvre et maintenir les pratiques CI/CD via Azure DevOps Automatiser les traitements et tâches récurrentes (PowerShell, Azure CLI) Modéliser les données (3NF, modèle en étoile) et contribuer aux architectures data (DWH, Data Lake, architecture médaillée) Assurer la qualité, la performance et la sécurité des données (gouvernance, RGPD, data lineage) Suivre et optimiser les performances et les coûts des plateformes data Documenter les solutions et collaborer étroitement avec les équipes métiers et techniques
Offre d'emploi
Data Engineer Senior – Plateforme Data Cloud
VISIAN
Publiée le
AWS Cloud
Databricks
PySpark
3 ans
40k-50k €
500-540 €
Lyon, Auvergne-Rhône-Alpes
Data Engineer Senior – Plateforme Data Cloud (H/F) Lyon – Mission longue durée – Temps plein Nous recherchons un Data Engineer senior pour intervenir sur une plateforme data stratégique au sein d’un grand environnement industriel en transformation. La mission s’inscrit dans une équipe dédiée à l’industrialisation et à la performance des pipelines data, sur une architecture cloud moderne à forte volumétrie. Missions • Concevoir et optimiser des pipelines d’ingestion et de transformation de données • Garantir la performance, la fiabilité et la scalabilité de la plateforme • Mettre en place des mécanismes de contrôle qualité des données • Automatiser et superviser les traitements data • Participer à la gouvernance et au cycle de vie de la donnée • Contribuer à l’optimisation des infrastructures cloud • Supporter les utilisateurs de la plateforme • Participer à la veille technologique Environnement technique Databricks sur AWS PySpark, Python, SQL avancé Architecture Data Lake et pipelines industriels Outils DevOps / DataOps (Git, CI/CD, ticketing) Méthodologie Agile à l’échelle (SAFe) Profil recherché Minimum 5 ans d’expérience en data engineering Expertise Databricks, AWS et PySpark Expérience en industrialisation de pipelines data Rigueur technique et autonomie Bon esprit d’équipe Anglais professionnel Connaissance du secteur industriel ou énergie appréciée. Conditions Mission longue durée avec visibilité Projet à fort impact Équipe technique experte Environnement cloud avancé
Offre d'emploi
Data engineer confirmé
UCASE CONSULTING
Publiée le
Apache Airflow
Apache Hive
Apache Spark
40k-60k €
Île-de-France, France
Pour l'un de nos clients nous recherchons un data engineer confirmé pour intégrer une équipe risque et finance. Missions : Contribuer aux évolutions des projets Risque et Finance Concevoir et développer des pipelines batch Big Data pour l’alimentation des datamarts réglementaires et des outils de reporting Intégrer des données issues de sources multiples (core banking, bases de données, fichiers partenaires) Mettre en œuvre des contrôles qualité et de complétude des données Optimiser la performance et la robustesse des traitements sur de fortes volumétries Industrialiser et déployer les traitements (CI/CD, orchestration, monitoring) Réaliser les tests unitaires et de non-régression Produire et maintenir la documentation technique et les référentiels de données Garantir le respect des exigences réglementaires, de sécurité et de confidentialité des données Participer aux rituels agiles et aux activités de Run (quotidien et mensuel)
Mission freelance
Lead Data Engineer
Celexio
Publiée le
PySpark
Python
Terraform
3 mois
400-550 €
Paris, France
Nous recherchons un Lead Data Engineer chevronné pour rejoindre un acteur majeur de la Tech Parisienne. Au sein d'une équipe dynamique, votre mission sera de piloter l'acquisition de données à grande échelle et d'orchestrer une migration technologique stratégique. Votre Mission En tant que garant technique de l'acquisition de données, vous intervenez sur l'ensemble de la chaîne de valeur, du cleaning à l'enrichissement. Vos responsabilités principales incluent : Architecture & Design : Concevoir et refondre des pipelines de données robustes dans le cadre d'une migration majeure de GCP vers AWS. Ingestion Massive : Gérer l'ingestion de types de données variés (Listing, etc.) et assurer leur qualité. Optimisation : Assurer le nettoyage et l'enrichissement des données pour les rendre exploitables par les équipes consommatrices. Snowflake : Exposer les données de manière optimale. Compétences Techniques Requises Cloud : Maîtrise avancée de l'écosystème AWS (tous services) et idéalement une expérience de migration depuis GCP. Data Processing : Expertise sur Spark / PySpark pour le traitement de données volumineuses. Infrastructure : Solides compétences en Terraform (IaC). Langages : Maîtrise de Python. Data : Connaissance de Snowflake pour la partie consommation.
Mission freelance
Data Scientist - Industry 4.0 - Belgique
ARTESIA IT
Publiée le
Data science
1 an
400-600 €
Belgique
Contexte Des usines spécialisées dans la production d’éléments de moteurs aéronautiques en titane réalisent des opérations d’usinage et de forge avec une précision extrême (jusqu’à 10 µm). L’équipe Manufacturing 4.0 fournit les outils digitaux, les technologies Industrie 4.0 et le support technique aux équipes métier et à la production industrielle. Structure du département L’équipe Manufacturing 4.0 regroupe des ingénieurs assurant l’interface entre le monde industriel et les systèmes IT permettant le pilotage intelligent des activités. On y retrouve notamment des compétences en : IT Platform Manufacturing Execution Systems UNS (Unified Namespace), collecte et distribution temps réel des données et indicateurs industriels Inspection Qualité Data (BI, Machine Learning, IA, etc.) Attrait pour la fonction Le programme consiste à concevoir et développer la solution technologique Manufacturing 4.0 du futur , intégrant notamment : pilotage par la donnée, robotique, intelligence artificielle. Fonction – Tâches principales En collaboration avec les équipes Manufacturing 4.0, IT et métiers industriels, vous serez amené à : Explorer, analyser et préparer les données issues des systèmes industriels (machines, capteurs, MES, inspection qualité…). Concevoir, entraîner et évaluer des modèles ML et/ou Computer Vision adaptés aux contraintes industrielles. Mettre en œuvre des pipelines end-to-end MLOps (training, validation, déploiement, monitoring). Déployer les modèles en production sur une architecture hybride on-prem / cloud avec containers et AWS SageMaker. Suivre la performance des modèles en production (qualité, dérive, robustesse) et proposer des améliorations. Intégrer les modèles aux systèmes existants via la chaîne CI/CD en lien avec les équipes IT. Documenter les solutions et diffuser les bonnes pratiques. Challenges Contribuer à la transformation Manufacturing 4.0 par la donnée et l’IA. Déployer des modèles robustes, fiables et maintenables en environnement industriel. Combiner innovation, contraintes industrielles et exigences de production. Faire preuve d’autonomie, proactivité et esprit critique constructif. Être force de proposition pour améliorer les pratiques Data Science et MLOps. Partager les bonnes pratiques avec les autres data scientists. Contacts internes et externes Intégration au sein de l’équipe Manufacturing 4.0 avec data, IT et ingénieurs industriels. Interactions avec les équipes MES, Qualité, Maintenance, UNS, IT et Cloud. Collaboration possible avec partenaires technologiques et fournisseurs de solutions.
Offre d'emploi
Intégrateur Unix- CtrM -N2
KEONI CONSULTING
Publiée le
Big Data
Linux
UNIX
18 mois
20k-60k €
100-600 €
Niort, Nouvelle-Aquitaine
Contexte Dans le cadre de l’entité « Operations Data / IA » au sein du Centre des Opérations , participation à la mise en œuvre des projets fonctionnels et techniques dans l’environnement de production, au côté du Responsable de Projet de Production. Prise en charge de la pré-production et de la mise en exploitation des différentes évolutions des applications informatiques ainsi que les maintenances, tout ceci dans un environnement multiplateforme. MISSIONS : Contribuer au bon déroulement de la phase de pré production des projets, et dans ce cadre vous assurerez : . La réception et l’analyse des dossiers d’homologation, . La conception des chaines de traitements (automatisation, ordonnancement, …), . Le développement des procédures d’exploitation, . Le bon déroulement des tests d’homologation, . La réalisation et la mise à disposition des dossiers d’exploitation, . La livraison des applications dans l’environnement de production, . La communication avec les autres entités (développement, supports, planning, exploitation…), . Le transfert de compétences vers les équipes de Production dans l’accompagnement aux changements, . Le suivi des premières exploitations et la période de VSR(Vérification de Service Régulier). TACHES : Assure le suivi et le fonctionnement optimal du périmètre technique (outils, systèmes, traitements et infrastructures techniques) dont il a la charge. Suit et analyse sa performance et sa qualité ; met en place des mesures visant à les améliorer. Elabore les règles d’utilisation, en conformité avec les normes / standards de l’entreprise, dans le respect des contrats de service. Documente, promeut et contrôle leur application. Contribue au dispositif de gestion de la qualité, sur son périmètre. Etudie et propose des évolutions permettant de pérenniser et d'optimiser le fonctionnement et la sécurité des outils, systèmes, traitements et infrastructures techniques; les met en œuvre. Valide l’installation et l’intégration des nouveaux outils, systèmes, traitements et infrastructures techniques, dans l’environnement de production. Réalise et coordonne des opérations de changement et de maintenance en veillant à leur qualité. Traite les incidents ou problèmes (du diagnostic à la remise en service). Assure la communication avec les utilisateurs sur la gestion des incidents ou à l'occasion de changements. Gère les droits d’accès aux SI en fonction des profils. Réalise le transfert de compétences et le support technique sur son périmètre. Effectue une veille technologique sur son périmètre technique. Met en œuvre les normes et principes de la politique de sécurité du SI de l’entreprise. Formations et expériences : De formation Bac+2 minimum, avec une bonne expérience de la Production, vous avez une bonne connaissance de l’informatique en générale. Expérience professionnelle > 5 ans.
Mission freelance
Experienced DATA ENGINEER / TECH LEAD
Codezys
Publiée le
Data management
SQL
12 mois
Toulouse, Occitanie
Contexte de la mission Nous sommes à la recherche d’un(e) expert(e) en gestion de projets techniques, combinant compétences en ingénierie de données, SQL, ETL, et en outils de reporting, pour intervenir sur un secteur crucial lié à la gestion des données du cargo. La mission concerne principalement la manipulation, le chargement et la raffinage de données dans un datawarehouse dédié au domaine du cargo, en particulier pour les filiales d’Air France et KLM (AF&KL). Le(la) candidat(e) retenu(e) aura pour responsabilité d’assister l’équipe dans la maintenance des flux de données existants ainsi que dans le développement de nouvelles fonctionnalités. Il/elle participera activement aux projets en cours, apportant son expertise pour corriger d’éventuels dysfonctionnements et enrichir les solutions existantes. La mission nécessite une capacité à comprendre les enjeux métiers liés au transport de fret aérien et à traduire ces exigences en solutions techniques robustes et efficaces. L’équipe cible est composée de 8 professionnels, ce qui implique une forte collaboration et une communication fluide pour assurer la cohérence et la qualité du livrable dans un contexte dynamique et en constante évolution.
Mission freelance
Data Engineer
Signe +
Publiée le
Database
ETL (Extract-transform-load)
SQL
2 ans
400-500 €
Toulouse, Occitanie
Bonjour, Nous recherchons pour l'un de nos clients un Data Engineer. Contexte : Renforcement de l’équipe Data pour industrialiser et faire évoluer les environnements BI/ETL/Cloud (GCP BigQuery, Teradata, Informatica/IDMC, BO, Power BI) et soutenir les activités de delivery et de transformation. Mission & objectifs Concevoir, développer et industrialiser des pipelines de données robustes (batch/ELT). Garantir la qualité, la sécurité et la gouvernance des données (IAM, rôles, permissions). Moderniser les assets BI et modèles sémantiques (Power BI, Business Objects). Contribuer à l’ automatisation et à l’ infrastructure as code (Terraform). Accompagner les équipes Métiers/Tech dans l’usage des plateformes data (BigQuery, Teradata, Unix/Linux). Participer à la documentation et à la montée en compétence de l’équipe.
Mission freelance
Expert Data Gouvernance / MDM – Qualité de la donnée (H/F)
CONCRETIO SERVICES
Publiée le
Data governance
Data integrity
Master Data Management (MDM)
3 ans
550-600 €
Hauts-de-Seine, France
Expert MDM / Data Gouvernance senior , garant de la qualité, de la structuration et des référentiels de données, en lien direct avec le CDO, chargé de fiabiliser durablement l’exploitation des données dans un environnement Data structurant. VOS MISSIONS PRINCIAPLES Le rôle est très structurant et transverse , orienté gouvernance et qualité : Définir, maintenir et faire évoluer les référentiels de données (MDM) Mettre en place et piloter les règles de qualité de la donnée : normalisation, qualification, contrôles, gestion des doublons Cartographier les données disponibles et leurs usages Qualifier et valider les données avant leur intégration dans le Data Lake Superviser la qualité des flux de données entrants (structurés et non structurés) Contribuer à la politique de gouvernance de la donnée : cycle de vie, responsabilités, standards Travailler en étroite collaboration avec : le CDO , les équipes Data, les métiers producteurs et consommateurs de données, les équipes applicatives sources Documenter les règles, référentiels et processus Data
Offre d'emploi
Architecte Kubernetes Senior (CKA)
Craftman data
Publiée le
Azure
Azure Kubernetes Service (AKS)
12 mois
60k-68k €
630-880 €
Le Havre, Normandie
Architecte Kubernetes Senior (CKA) – Projet de transformation cloud-native Dans le cadre d’un programme de transformation d’envergure internationale , nous recherchons un Architecte Kubernetes Senior (CKA) pour piloter la refonte complète d’une infrastructure critique vers une architecture cloud-native basée sur Kubernetes. Le projet concerne une plateforme stratégique opérant 24/7 , utilisée quotidiennement par plusieurs dizaines de milliers d’utilisateurs , avec des volumes élevés de messages, d’API et de transactions. L’environnement est multi-sites et multi-technologies (cloud public, on-premise, infrastructures virtualisées), avec de fortes contraintes de disponibilité, de performance et de souveraineté des données . Votre rôle En tant qu’Architecte Kubernetes Senior, vous êtes le référent technique de la transformation infrastructure. Vous concevez et déployez une plateforme Kubernetes multi-clusters et multi-sites , capable d’absorber des pics de charge importants tout en respectant des SLA contractuels stricts . Vous définissez les choix d’architecture (ADR), la stratégie hybride/multi-cloud, les mécanismes d’auto-scaling, de haute disponibilité et de reprise d’activité. Vous pilotez la migration progressive d’environnements existants vers des architectures conteneurisées, modernisez les systèmes d’orchestration et de messaging, et mettez en place une observabilité complète (monitoring, logs, alerting, traçage). Vous intervenez également sur les sujets de sécurité Kubernetes (RBAC, politiques réseau, gestion des secrets) et de conformité réglementaire, dans un contexte international. Profil recherché Certification CKA obligatoire Expérience confirmée (3+ ans) sur Kubernetes en production Maîtrise des environnements cloud et hybrides Solide culture DevOps, CI/CD et conteneurisation Excellente capacité d’analyse, d’autonomie et de leadership technique Aisance dans les échanges avec des équipes techniques et des interlocuteurs métiers Ce que nous proposons Un projet structurant et à fort impact Une architecture Kubernetes moderne, conçue à l’état de l’art Des problématiques avancées : haute disponibilité, multi-sites, souveraineté Un rôle central avec une forte responsabilité technique Évolutions possibles vers des fonctions de Lead Architect ou Platform Engineer Si tu veux, je peux aussi te fournir : une version freelance uniquement une version plus courte (LinkedIn / Welcome to the Jungle) ou une version orientée ESN / cabinet de conseil
Offre premium
Offre d'emploi
Chef de Projet BI / Data
Projets et Performance
Publiée le
Microsoft Power BI
Microsoft SSIS
Power Apps
50k-60k €
Lyon, Auvergne-Rhône-Alpes
Vous souhaitez rejoindre une ETI française dynamique , tournée vers l’innovation et engagée dans un plan de développement ambitieux ? Vous recherchez un environnement où les valeurs humaines, la cohésion d’équipe, l’expertise technique et la qualité de service sont au cœur du fonctionnement ? Ce poste est fait pour vous. Dans le cadre de son développement, notre client recherche un Chef de Projet BI / Data Middleware (H/F) pour renforcer sa Direction Digitale et Systèmes d’Information. Vous jouerez un rôle clé dans la collecte, la transformation et la valorisation des données , ainsi que dans la mise en œuvre des flux d’échanges entre les différents systèmes. Le poste comporte environ 60 % de BUILD et 40 % de RUN . Vos missions : Conception et gestion des infrastructures data Recueillir les besoins métiers en matière de collecte, traitement et exploitation des données. Concevoir des architectures de données robustes (DWH, Data Lake…). Développer et maintenir des pipelines de données performants et sécurisés. Assurer la qualité, la sécurité et la conformité des données (gouvernance, RGPD). Optimiser les systèmes de traitement de données et industrialiser les processus. Support aux projets Data et intégration Collaborer étroitement avec les key users BI sur les projets décisionnels. Mettre en place et suivre les flux EDI (INVOIC, ORDERS…). Assurer la maintenance, les tests automatisés et l’exploitabilité des solutions. Contribuer à la rédaction des bonnes pratiques d’architecture et de sécurité. Veille, amélioration continue et qualité Réaliser une veille sur les technologies Big Data, frameworks et langages associés. Proposer des améliorations continues, tant sur les outils que sur les performances. Garantir la traçabilité et la haute qualité des données mises à disposition. Support utilisateurs et supervision quotidienne des flux (40 % du temps) Traiter les tickets utilisateurs (incidents, assistance). Assurer la supervision quotidienne des flux : analyse d’erreurs, corrections, rejouements, optimisations.
Mission freelance
React Native Data Engineer
Cherry Pick
Publiée le
Databricks
React Native
12 mois
400-470 €
Paris, France
En quelques mots Cherry Pick est à la recherche d'un "Développeur React Native - Data Engineer" pour un client dans le secteur de la grande distribution. Description 📱 Le Contexte : Un Rôle Pivot Mobile & Data Nous recherchons un profil atypique et polyvalent pour intervenir sur une plateforme technologique alliant une interface utilisateur mobile exigeante et une architecture de données robuste sous Azure. Votre mission principale sera d'assurer la maintenance évolutive et corrective d'une application mobile développée en React Native . En complément, et selon la charge du front-end, vous interviendrez sur la partie Data Engineering pour optimiser les pipelines et les notebooks au sein de l'environnement Azure Databricks . 🎯 Vos Missions : Du Pixel à la Donnée 1. Développement Mobile (Majeure) : Assurer la maintenance corrective (bugs) et évolutive (nouvelles features) de l'application React Native. Analyser les opportunités et la faisabilité technologique des nouvelles fonctionnalités. Réaliser le prototypage, le développement des composants et les revues de code croisées. Garantir l'industrialisation des composants et la documentation pour la mise en production (MEP). 2. Data Engineering (Mineure / Support) : Intervenir sur les traitements back/data en environnement Azure . Développer et maintenir des pipelines de données et des notebooks sous Databricks . Optimiser les traitements via Spark et requêtage SQL complexe. Participer à la structuration et au maintien des bases de données liées à l'application. 3. Qualité & Exploitation : Élaborer les jeux d'essais et réaliser les tests unitaires et d'intégration. Analyser les résultats, traiter les dysfonctionnements et rédiger les rapports de tests. Participer à la résolution des incidents de production et mettre à jour les dossiers d'exploitation.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Freelance : peu de retours sur mes candidatures – vos stratégies ?
- ARE, ACRE, création SARLU, IK et rémunération
- Entretien Client final
- URSSAF micro-entreprise : factures impayées, encaissement et facture groupée
- Deux ESN me positionnent sur la même mission
- Evolution TVS et opportunité acquisition véhicule
2337 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois