Trouvez votre prochaine mission ou futur job IT.
Mission freelance
DATA Engineer - AWS(H/F)
Nous cherchons : Un(e) Data Engineer motivé(e) pour rejoindre notre squad Data Platform et contribuer à la construction, l’exploitation et l’optimisation de notre plateforme Data dans un environnement Cloud (AWS / Azure). Missions principales : Concevoir, développer et maintenir des solutions de Data Lake (Gen 2, S3). Développer des microservices et applications en Python et C# . Mettre en place et maintenir des processus de déploiement automatisé avec Terraform . Participer au RUN et au Build de la Data Platform (support, supervision, optimisation). Automatiser et améliorer les activités d’exploitation (SRE, FinOps). Définir et appliquer les bonnes pratiques de sécurité, qualité, résilience et observabilité. Collaborer avec les Data Officers, Data Architects et Data Engineers dans un cadre Agile . Assurer la documentation et le suivi des livrables (artefacts, mises en production).4 Stack technique : Cloud : AWS (S3, VPC, services Data), Azure (ADLS Gen 2 – un plus). Langages : Python, C#. Infra as Code : Terraform. Data : ETL, Data Lake (Gen 2, S3). Monitoring & Observabilité : Grafana, Azure App Insights. Méthodologie : Agile / SRE / FinOps.
Offre d'emploi
Profil Data - Python
• Objectif de la mission • Au sein de la DSI Europe, division BI & Data, seconder l’architecte leader dans l’enrichissement, le maintien et l’évolution de la Digital Data Platform • Contenu • Participer à la mise en oeuvre de jobs d’intégration de données: création, revue de pair, déploiement • Accompagner l’équipe data engineering au respect des patterns de développement du marché et des pratiques de création de jobs de la Digital Data Platform • Optimiser les performances des jobs (performance SQL, performance Python, Job Scheduling) • Optimiser les performances opérationnelles et financières de la plateforme existante • Optimiser la performance opérationnelle des équipes (automatisation, extension et optimisation du moteur de Jobs) • Participer à la valorisation de la donnée collectée auprès des métiers (publicité, data science, filiation de donnée, self-service de la donnée…)

Offre d'emploi
Data Engineer GCP DBT LOOKER (H/F)
En tant que Data Engineer, vous intégrerez une feature team pour participer aux différents projets de développement. Pour cela vous aurez en charge : · Compréhension des besoins métiers · Conception des solutions nécessitant l’utilisation de technologies cloud & data pour répondre aux besoins métier · Déploiement, optimisation et industrialisation au quotidien des pipelines de données dans le Cloud · Travaille avec différents profils data du groupe (Data Scientist, data engineer, data architect, data analyst) · Assurer le monitoring des modèles en production · Contribuer au développement et à l’amélioration continue des outils data interne

Mission freelance
Data Engineer AWS
En quelques mots Cherry Pick est à la recherche d'un "Data Engineer" pour un client dans le secteur de l'Energie Description 🎯 Contexte & Objectifs Intégré(e) à la squad Data Platform, vous interviendrez sur les activités de build, run et automatisation d’une plateforme de données Cloud (AWS / Azure). Votre rôle sera clé pour : Participer à la réalisation du workplan et aux user stories du backlog. Contribuer aux activités de support N2/N3 (RUN) et de Build. Livrer et suivre les artefacts de mise en production. Proposer et mettre en œuvre des optimisations FinOps, sécurité et observabilité. Développer des microservices et automatiser les pipelines & déploiements. 🛠️ Missions principales Participer au développement et maintien de la Data Platform Cloud. Créer et maintenir des processus de déploiement automatisés avec Terraform. Développer des microservices en Python et maîtriser l’intégration (CI/CD). Assurer le monitoring et l’exploitation via Grafana, App Insights. Contribuer aux flux ETL/ELT et à l’alimentation du Data Lake (AWS S3, ADLS Gen2). Gérer les activités RUN/SRE : supervision, support, automatisation. Définir et appliquer les bonnes pratiques de sécurité, qualité, résilience et FinOps. Collaborer en mode Agile/Scrum avec les parties prenantes (Data Officers, Data Architects, Engineers). Maintenir la documentation et promouvoir une approche User-Centric (recueil feedbacks, amélioration UX).

Offre d'emploi
Data Cloud Architect Snowflake, Azure, SQL - Anglais
En tant que membre de l'équipe de capture de données, ce poste requiert une expérience technique et architecturale, ainsi qu'une solide expérience pratique des technologies cloud, du développement de microservices et de l'architecture événementielle. Il requiert également une collaboration étroite avec les équipes informatiques du groupe/de la zone, les partenaires commerciaux, les partenaires externes et tous les membres de l'équipe d'intégration. Les compétences ci-dessous sont essentielles et obligatoires : Leadership et autonomie Engagement sur les sujets Capacité à effectuer une restitution documentaire dans le cadre d'un audit, d'une preuve de concept (POC) ou en matière de normes et d'architecture.

Offre d'emploi
Architecte Datacenter
Notre client cherche un architecte qui maîtrise les normes de sécurité spécifiques aux datacenters (exemple norme 27001), les certifications ANSSI, ainsi que les best practices liées aux salles serveurs. De plus, cette personne devra également avoir une casquette technique, aussi bien sur la partie "build" que sur la partie "run". Missions principales : Concevoir, faire évoluer et garantir la cohérence de l’architecture réseau et sécurité de l’entreprise. Définir les normes et standards techniques en matière de réseaux (LAN, WAN, Wi-Fi) et de sécurité (pare-feu, VPN, IDS/IPS, etc.). Participer à la définition de la stratégie de cybersécurité et veiller à sa mise en œuvre. Piloter les projets d’évolution des infrastructures réseau et sécurité. Réaliser des audits d’infrastructure et de sécurité, identifier les failles et proposer des plans d’action. Assurer une veille technologique continue sur les innovations en matière de réseaux et cybersécurité. Rédiger les documents d’architecture, les procédures et les référentiels techniques. Accompagner les équipes techniques (administrateurs, ingénieurs, etc.) dans l’intégration des solutions.

Mission freelance
Ingénieur Intégration de données
Vous interviendrez au sein de notre équipe en tant qu'ingénieur intégrateur de données autour des solutions modernes. Vos missions consisteront à contribuer à/au (x): Mise en place d'un DATA HUB ainsi qu'au développement, Mise en place des intégrations de données, Assurer le maintien des usecases existants de la Data Plateform: Ingestions, transformation, exposition, Assurer la migration vers le Data Hub, Apporter une expertise et un support technique pour définir et développer les intégrations de données des applications, Pour mener à bien ce projet, vous devrez justifier de: Expertise technique en matière d'intégration de données autour de solutions modernes, Avoir déjà travaillé sur des projets de mise en place de DATA HUB, Etre en capacité de s'appuyer sur le travail fourni par les : data architectes, des centres d’expertise Kafka et API Capacité à offrir des solutions adéquates sur les environnements Cloud GCP. Contexte International: ANGLAIS Lu parlé et écrit, Bonne capacité relationnelle et rédactionnelle Compétences techniques obligatoires : Kafka (KSQLDB, Kafka Stream, Flink) et GCP

Offre d'emploi
Lead Data Engineed Snowflake - DBT
Cherchons un profil expert Snowflake pour participer activement à la structuration de l'offre de notre client, à l'élaboration des architectures avant-vente et à la montée en compétence de leurs équipes. Lead Data Engineer passionné par Snowflake et DBT vous travaillerez chez des clients leaders dans leurs secteurs afin de moderniser leur infrastructure de données. Vous travaillerez sur des projets stimulants, de l'implémentation initiale de Snowflake à l'optimisation de pipelines complexes avec dbt, en passant par l'intégration d'écosystèmes data avancés. Votre rôle sera crucial pour le succès de ces transformations. Missions principales : * Développer nos assets technologiques et nos accélérateurs pour des déploiements plus rapides et efficaces. * Participer activement aux phases d'avant-vente, en concevant des architectures innovantes et en présentant nos solutions aux clients. * Accompagner nos clients dans la conception, le développement et le déploiement d'architectures data modernes basées sur Snowflake et dbt. * Mettre en place et optimiser des pipelines de données robustes et performants avec dbt. * Conseiller nos clients sur les meilleures pratiques de la Modern Data Stack et les accompagner dans la migration et l'intégration de leurs données. * Encadrer et faire monter en compétences une équipe de data engineers sur les technologies Snowflake et dbt. Compétences attendues : - Une expérience significative en tant que Lead Data Engineer ou Architecte Data, avec une expertise approfondie de Snowflake et dbt (certifications bienvenues). - Une excellente compréhension des concepts de la Modern Data Stack et de ses meilleures pratiques (Snowflake Openflow, Fivetran, dbt, Airbyte…). - Une expérience dans un projet de migration de plateforme Data vers une Modern Data Stack est un vrai plus Maîtrise des langages SQL et Python. - Une expérience réussie en Streamlit et/ou Generative AI est un atout sérieux. - Capacité à travailler en équipe, à communiquer efficacement et à vous adapter aux environnements clients avec une forte orientation conseil.

Offre d'emploi
Lead Data Engineed Snowflake
Cherchons un profil expert Snowflake pour participer activement à la structuration de l'offre de notre client, à l'élaboration des architectures avant-vente et à la montée en compétence de leurs équipes. Lead Data Engineer passionné par Snowflake et DBT vous travaillerez chez des clients leaders dans leurs secteurs afin de moderniser leur infrastructure de données. Vous travaillerez sur des projets stimulants, de l'implémentation initiale de Snowflake à l'optimisation de pipelines complexes avec dbt, en passant par l'intégration d'écosystèmes data avancés. Votre rôle sera crucial pour le succès de ces transformations. Missions principales : * Développer nos assets technologiques et nos accélérateurs pour des déploiements plus rapides et efficaces. * Participer activement aux phases d'avant-vente, en concevant des architectures innovantes et en présentant nos solutions aux clients. * Accompagner nos clients dans la conception, le développement et le déploiement d'architectures data modernes basées sur Snowflake et dbt. * Mettre en place et optimiser des pipelines de données robustes et performants avec dbt. * Conseiller nos clients sur les meilleures pratiques de la Modern Data Stack et les accompagner dans la migration et l'intégration de leurs données. * Encadrer et faire monter en compétences une équipe de data engineers sur les technologies Snowflake et dbt. Compétences attendues : - Une expérience significative en tant que Lead Data Engineer ou Architecte Data, avec une expertise approfondie de Snowflake et dbt (certifications bienvenues). - Une excellente compréhension des concepts de la Modern Data Stack et de ses meilleures pratiques (Snowflake Openflow, Fivetran, dbt, Airbyte…). - Une expérience dans un projet de migration de plateforme Data vers une Modern Data Stack est un vrai plus Maîtrise des langages SQL et Python. - Une expérience réussie en Streamlit et/ou Generative AI est un atout sérieux. - Capacité à travailler en équipe, à communiquer efficacement et à vous adapter aux environnements clients avec une forte orientation conseil.

Mission freelance
Recherche Consultant(e) Snowflake
Dans le cadre de la transformation Data de notre client / entreprise, nous recherchons un Développeur Snowflake afin de participer à la mise en place, l’optimisation et la maintenance de notre plateforme cloud dédiée à la gestion et à l’exploitation des données. Vous interviendrez dans une équipe Data pluridisciplinaire (Data Engineers, Data Analysts, Architectes) sur des projets stratégiques : migration de bases de données, modélisation de données, industrialisation des flux, création de pipelines et dashboards.

Mission freelance
Data Engineer Confirmé (F/H)
REF : EFP/DEC/326328 Espace-Freelance, réseau de consultants indépendants, recherche pour l’un de ses clients directs : Data Engineer Confirmé (F/H) Mission à pourvoir en régie à Tours Présence sur site hybride Le consultant devra être en mesure d’assurer les missions suivantes : · Participer à l’élaboration du design technique des produits logiciels · Faciliter la recherche de solutions techniques adaptées · Prendre en charge une partie des développements · Accompagner les autres développeurs (coaching, optimisation de code) · Collaborer avec l’architecte data pour l’intégration des produits dans le SI · Garantir la qualité des produits logiciels · Accompagner les directions métiers dans la réalisation de leurs cas d’usage data

Mission freelance
Data Engineer Senior (Spark,Java,Pyton,SQL)
Cherry Pick est à la recherche d'un Data Engineer Senior pour l'un de ses clients dans le secteur la mutuelle. En renfort de l’entité Solutions Data pour participer activement (Run/Build/Expertise et Accompagnement) aux sujets ci-dessous dans un environnement hybride Cloud/On-Premise (avec le On-Premise en cible) : Participer à l’élaboration du design technique des produits logiciels, Faciliter la recherche de solutions techniques, Prendre en charge une partie des dév. Accompagner les autres Dév. (Coaching, optimisation de code, …), Collaborer à l’intégration des produits dans le SI avec l’architecte data, Garantir la qualité des produits logiciels, Accompagner les directions métiers dans la réalisation de leurs cas d’usage data Compétences obligatoires : Maitrise Spark/Java, Maitrise Python Maitrise SQL, AWS : S3 / Glue / Redshift / Step Functions / Lambda, CICD : Git, Jenkins, … ETL XDI et/ou ODI Compétences souhaitables/optionnelles : Docker, Terraform, Power BI / BO

Mission freelance
Data Engineer AWS Senior – (PySpark )
Contexte de la mission En renfort de l’entité Solutions Data , le Data Engineer Senior interviendra dans un environnement hybride Cloud / On-Premise (cible On-Premise) pour participer activement aux activités Run, Build, Expertise et Accompagnement . 🚀 Missions principales Participer à l’élaboration du design technique des produits logiciels. Contribuer à la recherche et mise en œuvre de solutions techniques adaptées. Prendre en charge une partie des développements . Accompagner et coacher les autres développeurs (optimisation de code, bonnes pratiques). Collaborer avec l’ architecte Data pour l’intégration des produits dans le SI. Garantir la qualité des produits logiciels livrés. Accompagner les directions métiers dans la réalisation de leurs cas d’usage Data. 🔧 Compétences obligatoires Spark / Java (maîtrise avancée) Python (maîtrise avancée) SQL (maîtrise avancée) Cloud AWS : S3, Glue, Redshift, Step Functions, Lambda CI/CD : Git, Jenkins ETL : XDI et/ou ODI 🌟 Compétences souhaitées (atouts) Docker Terraform Power BI / Business Objects 📍 Localisation Mission basée à Châtillon (92) .
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.