Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Mission freelance
Tech Lead Data Databricks AWS
Dans le cadre de l’évolution d’une plateforme data existante de niveau entreprise, nous recherchons un Tech Lead Data Engineer pour renforcer une équipe agile internationale. L’environnement est déjà en place – il s’agira de l’optimiser, l’industrialiser et l’étendre à de nouveaux cas d’usage analytiques 🎯 Vos missions principales : ✅ Faire évoluer la plateforme Data existante (Datawarehouse & pipelines) ✅ Implémenter & gérer le Unity Catalog sur Databricks ✅ Développer et maintenir des workflows complexes sous Airflow ✅ Structurer les bonnes pratiques d’ingénierie sur AWS ✅ Garantir la robustesse, la scalabilité et la gouvernance des données ✅ Collaborer avec des profils anglophones sur des projets critiques

Offre d'emploi
Data scientist - Retail - 3 à 5 ans exp.
Contexte Dans le cadre du renforcement des initiatives Data et IA, le Data Scientist jouera un rôle clé dans la réalisation de projets stratégiques à fort impact. Il/elle interviendra sur des problématiques variées telles que : Prédiction du churn Optimisation des campagnes marketing et promotionnelles Analyse du parcours client Recommandation de produits Anticipation de la demande Activation d’audiences Le poste implique une collaboration étroite : Avec les équipes produit pour comprendre les enjeux métiers, commerciaux et opérationnels. Avec les équipes techniques , notamment les Data Engineers, pour identifier, exploiter et valoriser les données disponibles. Missions Le/la Data Scientist interviendra sur l’ensemble du cycle de vie des projets data : 1. Cadrage & Analyse Recueillir et analyser les besoins métiers. Proposer des solutions de Data Science adaptées aux cas d’usage identifiés. Participer à la qualification, priorisation et pilotage des projets IA. 2. Préparation des données Analyser la qualité et la pertinence des données disponibles. Réaliser les transformations nécessaires pour exploiter les données de manière optimale. 3. Modélisation & Industrialisation Développer des modèles prédictifs en mode POC. Industrialiser les solutions avec les outils et bonnes pratiques MLOps. Documenter les modèles et pipelines mis en œuvre. 4. Valorisation & Suivi Créer des reportings adaptés aux utilisateurs (via Looker ou autres outils). Évaluer les performances et les impacts business des modèles déployés. Organiser les instances de suivi projet (comités, revues, etc.). 5. Animation & Collaboration Contribuer à l’animation des sujets IA dans l’organisation. Participer à la montée en compétence de l’équipe Data Science. Livrables attendus Analyses exploratoires et études statistiques Modèles de Machine Learning (prototypes et versions industrialisées) Tableaux de bord et visualisations Documentation technique et fonctionnelle
Offre d'emploi
Chef de Projet Coordinateur flux ingestion DATA
Objectif global : Piloter Coordination flux ingestion DATA Le livrable est : TDB suivi des flux Compétences techniques Azure - Confirmé - Impératif Modélisation data - Confirmé - Impératif Databricks - Junior - Important Méthodo agile - Junior - Important Description détaillée Contexte de la mission Au sein du pôle Produits/Projets Data, vous interviendrez en tant que Chef de Projet Coordinateur pour piloter les flux d’ingestion et d'exposition de données dans le cadre de projets stratégiques (analyse client, performance commerciale, etc.). Objectifs de la mission - Coordonner des projets d’ingestion de données depuis les sources (internes ou externes), jusqu’à la plateforme de traitement Data, sous Cloud Microsoft Azure - Coordonner des projets d'exposition de données vers des partenaires (internes ou externes) - Assurer la qualité, la traçabilité et la conformité des données ingérées. - Collaborer avec les équipes techniques (responsables d’application ; Data Engineers ; System Architect ; DevOps), ainsi qu'avec les PO et PM métiers - Garantir le respect des délais, des coûts et de la qualité des livrables. - Participer à l’amélioration continue des processus d’ingestion

Mission freelance
DataOps
Rejoignez une équipe d’entrepreneurs passionnés et engagés pour transformer le secteur de la santé ! Travailler dans l’équipe tech, c’est construire des produits et des fonctionnalités innovants pour améliorer le quotidien des soignants et des patients. Nous évoluons en équipes autonomes dans un environnement agile, en collaboration avec les équipes produit, design, tech et business. Ce que vous ferez : Nous recherchons un(e) DataOps Engineer talentueux(se) et motivé(e) pour rejoindre notre équipe data. Vous jouerez un rôle clé dans la conception, la mise en œuvre et la gestion de notre infrastructure data, en assurant la fluidité des flux de données dans l’organisation, pour favoriser les décisions pilotées par la donnée. Vos missions principales : • Conception et mise en place de l’infrastructure data : Développer une infrastructure de données fiable, évolutive et sécurisée pour supporter la collecte, le traitement, le stockage et l’analyse de gros volumes de données. • Développement et maintenance de pipelines de données : Créer et maintenir des pipelines efficaces d’extraction, transformation et chargement de données depuis différentes sources vers notre data warehouse. • Automatisation et orchestration : Mettre en place des outils pour automatiser les workflows et l’approvisionnement d’infrastructure, réduire les tâches manuelles et améliorer l’efficacité. • Supervision et résolution d’incidents : Assurer la surveillance de la plateforme, détecter les anomalies et améliorer la qualité et la disponibilité des données. Suivre les coûts et proposer des optimisations. • Collaboration transverse : Travailler étroitement avec les data engineers, data scientists et autres parties prenantes pour bien comprendre les besoins data et apporter votre expertise technique.

Mission freelance
Ingénieur Ops Data & IA Lyon ou Lille/co
Ingénieur Ops Data & IA Lyon ou Lille Participer à la gestion et à l'optimisation de notre infrastructure, en mettant l'accent sur les applications Data et d'intelligence artificielle · Gérer et optimiser les applications conteneurisées sur Kubernetes. · Automatiser les processus de déploiement et de gestion de l'infrastructure à l'aide de GitLab, Jenkins, Terraform et Ansible. · Travailler avec les plateformes cloud Azure et AWS pour déployer et gérer les services. · Collaborer avec les équipes de données et d'IA pour soutenir le développement et le déploiement de modèles d'IA. · Surveiller et améliorer les performances et la sécurité des systèmes. · Documenter les processus et les architectures. Compétences et qualifications requises · Expérience avérée dans la gestion d'applications Kubernetes . · Maîtrise des outils d'automatisation et de CI/CD : GitLab, Jenkins, Terraform, Ansible. · Expérience significative avec les plateformes cloud Azure et AWS. · Connaissance approfondie du monde de la data, des différents métiers, outils et de son écosystème. · Expérience en tant que Data Engineer appréciée. · Compréhension de l'écosystème de l'IA et expérience dans le déploiement de modèles d'IA, d'agent, d'applications RAG · Maîtrise de python · Capacité à travailler en équipe et à collaborer avec divers départements. · Excellentes compétences en résolution de problèmes et en communication

Mission freelance
Ingénieur Ops Data & IA Lyon ou Lille/co
Ingénieur Ops Data & IA Lyon ou Lille Participer à la gestion et à l'optimisation de notre infrastructure, en mettant l'accent sur les applications Data et d'intelligence artificielle · Gérer et optimiser les applications conteneurisées sur Kubernetes. · Automatiser les processus de déploiement et de gestion de l'infrastructure à l'aide de GitLab, Jenkins, Terraform et Ansible. · Travailler avec les plateformes cloud Azure et AWS pour déployer et gérer les services. · Collaborer avec les équipes de données et d'IA pour soutenir le développement et le déploiement de modèles d'IA. · Surveiller et améliorer les performances et la sécurité des systèmes. · Documenter les processus et les architectures. Compétences et qualifications requises · Expérience avérée dans la gestion d'applications Kubernetes . · Maîtrise des outils d'automatisation et de CI/CD : GitLab, Jenkins, Terraform, Ansible. · Expérience significative avec les plateformes cloud Azure et AWS. · Connaissance approfondie du monde de la data, des différents métiers, outils et de son écosystème. · Expérience en tant que Data Engineer appréciée. · Compréhension de l'écosystème de l'IA et expérience dans le déploiement de modèles d'IA, d'agent, d'applications RAG · Maîtrise de python · Capacité à travailler en équipe et à collaborer avec divers départements. · Excellentes compétences en résolution de problèmes et en communication

Mission freelance
Ingénieur Ops Data & IA Kubernetes GitLab, Jenkins, Terraform, Ansible/Lyon ou Lille/co
Ingénieur Ops Data & IA Kubernetes GitLab, Jenkins, Terraform, Ansible Azure AWS Lyon ou Lille Participer à la gestion et à l'optimisation de notre infrastructure, en mettant l'accent sur les applications Data et d'intelligence artificielle · Gérer et optimiser les applications conteneurisées sur Kubernetes. · Automatiser les processus de déploiement et de gestion de l'infrastructure à l'aide de GitLab, Jenkins, Terraform et Ansible. · Travailler avec les plateformes cloud Azure et AWS pour déployer et gérer les services. · Collaborer avec les équipes de données et d'IA pour soutenir le développement et le déploiement de modèles d'IA. · Surveiller et améliorer les performances et la sécurité des systèmes. · Documenter les processus et les architectures. Compétences et qualifications requises · Expérience avérée dans la gestion d'applications Kubernetes . · Maîtrise des outils d'automatisation et de CI/CD : GitLab, Jenkins, Terraform, Ansible. · Expérience significative avec les plateformes cloud Azure et AWS. · Connaissance approfondie du monde de la data, des différents métiers, outils et de son écosystème. · Expérience en tant que Data Engineer appréciée. · Compréhension de l'écosystème de l'IA et expérience dans le déploiement de modèles d'IA, d'agent, d'applications RAG · Maîtrise de python · Capacité à travailler en équipe et à collaborer avec divers départements. · Excellentes compétences en résolution de problèmes et en communication

Mission freelance
Ingénieur Ops Data & IA Kubernetes GitLab, Jenkins, Terraform, Ansible Azure AWS Lyon ou Lille/co
Ingénieur Ops Data & IA Kubernetes GitLab, Jenkins, Terraform, Ansible Azure AWS Lyon ou Lille Participer à la gestion et à l'optimisation de notre infrastructure, en mettant l'accent sur les applications Data et d'intelligence artificielle · Gérer et optimiser les applications conteneurisées sur Kubernetes. · Automatiser les processus de déploiement et de gestion de l'infrastructure à l'aide de GitLab, Jenkins, Terraform et Ansible. · Travailler avec les plateformes cloud Azure et AWS pour déployer et gérer les services. · Collaborer avec les équipes de données et d'IA pour soutenir le développement et le déploiement de modèles d'IA. · Surveiller et améliorer les performances et la sécurité des systèmes. · Documenter les processus et les architectures. Compétences et qualifications requises · Expérience avérée dans la gestion d'applications Kubernetes . · Maîtrise des outils d'automatisation et de CI/CD : GitLab, Jenkins, Terraform, Ansible. · Expérience significative avec les plateformes cloud Azure et AWS. · Connaissance approfondie du monde de la data, des différents métiers, outils et de son écosystème. · Expérience en tant que Data Engineer appréciée. · Compréhension de l'écosystème de l'IA et expérience dans le déploiement de modèles d'IA, d'agent, d'applications RAG · Maîtrise de python · Capacité à travailler en équipe et à collaborer avec divers départements. · Excellentes compétences en résolution de problèmes et en communication
Mission freelance
Data Ingénieur·e Big Data – Java Spark / Spring Boot / Cloudera
Dans le cadre d’un vaste programme de transformation digitale, CBX Group accompagne l’un de ses clients dans la mise en place d’une plateforme Data Big Data . Nous recherchons plusieurs Data Engineers expérimentés pour renforcer les équipes en charge du design et développement de traitements batch & stream , avec exposition des données via API & BI. 🎯 Vos missions : Analyser les besoins métiers avec les Product Owners Développer des pipelines en Spark SQL & Java Spark Concevoir les traitements de données temps réel (Kafka, Mongo…) Documenter dans Confluence, assurer support & maintenance Optimiser et tunner des traitements Spark Participer au design des usages bigdata avec le métier et les PO Participer aux rituels agiles de la squad (Scrum) 💡 Profil recherché : Diplômé·e en informatique (bac+5) 5 ans d'expérience minimum en environnement Big Data Maîtrise de Spark Java, Spring Boot, CI/CD Bonne compréhension des architectures microservices & API REST Anglais pro et excellent français 🧰 Stack technique : Cloudera / MAPR, Java 11/17/21, Spark 2 / 3 , Spring Boot, Kafka, MongoDB, Jenkins, Kubernetes, ArgoCD, Sonar… ✅ Cadre de la mission : Hybride ( 50% TT) Rémunération selon le profil Durée : 3 ans Démarrage : ASAP 📩 Postule ici via notre formulaire : 📧Une question ? Écris-nous sur

Offre d'emploi
Chef(fe) de projet modelisation data
Au sein du pôle Produits/Projets Data, vous interviendrez en tant que Chef(fe) de Projet Coordinateur(rice) pour piloter les flux d’ingestion et d'exposition de données dans le cadre de projets stratégiques (analyse client, performance commerciale, etc.). Objectifs de la mission 1- Coordonner des projets d’ingestion de données depuis les sources (internes ou externes), jusqu’à la plateforme de traitement Data, sous Cloud Microsoft Azure 2 - Coordonner des projets d'exposition de données vers des partenaires (internes ou externes) 3 - Assurer la qualité, la traçabilité et la conformité des données ingérées. 4 - Collaborer avec les équipes techniques (responsables d’application ; Data Engineers ; System Architect ; DevOps), ainsi qu'avec les PO et PM métiers 5 - Garantir le respect des délais, des coûts et de la qualité des livrables. 6 - Participer à l’amélioration continue des processus d’ingestion Compétences techniques requises - Gestion de projet : méthodologie Agile/Scrum/Kanban ; Outils Jira, Confluence - Bonnes connaissances des architectures Data : Data Lake, APIs, batch & streaming. - Expérience confirmée sur des projets Data : pilotage ; conception ; modélisation - Suivi de la mise à jour des livrables de documentations : Contrats d’interface ; Inventaire des flux - Maîtrise des outils d’ingestion : Azure Data Factory - Bonnes connaissances des environnements Cloud - Notions de gouvernance des données : qualité, catalogage, sécurité, RGPD. - Expérience dans le secteur du retail serait un plus Qualités humaines - Leadership collaboratif : capacité à fédérer des équipes pluridisciplinaires. - Excellente communication : vulgarisation des enjeux techniques auprès des métiers. - Rigueur et sens de l’organisation : gestion multi-projets, priorisation, autonomie et sens du service - Orientation résultats : focus sur la valeur métier et la livraison. - Curiosité et proactivité : force de proposition.

Offre d'emploi
Chef(fe) de projet modelisation data
Au sein du pôle Produits/Projets Data, vous interviendrez en tant que Chef(fe) de Projet Coordinateur(rice) pour piloter les flux d’ingestion et d'exposition de données dans le cadre de projets stratégiques (analyse client, performance commerciale, etc.). Objectifs de la mission 1- Coordonner des projets d’ingestion de données depuis les sources (internes ou externes), jusqu’à la plateforme de traitement Data, sous Cloud Microsoft Azure 2 - Coordonner des projets d'exposition de données vers des partenaires (internes ou externes) 3 - Assurer la qualité, la traçabilité et la conformité des données ingérées. 4 - Collaborer avec les équipes techniques (responsables d’application ; Data Engineers ; System Architect ; DevOps), ainsi qu'avec les PO et PM métiers 5 - Garantir le respect des délais, des coûts et de la qualité des livrables. 6 - Participer à l’amélioration continue des processus d’ingestion Compétences techniques requises - Gestion de projet : méthodologie Agile/Scrum/Kanban ; Outils Jira, Confluence - Bonnes connaissances des architectures Data : Data Lake, APIs, batch & streaming. - Expérience confirmée sur des projets Data : pilotage ; conception ; modélisation - Suivi de la mise à jour des livrables de documentations : Contrats d’interface ; Inventaire des flux - Maîtrise des outils d’ingestion : Azure Data Factory - Bonnes connaissances des environnements Cloud - Notions de gouvernance des données : qualité, catalogage, sécurité, RGPD. - Expérience dans le secteur du retail serait un plus Qualités humaines - Leadership collaboratif : capacité à fédérer des équipes pluridisciplinaires. - Excellente communication : vulgarisation des enjeux techniques auprès des métiers. - Rigueur et sens de l’organisation : gestion multi-projets, priorisation, autonomie et sens du service - Orientation résultats : focus sur la valeur métier et la livraison. - Curiosité et proactivité : force de proposition.

Mission freelance
Chef de projet : Piloter Coordination flux ingestion DATA
📢 Mission freelance – Chef de Projet / Coordinateur Ingestion Data (H/F) 📍 Localisation : Île-de-France (92) 📅 Démarrage : ASAP 📆 Durée : 3 ans 💰 TJM max : 550 € / jour 🎯 Expérience requise : 4 à 10 ans 🏢 Contexte : Rejoignez le pôle Produits/Projets Data pour piloter des flux d’ingestion et d’exposition de données dans le cadre de projets stratégiques (analyse client, performance commerciale, etc.). Vous serez l’interface entre les équipes techniques et métiers dans un environnement Cloud Azure. 📌 Vos missions : - Coordonner les projets d’ingestion de données (internes / externes) vers la plateforme Data - Piloter l’exposition des données vers les partenaires (internes / externes) - Garantir la qualité, traçabilité et conformité des flux - Collaborer avec les équipes tech (Data Engineers, Archis, DevOps) et métiers (PO, PM) - Produire et maintenir des tableaux de bord de suivi de flux - Assurer le respect des délais, coûts, qualité - Participer à l’amélioration continue des processus d’ingestion 🛠️ Compétences techniques : - Azure Data Factory – Confirmé (impératif) - Modélisation de données – Confirmé (impératif) - Databricks – Junior (important) - Méthodo Agile / Scrum – Junior (important) - Connaissances : Data Lake, APIs, batch & streaming, documentation de flux - Notions de gouvernance : qualité, catalogage, sécurité, RGPD - Une expérience dans le retail est un vrai plus 🤝 Profil & soft skills recherchés : 🤝 Leadership collaboratif & capacité à fédérer 🗣️ Excellente communication & vulgarisation technique 📌 Rigueur, autonomie, priorisation, gestion multi-projets 🎯 Orientation valeur & résultats 🔍 Curiosité et proactivité : force de proposition attendue 📩 Intéressé(e) ou une personne à recommander ? Contactez-moi en MP ! 🔔 Ne manquez aucune opportunité en suivant Suricate iT : 👉

Offre d'emploi
Data Cloud Architect
NE PAS POSTULER SI VOTRE PROFIL NE CORRESPOND PAS A L'OFFRE OU SI NE VOUS SOUHAITEZ PAS VOUS ALIGNER AU TJM MENTIONNÉ Contexte de la mission En tant que membre de l’équipe Data Capture , le poste requiert une solide expérience technique et en architecture, ainsi qu’une forte maîtrise des technologies Cloud , du développement de microservices et de l’ architecture orientée événements (Event Driven Architecture) . Ce rôle implique également une collaboration étroite avec les équipes IT du Groupe et des zones, les partenaires métiers, les partenaires externes, ainsi que l’ensemble des membres de l’équipe d’intégration. Les compétences suivantes sont clés et obligatoires : Leadership et autonomie Engagement sur les sujets Capacité à produire de la documentation (dans le cadre d’un audit, d’un POC, ou pour formaliser des standards et de l’architecture) Objectifs et livrables Concevoir et proposer des solutions autour de la donnée en utilisant les technologies Azure Cloud dans le cadre de notre framework Concevoir et proposer des solutions sur Snowflake Appliquer la stratégie "Data as a Service" en respectant les bonnes pratiques d’architecture Concevoir et développer des API / microservices pour enrichir notre framework de solutions Soutenir la stratégie Event Driven Architecture basée sur Azure Event Hub et Azure IoT Hub Contribuer à l’enrichissement de notre catalogue de services en self-service Participer à la modernisation et à la veille technologique au sein de l’équipe Data Capture et de l’organisation Data & Analytics Être le référent Cloud au sein de l’équipe Animer des ateliers et faciliter la collecte des besoins Accompagner les Data Engineers sur les sujets liés au Cloud Apporter un support à l’ équipe Sécurité sur les sujets associés Contribuer à la roadmap Data Capture et à son évolution Challenger et accompagner les prestataires externes Compétences demandées Compétence Niveau Snowflake Expert Event Driven Architecture (EDA) Confirmé Architecture Expert Réseau Confirmé Intégration continue Expert SQL Expert Azure Confirmé Données (Data) Expert Codage Confirmé Anglais Courant
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.