Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 483 résultats.
CDI

Offre d'emploi
Data Engineer Expert Elastic Stack - F/H

Publiée le

Guyancourt, Île-de-France
Depuis 2012, nous mettons notre expertise au service des secteurs de l'IT et l'Ingénierie pour accompagner nos clients dans des projets ambitieux et innovants. Notre force ? Un management de proximité qui valorise vos aspirations, des opportunités de carrière concrètes et un engagement sincère pour le bien-être et l'épanouissement de nos collaborateurs. Rejoignez-nous sur des projets à fort impact au sein d'une entreprise où chaque talent compte ! Avanista recrute ! Toujours en recherche de nouveaux talents, nous souhaiterions intégrer un Data Engineer Expert Elastic Stack au sein de nos équipes pour l'un de nos clients. Le contexte ? La transformation des SI de nos Clients vers des architectures modulaires, type micro-services, l'essor de nos infrastructures et l'évolution des technologies associées, ou encore l'automatisation accrue sur nos socles et applications, génèrent une quantité massive de Logs, devenues très hétérogènes, dispersées et silotées de par l'organisation de la société et de ses Clients (équipes applicatives et socles multiples et dispersées). Au sein de la société, dans un contexte multi domaines/Clients (banque de détail, assurances, banque de marchés, asset management, etc.), vous êtes rattaché à l'équipe « Data4Ops », au sein du Domaine d'Expertise « Automatisation et Observabilité » Cette équipe a la charge de structurer les données dites « opérationnelles » à savoir les données utiles à l'ensemble des métiers et équipes opérationnelles, en adéquation avec la stratégie Data de l'entreprise (basée sur les principes/concepts Data Mesh) et en relation avec le PM (Product Manager) Observabilité Vos missions ? - Maîtriser l'ensemble des techniques et technologies composant la chaine de collecte à la mise à disposition des Logs - Accompagner les besoins et projets sur la collecte, transformation, stockage et mise à disposition des données, provenant de sources diverses en adéquation avec la Stratégie Data - Concevoir et mettre à disposition les outils et processus (CI/CD) permettant d'automatiser les pipelines d'ingestion de données prenant en compte les besoins de fréquences (batch, temps réel, ...) - Développer et déployer des mécanismes de contrôle qualité ainsi que des routines de vérification pour garantir l'intégrité et la fiabilité des données Pour réaliser la mission, vous serez à même de : - Participer à la conception des solutions techniques et fonctionnelles - Gérer les données de l'entreprise (flux : collecte, traitement, stockage et leur cycle de vie) -Rédiger les documents fonctionnels et techniques, d'exploitation, en veillant au respect des normes existantes - Mettre en oeuvre en mode DevOps (CI/CD) - Assurer le support technique et fonctionnel, notamment analyse et résolution des incidents ou problèmes - Être en relation avec les équipes opérationnelles de l'entreprise pour prise en compte des flux de données - Développer les cas d'usage de Dashboard / ML / IA dans la solution, remontés par les utilisateurs Stack Elastic OpenSource
Freelance

Mission freelance
Tech Lead (ML engineering)

Publiée le
MLOps

1 an
400-700 €
Paris, France
Télétravail partiel
Contexte: Vous rejoindrez une équipe dynamique dédiée au développement et à l’évolution d’une solution de prédiction d’arrivée des colis déployée à l’échelle mondiale. Au cœur d’un environnement international et exigeant, vous aurez pour mission de garantir la robustesse, la disponibilité et la performance d’un produit critique, tout en contribuant activement à son amélioration continue. Missions : Industrialisation & Run Assurer la gestion de la production au quotidien et le maintien en conditions opérationnelles de la solution. Piloter le déploiement des évolutions via des pipelines CI/CD fiables et scalables. Mettre en place et optimiser les systèmes de monitoring et d’alerting pour garantir la qualité de service. Expertise technique Intervenir en tant que référent technique sur des environnements custom complexes. Résoudre des problématiques de performance, scalabilité et optimisation sur des architectures distribuées. Polyvalence & R&D Apporter un support transversal sur d’autres produits de l’écosystème Data/ML du groupe. Participer à une démarche de veille technologique sur des sujets innovants : NLP, Deep Learning, IA générative, automatisation… Proposer de nouvelles pistes d’amélioration, d’industrialisation et d’innovation
Freelance

Mission freelance
Chef de Projet CRM Salesforce

Publiée le
Application web
BPM (Business Process Management)
CRM

12 mois
540-590 €
Paris, France
Télétravail partiel
Contexte Rattaché.e au Pôle Produit, Data & IA et en étroite collaboration avec les équipes métiers, produit, CRM/Digital Factory et l’équipe transverse Web, le/la Chef.fe de projet CRM & Sites institutionnels pilote la feuille de route, la cohérence et la valeur d’usage de deux assets clés de la relation avec les différents publics : l’écosystème CRM (principalement Salesforce) les sites institutionnels de l’entreprise et de ses filiales L’objectif : faire du CRM et des sites institutionnels des leviers de connaissance, de transparence, d’efficacité et d’engagement auprès des clients, partenaires, collectivités, citoyens et acteurs de l’écosystème. Rôle Le/la Chef.fe de projet CRM & Sites institutionnels est : le chef d’orchestre de la relation Client et Collectivités grâce aux processus et outils CRM le garant du bon fonctionnement, de l’évolution et de la gouvernance des sites institutionnels, en coordination avec les métiers, les développeurs et l’agence en charge du webmastering / SEO Il/elle assure une expérience digitale cohérente, data-driven, centrée utilisateur et orientée performance. Responsabilités principales 1. Stratégie CRM & Sites Web Exécuter la stratégie CRM en cohérence avec les priorités métiers et la stratégie globale de l’entreprise Positionner le CRM comme socle unifié de la relation client/partenaire de la prospection à la fidélisation Identifier et prioriser les cas d’usage à forte valeur Assurer la cohérence entre Salesforce et les autres briques technologiques Définir et maintenir la roadmap d’évolution des sites institutionnels Aligner les évolutions avec les priorités métiers, réglementaires et de communication Garantir une UX cohérente, fiable, inclusive et conforme aux standards d’accessibilité 2. Pilotage & Roadmap CRM Construire et maintenir la feuille de route CRM Piloter les évolutions fonctionnelles : backlog, arbitrages, recette, déploiements Superviser les intégrations et l’interopérabilité avec les autres outils internes Garantir disponibilité, performance et fiabilité du dispositif CRM 3. Coordination Transverse des Projets Web Coordonner les évolutions avec les équipes métiers, l’équipe de développeurs, l’agence webmastering/SEO et les contributeurs Piloter l’instruction, la priorisation et le suivi des demandes Assurer la qualité des livrables 4. Gouvernance & Qualité Mettre en place et animer la gouvernance CRM : processus, règles de gestion, documentation Assurer la qualité, la sécurité et la conformité RGPD des données Suivre les KPI CRM : adoption, complétude, satisfaction utilisateurs, valeur business Suivre et améliorer performances techniques, accessibilité, qualité des pages et conformité RGPD des sites Garantir la continuité de service et la cohérence éditoriale 5. Collaboration & Accompagnement Travailler avec les métiers pour comprendre besoins et irritants Animer la communauté d’utilisateurs CRM : key users, référents, ambassadeurs Favoriser l’adoption : communication, formation, support, change management Intégrer les retours utilisateurs dans une démarche d’amélioration continue Coordonner les actions SEO avec l’agence Accompagner les métiers dans la gestion et la mise à jour des contenus 6. Innovation & Évolution du Produit Assurer une veille sur les évolutions Salesforce, l’automatisation, la personnalisation, l’IA Expérimenter puis déployer les fonctionnalités à forte valeur Développer les synergies entre CRM, Data et Produit Promouvoir une approche responsable et éthique de la donnée Profil recherché Expérience confirmée (7+ ans) en gestion de projets CRM Salesforce et projets digitaux (sites institutionnels) Maîtrise du pilotage transverse : métiers, développeurs, prestataires, SEO, gouvernance Compétences solides en analyse, data, qualité et performance digitale Excellente communication, capacité à vulgariser et fédérer une communauté d’utilisateurs Sens aigu de l’expérience utilisateur, de la priorisation et de la valeur d’usage Aisance en conduite du changement, pédagogie et orientation solution Curiosité, rigueur, autonomie et forte sensibilité à la qualité de la donnée
CDI
Freelance

Offre d'emploi
DATA SCIENTIST SENIOR – BRUXELLES

Publiée le
Data science
Python

3 ans
Bruxelles, Bruxelles-Capitale, Belgique
Pour une mission longue sur Bruxelles (3 jours site ) , nous recherchons un data scientist expérimenté (minimum 3 ans d’expérience) ayant OBLIGATOIREMENT une expérience dans le secteur bancaire. · Poste en CDI (idéalement pour une relocalisation en Belgique), ouvert aux Freelances, · Anglais obligatoire · Salaire ou tarif à discuter En tant que Data Scientist, vous devez maîtriser différents aspects du Machine Learning. Ce poste offre l’opportunité d’appliquer et de renforcer tes compétences dans plusieurs domaines : • Relever divers défis métiers en créant des applications d’IA (assistant virtuel, etc.) destinées à améliorer l’expérience client, fournir de meilleurs outils aux collaborateurs, et automatiser ou optimiser les processus internes. • Utiliser un large éventail de méthodologies analytiques (IA générative et IA prédictive), incluant les techniques et approches de GenAI : Prompt Engineering, RAG, fine-tuning, speech-to-text, applications agentiques, génération et interprétation d’images, NLP, ainsi que les méthodes statistiques et de machine learning classiques. Bien que vous ne soyez pas expert dans tous ces domaines, vous devez posséder une solide expertise dans les technologies clés et la capacité d’apprendre rapidement de nouvelles approches selon les besoins. • Disposer d’une grande expérience en programmation Python et contribuer au déploiement d’applications d’IA en production en utilisant une pile technologique complète. • Présenter directement les résultats de tes travaux au top management. • Accéder à l’un des volumes de données les plus riches et variés du marché et y appliquer tes compétences. • Évoluer dans un environnement qui valorise l’innovation, les processus agiles et efficaces, la communication directe, et un esprit d’équipe fort. • Travailler au sein d’une équipe agile et collaborative, composée de collègues prêts à partager leurs expériences et à coopérer au quotidien.
Freelance

Mission freelance
Senior Data Engineer GCP MLOps

Publiée le
Apache Airflow
DBT
Google Cloud Platform (GCP)

6 mois
500-550 €
Paris, France
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un Senior Data Engineer (H/F) pour l'un de ses clients qui opère dans le secteur culturel Description 🧩 Contexte de mission Au sein d’un pôle Data d’une douzaine de personnes, vous intégrerez l’équipe Data Engineering composée de trois Data Engineers. La mission vise à renforcer l’expertise du pôle dans un contexte de croissance et d’industrialisation des usages data. L’objectif principal est d’optimiser l’infrastructure data afin d’assurer fiabilité, performance et scalabilité des pipelines. En 2026, les enjeux stratégiques portent sur l’intégration de nouvelles sources de données, le déploiement d’outils de diffusion de la donnée (interne/externe) et l’ouverture vers des usages avancés (reporting, IA, open data). 🎯 Missions principales & Rôle Mettre en œuvre les meilleures pratiques dbt pour la modélisation et la transformation des données dans BigQuery. Concevoir et développer des mécanismes d’ingestion et d’intégration pour de nouvelles sources de données externes. Réaliser un audit complet de l’infrastructure data GCP, et mettre en place les optimisations nécessaires pour garantir performance et scalabilité. Déployer une approche DataOps avancée : monitoring, alerting, documentation, tests automatisés, fiabilité des pipelines. Concevoir, développer et sécuriser des pipelines de bout en bout pour le déploiement de modèles ML en production (MLOps). Accompagner la montée en compétence des Data Engineers et Data Scientists du pôle. Participer au développement d’outils de diffusion de la donnée : reverse ETL, APIs, solutions internes/externalisées. 🎯 Objectifs Améliorer durablement la performance, la robustesse et la scalabilité des pipelines de données. Structurer les workflows DataOps & MLOps pour une industrialisation complète et fiable. Faciliter l’intégration de nouvelles sources de données dans une architecture GCP sécurisée et optimisée. Mettre en place les standards, bonnes pratiques et outillages pour accompagner la croissance du pôle data. Accélérer l’adoption interne des données via des API, dashboards et solutions de diffusion adaptées.
Freelance

Mission freelance
Chef de projet CRM

Publiée le
Salesforce Sales Cloud

12 mois
Paris, France
Télétravail partiel
Cherry Pick est à la recherche d'un Chef de projet CRM pour l'un de ses clients dans le secteur de l'écologie. 🎯 Mission Rattaché·e au Pôle Produit, Data & IA et en étroite collaboration avec les équipes métiers, produit, CRM/Digital Factory et l’équipe transverse Web, le/la Chef·fe de projet CRM & Sites institutionnels pilote la feuille de route, la cohérence et la valeur d’usage de deux assets clés de la relation avec les différents publics de l’entreprise : L’écosystème CRM (principalement Salesforce) Les sites institutionnels de l’entreprise et de ses filiales Il/elle garantit la performance, la qualité et l’évolution de ces deux dispositifs, dans une logique unifiée connaissance – relation – information au service de la mission globale de l’organisation. L’objectif : faire du CRM et des sites institutionnels des leviers clés de connaissance, transparence, efficacité et engagement auprès des clients, partenaires, collectivités, citoyens et acteurs de l’écosystème. 🎼 Rôle Le/la Chef·fe de projet CRM & Sites institutionnels est : Le chef d’orchestre de la relation Client et Collectivités unifiée , via les processus et outils CRM. Le garant du bon fonctionnement, de l’évolution et de la gouvernance des sites institutionnels , en coordination avec les métiers, les développeurs et l’agence en charge du webmastering/SEO. Il/elle assure la cohérence globale de l’expérience digitale, en combinant approche data-driven , vision client 360° , qualité de l’information et excellence opérationnelle . 📌 Responsabilités principales 1. Stratégie CRM & Sites Web Exécuter la stratégie CRM en cohérence avec les priorités métiers et la stratégie globale de l’entreprise. Positionner le CRM comme socle unifié de la relation client/partenaire, de la prospection à la fidélisation. Identifier et prioriser les cas d’usage à forte valeur. Garantir la cohérence entre Salesforce et les autres briques technologiques. Définir, structurer et maintenir la roadmap d’évolution des sites institutionnels. Aligner les évolutions avec les priorités métiers, réglementaires et communication. Assurer une expérience utilisateur cohérente, fiable, inclusive et conforme aux standards d’accessibilité. 2. Pilotage & Roadmap CRM Construire et maintenir la feuille de route CRM. Piloter les évolutions fonctionnelles : backlog, arbitrages, recettes, déploiements. Superviser les projets d’intégration et d’interopérabilité avec les autres outils. Garantir la disponibilité, la performance et la fiabilité du dispositif CRM. 3. Coordination transverse des projets Web Coordonner les évolutions avec les métiers, les développeurs, l’agence de webmastering/SEO, les équipes contenu, la gouvernance. Piloter l’instruction et la priorisation des demandes. Assurer la qualité des livrables. 4. Gouvernance & Qualité Mettre en place et animer la gouvernance CRM : processus, règles de gestion, documentation. Garantir la qualité, la sécurité des données et la conformité RGPD. Suivre les KPI CRM : adoption, complétude, satisfaction utilisateurs, valeur business. Suivre et améliorer la performance des sites : qualité technique, accessibilité, conformité, continuité de service. Assurer la cohérence et la qualité des contenus, dans le respect de la gouvernance éditoriale. 5. Collaboration & Accompagnement Travailler étroitement avec les directions métiers pour comprendre les besoins et irritants. Fédérer la communauté d’utilisateurs CRM (key users, référents, ambassadeurs). Favoriser l’adoption : communication, formation, support, conduite du changement. Intégrer les retours utilisateurs dans une démarche d’amélioration continue. Coordonner les actions SEO avec l’agence. Accompagner les métiers dans la production et la mise à jour des contenus. 6. Innovation & Évolution du Produit Assurer une veille sur Salesforce, l’automatisation, la personnalisation, l’IA. Tester puis déployer les fonctionnalités à fort potentiel. Développer les synergies entre CRM, Data et Produit. Promouvoir une approche responsable et éthique de la donnée client.
Stage

Offre de stage
Stage – Développeur·se Full Stack Mobile

Publiée le
Angular
Flutter
PostgreSQL

6 mois
Paris, France
Télétravail 100%
Plongez au cœur de l’innovation et explorez l’ IA , les architectures microservices et le développement full stack Mobile CBX Group recherche plusieurs stagiaires Développeur·ses Full Stack pour rejoindre sa Direction Technique , aux côtés de nos architectes expérimentés. Vos missions Concevoir des architectures innovantes Développer des Applications innovantes bases sur nos modèles AI souverains Rédiger des guidelines techniques Participer au design & à l’architecture des projets internes Contribuer à la vie d’équipe ( Daily, Weekly, Sprint Demo )
CDI

Offre d'emploi
Senior Frontend Engineer

Publiée le
Datadog
Github
Kanban

60k-70k €
Paris, France
Télétravail partiel
Nous recherchons un développeur frontend capable de prendre en main plusieurs applications web (back-office, interfaces utilisateurs, espaces dédiés) et d’assurer la qualité, les performances et la responsivité des interfaces. La mission consiste à implémenter des fonctionnalités de bout en bout, en collaboration avec l’équipe backend, et à contribuer à l’évolution continue de la stack frontend. Le rôle inclut également l’identification proactive de problèmes (UI, bugs graphiques, performance) ainsi que leur résolution. L’environnement de travail comprend un MacBook Pro, l’IDE de votre choix, l’usage d’outils d’IA pour améliorer la productivité, ainsi qu’un workflow basé sur GitHub, GitHub Actions, Datadog, Notion et Codecov. L’organisation interne suit une méthodologie Kanban.
Freelance
CDD

Offre d'emploi
Lead Consultant Machine Learning Engineering H/F

Publiée le
GitLab CI
Google Cloud Platform (GCP)
Python

12 mois
40k-45k €
600-680 €
Île-de-France, France
Télétravail partiel
En interaction avec les membres de l’équipe, vos missions consisteront à : • Définir l'architecture et la feuille de route technique, en tenant compte des exigences de performance, de scalabilité et de sécurité • Accompagner les membres de l’équipe pour garantir la qualité du code et du modèle • Concevoir, construire et maintenir des pipelines ML robustes et scalables de la collecte des données à l’exposition des modèles via des API Rest • Organiser et structurer le stockage des données • Assurer l’évolutivité, la sécurité, la stabilité des environnements • Mettre en place et maintenir les infrastructures scalables capable de répondre aux besoins et au volume de données • Industrialiser les modèles IA en lien avec les data scientists • Construire et maintenir les workflows de la CI/CD • Collaborer avec les data ingénieurs et les autres équipes techniques pour appliquer les bonnes pratiques en vigueur • Contribuer et veiller à la mise à jour de la documentation • Faire de la veille technologique active dans le domaine • Participer activement aux différentes phases de cadrage, de planification et de réalisation des tâches avec l’équipe
Freelance
CDI

Offre d'emploi
QA Automatisation & Fonctionnel

Publiée le
Test fonctionnel

12 mois
48k-50k €
420-460 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Télétravail partiel
Nous recherchons un QA – Automatisation & Fonctionnel confirmé pour rejoindre une Squad Scrum, et contribuer à la mise en place de méthodes et outils de tests innovants. Parallèlement, vous participerez à la montée en maturité de la practice QA en accompagnant les autres QA sur l’automatisation des tests, en diffusant les bonnes pratiques et en contribuant à l’industrialisation des processus de test. La connaissance ou l’expérimentation de l’IA dans le cadre des tests ou de l’automatisation sera un plus et pourra faire la différence sur ce poste. Objectif : instaurer une culture de test complète, combinant expertise fonctionnelle, automatisation et qualité globale des livraisons, avec des suites de tests rapides, traçables et maintenables. Les équipes évoluent dans un environnement technique composé de : AWS, Angular, PHP (Symfony), Java, JavaScript, Python. Une familiarité avec ces stacks est appréciée. MISSIONS: Au sein de la squad (80% du temps) : • Co-rédiger les critères d’acceptation (Gherkin/BDD), clarifier DoR/DoD. • Collaborer avec le métier, le Product Owner, les développeurs pour structurer efficacement les scénarios et cas de tests • Définir et exécuter la stratégie de tests fonctionnels et automatisés adaptés à votre squad • Proposer des outils et patterns réutilisables pour les autres QA • Garantir la traçabilité, la fiabilité et la maintenabilité des tests • Expérimenter des solutions IA pour optimiser les tests et améliorer la qualité des livraisons (optionnel mais gros plus) Animation de la practice QA (20% du temps): • Diffuser aux autres QA les pratiques et outils adoptés dans votre squad • Diffuser les bonnes pratiques et recommandations QA au sein de la DT • Contribuer à la documentation vivante (standards, templates).
CDI
CDD
Freelance

Offre d'emploi
Ingénieur DevOps GCP/MLOps

Publiée le
AWS Cloud
Google Cloud Platform (GCP)
MLOps

1 an
48k-50k €
480-510 €
Île-de-France, France
Télétravail partiel
Dans le cadre de projets stratégiques orientés Data & Intelligence Artificielle, nous recherchons un Ingénieur DevOps GCP/MLOps intervenant sur l’ensemble du cycle de vie des solutions : design, build et run . Vous intégrerez une équipe dédiée au périmètre DATA, en collaboration étroite avec les squads métiers. ✅ Vos missions Conception, gestion et automatisation d’infrastructures Cloud sur GCP Mise en place et optimisation de chaînes MLOps : collecte et préparation de la donnée, feature engineering, entraînement, déploiement, monitoring et amélioration des modèles Industrialisation des pipelines CI/CD et automatisation des déploiements Maintien en condition opérationnelle des plateformes et applications Gestion du cycle de vie applicatif Analyse et résolution d’incidents d’infrastructure Rédaction des procédures et documentation technique ✅ Profil recherché Expérience confirmée en tant qu’Ingénieur DevOps ou MLOps sur GCP (obligatoire) Maîtrise de Terraform (y compris en environnement restreint / air-gapped idéalement) Solides compétences en scripting, automatisation et normalisation Connaissance des pratiques CI/CD, observabilité et monitoring Capacité à intervenir en production (MCO / MEP) ✅ Environnements techniques Cloud : GCP (AWS apprécié) MLOps / IA : Kubeflow, TensorFlow, PyTorch, notebooks, Python Containerisation & orchestration : Kubernetes, Docker, ArgoCD, EKS (atout) CI/CD : Jenkins, Helm, Artifactory, Container Registry IaC : Terraform Monitoring & logs : ELK, OpenSearch, Grafana, Cloud Monitoring / Logging ✅ Soft Skills Rigueur, autonomie et sens du service Aisance relationnelle et travail en équipe Réactivité, partage et communication Gestion du stress et capacité de conseil
CDI
Freelance

Offre d'emploi
Solution Architect / Enterprise Architect (Innovation & AI)

Publiée le
Architecture
Design
Java

1 an
61k-105k €
410-800 €
Luxembourg
Missions principales Analyser, évaluer et qualifier des solutions innovantes du marché, notamment dans le domaine de l’IA (techniques, fonctionnelles, risques, sécurité, intégration, coût). Concevoir et documenter l’architecture des solutions , en produisant des schémas conceptuels, logiques et physiques intégrant : architecture applicative et technique, aspects sécurité et conformité, design de flux et modèles d’intégration dans le SI existant. Travailler en étroite collaboration avec les équipes architecture, sécurité, data, IT, business et conformité pour assurer la cohérence globale des solutions proposées. Participer à l’intégration des solutions IA dans le SI de la banque, en soutenant les équipes projets et les tech leads dans les phases de cadrage, conception et mise en œuvre. Mener des études de faisabilité , élaborer des Proof of Concepts (PoC) et proposer des trajectoires d’implémentation. Assurer un rôle hybride Architecte / Tech Lead , capable de descendre dans la technique, comprendre les contraintes opérationnelles et accompagner les équipes delivery. Être moteur de l’innovation , en apportant des idées, en challengeant les approches existantes et en formulant des recommandations structurées. Garantir la conformité des solutions aux standards de la banque, notamment en matière de sécurité, architecture, résilience et gestion des données.
Freelance

Mission freelance
Data Engineering Manager – Data Platform & Transformation H/F

Publiée le
Azure
Snowflake

6 mois
450-580 €
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
Notre client dans le secteur Santé et pharma recherche un/une Data Engineering Manager – Data Platform & Transformation H/F Description de la mission: L’entreprise accélère sa transformation Data & IA et structure son organisation Data autour d’un modèle opérationnel à deux squads : Data Product Squad (orientée métier et création de valeur) Data Engineering Squad (mise à disposition de la plateforme, exploitation et enablement) L’entreprise recherche un(e) Data Engineering Manager expérimenté(e) pour piloter la Data Engineering Squad durant une phase de transition critique. La mission couvre trois objectifs menés en parallèle : Lancer et structurer la future plateforme Data cible , dont le socle technologique est en cours de validation et devrait s’appuyer sur Databricks ou Snowflake sur Microsoft Azure Migrer progressivement les environnements data historiques vers la nouvelle plateforme Assurer la livraison des projets métiers et clients en cours , à la fois sur les stacks existantes et sur la nouvelle plateforme, sans perturber les opérations Ce rôle requiert un fort leadership et une excellente capacité d’exécution . Responsabilités principales Piloter et manager la Data Engineering Squad (équipes internes et partenaires externes) Être responsable de la delivery , de la capacité et de la performance opérationnelle sur les plateformes legacy et cible Garantir la fiabilité , la performance , la scalabilité et l’ optimisation des coûts Structurer et piloter le bootstrap de la plateforme Data cible Planifier et exécuter la migration progressive des stacks legacy vers la plateforme cible Sécuriser la livraison des projets métiers et clients en cours sur les deux environnements Définir et faire respecter les standards Data Engineering et les modes de fonctionnement Agir comme point de contact principal avec les équipes Data Product, Architecture et IT Accompagner et faire monter en compétence les équipes Data locales sur les stacks technologiques Data Compétences & Expérience requises Expérience avérée en tant que Data Engineering Manager / Lead dans des environnements complexes et en transformation Solide expertise en plateformes Data et en Data Engineering Expérience confirmée avec Databricks et/ou Snowflake , idéalement sur Azure Expérience du management d’équipes mixtes (internes, consultants, offshore / AMS) Bonne maîtrise des enjeux de run , de gestion des incidents et de pilotage des coûts Expérience de migration de plateformes legacy vers une plateforme cible Excellentes capacités de leadership et de gestion des parties prenantes Profil senior requis (autonome, pragmatique, orienté delivery) Modalités de la mission Démarrage : janvier 2026 Langues : français & anglais
Freelance
CDI

Offre d'emploi
Observability Expert

Publiée le
Azure
Grafana

3 ans
40k-65k €
400-660 €
Paris, France
Télétravail partiel
I. Contexte : Notre département IT souhaite mettre en place et animer une Communauté de Pratique dédiée à l’observabilité et à la supervision de nos applications métiers. En tant qu’expert Observabilité/Supervision, vous serez chargé de définir et mettre en œuvre une stratégie d’observabilité complète (monitoring, logs, alerting, tracing) afin de garantir une visibilité en temps réel sur l’état de santé, les performances et le comportement de nos applications. Ces solutions permettront une détection proactive des incidents, un diagnostic rapide des problèmes et assureront la disponibilité de nos services critiques. L’environnement applicatif est hybride, composé de solutions cloud (D365, Power Apps, services Azure, Data product Fabric) et d’applications hébergées on-premise sur serveurs Windows (sites web, serveurs IIS, etc.). II. Missions : · Référent technique pour contribuer à la construction et à l’implémentation des composants de supervision et des pipelines d’observabilité · Fournir une expertise et, si nécessaire, participer à la conception, l’intégration et le déploiement des solutions de supervision (dashboards, collecte de logs, tracing, détection d’anomalies basée sur l’IA, etc.) · Collaborer avec les équipes de développement, d’exploitation et de sécurité pour intégrer les outils et pratiques d’observabilité dans les pipelines CI/CD · Apporter son expertise lors des incidents et des analyses de causes racines. · Identifier les besoins spécifiques de chaque équipe et définir des plans d’accompagnement. · Développer et maintenir des tableaux de bord et rapports pour visualiser les performances applicatives · Analyser et interpréter les métriques pour identifier les tendances et détecter les problèmes de manière proactive · Définir la gouvernance, les règles de fonctionnement et les objectifs de la Communauté. · Mettre en place des outils collaboratifs (wiki, canaux Teams) · Organiser et animer des sessions de la communauté · Favoriser les échanges inter-équipes et le partage de connaissances · Co-construire des standards techniques et des guidelines avec les équipes · Rédiger des guides de bonnes pratiques et de la documentation technique · Assurer une veille active sur les technologies et pratiques d’observabilité · Évaluer et tester de nouveaux outils du marché · Proposer des POC et des expérimentations innovantes.
Freelance

Mission freelance
Cloud Cybersecurity Expert

Publiée le
Cybersécurité
Google Cloud Platform (GCP)

3 ans
Île-de-France, France
Cloud Cybersecurity Expert, Freelance, 3 ans de contrat initial, IDF, 65% de remote Opportunité attrayante pour un(e) expert en cybersécurité cloud avec plusieurs expériences sur GCP afin de rejoindre notre client final qui accompagne des millions de particuliers et de professionnel à travers le monde sur l’un des programmes de move to cloud les plus importants de son marché et de son histoire ! Vous rejoindrez une équipe en plein développement pour intervenir dans un contexte multi cloud exigeant et complexe où vous pourrez proposer votre propre vision de la sécurité du cloud appliquée à l’IA. Principales missions : · Suivi, évolution et maintien de la sécurité d’une Landing Zone Google Cloud · Études & design de solutions de cybersécurité · Implémentations en IaC (Terraform) · Analyses de services Google Cloud (Agentspace, VPC-SC, PSC, Gemini Code Assist, etc.) · Documentation sous Confluence (validation interne obligatoire) · Participation à la comitologie Cloud & Cyber (réunions hebdo) · Support ponctuel RUN / réponse à incident
Freelance
CDD

Offre d'emploi
Consultant en Machine Learning H/F

Publiée le
Gitlab
GitLab CI
Google Cloud Platform (GCP)

12 mois
50k-70k €
500-570 €
Île-de-France, France
Télétravail partiel
En interaction avec les membres de l’équipe, la prestation consistera à : • Concevoir, construire et maintenir des pipelines ML robustes et scalables de la collecte des données à l’exposition des modèles via des API Rest • Organiser et structurer le stockage des données • Assurer l’évolutivité, la sécurité, la stabilité des environnements • Mettre en place et maintenir les infrastructures scalables capable de répondre aux besoins et au volume de données • Industrialiser les modèles IA en lien avec les data scientists • Construire et maintenir les workflows de la CI/CD • Collaborer avec les data ingénieurs et les autres équipes techniques pour appliquer les bonnes pratiques en vigueur • Contribuer et veiller à la mise à jour de la documentation • Faire de la veille technologique active dans le domaine • Participer activement aux différentes phases de cadrage, de planification et de réalisation des tâches avec l’équipe
483 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous