Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.

Offre d'emploi
Consultant MLOps GenAI
Contexte Dans le cadre du renforcement de notre pôle Data & IA, nous recherchons un(e) Consultant(e) confirmé(e) Data Engineer / MLOps spécialisé(e) GenAI . Le profil idéal se situe à mi-chemin entre le Data Engineering et le MLOps , avec une solide expertise sur GCP, une appétence pour la GenAI , et la capacité à résoudre des problématiques de production . Missions principales Concevoir, industrialiser et maintenir des pipelines data sur GCP (BigQuery, Dataflow, Pub/Sub). Mettre en place et optimiser des modèles et services IA/GenAI via Vertex AI . Assurer l’ industrialisation et la mise en production de modèles (CI/CD, monitoring, optimisation). Développer en Python des outils et composants réutilisables pour les projets Data/IA. Implémenter des transformations et orchestrations de données avec DBT . Diagnostiquer et résoudre les incidents de production liés aux pipelines, modèles ou API IA. Collaborer avec les équipes Data Science, DevOps et métiers pour assurer la qualité, robustesse et performance des solutions. Compétences techniques recherchées Langages : Python (avancé), SQL. Cloud : GCP (BigQuery, Dataflow, Pub/Sub, Vertex AI). Data Engineering : DBT, orchestration (Airflow, Cloud Composer). MLOps / GenAI : Vertex AI pipelines, modèles LLM/GenAI, monitoring et déploiement en prod. CI/CD : GitLab CI/CD, Terraform, Docker, Kubernetes. Observabilité : Logging, monitoring, optimisation de pipelines et modèles en prod. Soft skills Esprit analytique et orienté résolution de problèmes . Capacité à travailler en transverse avec des équipes Data Science, IT et métiers. Autonomie, proactivité et rigueur , avec une approche pragmatique. Intérêt marqué pour les dernières évolutions IA et GenAI . Profil recherché Expérience : 3 à 6 ans en Data Engineering et/ou MLOps, avec une exposition significative à GCP. Bonus : une première expérience réussie sur des projets GenAI (LLM, Vertex AI, APIs d’IA générative).

Offre d'emploi
Tech Lead expérimenté Cash Management
Vous intégrerez les équipes du Cash Management Services (CMS), en tant que Technical Lead expérimenté Vous aurez pour missions principales de : Coordonner et animer une équipe de développeurs Garantir la qualité des développements et l’exploitabilité des applications Gérer la relation avec l’équipe projet, avec les architectes, avec d’autres cellules de développeur, avec CA-GIP Encadrez les membres de l’équipe, et savoir les coacher sur un sujet technique et/ou méthodologique que vous maîtrisez Assurer le support des composants développés et du périmètre en charge Veillez à la cohérence des solutions dans l’urbanisation CA-CIB en prenant en compte la sécurité et la performance Participer à la définition des solutions techniques Participer et être à l’origine d’améliorations régulières du service Collaboration étroite avec les analystes, les designers et les équipes en charge du support et des infrastructures Participer à la conception des solutions techniques adaptées et à la mise en place de nouvelles architectures (nouvelles architectures (API, microservices, Cloud) Assurer le développement et la maintenance évolutive et corrective des applications Garantir que les contraintes d’assurance qualité, de performance, de stabilité, de maintenabilité et d’évolutivité sont respectées Respecter les standards de développement mis en place (CI/CD, DDD) et promouvoir les pratiques de tests systématiques (BDD/TDD) Assurer la rédaction des documents techniques et projets.

Offre d'emploi
Data Analyst – BigQuery & Power BI (5-7 ans d’expérience)
Dans le cadre du renforcement d’un programme Data & IA à l’échelle internationale, nous recherchons un Développeur Confirmé Power BI . Vous serez intégré(e) au Centre d’Excellence BI et interviendrez sur la mise en œuvre de la roadmap Analytics & IA couvrant différents périmètres : Marketing, Sales, R&I for Growth, Supply Chain, Manufacturing et Purchasing for Operations . Vos responsabilités : Développement & innovation Concevoir et développer des rapports, dashboards et visualisations interactives dans Power BI , à partir de données BigQuery (GCP) manipulées en SQL . Industrialiser et fiabiliser la production des reportings à forte valeur métier (pilotage commercial, performance supply chain, achats stratégiques, etc.). Réaliser des MVP et POC sur des sujets IA & analytics avancés. Capitaliser sur les nouveautés Power BI pour améliorer l’expérience utilisateur. Architecture & gouvernance Définir les architectures cibles adaptées aux besoins métiers. Administrer le tenant Power BI, les capacités Premium, et assurer une gouvernance technique robuste. Diffuser les bonnes pratiques de datavisualisation (ergonomie, storytelling, UX). Collaboration & animation Accompagner les Product Owners sur l’usage optimal des outils. Animer la communauté DataViz interne (Teams, Yammer), favoriser l’adoption et partager les best practices. Suivre l’adoption des solutions via KPIs et feedback utilisateurs.
Mission freelance
Consultant (H/F) Senior Big Data & Cloud Architect Telecom
Dans le cadre d’un diagnostic Data Lake et Cloud pour un grand opérateur télécom, nous recherchons un Data Architect Senior Big Data & Cloud. La mission consiste à évaluer l’architecture data existante, analyser la résilience et la performance des pipelines, identifier les points de friction, et proposer des recommandations pragmatiques. Le consultant interviendra sur l’écosystème Big Data (Hadoop, Spark, MapR, ClickHouse) et sur l’évaluation des workloads cloud (AWS, Azure, GCP). Compétences clés : Hadoop / Spark / MapR / ClickHouse (écosystèmes Big Data open source). Orchestration de pipelines : Airflow, Dagster… Logs, monitoring, optimisation de la performance. Expérience on-premise & cloud (AWS, Azure, GCP). Capacité à évaluer workloads cloud et produire une matrice de risques . Connaissances sécurité data (contrôles d’accès, RGPD, loi marocaine 09-08 un plus).
Offre d'emploi
Data engineer H/F
🎯 Venez renforcer nos équipes ! Pour accompagner notre croissance, nous recherchons un(e) Data Engineer pour un beau projet chez un acteur majeur de la grande distribution. Dans ce contexte international et exigeant, vous intégrez des équipes dynamiques, vous abordez de nouveaux challenges ! 📍 Ce Qui Vous Attend La mission consiste à préparer les socles de données après validation et transformation, au service des équipes de Data Analyse Contribuer autant au RUN qu’à des actions de BUILD orientée DevOps Assurer le maintien en condition opérationnelle sur l'existant, analyse et traitement des incidents Support à l'usage des données, documentation et assistance

Offre d'emploi
Architecte Cloud GCP
Missions principales Concevoir et déployer la Landing Zone GCP en respectant les bonnes pratiques Google Cloud et les standards de sécurité. Définir et implémenter l’architecture cible : Organisation & Gouvernance : hiérarchie des projets, IAM, gestion des rôles et permissions. Sécurité : politiques de sécurité, gestion des identités, conformité (CIS, ISO, RGPD). Réseaux : VPC, interconnexions hybrides (VPN, Interconnect), firewall, segmentation. Observabilité : logging, monitoring, alerting (Cloud Logging, Cloud Monitoring). FinOps : mise en place des bonnes pratiques de suivi et d’optimisation des coûts. Automatisation & IaC : Terraform, GitOps, CI/CD pour la gestion des ressources. Assurer la mise en place des services clés : compute, stockage, bases de données, data/AI. Travailler en collaboration avec les équipes Sécurité, Réseau, DevOps et Data pour aligner les besoins business et techniques. Accompagner et former les équipes internes dans l’adoption de GCP. Être force de proposition sur les choix technologiques et les évolutions de la plateforme.

Offre d'emploi
Développeur Backend Golang – Expert
Contexte de la mission : Vous intégrerez une équipe dédiée à l’exploitation et à l’évolution de plusieurs briques stratégiques liées à l’Infrastructure-as-Code et au Continuous Delivery. L’objectif est de renforcer l’équipe de développement et d’apporter de nouvelles capacités aux utilisateurs internes. Missions principales Concevoir et développer de nouvelles fonctionnalités backend. Améliorer l’expérience développeur dans la gestion de l’Infrastructure-as-Code. Accompagner les utilisateurs internes dans l’adoption et la bonne utilisation des outils. Participer à la définition des spécifications et à la conception des évolutions. Développer en Golang et intégrer des modules Terraform multi-cloud. Assurer la maintenance corrective et évolutive des outils existants. Documenter le code, les composants et les évolutions. Participer au support utilisateurs.

Offre d'emploi
DATA ENGINEER SPARK / SCALA / SSAS / AZURE / DATABRICKS
Bonjour, Pour le compte de notre client, nous recherchons un data engineer SPARK / SCALA / SBT / CUBE TABULAIRE / AZURE / DATABRICKS Au sein de l'équipe data / BI, vous interviendrez sur des projets stratégiques liés à la gestion, la transformation et la valorisation de la donnée. L’objectif de la mission est d’accompagner la Direction Financière à sortir d’Excel et aller vers Power BI. Pour cela, le data eng travaillera en binôme avec un PO pour comprendre l’existant et réaliser cette bascule. Vous aurez un rôle clé dans le développement, l'optimisation et la modélisation de traitements data complexes, avec un focus particulier sur la mise en place et la maintenance de cube tabulaires. Développement et intégration Optimisation Modélisation des données Recueil et analyse des besoins Documentation et support.
Mission freelance
AWS Data Engineer – Tech Lead
Nous recherchons un AWS Data Engineer (niveau Tech Lead) pour rejoindre nos équipes dans le cadre d’un projet stratégique autour de la donnée au sein d’un environnement cloud à forte volumétrie. 🎯 Vos missions principales : Concevoir, développer et optimiser des pipelines de données robustes, scalables et sécurisés sur AWS. Intervenir sur l’ensemble du cycle de vie Data : BUILD (architecture, développement, intégration) et RUN (optimisation, monitoring, support). Définir et faire évoluer les bonnes pratiques d’ingénierie data au sein des équipes. Collaborer avec les équipes métiers pour comprendre les besoins et proposer des solutions performantes et industrialisées . Garantir la qualité, la fiabilité et la performance des traitements de données dans un contexte exigeant.

Offre d'emploi
Data Engineer GCP & Talend
Au sein de la Data Factory nous recherchons à renforcer notre équipe avec un Data Engineer expérimenté. Notre Data Factory joue un rôle central dans l'exploitation et l'optimisation des données pour soutenir les différentes initiatives stratégiques de l'entreprise. Nous nous concentrons sur la création d'une infrastructure de données robuste, la mise en place de pipelines de données fiables, et l'exploitation de données pour générer des insights à forte valeur ajoutée pour nos équipes. Description Missions principales • Analyser les besoins métiers et comprendre les impacts business des données afin de réaliser une conception pertinente et alignée avec les objectifs stratégiques. • Concevoir et développer des pipelines de données robustes et scalables en utilisant Talend et les services de Google Cloud Platform (BigQuery, DataForm, Dataflow, Pub/Sub, CloudComposer). Vous serez au cœur de la construction d’une infrastructure de données moderne et performante. • Améliorer la performance et la scalabilité des solutions existantes pour répondre aux besoins stratégiques de l’entreprise. • Collaborer étroitement avec les architectes, PO et Data Analyst pour garantir la qualité et l’exploitation optimale des données. • Maintenir une documentation technique précise et complète sur les processus et les solutions implémentés. • Réalise la recette technique et participe à animer la recette fonctionnelle avec les utilisateurs et le PO • Mettre en place et gérer des systèmes de monitoring et d’alerting pour assurer une supervision proactive des pipelines et systèmes de données, garantissant leur fiabilité et leur disponibilité. • Support au déploiement • Assure la maintenance corrective ou évolutive • S’assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l’équipe Livrables Développements Cahiers de test/recette Dossier de recette / Mise en production Spécifications Document d'exploitation Fiche consigne Compétences Compétences techniques requises : • Langages : Maîtrise de SQL et connaissance de langages comme Python ou Java pour les traitements de données. • Talend : Solides compétences dans la conception et la gestion des workflows • GCP : Expérience sur les outils BigQuery, Dataflow, DataForm, Pub/Sub, CoudComposer et d’autres services GCP liés aux données. • Outils : Familiarité avec des outils de CI/CD comme Git, Jenkins, ou Terraform (serait un plus).

Mission freelance
Architecte technique infrastructure On premise & Cloud Azure et GCP
o Au sein de l'équipe Architecture de la Direction des Infrastructures et de la Production du groupe, le consultant contribuera aux activités : • Cadrages techniques et budgétaires en collaboration avec les chefs de projet • Définition des best practices d'architecture • Documentation (DAT, HLD…) • Accompagnement de la stratégie Move2Cloud • Accompagnement des équipes d'exploitation et de développement • Veille technologique Environnement général o Plateformes E-commerce o Plateformes BackOffice & Logistique o Cloud Public Azure & GCP o Cloud Privé (Infrastructure VMWARE Infogérée) o CDN Akamai, LoadBalancing BigIP F5, Firewalling (Checkpoint & Fortinet) o Bases de données MS SQL Server, PostgreSQL, MySQL, IBM DB2, Oracle o Big Data Terradata, MapR, BigQuery, DataBricks o Conteneurisation Docker & Orchestration AKS o Progiciels SAP, Siebel, HRAccess DESCRIPTION DE LA MISSION Missions à prévoir et Expérience acquise Etude des besoins issus des équipes de développement : 5 à 10 ans Etude de l'évolution des composants de plateformes techniques ou de l'intégration de nouveaux services : 5 à 10 ans Rédaction des documents d'architecture et d'intégration générale et détaillée : 5 à 10 ans Rédaction des supports d'aide à l'exploitation et accompagnement des équipes d'exploitation durant la transition : 5 à 10 ans Contribution à l'évaluation budgétaire des solutions mises en œuvre : 5 à 10 ans Support N3 des équipes d'exploitation : 5 à 10 ans Une grande majorité des sujets actuellement adressés par l'équipe d'architecture technique concerne les environnements OnPrem.

Mission freelance
Data Engineer Senior (Spark,Java,Pyton,SQL)
Cherry Pick est à la recherche d'un Data Engineer Senior pour l'un de ses clients dans le secteur la mutuelle. En renfort de l’entité Solutions Data pour participer activement (Run/Build/Expertise et Accompagnement) aux sujets ci-dessous dans un environnement hybride Cloud/On-Premise (avec le On-Premise en cible) : Participer à l’élaboration du design technique des produits logiciels, Faciliter la recherche de solutions techniques, Prendre en charge une partie des dév. Accompagner les autres Dév. (Coaching, optimisation de code, …), Collaborer à l’intégration des produits dans le SI avec l’architecte data, Garantir la qualité des produits logiciels, Accompagner les directions métiers dans la réalisation de leurs cas d’usage data Compétences obligatoires : Maitrise Spark/Java, Maitrise Python Maitrise SQL, AWS : S3 / Glue / Redshift / Step Functions / Lambda, CICD : Git, Jenkins, … ETL XDI et/ou ODI Compétences souhaitables/optionnelles : Docker, Terraform, Power BI / BO

Offre d'emploi
DATA ENGINEER SPARK / SCALA / SSAS / AZURE / DATABRICKS
Bonjour, Pour le compte de notre client, nous recherchons un data engineer SPARK / SCALA / SBT / CUBE TABULAIRE / AZURE / DATABRICKS Au sein de l'équipe data / BI, vous interviendrez sur des projets stratégiques liés à la gestion, la transformation et la valorisation de la donnée. L’objectif de la mission est d’accompagner la Direction Financière à sortir d’Excel et aller vers Power BI. Pour cela, le data eng travaillera en binôme avec un PO pour comprendre l’existant et réaliser cette bascule. Vous aurez un rôle clé dans le développement, l'optimisation et la modélisation de traitements data complexes, avec un focus particulier sur la mise en place et la maintenance de cube tabulaires. Développement et intégration Optimisation Modélisation des données Recueil et analyse des besoins Documentation et support.

Offre d'emploi
DevOps GCP Full remote (Maghreb)
skiils recrute un(e) Consultant(e) DevOps GCP (H/F) pour renforcer ses équipes Nearshore et intégrer une équipe SCRUM dynamique ! En tant que tel(le), son rôle consistera à contribuer à des projets Cloud et DevOps en apportant son expertise sur les tâches suivantes : Développer et maintenir des pipelines CI/CD automatisés pour les applications de Carrefour, en utilisant Terraform et GCP, comme un chef d’orchestre orchestrant chaque déploiement avec précision. Garantir la stabilité et la performance des infrastructures Cloud, tel un gardien vigilant de la forteresse GCP. Collaborer avec les équipes de développement et d’infrastructure pour assurer une intégration et un déploiement continus des applications. Diagnostiquer et résoudre les problèmes techniques liés aux infrastructures Cloud. Participer à l’amélioration continue des processus et des standards DevOps. Développer et documenter ses solutions pour assurer la pérennité et la qualité du code. Travailler au sein d’une équipe SCRUM (PO, développeurs, QA, Support).

Offre d'emploi
Expert Cloud GCP
Vous serez intégré au sein de l’équipe plateforme LandingZone sur GCP fonctionnant en mode agile (PO, Agile Master, Lead Tech). L’équipe est responsable du Build, Run, MCO et astreinte de la plateforme. Vos tâches : Contribuer aux activités de la LandingZone GCP en mode agile (Scrum / Kanban). Définir des solutions techniques alignées avec le backlog priorisé par le PO. Travailler en binôme avec un équipier et en trinôme avec le PO DevSecOps et les architectes Cloud . Assurer un rôle de conseil, vulgarisation et formation auprès des membres de l’équipe. Accompagner et fédérer autour de nouvelles pratiques et outils. Participer au Build / Run / MCO , incluant des astreintes HNO (1 semaine toutes les 6).

Offre d'emploi
Data Engineer (Spark-Scala-Azure Devops) H/F
Contexte et objectifs de la prestation : Dans ce cadre, la prestation consiste à contribuer à/au(x) : 1. Projets de migration vers notre nouveau Datalake sur infra “Azure” 2. Projets de maintenance évolutive des Use Cases Data déjà existants 3. Cadrage et chiffrage du projet (et validation) et assistance et expertise dans la définition de la stratégie et solution technique. 4. L'assistance et l'expertise sur l’architecture technique (design et conception) des couches datalake et des moyens de restitutions, 5. La conduite du changement dans la mise en œuvre et l’uniformisation des pratiques Craft 6. La définition des normes et standards de qualité édictés sur le périmètre (qualité de code, sécurité, performance, build automatique, analytics) 7. La définition du bon niveau de la documentation technique et mise à jour associée Diverses étapes de développements notamment sur les développements complexes : chiffrage, conception, spécifications techniques,mise en place, tests, déploiement, revue de code 8. Challenge des choix techniques pour qu’ils soient en adéquation avec : le besoin du client, les normes et standards des entités d’architectures, l’innovation et les principes de la transformation digitale de la banque Expertises : 1. Spark Scala 2. Cloudera, Azure 3. Mode Agile (Scrum) 4. Environnement anglophone.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.