Trouvez votre prochaine offre d’emploi ou de mission freelance Apache Spark à Paris

Votre recherche renvoie 48 résultats.
Freelance

Mission freelance
Business Analyst Front Office – System Integration

Signe +
Publiée le
JIRA

6 mois
400-550 €
Paris, France

Le Business Analyst Front Office – System Integration est le référent des processus fonctionnels de l’équipe Digitale et responsable de leur implémentation dans les outils et flux digitaux. Il prend en charge la conception fonctionnelle des interfaces de synchronisation des données entre les systèmes locaux et les plateformes digitales E-commerce & CRM (notamment Spark), gérées par la Digital Factory. Il collabore directement avec les Product Owners France, les Feature Teams du groupe ainsi qu’avec les développeurs de l’équipe d’intégration France. Il s’assure, avec les architectes Spark, de la cohérence des solutions proposées avec le besoin métier, dans le respect des délais et des standards de qualité. Activités principalesBUILD Analyse du besoin exprimé par les Product Owners et Proxy Product Owners. Co-conception avec la Digital Factory des évolutions liées aux échanges de données entre systèmes Legacy et plateformes du groupe. Suivi et validation des livrables de l’équipe BUILD France. Contribution à la préparation et à l’exécution des tests d’intégration et des UAT. Participation à la conception fonctionnelle des projets transverses de la DSI France. Validation des recettes et des mises en production. RUN Transfert de connaissances vers les équipes de TMA. Spécification et validation fonctionnelle des développements réalisés par les équipes de TMA. Contribution au support applicatif de niveau 3. Positionnement dans l’organisation Hiérarchique : Responsable du domaine IT Commerce Digital Fonctionnel : Collaboration avec les Product Owners, Feature Teams, Architectes Spark et équipes de développement/intégration Compétences requisesConnaissances techniques 3 à 5 ans d’expérience dans des projets d’intégration de plateformes digitales (E-commerce & CRM). Bonne connaissance d’un ERP, idéalement Infor M3. Maîtrise du langage SQL et des concepts de modélisation. Connaissance des méthodologies Agile (Scrum, Safe). Expérience avec des outils de gestion de projet (JIRA, Confluence). Connaissance des Patterns (API, events & file based) et des plateformes d’intégration type iPaaS. Compétences analytiques Capacité à analyser des processus métier et proposer des solutions adaptées. Analyse de données et élaboration de conclusions pertinentes. Excellente capacité de résolution de problèmes. Compétences communicationnelles Capacité à communiquer clairement avec des interlocuteurs variés. Rédaction de documents clairs et structurés. Maîtrise de l’anglais à un niveau professionnel. Compétences comportementales Travail en équipe. Esprit d’analyse, de synthèse et de résolution de problèmes. Adaptabilité et flexibilité. Rigueur et respect des procédures. Qualités de communication orale.

Freelance

Mission freelance
responsable Searchandizing

DEV AND CONNECT
Publiée le
E-commerce
Search Engine Marketing (SEM)

6 mois
Paris, France

👉 Contexte : Dans le cadre de la transformation digitale du Groupe, l’équipe Orchestration Business Transformation accompagne le déploiement des solutions omnicanales, l'amélioration continue et l'évolution des modèles opérationnels locaux. Au sein de cette équipe, le/la Responsable du Searchandizing pilote l'exécution et l’adaptation des stratégies de searchandizing dans plusieurs pays, en veillant à l’alignement avec les priorités globales tout en répondant aux besoins spécifiques des marchés régionaux. Il/elle accompagne les équipes locales (OpCos) dans l’utilisation des outils de recherche et de personnalisation (comme Bloomreach et Spark), et joue un rôle clé dans le renforcement des compétences, la performance de la recherche produit, et l'amélioration de l'expérience utilisateur. ⚙️ Missions détaillées : 🧭 Alignement stratégique & déploiement Adapter la stratégie de searchandizing globale aux spécificités régionales. Développer une feuille de route régionale pour l’intégration de fonctionnalités avancées (Bloomreach, Spark). Définir les KPIs régionaux en cohérence avec les objectifs globaux. 🎯 Exécution & optimisation Coordonner la mise en œuvre des actions d’optimisation de la recherche au sein des OpCos. Soutenir les initiatives locales et diffuser les bonnes pratiques. Accompagner l’intégration technique des outils (suivi de pixel, fonctionnalités Bloomreach). Définir les actions hebdomadaires à mener localement et assurer leur cohérence régionale. 📊 Suivi de performance & amélioration continue Analyser les KPIs globaux et locaux (taux de conversion, requêtes sans résultats, etc.). Mesurer l’impact des actions mises en place et recommander des ajustements. Participer à des programmes pilotes et en tirer des enseignements pour des déploiements à plus grande échelle. 🤝 Collaboration & transformation Animer des sessions de travail régulières avec les OpCos. Participer aux communautés de pratique (CoP) et partager les succès. Travailler en étroite collaboration avec l’équipe Transformation Business pour aligner les efforts sur les objectifs régionaux. Former et accompagner les ressources locales dans leur montée en compétence. 🎯 Objectifs clés du poste Mise en œuvre efficace des actions hebdomadaires. Suivi rigoureux des tableaux de bord de performance. Accompagnement et montée en compétence des équipes locales. Amélioration continue de l'expérience de recherche utilisateur.

Freelance
CDI

Offre d'emploi
Consultant Search Optimization / Bloomreach

VISIAN
Publiée le
E-commerce
SEA (Search Engine Advertising)
Search Engine Marketing (SEM)

2 ans
40k-80k €
240-740 €
Paris, France

Bonjour, Dans le cadre de ses projets clients, Visian est à la recherche d'un Consultant Search Optimization ou un spécialiste Bloomreach Tâches : Coordonner la mise en œuvre des actions d’optimisation de recherche définies au niveau global. Accompagner les parties prenantes dans leurs initiatives locales de searchandizing et diffuser les bonnes pratiques au niveau régional (ex. : améliorations spécifiques à un assortiment ou à une cible). Faciliter l’intégration des fonctionnalités Bloomreach et Spark, incluant le suivi des pixels. Veiller au respect des bonnes pratiques issues du Bloomreach Playbook . Participer aux projets pilotes et partager des retours régionaux pour des déploiements globaux à grande échelle. Définir les priorités et actions hebdomadaires pour les parties prenantes afin d’assurer l’alignement global. Suivre et analyser les KPI globaux et locaux , et identifier les axes d’amélioration. Évaluer l’efficacité des actions hebdomadaires, des optimisations de recherche et des intégrations de fonctionnalités au niveau régional.

Freelance

Mission freelance
Architecte Applicatif

KEONI CONSULTING
Publiée le
Kubernetes

18 mois
100-600 €
Paris, France

CONTEXTE Experience : 6 ans et plus Métiers Fonctions : Architecture technique, Sécurité, Méthode, Architecte applicatif Spécialités technologiques : Infrastructure, SSO Compétences Technologies et Outils GIT Docker Bash Hadoop Kubernetes Linux Spark Keycloak Soft skills Autonomie Force de proposition MISSIONS Au sein du département Innovation et Données, vous rejoindrez une équipe de 10 architectes, dont une sous-équipe de 3 personnes dédiée à l’intégration de l’infrastructure du client. Encadré par le Directeur du domaine, vous interviendrez comme référent technique applicatif, en appui des équipes architecture et SOC. L’objectif : accompagner les équipes et les porteurs de projets dans la conception et l’intégration d’applications au sein de la plateforme, tout en garantissant le respect des normes et standards en place. - Être le référent technique applicatif auprès de l’équipe architecture. - Accompagner et conseiller les porteurs de besoins pour proposer des designs applicatifs adaptés ou faire évoluer des solutions existantes. - Concevoir et intégrer des applications dans l’infrastructure (Docker, Kubernetes, Spark). - Garantir la conformité aux normes d’architecture, de sécurité et aux bonnes pratiques en vigueur. - Apporter un support technique aux équipes pour l’intégration et la maintenance (MCO) des produits. - Rédiger la documentation technique et assurer la transmission des connaissances. - Former les équipes N1/N2 à la maintenance et au suivi des outils. - Suivre les projets, identifier les risques et remonter les alertes. - Contribuer à la dynamique de l’équipe et être force de proposition, notamment sur les enjeux sécuritaires. Organisation du temps de travail (indicatif) 70% : études & réalisations techniques 20% : MCO / suivi opérationnel 10% : veille technologique et fonctionnelle Expertise souhaitée Compétences techniques requises - Architecture applicative : expérience confirmée (> 8 ans). - Langages : Python et Bash. - Outils & environnements : Git, Linux (Rocky, Alpine, Ubuntu). - Conteneurisation & orchestration : Docker, Kubernetes (CKS apprécié). - Sécurité & IAM : protocoles SSO (SAML2, OIDC), outils comme Keycloak. - Cloud Native architectures. - Bases de données : SQL / NoSQL, pipelines de traitement (Message Queue, DAG). Compétences bonus : - Environnements : CEPH, Proxmox, SLURM. - Standards santé : FHIR, DICOM, OMOP. - Big Data : Hadoop, Spark, HDFS. - IA : Torch, CUDA, MLOps. - Connaissance des problématiques fonctionnelles dans le secteur santé Profil recherché - Architecte applicatif senior avec un solide background technique. - Capacité à garder une vision métier forte et à accompagner les équipes dans la traduction des besoins en solutions applicatives. - Expérience dans des environnements complexes, nécessitant respect des normes, sécurité et interopérabilité. - Excellentes capacités de communication et de pédagogie (rôle de référent et de formateur). - Force de proposition, autonomie et goût pour l’innovation.

Freelance
CDI

Offre d'emploi
DATA ENGINEER AWS / TALEND

UCASE CONSULTING
Publiée le
AWS Cloud
PySpark
Talend

6 mois
40k-59k €
400-890 €
Paris, France

🎯 Contexte du poste Nous recherchons un Data Engineer confirmé afin d’accompagner un projet de migration stratégique de notre plateforme Data. Le consultant interviendra au sein d’équipes techniques et métiers pour assurer la transition et l’optimisation des flux de données. 🛠️ Missions principales Concevoir, développer et maintenir des pipelines de données performants et scalables. Assurer la migration des traitements Talend vers Spark sur EMR (Amazon Elastic MapReduce). Mettre en place des modèles de données et des tables optimisées avec Apache Iceberg. Garantir la qualité, la fiabilité et la performance des flux de données. Collaborer avec les équipes Data, DevOps et métiers pour accompagner la transformation de la plateforme. 📌 Compétences techniques requises Talend : expertise dans les flux existants et leur migration. Spark (PySpark/Scala) sur EMR : maîtrise des traitements distribués et optimisation. Apache Iceberg : connaissance des formats de tables modernes (partitionnement, évolutivité, performance). DevOps (nice to have) : CI/CD, Docker, Kubernetes, Terraform, GitLab. Cloud AWS : maîtrise des services liés au Big Data (S3, EMR, Glue, etc.). 🌍 Soft skills et linguistique Anglais courant (fluent) : échanges réguliers avec des équipes internationales. Autonomie, capacité d’adaptation, esprit d’analyse. Bon relationnel et aptitude au travail en équipe agile. 🚀 Profil recherché Minimum 4/5 ans d’expérience en tant que Data Engineer. Expérience significative dans des projets de migration de flux Data. Capacité à intervenir dans des environnements complexes et à forte volumétrie de données.

Freelance

Mission freelance
Dev Java/Unix

KUBE Partners S.L. / Pixie Services
Publiée le
Apache Kafka
Spring Batch
Springboot

1 an
100-400 €
Paris, France

Attendu Développement des tests unitaires et des tests d'intégration Développement de scripts Unix d'administration et d'exploitation Développement de batch et d'API en java Compétences : Développement Java 21, Spring-boot 2 et 3, Spring Batch, Kafka/Avro, TransactSQL (MySQL) BigData (notions) : Spark 3 / Oozie DevOps (utilisation quotidienne) : GIT, GitLabCI, Ansible, ArgoCD, Docker Contexte : Développement des parcours et des traitement de collecte de données du CRM-Entreprises Squad de 15 personnes dont 9 développeurs Java Travail en équipe et en Scrum obligatoire

Freelance
CDI

Offre d'emploi
DATA ENGINEER GCP

UCASE CONSULTING
Publiée le
BigQuery
Google Cloud Platform (GCP)
MySQL

6 mois
40k-71k €
400-630 €
Paris, France

Je recherche pour un de mes clients un Data Engineer GCP : Prestations attendues : Déployer les datasets normés sur un ou plusieurs des data domain suivants : Utilisateurs, Comportements et Référentiels Accompagner les utilisateurs dans leurs usages Mettre en place le contrôle qualité sur ces datasets En interaction avec les membres de l’équipe, Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l’équipe Construire et maintenir des pipelines data robustes et scalables Accompagner les membres de l’équipe dans l’exploitation et le requêtage des données Organiser et structurer le stockage des données Mettre en place et maintenir des infrastructures scalables capables de répondre aux besoins et à l’accroissement rapide du volume de données Participer aux initiatives de gouvernance des données en assurant la qualité, la fiabilité et l’intégrité Construire et maintenir les workflows de la CI/CD Partager avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur Assurer l’évolutivité, la sécurité, la stabilité des environnements Participer aux différentes instances des data ingénieurs Contribuer et veiller à la mise à jour de la documentation Faire de la veille technologique active dans le domaine Expertises demandées pour la réalisation de la prestation : Au moins 3 ans d’expérience en tant que Data Ingénieur dans un environnement data Compétences solides en data : structures de données, code, architecture France Expériences dans la conception et la réalisation de pipelines data Expériences dans un environnement du cloud Google (GCP) Expériences intégrant BigQuery et Dataplex Universal Catalog Expériences intégrant les langages Python et SQL Expériences intégrant Spark Expériences intégrant dbt Expériences intégrant Terraform et Terragrunt Expériences intégrant Gitlab et Gitlab CI/CD Expériences intégrant les méthodologies Agile : Scrum ou Kanban Capacité à vulgariser et à communiquer sur des aspects purement techniques

Freelance

Mission freelance
Mission de Data Engineer - Retail

SKILLWISE
Publiée le
Apache Airflow
AWS Cloud
Data Lake

3 mois
400-550 €
Paris, France

Nous vous proposons de rejoindre un grand acteur du retail pour une mission de Data Engineer. En tant que Data Engineer vous aurez un rôle clé dans l'amélioration des sales pipelines, la modélisation de nouveaux business models de données de vente et le support aux autres équipes pour une utilisation efficace des données de vente. En tant qu'entreprise de retail , des informations de vente précises et pertinentes sont cruciales, rendant cette équipe centrale pour les processus de décision opérationnels et stratégiques clés. Les responsabilités incluront la maintenance des data flows , avec un accent particulier sur la résilience des produits et l'excellence opérationnelle. Les missions : Développement et maintenance des Data Pipelines User Enablement & Support Promotion des Best Practices Operational Excellence Stack technique : Amazon Web Services (S3) Databricks Approche SQL first avec dbt et/ou Apache Spark (PySpark) Ordonnancement avec Airflow (Python) Github

Freelance

Mission freelance
Data Engineer GCP

INSYCO
Publiée le
Apache Airflow
BigQuery
CI/CD

3 ans
500-650 €
Paris, France

Bonjour, Nous recherchons pour notre client grand compte un Data Engineer GCP . Nous étudions — prioritairement — les candidatures qui nous sont adressées à freelance à insyco . fr avec les informations suivantes : Argumentaire écrit répondant de façon ciblée au besoin ci-dessous CV à jour au format Word Date de prochaine disponibilité et mobilité sur site client Tarif journalier Merci d’indiquer la référence MDE/DATA/4901 dans l’objet de votre message Définition du besoin Une Direction numérique mène des projets transverses en collaboration avec d’autres directions, dont une Direction Data créée pour faire de la donnée un levier de croissance des offres numériques. La Direction Data a trois missions : Maximiser la collecte de données dans le respect des réglementations en vigueur, Développer la connaissance et l’expérience utilisateurs, Mettre à disposition des équipes internes des outils de pilotage et d’aide à la décision La prestation s’effectue au sein d’une équipe Data dédiée (composée d’un Product Owner, d’un Data Steward et d’un Data Engineer) et en collaboration avec les autres équipes Data, au cœur de la plateforme Data. Stack technique principale : Python, Spark, SQL, dbt, BigQuery, Airflow (orchestration), Terraform et Terragrunt (industrialisation), ainsi que d’autres services Google Cloud Platform (GCP) . Prestations attendues Déployer des datasets normés sur un ou plusieurs data domains : Utilisateurs , Comportements , Référentiels . Accompagner les utilisateurs dans leurs usages. Mettre en place le contrôle qualité sur ces datasets En interaction avec les membres de l’équipe, la prestation consiste à : Participer aux phases de conception, planification et réalisation des tâches, Construire et maintenir des pipelines data robustes et scalables, Accompagner l’équipe dans l’exploitation et le requêtage des données, Organiser et structurer le stockage des données, Mettre en place et maintenir des infrastructures scalables adaptées à l’accroissement des volumes, Contribuer à la gouvernance des données en assurant qualité, fiabilité, intégrité , Construire et maintenir les workflows CI/CD , Partager les bonnes pratiques avec les autres Data Engineers, Assurer l’ évolutivité , la sécurité et la stabilité des environnements, Participer aux instances des Data Engineers, Contribuer et maintenir la documentation , Assurer une veille technologique active

Freelance

Mission freelance
Senior DevOps Engineer (Python, Jenkins, Ansible, Shell, AWS)

Phaidon London- Glocomms
Publiée le
AWS Cloud
DevOps
Python

6 mois
550-660 €
Paris, France

Qualifications / Compétences requises Licence ou Master en informatique, génie logiciel ou domaine connexe. Au moins 8 ans d'expérience en tant qu'ingénieur DevOps et au moins 4 ans en projets centrés sur les données. Vaste expérience en développement Python démontrant une solide maîtrise de la création d'applications évolutives. Expertise approfondie des pratiques DevOps et des pipelines CI/CD pour optimiser les processus de déploiement. Expérience en infrastructure as-code. Excellentes compétences collaboratives, avec la capacité à traduire des exigences utilisateurs complexes en solutions techniques efficaces. Bonne maîtrise de l'anglais, car la documentation sera rédigée en anglais et une partie des utilisateurs de la plateforme de données ne parlent pas français. Plus : Expérience avec des frameworks de traitement de données tels que Pandas ou Spark. Expérience en développement produit agile et en méthodologie Scrum. Maîtrise des bonnes pratiques de sécurité et de conformité dans les environnements cloud. Environnement technologique : Sur site : OS REHL 7 à 9, shell. AWS : S3, EMR, Glue, Athena, Lake Formation, Cloud Formation, CDK, Lambda, Fargate, … DevOps : Jenkins, SonarQube, Conda, Ansible… Logiciels : Python, Rust est un plus.

Freelance

Mission freelance
Senior Devops

Cherry Pick
Publiée le
AWS Cloud
CI/CD
DevOps

12 mois
550-600 €
Paris, France

Mission L’équipe Data est au cœur de nos stratégies d’investissement, exploitant une large gamme de sources de données pour générer des indicateurs diversifiés qui permettent d’obtenir de solides performances pour nos clients. En tant que membre de l’équipe Data Platform, votre mission sera de mettre en œuvre activement les directives et recommandations d’audit afin de sécuriser nos environnements de production. Principales tâches : En tant que Senior DevOps Engineer, vos principales missions seront : Séparation des environnements de production et de développement (gestion des droits, amélioration des tests), Gestion de la capacité de nos serveurs (y compris suivi et alertes), Industrialisation des tests de qualité des données, Amélioration de la gestion des versions (tests, versioning, etc.), Mise en place d’un plan de reprise après sinistre et de chaos engineering, Maintenance de plusieurs serveurs et assets existants (y compris les outils et pipelines CI/CD). Qualifications / Compétences requises Diplôme de niveau Licence ou Master en informatique, génie logiciel ou domaine similaire, Minimum 8 ans d’expérience en tant qu’ingénieur DevOps, dont au moins 4 ans sur des projets centrés sur la Data, Expérience approfondie en développement Python et maîtrise de la création d’applications évolutives, Expertise en pratiques DevOps et pipelines CI/CD pour améliorer les processus de déploiement, Expérience des frameworks Infra-as-Code, Excellentes compétences collaboratives et capacité à traduire des besoins utilisateurs complexes en solutions techniques efficaces, Bonne maîtrise de l’anglais (la documentation sera rédigée en anglais et certains utilisateurs de la Data Platform ne parlent pas français). Atouts supplémentaires : Expérience avec des frameworks de traitement de données tels que Pandas ou Spark, Expérience en développement produit agile et méthodologie Scrum, Compréhension des bonnes pratiques de sécurité et de conformité dans les environnements cloud. Environnement technologique : Sur site : OS REHL 7 à 9, shell, DevOps : Jenkins, SonarQube, Conda, Ansible, … Logiciels : Python, Rust (un plus), AWS : S3, EMR, Glue, Athena, Lake Formation, Cloud Formation, CDK, Lambda, Fargate, …

Freelance

Mission freelance
Data Engineer Expert - Finance - Assurance)

FINAX Consulting
Publiée le
Data management

12 mois
600-950 €
Paris, France

Data Engineer Expert pour la Modernisation du Système Finance (Assurance) Nous recherchons un Data Engineer Expert pour le compte d’un de nos clients assurance dans le cadre d’un projet de modernisation, de standardisation et d'harmonisation de son système Finance. Contexte Notre client, un acteur majeur du secteur de l' assurance , est engagé dans un projet stratégique visant à transformer son système d'information Finance. Ce programme a pour objectif la modernisation, la standardisation et l'harmonisation des processus et des outils Finance. Dans ce cadre, nous recherchons un profil de Data Engineer Expert pour jouer un rôle clé dans l'ingénierie des données de ce nouveau système. Rôles et Responsabilités Le consultant Data Engineer aura pour principales responsabilités : Concevoir et mettre en œuvre des solutions d'ingénierie des données pour le nouveau système Finance. Participer activement à la modernisation et à la standardisation des flux de données Finance. Assurer l'intégration, le traitement et la qualité des données provenant de diverses sources. Travailler en étroite collaboration avec les équipes métier Finance et les architectes pour garantir l'harmonisation des données. Compétences Clés & Techniques Une expertise de niveau Expert est exigée sur les points suivants : Expertise Technique : Maîtrise des technologies de Big Data et des environnements Cloud. Langages et Frameworks : JAVA (WEB), Spark, Angular, COBOL. Systèmes et Outils : MAINFRAME, VTOM. Visualisation et Reporting : Compétences sur Power BI. Domaine d'Application : Une connaissance approfondie du secteur Finance (idéalement en assurance ou banque) est un atout majeur. Anglais : Capacité à travailler dans un environnement technique et potentiellement international. Détails de la Mission Profil Recherché : Data Engineer Niveau d'Expérience : Expert Localisation : Paris Date de Démarrage : ASAP Durée : 12 mois. Taux Journalier Cible (TJM) : <950€.

Freelance

Mission freelance
DATA ENGINEER Cloud GCP

KEONI CONSULTING
Publiée le
BigQuery

18 mois
110-600 €
Paris, France

CONTEXTE : En pleine expansion, nous souhaitons renforcer l’équipe Data par de nouvelles expertises en data engineering et aider ainsi à la mise en place de solutions Big Data dans un environnement Cloud GCP. Cette équipe est composée d’un product owner et de data engineers. Notre stack technique est principalement constituée de Python, Spark, SQL pour les traitements de données en batch, Apache Beam pour les traitements en streaming et Airflow pour l’orchestration. La stack inclut aussi les services BigQuery, Dataproc et PubSub de la Google Cloud Platform et Terraform pour la gestion de l’infrastructure. MISSIONS : Au sein de l’équipe Data et au cœur de la plateforme data, la prestation se déroulera en collaboration avec les experts métier de la donnée, les product owners, les data scientists ou encore les data managers. Cette plateforme repose sur une architecture Lakehouse construite sur la Google Cloud Plateform. En travaillant avec les autres Data Engineers de l’équipe, la prestation consistera à participer à : • La collecte et l’ingestion de différentes sources de données non homogènes • La mise en place de pipelines de traitement de données • Le développement des modèles de données • L’extraction et l’exposition des données du Lakehouse vers d’autres services • L’industrialisation des projets sur la GCP • La mise en place et la maintenance des infrastructures scalables capable de répondre aux besoins et à l’accroissement rapide du volume de données • La participation aux initiatives de gouvernance des données en assurant la qualité, la fiabilité et l’intégrité des données • La participation active aux différentes phases de grooming, cadrage et planification des tâches avec l’équipe

Freelance
CDI
CDD

Offre d'emploi
Ingénieur(e) Cloud DEVOPS

IT CONSULTANTS
Publiée le
Azure

3 mois
Paris, France

Cherchons un profil confirmé (minimum 5 ans d'expérience) pour intégrer l'équipe BI et Data de notre client en tant qu'Ingénieur(e) DEVOPS afin de participer au déploiement des projets data COMPETENCES REQUISES - pré-requises - BigData Az DataLake, Az EventHub, Databricks, A - Confirmé - Impératif - Infrastructure as a code (ARM, YAML) - Intégration/déploiement continu (Git, Az DevOps) La plate-forme utilisée aujourd'hui est le Cloud Microsoft Azure. Vous êtes polyvalent et savez communiquer avec les différentes équipes. Afin d'assurer un niveau de sécurité conformes aux exigences du groupement sur les applications du Datalab, vous savez organiser des ateliers, suivre et rendre compte de l'avancement des sujets de sécurisation liés aux résultats d'audit, et apporter des solutions ou des pistes de réflexion en accords avec votre expertise de sécurité de la plateforme cloud Azure, notamment sur la mise en place d'applications Web et d'API. Vous ferez partie d’une équipe d’une dizaine de collaborateurs et travaillerez dans un environnement Agile. Vos missions -Construire des infrastructures Cloud Public (principalement sur Azure) -Industrialiser les architectures cibles et configurer les équipements (CI / CD) -Mettre en place des procédures et outils de surveillance permettant de garantir la haute disponibilité des infrastructures. -Participer aux phases de validation technique lors des mises en production ou des évolutions. -Collaborer avec les équipes de développement, sécurité et projets dans la réalisation de la transformation Vous devez disposer des connaissances sur les outils et méthodologies suivants : -Cloud Azure -Infrastructure as a code (ARM, YAML) -Intégration et déploiement continu (Git, Azure DevOps) -Services Big Data : Azure DataLake, Azure EventHub, Azure Databricks, Azure Data Factory, Power BI -Services Web : Azure FunctionApp, Azure WebApp -Micro-services/containers (AKS) -Base de données : SQL DB, CosmosDB La connaissance de ces langages de programmation serait un plus : Spark et Scala.

Freelance

Mission freelance
Product Owner DATA

Cherry Pick
Publiée le
Agile Scrum
AWS Cloud
CRM

24 mois
550-600 €
Paris, France

Dans le cadre d’une transformation majeure côté data , le département Data de notre client recherche un Product Owner Data pour piloter la roadmap produit du CRM Lakehouse . Le poste implique la coordination entre les équipes techniques et métiers afin d’assurer la convergence des données CRM vers un modèle harmonisé . Le contexte technique est exigeant et repose sur une stack moderne full AWS (multi-tenant) , associée à des pratiques d’infrastructure as code, d’industrialisation et de gouvernance data avancée. Environnement technique : AWS (multi-tenant), Terraform, GitLab CI/CD, Serverless, FastAPI, batch Python, Snowflake, Spark, Lambda, Kinesis, MSR Gouvernance : Data Steward, DataOps, DataFlops Collaboration internationale et en anglais courant impératif Projet long terme, démarrage immédiat ou début septembre Missions Définir la vision produit et les objectifs alignés sur la stratégie data globale du groupe. Prioriser et gérer le backlog , assurer le suivi et la bonne exécution des sprints. Contrôler la qualité et la cohérence des données CRM intégrées dans le Lakehouse. Animer des ateliers avec les filiales et recueillir les besoins métiers. Coordonner la communication entre équipes techniques, data et métiers pour fluidifier la mise en œuvre des évolutions produit.

Freelance

Mission freelance
Data Architect – Core Model CRM

Cherry Pick
Publiée le
Architecture
AWS Cloud
CRM

24 mois
600-650 €
Paris, France

Dans un environnement multi-CRM , l’entreprise souhaite construire un Core Model CRM unifié pour centraliser, harmoniser et valoriser les données clients. Ce modèle sera le socle des usages analytiques, opérationnels et stratégiques. L’un des principaux objectifs du plan de transformation data est de développer des applications qui enrichissent l’expérience client et rendent les équipes métiers autonomes dans l’analyse des données et KPI. Pour atteindre ces objectifs, l’entreprise a déployé un écosystème technologique avancé : Outils et plateformes : AWS, Dataiku, GitLab, Terraform, Snowflake, Braze, IA, Spark, Python, Power BI Architectures : Data Lake, Event-driven, Streaming (ingestion de +100 To/jour) Exemples de projets : chatbot IA, moteur de recommandation, feature store, socle vidéo, plateforme de contenu, partage de données avec partenaires, data self-service Missions 1. Conception du Core Model CRM Analyser les modèles de données existants dans les différents CRM. Identifier les objets métiers communs, divergences et points de convergence. Concevoir un modèle de données central (conceptuel, logique, physique) aligné avec les besoins métiers et techniques. Définir les règles de mapping et de transformation entre les CRM sources et le Core Model. 2. Architecture et intégration Collaborer avec les équipes Data Engineering pour l’implémentation des pipelines d’intégration. Garantir la scalabilité, la performance et la sécurité du modèle. 3. Gouvernance et documentation Documenter le Core Model et ses usages. Participer à la mise en place de la gouvernance des données clients (référentiels, qualité, traçabilité). Assurer la cohérence et l’évolution du modèle dans le temps. 4. Collaboration transverse Travailler avec les équipes CRM, Data, IT et métiers. Animer des ateliers de co-construction avec les entités internes. Former et accompagner les utilisateurs du Core Model.

48 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

Paris, France
0 Km 200 Km

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous