Trouvez votre prochaine offre d’emploi ou de mission freelance SPARQL
Votre recherche renvoie 102 résultats.
Offre d'emploi
📩 Data Engineer / DevOps – Data Platform
Gentis Recruitment SAS
Publiée le
Apache Kafka
Apache Spark
AWS Cloud
1 an
Paris, France
Contexte de la mission Dans le cadre du développement d’une Data Marketplace interne , notre client construit une plateforme centralisant l’ensemble du parcours data (discovery, qualité, gouvernance, transformation, monitoring, BI). Déjà déployée auprès de premiers utilisateurs, la plateforme entre dans une phase de scalabilité et d’industrialisation avec un objectif de déploiement à grande échelle (plusieurs milliers d’utilisateurs à l’international). Vous intégrerez une équipe produit data avec des enjeux forts autour de la performance, de la qualité des données et de l’expérience utilisateur. Objectifs & livrables Développement et optimisation de pipelines data complexes Mise en place de process de data quality Contribution à une architecture scalable et modulaire Industrialisation des flux (CI/CD, automatisation) Documentation technique et participation aux choix d’architecture Missions principales Data Engineering Développer et maintenir des pipelines (batch & streaming) Gérer l’ingestion multi-sources (API, bases, streaming) Optimiser les performances (latence, volumétrie, retry) Implémenter des contrôles de qualité et de traçabilité Backend & Architecture Concevoir une architecture data modulaire et scalable Développer des composants réutilisables Garantir la maintenabilité et la qualité du code DevOps & Industrialisation Mise en place de pipelines CI/CD Automatisation des déploiements Gestion des environnements cloud Collaboration Travail étroit avec PO, data engineers et équipes métiers Participation aux rituels agiles et code reviews Stack technique Data Python, Scala Spark Kafka / Kinesis / EventHub Airflow, DBT Cloud AWS (Lambda, Glue, Step Functions, Redshift, DynamoDB) Azure (Functions, CosmosDB) DevOps Docker, Kubernetes CI/CD (GitLab CI, Jenkins, GitHub Actions) Terraform, Ansible Observabilité Prometheus, Grafana, ELK, Datadog
Offre d'emploi
DATA ENGINEER GCP
Peppermint Company
Publiée le
Apache Spark
Google Cloud Platform (GCP)
Hadoop
Sophia Antipolis, Provence-Alpes-Côte d'Azur
🎯 Contexte Dans le cadre d’un projet stratégique de transformation data, nous recherchons un Data Engineer orienté développement , capable d’intervenir sur une migration d’envergure d’Azure vers GCP . 🛠️ Missions principales Participation active à la migration des pipelines data d’Azure vers GCP Développement et optimisation de traitements data Conception d’architectures data robustes et scalables Collaboration avec les équipes data et métiers Contribution aux bonnes pratiques data engineering 🔧 Stack technique Google Cloud Platform (GCP) – niveau confirmé requis Apache Spark / Scala Hadoop ecosystem Forte orientation développement (profil Data Engineer "DEV")
Offre d'emploi
Data Engineer H/F
SMARTPOINT
Publiée le
Apache Kafka
Apache Spark
Elasticsearch
6 mois
50k-55k €
400-410 €
Île-de-France, France
Dans le cadre du développement de nos activités, nous recherchons un(e) Data Engineer pour renforcer l'équipe technique de notre client et intervenir sur des projets à forte valeur ajoutée autour de la data. En tant que Data Engineer, vous serez amené(e) à : Assurer le suivi technique des projets : suivi des développements, réalisation de revues de code et respect des bonnes pratiques Gérer les incidents techniques : analyse, résolution et mise en production des correctifs Proposer des améliorations techniques : identification des axes d’évolution et optimisation des performances et de la stabilité des applications Garantir la qualité du code : mise en place de tests unitaires et gestion de l’intégration continue Assurer la documentation technique : maintien à jour de l’architecture et de la documentation
Mission freelance
Data Engineer Sénior (Hadoop / Python)
Les Filles et les Garçons de la Tech
Publiée le
Apache Spark
Hadoop
Python
12 mois
150-650 €
Lyon, Auvergne-Rhône-Alpes
Au sein du pôle Big Data d'un grand groupe, l'objectif principal de ce poste est de réaliser et de maintenir les développements nécessaires à l'alimentation du Datalake sur une plateforme Cloudera Hadoop, de mettre en place des extractions de données et d'accompagner les utilisateurs. Rattaché(e) au responsable Big Data, vous évoluerez dans un contexte de production à fortes attentes où la tenue des délais de livraison et le pilotage opérationnel sont primordiaux. Vos principales missions seront les suivantes : Développement et intégration : Prendre en charge les évolutions des données à intégrer et reprendre les développements existants pour l'alimentation du Datalake. Vous développerez également des extractions avec un niveau d'expertise en SQL et créerez des scripts Shell avancés pour l'automatisation. Expertise technique et mentorat : Spécifier techniquement les tâches, fournir des requêtes de référence, effectuer des revues de code et accompagner les collaborateurs juniors, stagiaires ou alternants. Support et accompagnement : Assurer le support de niveau 2, faire appliquer les bonnes pratiques et consignes aux utilisateurs, et rédiger la documentation requise (guides, description de processus). Optimisation et maintenance : Garantir la maintenabilité, les performances et l'exploitabilité de la plateforme en respectant l'utilisation des modèles référencés par la Gouvernance de la Donnée. Vous optimiserez les traitements de la plateforme et ceux des utilisateurs, et mènerez des investigations (reverse engineering) dans une architecture héritée complexe
Offre d'emploi
Data Engineer/Architecte
OBJECTWARE
Publiée le
Apache Spark
AWS Cloud
DBT
3 ans
41k-91k €
400-710 €
Île-de-France, France
Missions principales Conception et optimisation de pipelines de données à grande échelle (batch, streaming, API) Structuration des données selon le modèle Médaillon (Bronze / Silver / Gold) Développement et industrialisation via DBT, Spark et Iceberg Orchestration des workflows ETL/ELT via Airflow Déploiement cloud sur AWS et infrastructure as code avec Terraform Conteneurisation des traitements ( Docker, Kubernetes ) Supervision, observabilité, gestion des incidents et qualité des données Documentation et conformité RGPD Accompagnement de profils juniors
Mission freelance
Data Platform Engineer (Hadoop CDP/HDP, Spark, Airflow, Kubernetes) - IDF
ISUPPLIER
Publiée le
Apache
Hortonworks Data Platform (HDP)
Kubernetes
1 an
450-650 €
Île-de-France, France
Objectifs de la mission Le bénéficiaire souhaite une prestation d’accompagnement pour assurer le MCO des Infrastructures HDP et CDP, administration des Clusters, Prestations demandées Les missions sont: Les consultants retenus auront pour mission : • Administration et optimisation de clusters HDP/CDP • Installation, configuration et maintenance des clusters. • Gestion des mises à jour et des patchs de sécurité. • Surveillance des performances et optimisation des ressources. • gestion/administration de clusters Kubernetes • Automatisation des déploiements avec Operators…, etc. • Sécurisation et monitoring des environnements conteneurisés. • Orchestration des workflows avec Apache Airflow : • Développement et optimisation des DAGs pour la gestion des pipelines de données. • Gestion des dépendances et optimisation des temps d’exécution. • Intégration avec les autres outils de l’écosystème. • Traitement et analyse des données avec Apache Spark : • Développement et optimisation des jobs Spark (batch et streaming). • Gestion des performances et tuning des jobs. • Intégration avec les systèmes de stockage distribués. • Optimisation des requêtes et accès aux données avec Starburst : • Configuration et administration de Starburst. • Optimisation des requêtes SQL distribuées. • Sécurisation et gestion des accès aux différentes sources de données. Français/Anglais
Mission freelance
Ingénieur DevOps (APS)
BEEZEN
Publiée le
Ansible
Apache Airflow
Apache Spark
12 mois
460-500 €
Montreuil, Île-de-France
Je recherhce un Ingénieur DevOps ayant plus de 3 ans d' experience pour une prestation d'accompagnement dans le cadre ITOPS pour les applications de l'APS. Les missions BUILD/RUN : les activités de BUILD et de RUN seront a prendre en compte EN BUILD : Expertise de projet et co-construction avec l'IT Métier Point d'entrée OPS dans le cadre des projets confiés Gestion, dans le cadre des évolutions et des projets, de l'ensemble des gestes techniques pour la mise en production des applications Création ou mise à jour des environnements Réalisation de l'ensemble des gestes techniques d'installation ou de mise à jour d'application Mise en place de l’exploitation de l’application avant le passage en RUN Accompagnement technique et conseil Veille à l’application des bonnes pratiques, des standards du groupe EN RUN : Gestion des incidents et des changements pour l'ensemble du périmètre de la squad Proposition d'axes d’optimisation, d’industrialisation Veille a l'amélioration continue du monitoring et exploitation des applications. Les mindset AGILE et DEVOPS sont fortement recommandés Ecosystem technologique Outils DEVOPS (Ansible, ArgoCD) Technologies sur nos applications Cloud / IAAS : Linux, Websphere, Autosys, CFT Cloud / PAAS : kubernetes, docker, openshift, PostgreSQL, ExaCC.. Cloud DATA : Spark, Starbust, Airflow… Outils de suivi : SNOW et JIRA
Mission freelance
Consultant Cybersécurité ISP (h/f)
emagine Consulting SARL
Publiée le
Cybersécurité
3 ans
Paris, France
Missions : Compréhension des contextes projets, identification de la criticité des assets et des données traitées au sein des projets. Réalisation d'analyse de risques dans des contextes cloud (AWS/AZURE) et on-premise. Participation à la mise en place d'un nouveau framework et d'une nouvelle solution d'analyse de risque. Analyse et challenge des résultats lors des restitutions d’audits de sécurité et de tests d’intrusion. Gouvernance et Analyses des risques. Soutenir la Group Security Practice et les autres parties prenantes afin de garantir que la sécurité soit pertinente, rentable et conforme à la stratégie de sécurité du Groupe ainsi qu’aux bonnes pratiques de Security by Design.
Mission freelance
Développeur Front Senior Vue.js / Nuxt.js (h/f)
emagine Consulting SARL
Publiée le
Nuxt.js
3 ans
400-550 €
Issy-les-Moulineaux, Île-de-France
Dans le cadre du renforcement d’une équipe transverse dédiée aux bonnes pratiques Front-End, nous recherchons un développeur Front Senior fortement expérimenté en Vue.js (Vue 3) et Nuxt.js. Le consultant interviendra au sein d’une équipe experte chargée de concevoir, maintenir et faire évoluer des composants et standards Front à destination de l’ensemble des équipes de développement. À ce titre, ses principales responsabilités seront : Développement et amélioration de composants Front mutualisés en Vue 3 / Nuxt.js Mise en place de bonnes pratiques de développement et accompagnement des équipes Front Optimisation des performances des applications Contribution à la qualité du code (revues de code, guidelines, documentation)
Mission freelance
Développeur PeopleSoft (h/f)
emagine Consulting SARL
Publiée le
PeopleSoft
3 ans
Île-de-France, France
Résumé Le poste de Développeur Peoplesoft vise à améliorer les modules de paie, d'absence et de DSN de l'ERP PeopleSoft HCM 9.2, en contribuant à leur paramétrage et évolution fonctionnelle. Responsabilités : Décomposer les spécifications techniques et fonctionnelles en stories détaillées. Assurer le codage en respectant les contraintes de sécurité et d'expérience utilisateur. Mettre en place des tests en définissant des scénarios et en documentant les bugs. Réaliser des déploiements automatiques dans différents environnements. Suivre et gérer les traitements en production, y compris les transferts de fichiers. Fournir une assistance de niveau 2 et 3 aux utilisateurs.
Offre d'emploi
GLOBAL CRM MANAGER (Salesforce, Hubspot)-(h/f)
emagine Consulting SARL
Publiée le
450-520 €
France
Le Global CRM Manager joue un rôle clé dans l'équipe Brand Experience et Marketing Performance. Sa principale mission consiste à orchestrer une stratégie CRM axée sur les données et son exécution à l'échelle internationale. Il est chargé d’assurer la cohérence, la performance et l’innovation des communications clients, tout en utilisant les données pour renforcer l'engagement et la fidélité des clients. Responsabilités Développer et mettre en œuvre une stratégie CRM de marque visant à renforcer la fidélité des clients Assurer l'alignement et la cohérence des communications CRM à travers tous les marchés et canaux Coordonner les campagnes CRM avec les parties prenantes internes et les agences externes Animer et soutenir les marchés locaux dans l'exécution des campagnes et le suivi de la performance Conduire des initiatives de génération de leads et des processus de suivi Analyser les KPIs CRM et proposer des stratégies d'optimisation Concevoir et améliorer les parcours clients pour améliorer l'engagement et la rétention Superviser la planification éditoriale et le déploiement de la newsletter mondiale Utilisez des outils comme Salesforce et Marketing Cloud pour suivre les performances et personnaliser les communications. Garantissez la qualité des données et leur conformité au RGPD et aux normes internes. Accompagner et former un apprenti Challenger les équipes (expert CRM + agences de création de contenu) Exigences essentielles Minimum 10 ans d'expérience en marketing , avec une expertise en CRM Maîtrise de l'anglais et du français à un niveau professionnel complet Compétences en utilisation de suite martech SAAS (ex. Salesforce, Hubspot, Adobe Campaigns) Atouts Connaissance de base ou curiosité pour l'analyse de données Volonté d'apprendre les bases de SQL Capacité à gérer plusieurs parties prenantes (équipes internes et agences) Créativité, esprit ouvert et capacité de penser en dehors des sentiers battus Détails opérationnels Localisation : Poissy ( RER A ) Ligne de rapport : Au directeur de l'expérience de marque et des performances marketing Télétravail : 3 jours par semaine
Mission freelance
Business Analyst domaine Energie avec appétence IA (h/f)
emagine Consulting SARL
Publiée le
1 mois
550-580 €
92250, La Garenne-Colombes, Île-de-France
Lieu : Garenne-Colombes / 50% TT par semaine Durée : 3 ans Démarrage : courant mai Résumé : Ce poste de Business Analyst est dédié à la digitalisation et à l'optimisation des interactions avec les clients B2B. La nouvelle équipe porte la modernisation des systèmes d’information avec des enjeux majeurs pour 2026 tels que l'intégration de l’IA pour automatiser et fiabiliser les processus, la conception d’architectures flexibles pour les offres 24/7 et Flex, ou encore l'ouverture de nos solutions pour renforcer la collaboration avec les brokers (Third Party Intermediaries). Cette transformation vise à garantir performance, évolutivité et sécurité dans un environnement énergétique en pleine mutation. Responsabilités : Recueillir et formaliser les besoins métiers (vente, marketing, opérations). Traduire les besoins en exigences fonctionnelles. Accompagner la mise en œuvre des exigences avec les équipes IT. Contribuer à l’amélioration continue de l’expérience client, des parcours de souscription et de la performance commerciale des solutions digitales. Générer des POCs (Proofs of Concept) grâce à l'IA. Compétences requises : Expérience de +7 ans en tant que Business Analyst. Compétences en gestion des exigences fonctionnelles. Forte appétence/compétence pour l'Intelligence Artificielle. Maîtrise de l'anglais (écrit et verbal) pour une communication efficace.
Mission freelance
Directeur de Programmes (h/f)
emagine Consulting SARL
Publiée le
Direction de projet
3 ans
France
Nous recherchons un Directeur de Programmes pour gérer la fusion des acteurs bancaires dans le Franco-Benelux, visant à optimiser la gestion des distributeurs de billets. Ce rôle inclut la supervision de 6 chefs de projet représentant différentes banques, chacun gérant un périmètre spécifique. Localisation : Franco-Benelux (à définir) il faut être mobile Responsabilités : Gérer et coordonner les chefs de projet pour la fusion des distributeurs de billets. Superviser les activités de back office et de matériel liés aux distributeurs de billets. Communiquer avec des professionnels du secteur bancaire. Comprendre et utiliser le jargon technique lié aux services de paiement. Valider l'approbation et la certification des projets. Contribuer au déploiement de projets à l'échelle nationale et internationale.
Mission freelance
Développeur Data (H/F) – Confirmé – Nantes
CAT-AMANIA
Publiée le
Apache Hive
Apache Spark
Artifactory
1 an
Nantes, Pays de la Loire
Dans le cadre du renforcement d’une équipe Data au sein d’un grand groupe du secteur financier, nous recherchons un Développeur Data confirmé basé à Nantes . Vous interviendrez sur des projets stratégiques liés à l’ingestion, la transformation et la valorisation des données dans un environnement Big Data. Vos missions : Développer des user stories liées à l’ingestion et transformation de données (ETL / SQL) Réaliser les tests unitaires et participer à la recette fonctionnelle Déployer les développements sur différents environnements Rédiger la documentation technique Participer à l’analyse et au chiffrage des besoins Assurer le suivi des traitements en production (run) Contribuer aux cérémonies Agile Scrum
Mission freelance
Développeur Full Stack Python React AWS (h/f)
emagine Consulting SARL
Publiée le
1 mois
500-600 €
92400, Courbevoie, Île-de-France
Résumé Ce poste de développeur Full Stack vise à renforcer un projet d'architecture orientée événements, en contribuant au traitement en temps réel de données massives et en soutenant le développement du système d’information de l'unité commerciale. Responsabilités : Développer le code, les API et les interfaces utilisateurs nécessaires aux processus métier. Participer à l'ensemble du cycle de vie des applications : recueil des besoins, conception, développement, support, maintenance corrective et évolutive. Assurer l'orchestration des composants techniques pour garantir une plateforme stable, sécurisée et performante. Collaborer étroitement avec le Product Owner, les Business Analysts et les équipes métiers. Intégrer une démarche orientée qualité incluant la documentation technique et des tests automatisés. Réaliser les développements nécessaires sur un environnement AWS/Python/React/MongoDB/Azure DevOps. Mettre en place des builds et des outils de tests et de maintenance associés. Rédiger des tests en collaboration avec les Analystes Fonctionnels et assister les utilisateurs. Assurer le support niveau 2, signaler et résoudre des incidents. Effectuer le suivi post-release des livrables. Key Requirements : Excellente maîtrise de Python et du framework React. Expérience dans des environnements AWS. Compétences en développement d'API et d'interfaces utilisateurs. Expérience en assurance qualité et tests automatisés (CI/CD). Nice to Have : Une première expérience en Intelligence Artificielle (IA). Connaissance de MongoDB et Azure DevOps. Capacités en documentation technique et utilisation de manuels.
Mission freelance
Chef de projet intégration (h/f)
emagine Consulting SARL
Publiée le
6 mois
400-500 €
78000, Versailles, Île-de-France
emagine recherche pour l’un de ses clients grand compte un chef de projet intégration. Lieu : Versailles Durée : 6 mois Démarrage : ASAP Pas de télétravail à l’onboarding , à définir ensuite selon autonomie Résumé Le rôle de Chef de projet intégration est essentiel pour piloter des projets d'intégration de solutions GED au sein de l'entreprise, garantissant que les besoins des clients sont bien compris et traduits en spécifications fonctionnelles fiables. Responsabilités : Piloter des projets de moyenne à grande envergure Contribuer au recueil des besoins et à la rédaction des spécifications fonctionnelles détaillées Concevoir les solutions GED à partir des spécifications fonctionnelles Paramétrer et personnaliser la plateforme Accompagner le client lors des phases de recette et effectuer les corrections nécessaires Former les groupes d’utilisateurs, fonctionnels ou techniques Garantir la bonne exécution des mises en production Respecter les normes et procédures de sécurité, qualité, et gouvernance documentaire Rédiger la documentation projet (DSF, DEX, Comitologie, etc) Must Haves : Maîtrise d'un logiciel de GED, CRM, ERP ou similaire Compétences en planification et analyse de projet Coordination d'intervenants internes et externes Gestion de la relation client dans un contexte client/fournisseur Capacité à rédiger la documentation projet Conception de requêtes SQL Nice to Haves : Connaissance de Docuware Langages/scripts utiles à l’intégration (XML) Environnements Windows Server, Active Directory Interopérabilité applicative (webservices REST/SOAP, API) Autres Détails : Déplacements : Prévoir ponctuellement divers déplacements sur les autres sites
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
102 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois