L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 6 888 résultats.
Mission freelance
Senior Data Engineer – Data Platform Enabler
Gentis Recruitment SAS
Publiée le
Apache Spark
AWS Cloud
DevOps
12 mois
Paris, France
Contexte Dans le cadre du renforcement de sa Data Platform, un acteur majeur de la gestion d’actifs quantitatifs recherche un Senior Data Engineer très opérationnel pour accompagner et faire monter en compétence une communauté de plus de 50 data engineers et data scientists. Le rôle est central : interface entre les feature teams et les équipes plateforme, avec une forte dimension technique et stratégique. MissionsSupport technique hands-on Accompagnement direct des équipes sur leurs problématiques data Développement et optimisation de pipelines end-to-end Identification et réduction de la dette technique Mise en place d’outillage (tests, automation, AI agents…) Amélioration de la Developer Experience Data Platform Evangelism Promotion et adoption quotidienne de la plateforme Partage des best practices et des standards Veille technologique et diffusion interne Animation de communauté de pratique Upskilling & Transmission Évaluation du niveau des équipes Mise en place de formations, workshops, contenus techniques Création de documentation et supports techniques Feedback & Amélioration continue Collecte des besoins utilisateurs Collaboration étroite avec les équipes plateforme Validation technique des assets produits Stack TechniqueCloud AWS (S3, EMR, Glue, Athena, Lake Formation) CloudFormation / CDK Lambda, Fargate Data Engineering Python avancé Spark / Pandas Airflow Parquet Apache Iceberg DevOps CI/CD Jenkins SonarQube Conda Infra-as-Code (idéalement CDK en Python)
Offre d'emploi
SENIOR Data engineer MSBI Python Azure (7-8 ans minimum)
Digistrat consulting
Publiée le
Azure Data Factory
Azure DevOps
Microsoft SSIS
3 ans
50k-65k €
500-580 €
Paris, France
🏭 Secteurs stratégiques : Asset management 🗓 Démarrage : ASAP PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 💡 Contexte /Objectifs : Dans le cadre d'un projet au sein d'un client grand compte, nous sommes à la recherche d'un Data engineer avec une expertise sur la suite MSBI. Le profil recherché, Bac + 4/5 idéalement issu d’une école d’ingénieur, aura une expérience au minimum de 7/8 ans. Passionné par le développement, il aura la capacité de travailler en équipe et saura apporter une vraie valeur ajoutée par ses compétences techniques et humaines
Mission freelance
INGENIEUR DATA BI - GENIO
PROPULSE IT
Publiée le
BI
24 mois
250-500 €
Paris, France
INGENIEUR DATA BI GENIO / SQL / BIG QUERY / TERADATA / GCP nous recherchons un Data Engineer entre 3 et 7 ans d'expérience qui aura la capacité de gérer à la fois les aspects MCO/TMA mais également la partie projets pour les différentes directions du groupe en collaboration avec le reste de l'équipe. À la suite d'une passation avec notre centre de service, il devra également être en mesure d'innover et d'améliorer les processus existants pour perfectionner l'efficience de l'équipe au quotidien dans ses différentes tâches. DESCRIPTION DE LA MISSION • Participe à l'analyse du besoin avec la supervision du PPO ou Manager et à la conception du modèle de données permettant de répondre aux enjeux. • Utilise l'analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en œuvre des projets • Conçois, développe et maintien les pipelines de données pour l'acquisition, la transformation, le stockage et la mise à disposition des données. • Optimise les performances des développements pour assurer une disponibilité et une fiabilité maximale • Identifie et résout les goulots d'étranglement et les problèmes de performances dans les flux de données • Met en place des processus et des contrôles pour garantir la qualité des données • Conçoit et met en œuvre des systèmes d'alerte, de monitoring et de reprise automatique efficaces. • Réalise la recette technique et anime la recette fonctionnelle avec les utilisateurs • Rédaction des documents associés au projet (Spécification Fonctionnelles, Spécifications Techniques, Cahier de recette Technique, Document d'exploitation) • Être force de proposition sur l'amélioration de notre stack Data • Faire le reporting d'avancement des travaux • Support au déploiement • Assure la maintenance corrective ou évolutive • S'assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l'équipe ENVIRONNEMENT TECHNIQUE L'environnement Data dans le cadre de cette mission est actuellement constitué principalement d'une base de données Teradata (Cloud) ainsi qu'un environnement BigQuery. • Langages/Framework : SQL, BigQuery, Python, Java, Shell • Outils : OpenText GENIO, Talend • Base de données : Teradata, BigQuery, SQL Server, IBM DB2 PLANIFICATION ET LOCALISATION Démarrage ASAP / PARIS
Mission freelance
Data Engineer/DataOps - Maintenance prédictive
Nicholson SAS
Publiée le
Ansible
Apache Airflow
Apache Spark
9 mois
300 €
Toulouse, Occitanie
Missions: Mon client recherche un DataOps / Data Engineer pour intervenir sur le service de maintenance prédictive, basé sur : un environnement on‑prem (Python, Airflow, Docker, GitHub CI/CD), un environnement Cloud Azure (Databricks, PySpark, ADF), une Service Platform pour les compagnies aériennes (application web). Assurer le MCO des environnements dev & production. Superviser et monitorer Databricks / Spark. Concevoir & maintenir des pipelines de données en production. Accompagner le déploiement d’algorithmes (optimisation performance & coûts). Améliorer les processus d’intégration / versioning dans la Service Platform.
Offre d'emploi
Data Engineer DATABRICKS
UCASE CONSULTING
Publiée le
Databricks
Python
Snowflake
1 an
40k-45k €
400-600 €
Paris, France
Bonjour 😀 Nous recherchons un(e) Data Engineer orienté DATABRICKS/PYTHON pour l'un de nos clients ! Contexte de la mission : Dans le cadre du renforcement de son équipe data, notre client recherche un Data Engineer très technique , passionné par les technologies data modernes. Focus 100 % technique , avec un fort esprit geek / builder . Missions principales En tant que Data Engineer, tu interviendras sur des projets data à forte valeur technique : Concevoir, développer et maintenir des pipelines de données robustes et performants Travailler sur des plateformes Databricks/et ou Snowflake Développer des traitements data en Python (niveau avancé attendu) Optimiser et écrire des requêtes SQL complexes Participer aux choix d’architecture et aux bonnes pratiques data Garantir la qualité, la fiabilité et la performance des flux de données Collaborer avec des profils techniques au sein de l’équipe data
Mission freelance
Data Manager
Tenth Revolution Group
Publiée le
DBT
Snowflake
1 an
400-650 €
Paris, France
Fiche de poste – Data Manager (Transverse E-commerce & Media) Intitulé du poste Data Manager – Digital Marketing & Data Governance Mission Dans un contexte de transformation data, le Data Manager intervient sur un rôle transverse entre les domaines E-commerce, Media et autres data domains afin de garantir la cohérence, la standardisation et la qualité durable du patrimoine de données. Il/elle agit comme référent fonctionnel entre les équipes métier, produit et techniques, accompagne la conception des data products et veille à l’application des standards de data management et d’interopérabilité. Le poste nécessite une forte expertise en Digital Marketing et Web Analytics (GA4) permettant de transformer les analyses en recommandations business à forte valeur. Responsabilités principales 1. Cadrage & conception des Data Products Accompagner les équipes Marketing Digital dans le cadrage des besoins data Contribuer à la conception des data products alignés avec les enjeux métier Apporter une expertise sur : la modélisation des données la complexité et la faisabilité les impacts cross-domain Garantir l’alignement avec : les standards data existants la data architecture cible 2. Data Governance & standards Définir et maintenir les standards de data management : règles de modélisation conventions de nommage documentation Co-construire les guidelines avec les équipes en fonction des nouveaux use cases Assurer l’adoption et la bonne utilisation des standards Être le référent sur la qualité de la documentation et des pratiques de gouvernance 3. Data Urbanisation transverse Garantir la cohérence et l’interopérabilité entre les différents data domains Identifier : les doublons les overlaps la fragmentation des données (notamment autour de la donnée client) Formuler des recommandations de simplification et de priorisation Promouvoir : la mutualisation l’harmonisation la qualité long terme des données Expertise attendue – Digital Marketing & Analytics Google Analytics 4 (GA4) Analyse de trafic & parcours client Mesure de performance des campagnes Conversion rate optimization (CRO) Activation de la donnée marketing Capacité à transformer les analyses en recommandations stratégiques Soft skills Leadership fonctionnel Communication & pédagogie Esprit de synthèse Orientation valeur business
Offre d'emploi
Consultant e-Invoicing / Facturation électronique (F/H)
CAPEST conseils
Publiée le
Facturation électronique
Web service
Échange de données informatisé (EDI)
3 mois
Courbevoie, Île-de-France
Ouvert aux indépendants ou aux personnes à la recherche d'un CDI. Notre client renforce son équipe de Consultants B2B Integration, pour mettre en œuvre notre solution e-invoicing auprès de clients nationaux et internationaux. Cette équipe travaille de manière quotidienne avec des clients, implémente la solution, anime des groupes de travail, teste et fait évoluer les solutions B2B Intégration auprès des clients. Véritable référent technique et fonctionnel de la solution, vous prenez en charge des projets et construisez une relation fiable et durable avec vos clients. Analyser les besoins des utilisateurs et les formaliser avant de proposer les solutions les mieux adaptées. Animer les ateliers et les formations. Assurer la mise en œuvre, superviser ou réaliser le paramétrage. Rédiger les spécifications fonctionnelles et/ou techniques Coordonner les développements spécifiques pour la réalisation de la demande client. Assurer les recettes des développements réalisés. Élaborer des recommandations innovantes et pertinentes, proposer de nouvelles idées...- Contribuer à l’évolution des solutions en remontant les informations Métiers pertinentes au Produit. Travailler en collaboration étroite avec l’ensemble de l’écosystème Réaliser les transferts de compétence (formations, guides d’exploitation…) vers le client final, les partenaires ou en interne. Assurer le transfert des dossiers vers les autres services et notamment la Direction Support et Hébergement. Renseigner et enrichir les bases de connaissances mutualisées. Maintenir à jour ses connaissances dans son domaine d’expertise. Les missions précitées ne sont pas exhaustives et restent évolutives. Qualifications De formation Bac +5 type école d'ingénieur ou université en informatique/réseau, vous détenez une première expérience dans le domaine du conseil et/ou du développement informatique, de préférence avec une expérience en programmation et EDI/E-invoicing. Vous avez des compétences en gestion de projet IT, programmation (Java, C), API, Web Services, Bases de données. Est un plus vos connaissances en transformation digitale auprès de grands comptes. Rigoureux(se), autonome, vous êtes bon communiquant, avez le sens du client et savez gérer les priorités. Team spirit, force de propositions, vous détenez des qualités rédactionnelles et d'adaptabilité. Un niveau d'anglais courant est demandé.
Offre d'emploi
Product Manager Expert Data / BI (/NB) F/H - Marketing (H/F)
█ █ █ █ █ █ █
Publiée le
Puteaux, Île-de-France
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Offre d'emploi
Administrateur systèmes F/H
AIS
Publiée le
1 mois
40k-45k €
225-450 €
Toulouse, Occitanie
- Concevoir et dimensionner des environnements virtualisés - Participer au choix et à l'achat des composants matériels (serveurs, stockage, réseau) nécessaires à l'infrastructure - Déployer et installer le hardware sur site et assurer sa mise en service - Installer et configurer les hyperviseurs au sein de l'infrastructure - Déployer et configurer les machines virtuelles selon les besoins des projets - Administrer et maintenir les systèmes Windows et Linux hébergés dans l'environnement virtualisé - Assurer le support technique et le suivi des environnements déployés - Participer aux phases de déploiement et d'intégration sur site, y compris dans un contexte international. ENVIRONNEMENT TECHNIQUE : VMware, Proxmox, Windows, Linux, etc.
Mission freelance
Chef de projet – AMOA SAP SD (H/F) – Data Migration / Cutover / S/4HANA
KN CONSULTING
Publiée le
AMOA
Legacy System Migration Workbench (LSMW)
SAP MM
6 mois
Corbeil, Grand Est
Nous recherchons un(e) Chef de projet / Consultant AMOA SAP SD expérimenté(e) pour accompagner la mise en œuvre et la migration de nos systèmes SAP. Vous serez le lien entre les équipes métiers et IT, et vous assurerez le succès des projets SAP SD, de la phase de recueil des besoins à la mise en production. Mission principale : Piloter les projets SAP SD en collaboration avec les équipes métiers et techniques. Recueillir et formaliser les besoins métier, rédiger les spécifications fonctionnelles détaillées (SFD/FSD). Coordonner les activités de migration de données et validation des données (Data Migration, mapping, cutover, go-live). Gérer les phases de tests fonctionnels : SIT / UAT / tests de migration. Organiser et animer les ateliers métier et sessions de formation des utilisateurs clés. Assurer le suivi post-migration et le support hypercare. Identifier et gérer les risques, problèmes et dépendances du projet.
Mission freelance
Data Custodian
Signe +
Publiée le
Data management
10 mois
460-500 €
Nantes, Pays de la Loire
Bonjour, Je recherche pour l'un de mes clients un consultant Data Custodian pour couvrir les activités présentées ci-dessous, dans une optique de : Tenir le rôle, Aider à structurer les actions / responsabilités qui seront portées par les DC Le Data Custodian est garant de la visibilité et de la fiabilité des données du RAW. Ses objectifs : Garantir la disponibilité, la qualité et la traçabilité des données issues du RAW pour les zones socles. Assurer la complétude des sources. Assurer la visibilité sur les données brutes et leurs transformations. Assurer la cohérence pour les équipes métiers et techniques. Être le point de contact prioritaire vis‑à‑vis des systèmes sources.
Mission freelance
Coordinateur Télécoms & Support Réseau (H/F)
CAT-AMANIA
Publiée le
Administration réseaux
Centreon
MPLS (MultiProtocol Label Switching)
6 mois
290-360 €
Montpellier, Occitanie
Dans le cadre du renforcement d’une équipe infrastructure, nous recherchons un Coordinateur Télécoms & Support Réseau afin d’assurer le suivi opérationnel des services télécoms et la gestion des incidents réseau. Vous interviendrez au sein d’un environnement IT structuré afin de garantir la continuité de service et la qualité des liaisons réseau utilisées par les équipes métiers. Votre rôle s’articulera autour de deux axes principaux : Gestion des commandes télécoms Réception et traitement des demandes internes liées aux services télécoms Création et suivi des commandes auprès des opérateurs (liens MPLS, VPLS, FTTH, SDSL, fibre dédiée) Suivi administratif des commandes, résiliations et migrations de liens Mise à jour et maintien des inventaires télécoms Gestion des incidents réseau Prise en charge et qualification des incidents réseau remontés via les outils de supervision Diagnostic des incidents sur les liaisons WAN, MPLS ou Internet Coordination avec les opérateurs pour la résolution des incidents Mise à jour des tickets et communication régulière auprès des équipes concernées Vous contribuerez à assurer un suivi rigoureux des infrastructures télécoms et une gestion efficace des incidents réseau , en collaboration avec les équipes techniques et les prestataires opérateurs.
Offre d'emploi
Data Ops Engineer
VISIAN
Publiée le
Ansible
DevOps
1 an
40k-45k €
400-520 €
Île-de-France, France
Data Ops Engineer - Streaming PlatformContexte Le pôle technologique conçoit et opère des plateformes « as a service » facilitant la mise en place d'architectures modernes, distribuées et hautement résilientes pour l'ensemble des entités du groupe. En tant que data ops engineer, vous rejoindrez l'équipe Interfaces, répartie en 3 squads orientées produit dont le périmètre s'étend de la conception du service à son maintien en condition opérationnelle en production. Plus particulièrement vous intégrerez la squad qui est composée de 7 personnes et qui gère le build et le run de la plateforme streaming composée de plus de 30 clusters Kafka dédiés. En tant que Devops Streaming, vous évoluerez dans un environnement technique complexe, distribué, sécurisé et hautement disponible. Vous travaillerez au sein d'une dev team affectée à un produit en particulier et serez sollicité en fonction de vos expertises pour accompagner les autres dev teams data. Description des missions Mise en œuvre opérationnelle et techniques de la plateforme Streaming Industrialiser et automatiser les déploiements avec Ansible Documenter les offres Apporter une expertise technique aux utilisateurs de la plateforme Mettre en production de nouveaux clusters et mettre à l'échelle les clusters existants (scale horizontal et vertical) Participer à la définition des architectures des futures briques de la plateforme Streaming Développer des prototypes en lien avec les cas d'usages des entités Démontrer la valeur des offres Data auprès des entités
Offre premium
Offre d'emploi
Data Engineer Python / Azure / Ops
VISIAN
Publiée le
Azure
Azure Data Factory
Python
2 ans
Paris, France
La DSI du client recrute un Data Engineer pour concevoir, développer et maintenir les architectures Data nécessaires à l'exploitation des données par les analystes métiers et data scientists. A ce titre, vos principales missions consisteront à : Mener les projets d'intégration (temps réel) et data (big data & insights) Comprendre, analyser et proposer des solutions techniques répondant aux besoins des divers acteurs de la donnée (spécialistes métier, domain managers, architecte, data analystes et scientists) Apporter un éclairage technique sur les architectures Cloud, dialoguer avec les fournisseurs de solutions et les consultants techniques Dans une logique de mise en production, créer et déployer des pipelines de données robustes pour les data scientists et data analysts (collecte, stockage, transformation et exploitation) Assurer une bonne qualité des données pour les projets Machine Learning (préparation, complétude, épuration, enrichissement) dans le but d'optimiser les performances des modèles Améliorer les processus internes : localisation et traçabilité de la donnée, standardisation des flux et des scripts de traitement des données, documentation Collaborer avec les équipes basées à l'étranger pour faciliter le Data-Sharing, échanger sur les best-practices et les moyens d'optimiser les architectures Contribuer à l'amélioration de la gouvernance sur la protection et la confidentialité des données. Toute activité en dehors de celles énumérées au titre des fonctions principales pourra être confiée au collaborateur dans le cadre de son activité en fonction de son évolution au sein du service et des besoins de l'entreprise.
Mission freelance
EXPERT S/4HANA – Master Data Article Retail H/F
AXONE BY SYNAPSE
Publiée le
Apache Kafka
API
Idoc
3 mois
Villeneuve-d'Ascq, Hauts-de-France
Axone by Synapse, cabinet de conseil IT innovant, recherche pour l’un de ses clients pour une mission de longue durée Expert SAP S/4HANA – Master Data Article Retail H/F Dans le cadre d’un vaste programme de migration de SAP ECC6 FMS vers SAP S/4HANA, le consultant intégrera l’équipe Référencement / Master Data Article dès la phase de pré-étude en 2026. L’objectif est de sécuriser la conception cible, définir la stratégie de migration et accompagner la transformation vers un modèle Clean Core, en vue d’un Go-Live prévu en 2028. Le rôle implique une forte hauteur de vue, une expertise technico-fonctionnelle avancée et une capacité à orienter les choix d’architecture et de stratégie de conversion des données. Objectif et livrables: Réalisation d’une Fit-Gap Analysis entre ECC custom et standard S/4 Définition du design fonctionnel cible (Clean Core) Élaboration de la stratégie de migration des Master Data Articles Définition des règles de mapping, qualité et nettoyage des données Contribution aux orientations techniques et choix de stratégie de migration Accompagnement des équipes internes en montée en compétence Livrables attendus : Étude d’impact détaillée Design fonctionnel cible documenté Stratégie de migration formalisée Recommandations techniques argumentées Compétences techniques attendues: Expertise fonctionnelle & SAP Maîtrise experte SAP S/4HANA Expertise modules MM & SD Retail Maîtrise approfondie Master Data Article (Retail/Fashion) Approche Clean Core & simplifications S/4 Expérience migration ECC6 FMS → S/4HANA Compétences techniques & architecture: Lecture / compréhension ABAP (analyse de spécifique) Connaissance architecture HANA Intégrations : IDocs, API, Kafka Connaissance Fiori, BPA, BTP Outils de migration : Readiness Check, Maintenance Planner
Offre d'emploi
TECH LEAD DATA – PALANTIR / PYSPARK / PYTHON
OCTOGONE
Publiée le
PySpark
Python
6 mois
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Dans le cadre d’un projet stratégique chez l’un de nos clients grands comptes, nous recherchons un Tech Lead Data disposant d’une forte expertise sur l’écosystème data moderne et les technologies Palantir. En tant que référent technique, vous interviendrez sur la conception, l’industrialisation et l’optimisation de pipelines data à forte volumétrie, tout en accompagnant les équipes dans la mise en œuvre des bonnes pratiques de développement et d’architecture. Responsabilités principales • Concevoir et piloter l’architecture des pipelines data • Développer et optimiser des traitements distribués en PySpark • Développer des composants et scripts en Python pour le traitement et l’orchestration des données • Intervenir sur les environnements Palantir (Foundry ou équivalent) • Encadrer techniquement les équipes data (data engineers / analysts) • Garantir la qualité, la performance et la fiabilité des pipelines • Participer aux choix d’architecture et aux décisions techniques • Collaborer avec les équipes métiers et les architectes data Compétences requises • Forte expertise Python et PySpark • Expérience confirmée sur des architectures data distribuées • Expérience sur la plateforme Palantir (Foundry idéalement) • Maîtrise des problématiques d’industrialisation data (ETL, orchestration, performance) • Expérience en rôle de Tech Lead ou référent technique • Bonne compréhension des enjeux data à grande échelle
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
6888 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois