Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 2 005 résultats.
CDI
Freelance

Offre d'emploi
Data Engineer/ Tech Lead

Signe +
Publiée le

24 mois
40k-45k €
286-450 €
Clermont-Ferrand, Auvergne-Rhône-Alpes

Compétences techniques Maîtrise : DBT, Databricks, ADLS, Python (POO), SQL, Datastage, Oracle Appréciées : MicroStrategy, Power BI, Docker/Kubernetes, CI/CD Compétences Fonctionnelles Capacité à résoudre des problèmes techniques et fonctionnels complexes. Leadership et capacité à fédérer les équipes. Prise de décision pour faire avancer les projets. Connaissances Infrastructure on-prem et cloud. Écosystème data et bonnes pratiques de migration. Client : Pneumatique Site : France (Clermont-Ferrand) ; 3 jours / semaine sur site mission long terme. Nombre d'années d'expérience : minimum 5 ans en IT (data engineering, architecture ou domaine similaire) Langue : Maîtrise de l'anglais (écrit et oral)

Freelance
CDI

Offre d'emploi
Développeur backend Java Core Confirmé ou Sénior - Multithreading calculs distribués- Appache Ignite

Digistrat consulting
Publiée le
Big Data
DevOps
Java

3 ans
50k-70k €
500-600 €
Paris, France

🏭 Secteurs stratégiques : Banque d’investissement PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Au sein d’une équipe qui travaille sur une application d'aide à la décision pour le trading. Elle permet de gérer des données historiques sur les clients, et les données de marché, ainsi que des données intraday et des mesures de risques, il permet aussi de visualiser les axes de trading. L’application utilise Angular 15 comme front end, Java 11 et Python 2 en back end, et Apache ignite pour le calcul distribué, et Mongo DB comme base de données. Pour la partie déploiement, on utilise Docker / Kubernetes et Jenkins

Freelance

Mission freelance
Data Engineer (PySpark)

KEONI CONSULTING
Publiée le
PySpark

18 mois
100-400 €
Paris, France

CONTEXTE Métiers Fonctions : Data Management, Data Engineer Spécialités technologiques : Big Data Compétences Technologies et Outils : HadoopPyspark (2 ans) Dans le cadre d’un projet stratégique autour du recouvrement et de la lutte contre la fraude, nous recherchons un Data Engineer confirmé spécialisé en PySpark, pour rejoindre une équipe technique pilotée par un Tech Lead expérimenté. Le projet s’appuie sur des volumes massifs de données critiques (plusieurs milliards d’événements par jour) et vise à développer des cas d’usages à fort impact dans la détection d’anomalies et l’optimisation des processus de recouvrement. MISSIONS Missions principales - Participer à la construction et l’optimisation des pipelines de données sous PySpark. - Contribuer à la mise en place d’architectures Big Data sur un environnement Hadoop (bonus). - Assurer la qualité, la fiabilité et la performance des flux de données. - Collaborer étroitement avec les équipes data science et métier pour industrialiser les cas d’usage (fraude, scoring, recouvrement automatisé…). - Intervenir sur des problématiques de scalabilité et de traitement en temps réel / batch. - Garantir la sécurité et la conformité des traitements sur des données sensibles.

Freelance

Mission freelance
Data Engineer Palantir

Orcan Intelligence
Publiée le
PySpark
Python

3 mois
400-600 €
Paris, France

Orcan Intelligence recherche pour l'un de ses clients un Data Engineer senior. Le Data Engineer senior devra construire, livrer, maintenir et documenter des pipelines de données dans le périmètre des fondations Risque. Livrables attendus : Pipelines de données pour les fondations Risque, livrés dans les délais. Code documenté et testé unitairement. Mises en œuvre des contrôles de qualité et de santé ( health checks ). Expérience et compétences requises :

Freelance
CDI

Offre d'emploi
Consultant junior en CMDB / ServiceNow

R&S TELECOM
Publiée le
CMDB
Data management
Data quality

12 mois
35k-45k €
400 €
Toulouse, Occitanie

Votre mission consistera à : Définir et évaluer les attributs clés de la qualité des données. Analyser en profondeur les données invalides ou manquantes afin d'en identifier les causes principales. Concevoir et implémenter des tableaux de bord pertinents pour le suivi de la qualité des données CMDB. Auditer et optimiser les processus métier ayant un impact sur la qualité des données. Contribuer activement à l'élaboration et à l'évolution de la stratégie de qualité des données de la CMDB. Coordonner et piloter les actions de remédiation de la qualité des données en étroite collaboration avec les Data Owners et les équipes à l’origine des données. Proposer et mettre en œuvre des solutions techniques ou des mises à jour de données. Rédiger une documentation technique et fonctionnelle exhaustive, ainsi que des articles de base de connaissances (knowledge articles). Animer et participer au réseau des utilisateurs pour promouvoir l'adhésion aux objectifs de gouvernance des données.

CDI

Offre d'emploi
Data Engineer (PySpark)

Codezys
Publiée le
Hadoop
PySpark

40k-45k €
Seine-Saint-Denis, France

Métier et fonction : Data Management Data Engineer Spécialité technologique : Big Data Type de facturation : Assistance Technique (facturation au taux journalier) Techniques et outils maîtrisés : Hadoop, PySpark (2 ans) Secteur d'activité : Administration Publique Description de la prestation : Dans le cadre d’un projet stratégique en recouvrement et lutte contre la fraude, un Data Engineer confirmé spécialisé en PySpark est recherché pour une équipe pilotée par un Tech Lead expérimenté. Le projet manipule plusieurs milliards d’événements par jour, visant à développer des cas d’usage à fort impact comme la détection d’anomalies et l’optimisation des processus de recouvrement. Missions principales : Construire et optimiser des pipelines de données sous PySpark. Participer à la mise en place d’architectures Big Data sur environnement Hadoop (optionnel). Garantir la qualité, la fiabilité et la performance des flux de données. Collaborer avec les équipes data science et métier pour industrialiser des cas d’usage (fraude, scoring, recouvrement automatisé). Gérer des problématiques de scalabilité et de traitement en temps réel ou batch. Assurer la sécurité et la conformité des traitements de données sensibles.

Freelance

Mission freelance
Site Reliability Engineer (SRE) cloud GCP – Full remote (H/F)

EASY PARTNER
Publiée le
CI/CD
Docker
Google Cloud Platform (GCP)

3 mois
530-630 €
Toulouse, Occitanie

Contexte du poste Nous sommes un grand groupe dans le secteur Génie Civil. Nous recherchons un SRE spécialisé sur le cloud GCP pour renforcer nos équipes et nous aider à améliorer nos infrastructures ainsi que la stabilité de nos produits. Venez apporter votre pierre à l’édifice et partagez vos expériences au sein de l’équipe SRE mais aussi avec les équipes de développement. Rejoignez un environnement international, collaboratif et stimulant. Missions Concevoir et mettre en œuvre l’infrastructure automatisée des plates-formes sur Google Cloud Platform (GCP). Développer, actualiser et optimiser les pipelines CI/CD. Automatiser la gestion et le déploiement cloud. Diagnostiquer les problèmes de performance et de stabilité. Assurer la résolution des incidents en production. Contribuer à la construction d’une base de connaissances sur les incidents récurrents. Fournir un support aux équipes de développement. Stack technique : Conteneurisation : Google Kubernetes Engine (GKE), Docker Automatisation : Ansible, Puppet, Chef, Saltstack GCP, Terraform, libcloud, Spinnake Jenkin, Artifactory, Pipelines CI/CD / GitLab Elasticsearch Linux Python,PowerShell, bash ou JavaScript.

Freelance

Mission freelance
Data Engineer Senior

Cherry Pick
Publiée le
Apache Kafka
Apache Spark
Java

12 mois
450-490 €
Saint-Pierre-des-Corps, Centre-Val de Loire

Dans le cadre du renforcement de ses équipes, notre client recherche un Data Engineer Senior. En ce sens, vos missions seront : Comitologie, documentation et cartographie data • Préparation et animation d’instances transverses de présentation de projets Data et de validation des solutions techniques (Design League Data, Guildes Data dédiées). • Documentation des assets data de la plateforme (SimDoc, Datahub, Datalab). • Cartographie des données et conception/développement d’outillage. Expertise Data • Accompagnement technique et conseil Data/Big Data auprès des équipes projets (Datahub + Datalab). • Analyse, conception et refonte d’assets data transverses. • Suivi des évolutions et migrations de la stack technique de la plateforme. Facilitation des sujets Data • Médiation inter-projets. • Aide à l’expression de besoins et à la rédaction de spécifications technico-fonctionnelles.

Freelance
CDI

Offre d'emploi
Data Engineer Python / Spark

HIGHTEAM
Publiée le
Git
Machine Learning
PySpark

3 ans
40k-55k €
400-500 €
Île-de-France, France

Dans le cadre d’un projet pour l’un de nos clients dans le secteur de la finance , nous recherchons un Data Engineer avec une forte expertise en Python , Spark , et Git . La mission s’inscrit dans un environnement Big Data et suit une méthode Agile . Objectifs de la mission Le consultant contribuera à : Développer de nouveaux modèles et indicateurs Industrialiser ces développements dans un environnement de production APIser les services Produire une documentation fonctionnelle et technique Livrables attendus Développements en Python et Spark Scripts d’intégration (Shell, éventuellement Perl / PHP) Documentation technique & fonctionnelle Services API Code versionné sous Git / GitHub Méthodologie Travail en mode Agile / Scrum

CDI

Offre d'emploi
Data Analyst UK

Atlanse
Publiée le
Qlik Sense
Snowflake
SQL

40k-45k €
Londres, Royaume-Uni

Au sein de l'équipe Data, vous soutenez les opérations logistiques en transformant les besoins opérationnels en informations exploitables. Vous collaborez avec les développeurs Qlik pour concevoir des tableaux de bord clairs et pertinents. Grâce à Snowflake, vous identifiez et extrayez les données nécessaires à la mesure de la performance. Votre rôle Recueil des besoins & Alignement commercial Collaborer avec les parties prenantes commerciales afin de comprendre leurs besoins et objectifs Traduire les besoins métiers en besoins analytiques Assurer l'alignement des indicateurs de performance, des mesures et de la logique des données Analyse & Modélisation des données Identifier, extraire et analyser les données pertinentes de Snowflake pour mettre en évidence les tendances, les anomalies et les possibilités d'amélioration Concevoir et maintenir des modèles de données évolutifs et cohérents, qui reflètent les processus logistiques Définir la logique des KPI et des mesures de performance adaptés aux secteurs d'activité et aux besoins opérationnels Développement & Optimisation des tableaux de bord Travailler avec les développeurs Qlik pour concevoir des tableaux de bord intuitifs et alignés sur les objectifs Fournir des informations sur la structure des données, la logique des métriques et la visualisation Vérifier que les visualisations reflètent fidèlement les données et la logique métier Qualité, Validation & Documentation Garantir l'exactitude, l'exhaustivité et la cohérence des données Effectuer des contrôles de validation et prendre en charge les tests d'acceptation par les utilisateurs (UAT) Documenter les modèles de données, les définitions des métriques et la logique métier Amélioration continue & Collaboration Identifier des opportunités d'amélioration des modèles de données, de la logique métrique et des processus analytiques Effectuer une veille sur les évolutions de Snowflake, des meilleures pratiques analytiques et des tendances logistiques Collaborer avec les équipes techniques et métiers pour partager les progrès, résoudre les problèmes et aligner les priorités

Freelance

Mission freelance
Data Scientist / Expert Machine Learning (h/f)

emagine Consulting SARL
Publiée le

1 mois
1 €
France

Emagine est à la recherche d’un(e) Data Scientist / Expert en Machine Learning pour des projets stratégiques impliquant des techniques avancées de modélisation et d’apprentissage automatique. 📍 Lieu : Roissy en France ⏳ Type de contrat : Consultant 📅 Date de début : Octobre 2025 Responsabilités principales : Votre rôle impliquera : Développer et remettre en question les modèles mathématiques et statistiques existants. Concevoir et mettre en œuvre des solutions d’apprentissage automatique pour l’optimisation des processus et la prise de décision. Collaborer avec les équipes d’ingénierie des données pour intégrer les modèles dans les environnements de production. Assurer la qualité, la robustesse et la maintenabilité des modèles et scripts développés. Exigences clés : Expérience avérée en modélisation mathématique et statistique . Expertise en apprentissage automatique avec la capacité de challenger les modèles existants. Maîtrise des meilleures pratiques Python et expérience de Spark, Git, Bash et SQL. Connaissance des environnements Unix/Linux et des solutions cloud, en particulier GCP . Maîtrise de l’anglais (écrit et parlé). Doctorat en mathématiques ou en physique très apprécié. Bon à avoir : Expérience avec les outils de visualisation de données . Solides compétences en communication . Autres détails : Ce poste est entièrement à distance et devrait commencer en octobre 2025. Il offre l’opportunité de travailler sur des projets avancés dans une industrie innovante.

Freelance
CDI

Offre d'emploi
Dev / Data Engineer orienté DevOps

VISIAN
Publiée le
Apache Spark
Control-M
Hadoop

1 an
45k-55k €
400-560 €
Paris, France

L'objectif de la mission est de renforcer une équipe avec un rôle de Développeur / Data Engineer orienté DevOps au sein d'une Squad : Gestion de la production Gestion de la dette technique Revoir l'architecture actuelle et proposer des évolutions Développements liés aux projets La mission principale de la prestation aura pour but de : traiter nos obsolescences de Framework (ex : springboot , spark2 ) moderniser et industrialiser nos pipelines de build en intégrant les bonnes pratiques devsecops : migration depuis tfs vers jenkins création directe sur jenkins Le but étant d'optimiser notre code , d'assainir et d'automatiser nos déploiements via xldéploy. Le code concerne nos apis et nos process de transformation hadoop/spark ( en java , python )

CDI
CDD

Offre d'emploi
Concepteur Développeur Full Stack (JSP / EJB / Maven / Bootstrap) - Sophia Antipolis (H/F)

RIDCHA DATA
Publiée le
Apache Maven
Boostrap
Entreprise Java Bean (EJB)

1 an
Sophia Antipolis, Provence-Alpes-Côte d'Azur

🧩 Contexte de la mission Dans le cadre de la maintenance et de l’évolution du projet Bilans Service , nous recherchons un Développeur Full Stack afin de renforcer l’équipe en charge de la Tierce Maintenance Applicative (TMA) . Le consultant interviendra sur la conception, le développement et les tests des évolutions applicatives ainsi que sur la correction d’anomalies. ⚙️ Objectifs et missions principales Le prestataire aura pour responsabilités : Participer à l’analyse des spécifications fonctionnelles et techniques. Développer de nouvelles fonctionnalités conformément aux besoins exprimés. Assurer la correction et l’amélioration des applications existantes. Réaliser les tests unitaires et d’intégration. Documenter les développements réalisés. Contribuer à la qualité et à la stabilité des versions livrées. 🧠 Compétences techniques requises JSP / Servlet / EJB – Confirmé – Impératif JUnit – Confirmé – Impératif Maven / Git – Confirmé – Impératif Bootstrap – Confirmé – Important

Freelance

Mission freelance
Developpeur full stack python

Coriom Conseil
Publiée le
CI/CD
Datadog
DevOps

12 mois
400-550 €
Lille, Hauts-de-France

Dev (python, GO) - Confirmé - Impératif Devops (GCP, Kubernetes, Agile) - Confirmé - Impératif CI/CD (github/ github actions) - Confirmé - Impératif Monitoring (datadog, pagerduty, promotheus) - Confirmé - Important Connaissances linguistiques Français Courant (Impératif) ANGLAIS Professionnel (Impératif) Description détaillée L'équipe est composé de 20 personnes, et divisée en 2 équipes : 1 pole de DBA (14 personnes ) et 1 pole (6 personnes) de développe qui construite et maintient DBAPI, la plateforme de gestion des BDD (création de projets, gestion du finops, de la sécurité, suivi de la performance, gestion des accès, DRP...). Au sein de notre équipe, tu seras un renfort dans notre équipe en charge du build et RUn de DBAPI. Tu es un développeur full stack confirmé, Curieux, force de proposition. Tu maitrise le python et a une forte appétence pour les sujets cloud et d'infrastructure. Tu as de la connaissance des principaux systèmes de BDD et souhaite approfondire tes compétences dans ce champ d'activité, sans toutefois en devenir un expert

Freelance
CDI

Offre d'emploi
DATA MANAGER

UCASE CONSULTING
Publiée le
DBT
Snowflake

3 ans
28k-70k €
450-950 €
Paris, France

Bonjour; Pour le compte de notre client, nous recherchons un DATA MANAGER. Description du Rôle Le Data Manager est responsable de la définition des politiques de gestion des données, de la modélisation et de la garantie de l'architecture fonctionnelle de la plateforme de données utilisée pour répondre aux besoins métier. __________ Compétences Clés ✅ Accompagnement à la définition, conception et livraison des produits Data : • Clarifie les besoins • Identifie les manques de données et évalue la faisabilité • Aligne le périmètre du Feature Team (FT) • Collabore avec les Product Owners et les Data Engineers • Co-conçoit les solutions data • Valide les choix de modélisation des données • Garantit la cohérence avec les standards • Assure la scalabilité et la maintenabilité ✅ Co-définition, diffusion et pédagogie des standards de Data Management : • Collabore avec les acteurs de la gouvernance, de l’architecture et des produits • Définit les conventions de nommage • Établit les exigences en matière de documentation • Fixe les règles de modélisation • Garantit la conformité • Organise des formations, ateliers et sessions de support • Apporte un accompagnement opérationnel et répond aux questions • Joue un rôle d’ambassadeur des principes de gestion des données au sein de la tribu ✅ Gestion du portefeuille et des actifs Data au niveau de la tribu : • Garantit la qualité et l’exhaustivité des métadonnées • Documente les tables, champs et processus • Met à jour la traçabilité (lineage) et le glossaire métier • Vérifie l’application cohérente des standards • Produit et partage des reportings sur le portefeuille data • Met en lumière les écarts, risques et opportunités • Permet une prise de décision éclairée sur les usages et les priorisations __________ Responsabilités • Excellentes capacités de communication pour vulgariser les concepts techniques et aligner les parties prenantes sur les décisions • Fortes compétences en résolution de problèmes, capable de traiter rapidement des informations complexes et de les présenter de manière claire et concise • Capacité à collaborer efficacement en équipe pour répondre aux besoins de manière agile • Organisation rigoureuse pour gérer les sujets en cours et à venir, les délais et les décisions associées __________ Compétences Individuelles • Ouvert et coopératif, avec un esprit de service facilitant les échanges entre parties prenantes • Orienté solution et livraison du résultat attendu • Curiosité et ouverture d’esprit sur des sujets hors périmètre habituel (ex : nouvelles techniques d’analyse) __________ État d’Esprit et Comportements • Expérience en développement Agile • Expérience au sein d’équipes produits collaboratives en environnement Agile __________

Freelance

Mission freelance
Chef de Projet Déploiement & Support Medius

Comet
Publiée le
Data management

1 an
400-690 €
Île-de-France, France

Missions principales 1. Gestion de projets de déploiement Medius Élaboration du planning / vagues en coordination avec le Program Manager Définition et validation du scope avec les CSP Organisation des kick-off et ateliers de Gap Analysis Suivi des gaps, change management et livrables par phase Coordination et validation des tests, gestion de l’issue list et escalades Préparation du Go-live : cutover, hypercare, transfert au support Reporting aux comités de pilotage (outil interne Concerto) 2. Gestion du support Medius – QAD (intégration) Collecte et qualification des demandes auprès des CSP Coordination du delivery avec équipes Medius / QAD Suivi des tickets (Jira + Medius Portal) Escalade et suivi de résolution

2005 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous