Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 1 647 résultats.
Offre d'emploi
Data Scientist - IA Générative & RAG F/H - Système, réseaux, données (H/F)
█ █ █ █ █ █ █
Publiée le
Python
Rueil-Malmaison, Île-de-France
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Offre d'emploi
Développeur Data Python SQL Shell Spark
KEONI CONSULTING
Publiée le
JIRA
Jupyter Notebook
Python
18 mois
20k-60k €
100-500 €
Lyon, Auvergne-Rhône-Alpes
CONTEXTE : Le client dans le cadre de son activité Big Data, recherche un profil en développement Data, Python, SQL, Shell, Spark (+ de 5 ans d'expérience) pour nous accompagner dans les actions sur la plateforme Cloudera Hadoop. L'objectif de la mission est de réaliser et maintenir les développements nécessaires à l'alimentation de la plateforme Hadoop, à la mise en place d'extractions et à l'accompagnement des utilisateurs MISSIONS Rattaché au responsable Big Data, le profil aura pour principales missions : - de prendre en charge les évolutions des données à intégrer, reprendre les développements effectués pour l'alimentation du Datalake , de les faire évoluer en fonction des besoins (Stack technique : Hadoop Cloudera, Hive, Impala, Python, Shell, Linux, SQL, VBA, Jupyter) - d'avoir une expertise technique permettant de spécifier techniquement les tâches, fournir les requêtes de référence, effectuer une revue de code, accompagner les potentiels alternants ou stagiaires (une alternante à date) - de mettre en place des extractions à partir de ces données, - d’assurer le support niveau 2, - de faire appliquer les consignes aux utilisateurs, - de garantir la tenue des délais de livraison dans un contexte de production à fortes attentes - de contribuer à garantir la maintenabilité de la plateforme ainsi que ses performances et son exploitabilité Il veillera au respect de l’utilisation des modèles référencés ou à leur évolution en collaboration avec la Direction Technique Informatique et la Gourvernance de la Donnée. Le profil devra posséder des aptitudes et qualités avérées sur sa capacité à communiquer avec diplomatie, à écouter, à s'intégrer et à partager son savoir faire, à documenter ses actions et à accompagner. Dans le même ordre d'idée, quelques attendus : - Développement des traitements d'alimentation, forte capacité à structurer l'activité (JIRA), mise en place et description de processus (guides, accompagnement utilisateurs, …), pilotage opérationnel de certains sujets - Développement d'extractions avec SQL (expert) et scripting Shell avancé pour l'automatisation - Capacité à investiguer et faire du reverse engineering dans une architecture héritée complexe - Optimisation des traitements de la plateforme et ceux des utilisateurs Livrables attendus "Code source documenté Plan de tests / fiches de test Bilan Bordereau de livraison Manuel d’installation Dossier d’exploitation JIRA documentée" Environnement technique - technologique "• Cloudera Hadoop • Hive, impala • Python • SQL • Shell • Spark • VBA • GIT • Jupyter • Linux • JIRA" Compétences techniques Connaisance Cloudera Hadoop, Hive, Impala Développement Python Requêtage SQL Développement Shell Développement Spark (Scala) Utilisation de GIT Agilité (méthodes Kanban et/ou Scrum) Compétence liée à l'environnement Connaissance de l'écosystème de la protection sociale
Mission freelance
Data Engineer Azure Synapse / (Intégration Data - Référentiel )
STHREE SAS pour HUXLEY
Publiée le
12 mois
500 €
France
Data Engineer Azure Synapse / PySpark (Intégration Data - Référentiel Corporate) Secteur : Financial Services / Asset Management Contrat : Mission freelance - 6 mois renouvelables Localisation : France / Hybride 🔍 Contexte Un groupe international de gestion d'actifs recherche un Data Engineer confirmé pour participer à la modernisation et à la consolidation de son référentiel data interne , dans un programme stratégique d'intégration multi‑sources. 🎯 Votre rôle Développer de nouveaux flux d'intégration via Azure Synapse / PySpark Assurer la qualité, la cohérence et la traçabilité des données Contribuer à la mise en place du monitoring Data sur l'ensemble des pipelines Collaborer étroitement avec les Business Analysts et l'équipe Data Analytics Participer aux évolutions continues de la plateforme Data Azure 🧱 Compétences techniques clés Azure Synapse PySpark Azure DevOps SonarCloud Micro‑services API Management Microsoft Playwright Azure Data Factory SQL Server (RDBMS) 👤 Profil recherché Bac+5 (ingénieur ou équivalent) Min. 3 ans d'expérience en développement Data sur Azure Bonne maîtrise des pratiques DevOps & automatisation des tests Connaissance du secteur financier / Asset Management appréciée Excellent niveau FR & EN 📅 Démarrage : 2 février 2026
Mission freelance
Data Architect ETL, Spark, Kafka; BI, dashboards; SQL/NoSQL, Data Lake, Data Warehouse, BPMN
Inventiv IT
Publiée le
Apache Kafka
Apache Spark
Business Process Model and Notation (BPMN)
6 mois
550-630 €
Lyon, Auvergne-Rhône-Alpes
Data Architect ETL, Spark, Kafka; BI, dashboards; SQL/NoSQL, Data Lake, Data Warehouse, BPMN - Maîtrise des formalismes de modélisation (BPMN, modèles conceptuels et logiques de données) - Réalise les études de cadrage pour l’architecture Data en s’appuyant sur une expertise des technologies clés - Stockage (SQL/NoSQL, Data Lake, Data Warehouse) - Traitement (ETL, Spark, Kafka) - Restitution (BI, dashboards) - Exploration et référentiels (catalogues, gouvernance) Télétravail : 3 jours max par semaine
Offre d'emploi
Data Engineer/ Backend Finances et Risques sur Maison Alfort
EterniTech
Publiée le
Apache Kafka
AWS Glue
Data analysis
3 mois
Maisons-Alfort, Île-de-France
Je recherche pour un de mes clients un Data Engineer / Backend Finances et Risques sur Maison Alfort Contexte Mission au sein de la DSI du client et plus précisément dans l'équipe data ESG. Mise en place d'un hub de données sur le thème de l'ESG pour répondre aux différents besoin de reporting, dataviz et partage d'informations. Exp: 5 à 8 ans Mission Concevoir et développer les datasets de données, les microservices et les API du produit en fonction de l'architecture proposée par le client Veiller aux bonnes pratiques et normes Assurer la qualité des développements, la qualité de la documentation des développements et la qualité des delivery Contribuer au suivi de production et assurer la maintenance corrective Certifications requises : au moins une • AWS Solution Architect ; • AWS Database ; • AWS Developer ; • AWS Data Analytics Méthodologie : • Agile • SAFe 5.0 Compétences métier : • Sens relationnel : adapter son comportement et son attitude en fonction de l'interlocuteur pour maximiser la qualité des échanges, • Travail en équipe : collaborer avec les membres de l'équipe de façon ouverte en communiquant ses retours et impressions sur les travaux, • Communication orale et écrite : exposer efficacement à l'écrit comme à l'oral un raisonnement de façon logique et argumentée, • Autonomie et proactivité : organiser son travail personnel en cohérence avec celui de l'équipe, anticiper les besoins et prendre des initiatives en informant le reste de l'équipe de son activité. Liste des technologies : Priorité : - Compétences Back : Java (17+) et springboot, API - Compétences Data : AWS ((Glue, athena, s3, ....), Python, Pyspark - Stream Kafka - Cloud AWS Kubernetes, Terraform* *Jenkins* *Event Kafka* *MongoDB* *Python* Facultative : EKS, DataDog Points critiques et différenciants Priorité : - Compétences Back : Java (17+) et spring - Compétences Data : Glue, Python, Pyspark - Stream Kafka - Cloud AWS Expert sur python, traitement des données Spark Important : Testing : faire des tests unitaires, participe aux tests fonctionnelles (automatisation). Il développe et fait ses tests unitaires (pytest, python 3, pispark) Spé AWS : job glue (quotidien), touché aux instances OC2, maitriser l'ensemble de la stack, secret manager, S3, athena (pas compliqué - surcouche SQL) Travail en binome avec le Tech Lead: connaissance des patterns design applicative. SOn job au quotidien : créer des jobs pour traiter des données + traitement de données. Objectif de la mission de modulariser et architecturer ses process : créer un job avec la spécialisation attendue du métier : avoir un code modulaire. Avoir un mindset agile. Etre ouvert au changement Avoir des gars autonomes et responsable, proactif, dynamique. Bon communicant avec les métiers, les PM
Mission freelance
Data Platform Engineer
Cherry Pick
Publiée le
AWS Cloud
Python
12 mois
600-650 €
Paris, France
Objectifs Votre mission est de responsabiliser et de faire monter en compétence notre communauté de plus de 50 data engineers et data scientists. Agissant comme le lien essentiel entre les feature teams et les ingénieurs de la plateforme, vous serez le garant de l’adoption et de l’évolution de notre plateforme data en fournissant un support technique opérationnel, en partageant les bonnes pratiques et en animant des initiatives de partage de connaissances. Grâce à un engagement proactif, un support direct et une collecte continue de feedback, vous favoriserez un environnement collaboratif, innovant et à fort impact — garantissant que notre plateforme s’adapte en permanence et délivre une valeur maximale à ses utilisateurs. Missions principales 1. Support technique : Accompagner les data engineers et data scientists dans leurs problématiques techniques en fournissant des solutions opérationnelles, des conseils, des bonnes pratiques et un support via des interactions directes au sein de leurs équipes. S’assurer que la dette technique est identifiée, comprise et gérée via des plans d’actions, et participer aux tâches sous-jacentes. Fournir des outils pour aider à gérer cette dette (tests, automatisation, agents IA, …). Collaborer avec les équipes data platform et support afin de garantir que les problèmes au sein des pipelines data et de la plateforme data sont identifiés et résolus, améliorant ainsi l’expérience développeur globale. 2. Évangélisation : Promouvoir l’adoption de la plateforme data par une utilisation quotidienne, en démontrant sa valeur auprès des utilisateurs existants. Partager avec la communauté de pratique et les équipes internes les tendances du marché, outils et technologies liés aux plateformes data. 3. Montée en compétences des équipes : Évaluer le niveau actuel des équipes sur les outils et pratiques de la Data Platform et l’améliorer via des formations, des exercices et la résolution de problématiques réelles. Promouvoir et animer une communauté de pratique afin de construire des parcours de formation d’amélioration, des ateliers internes et des webinaires mettant en valeur les capacités de notre Data Platform. Créer du contenu technique tel que des articles de blog, tutoriels, projets exemples et documentation afin d’aider les développeurs à comprendre et utiliser efficacement notre plateforme. 4. Boucle de feedback : Collecter activement les retours de la communauté des développeurs afin de fournir des analyses et suggestions d’amélioration produit aux équipes d’ingénierie de la plateforme. Fournir des tests pertinents pour les actifs techniques produits par les ingénieurs de la Data Platform et s’assurer qu’ils correspondent aux usages actuels des feature teams. Représenter les data engineers et data scientists au sein de l’entreprise, en veillant à ce que leurs besoins et défis soient compris et pris en compte. Qualifications / Compétences requises Maîtrise du développement Python et de la conception d’applications scalables et de haute qualité. Expérience avec des frameworks de traitement de données tels que Pandas ou Spark. Expérience pratique dans le développement et la maintenance de pipelines data de bout en bout. Expertise approfondie sur AWS, complétée par des certifications ou une expérience équivalente. Expérience des frameworks d’Infrastructure as Code (idéalement AWS CDK en Python). Connaissance des pratiques DevOps et des pipelines CI/CD afin d’améliorer les processus de déploiement. Excellentes compétences en communication et en présentation, capables d’expliquer des concepts techniques complexes à des publics variés. Forte appétence pour l’animation de communautés de développeurs et la création d’un impact positif. Bon niveau d’anglais, la documentation étant rédigée en anglais et une partie des utilisateurs de la Data Platform ne parlant pas français. Atouts supplémentaires : Expérience en développement produit agile et en méthodologie Scrum. Expérience de migration de pipelines data vers le cloud. Compréhension des bonnes pratiques de sécurité et de conformité dans des environnements cloud. Environnement technologique : AWS : S3, EMR, Glue, Athena, Lake Formation, Cloud Formation, CDK, Lambda, Fargate, … Data engineering : Airflow, Parquet, Apache Iceberg DevOps : Jenkins, SonarQube, Conda Logiciels : Python, Ruff
Mission freelance
SAP Data Migration Cockpit - Consultant technico fonctionnel
EBMC
Publiée le
SAP
6 mois
400-740 €
Île-de-France, France
Dans le cadre d’un projet de transformation SAP S/4HANA de type Greenfield, nous recherchons un consultant technico-fonctionnel freelance pour intervenir sur les activités de migration de données via SAP Data Migration Cockpit. La mission porte sur un périmètre fonctionnel large incluant les modules FI, CO, MM, SD et PS, avec un rôle central dans la préparation, le pilotage et la sécurisation des flux de données vers le nouvel environnement S/4. Le consultant interviendra en lien étroit avec les équipes projet afin de garantir la qualité, la cohérence et la fiabilité des données migrées, depuis les phases de cadrage jusqu’aux chargements finaux. Il participera activement aux ateliers de définition, aux tests de migration et à la résolution des anomalies, dans un contexte exigeant propre aux projets Greenfield.
Mission freelance
Platform Reliability Engineer SRE & DevOps
Codezys
Publiée le
Azure Data Factory
Azure DevOps Services
Datadog
12 mois
390-500 €
Versailles, Île-de-France
Contexte et approche : La mission s’inscrit dans une démarche SRE et DevOps, avec une intégration à l’équipe Plateforme pour garantir fiabilité, exploitabilité et qualité des microservices. Principales responsabilités : Assurer l’intégration et l’exploitation opérationnelle des applications de la plateforme. Vérifier la conformité des livraisons selon les standards (nommage, logs, documentation, monitoring). Améliorer la documentation des releases. Définir et suivre des indicateurs de fiabilité (SLI/SLO), error budgets, en lien avec les équipes de développement. Configurer et maintenir dans Datadog les dashboards, règles d’alerting, runbooks, et améliorer l’observabilité. Diagnostiquer en profondeur les applications (.NET, PHP, JavaScript) via logs, traces et métriques (Datadog APM/Logs/RUM). Automatiser l’exploitation par la configuration d’autoscaling, health probes, politiques de redémarrage et procédures de failover. Conduire des post-mortems après incidents, documenter et piloter les actions correctives. Mettre à jour et optimiser les pipelines de déploiement dans Azure DevOps. Maintenir et faire évoluer les Helm charts pour le déploiement sur Kubernetes (AKS). Intégrer SonarQube dans les processus de livraison pour renforcer la qualité du code. Collaborer avec les tech leads, développeurs et QA pour intégrer les tests automatisés en CI/CD et renforcer la résilience des services. Assurer un support de niveau 3 sur les services de la plateforme et participer aux analyses post-incident.
Offre d'emploi
Data Engineer (F/H)
INFOGENE
Publiée le
40k-50k €
Lyon, Auvergne-Rhône-Alpes
En tant que Data Engineer (F/H) , venez renforcer notre équipe lyonnaise en ayant les responsabilités suivantes : Analyser et comprendre les besoins : Étudier l’existant pour identifier les axes d’amélioration et co-construire des solutions adaptées avec les équipes métiers. Concevoir et développer des pipelines de données : Créer des pipelines de données robustes, performants et évolutifs à l’aide de technologies comme Snowflake ou équivalent . Modéliser et optimiser : Concevoir des modèles de données performants et optimiser les requêtes pour répondre aux exigences métiers tout en garantissant un haut niveau de performance. Supervision et monitoring : Déployer des solutions de monitoring et d’alertes pour assurer la disponibilité et la fiabilité des traitements de données. Gérer les incidents techniques : Diagnostiquer et résoudre les problèmes liés aux pipelines ou infrastructures de données. Collaboration avec les équipes transverses : Participer aux projets en interagissant avec les experts métiers, les architectes techniques et les chefs de projet.
Mission freelance
Consultant Senior (H/F) – Stream Lead Master Data SAP FMS
HOXTON PARTNERS
Publiée le
Master Data Management (MDM)
6 mois
Paris, France
Projet international de transformation SAP, visant la migration d’une solution existante vers SAP Fashion Management (SAP FMS) dans un environnement SAP S/4HANA , avec de forts enjeux de structuration de la Master Data et de déploiement d’un core model . Missions principales Piloter le stream Master Data dans le cadre de la migration vers SAP FMS Contribuer à la définition et au déploiement du core model Master Data Concevoir et sécuriser les processus de création et gestion des articles Prendre en charge la Master Data Production (articles, gammes, nomenclatures) Piloter les activités de migration de données (mapping, reprise, contrôles) Coordonner les flux d’intégration avec des systèmes tiers via des solutions de type middleware
Offre d'emploi
Data Engineer Hadoop/Cloudera/Airflow/Spark
OBJECTWARE
Publiée le
Apache Airflow
Apache Spark
Cloudera
3 ans
40k-67k €
400-550 €
Île-de-France, France
Les missions sont : Les consultants retenus auront pour mission : • Administration et optimisation de clusters HDP/CDP • Installation, configuration et maintenance des clusters. • Gestion des mises à jour et des patchs de sécurité. • Surveillance des performances et optimisation des ressources. • gestion/administration de clusters Kubernetes • Automatisation des déploiements avec Operators…, etc. • Sécurisation et monitoring des environnements conteneurisés. • Orchestration des workflows avec Apache Airflow : • Développement et optimisation des DAGs pour la gestion des pipelines de données. • Gestion des dépendances et optimisation des temps d’exécution. • Intégration avec les autres outils de l’écosystème. • Traitement et analyse des données avec Apache Spark : • Développement et optimisation des jobs Spark (batch et streaming). • Gestion des performances et tuning des jobs. • Intégration avec les systèmes de stockage distribués. • Optimisation des requêtes et accès aux données avec Starburst : • Configuration et administration de Starburst. • Optimisation des requêtes SQL distribuées. • Sécurisation et gestion des accès aux différentes sources de données. Français/Anglais
Offre d'emploi
Data Scientist / Python – IA & AIOps (H/F)
STORM GROUP
Publiée le
AI
Machine Learning
Python
3 ans
50k-55k €
500-520 €
Île-de-France, France
Contexte du poste : Nous recherchons un Data Scientist confirmé, expert en Python et en Data Learning, pour intervenir sur un projet d’évolution d’outils d’Event Management vers une plateforme intégrant des capacités avancées d’AIOps. L’objectif est de renforcer l’automatisation, la corrélation d’incidents et la prédiction au sein d’un environnement de supervision IT. Missions principales : - Participer à la migration d’un outil d’Event Management vers une solution intégrant des modules AIOps. - Analyser les événements et concevoir des modèles de corrélation permettant d’identifier, regrouper et prioriser les incidents. - Développer des modèles de Data Learning / Machine Learning pour améliorer la détection et la prédiction d’incidents. - Implémenter des scripts d’auto‑remédiation et des mécanismes intelligents de traitement d’alertes. - Créer, enrichir et intégrer des situations / patterns d’événements dans la plateforme AIOps. - Collaborer avec les équipes d’exploitation, d’architecture et de développement pour assurer une intégration fluide des modèles. - Contribuer à l’évolution continue des outils et pipelines IA/ML.
Mission freelance
Développeur Salesforce confirmé – Environnement CIB / Transformation Data
CAT-AMANIA
Publiée le
Salesforce
2 ans
400-490 €
Île-de-France, France
Dans le cadre d’un programme stratégique de transformation des systèmes d’information liés à la chaîne de financement (Front, Risk, Ops), nous recherchons un(e) Développeur Salesforce confirmé(e) pour renforcer une équipe Digital Front Financing. Ce programme vise à moderniser et consolider les fondations data et applicatives supportant les activités de financement en environnement bancaire d’investissement. Démarrage : avril Mission longue durée Vos missions Au sein d’une équipe transverse en interaction avec les équipes IT (Risk, Data, Ops) et les Product Owners métier, vous serez amené(e) à : Développer et configurer des solutions sur la plateforme Salesforce Implémenter des fonctionnalités spécifiques pour les utilisateurs Front Office Participer aux ateliers avec les parties prenantes afin de comprendre et affiner les besoins Estimer les charges de développement associées aux exigences exprimées Contribuer aux phases de tests (stabilité, performance, scalabilité) Rédiger la documentation technique et fonctionnelle Garantir la qualité et la robustesse des solutions livrées Vous interviendrez dans un environnement structuré, à forte exigence de qualité et de coordination transverse. Environnement Programme de transformation stratégique Interaction avec équipes Risk, Data, Ops Méthodologie projet structurée Environnement bancaire d’investissement
Mission freelance
Data Product Manager/PO (Rennes)
Atlas Connect
Publiée le
BigQuery
Data Lake
Data science
12 mois
500-540 €
Rennes, Bretagne
Nous recherchons un Data Product Manager freelance hybride, technique et opérationnel, capable de traduire les besoins métiers en solutions concrètes et de participer activement à la réalisation de prototypes. Compétences et qualités : Technique : maîtrise avancée de SQL (idéalement BigQuery), capable de manipuler la donnée et de créer des dashboards simples (ex. Looker Studio) pour prototyper. Pragmatique : travailler en mode MVP rapide, tester et itérer rapidement. Relationnel : aisance relationnelle, capacité à fluidifier les échanges et créer du lien avec les équipes. Connaissance de GCP (Google Cloud Platform) Notions de Python (lecture et compréhension de scripts simples) Modalités Localisation : Rennes / Hybride (à définir) Démarrage : Dès que possible
Mission freelance
Data Engineer
Nicholson SAS
Publiée le
Apache Hive
Apache Spark
Argo CD
6 mois
550 €
Paris, France
Rejoignez Mon client banque assurance à Paris pour une mission stratégique au cœur de la plateforme Data du Groupe. Au sein de la squad « Restitutions Réglementaires », vous jouerez un rôle clé dans la mise en conformité et la valorisation des données assurantielles. Votre mission Sous un mode de travail hybride (3 jours sur site), vous piloterez la constitution des déclaratifs réglementaires (FICOVIE, FATCA, ECKERT, etc.). Votre intervention débutera par le chantier prioritaire FICOVIE , en exploitant des sources Big Data et décisionnelles complexes. Environnement Technique & Défis Vous évoluerez dans un écosystème On-Premise (MapR) exigeant : Core : Java 11, Spark, SparkSQL, Hive et Shell. Streaming & Batch : Maîtrise de Kafka (MaprES) pour l'optimisation des flux. DevOps & CI/CD : GitLab, Jenkins, Docker, Kubernetes et ArgoCD. Méthodologie : Agilité à l'échelle (SAFe) via JIRA.
Mission freelance
Chef de projet Senior Migration Sharepoint data
Mon Consultant Indépendant
Publiée le
SharePoint
12 mois
640-680 €
Paris, France
Bonjour, Nous recherchons un Project Manager SharePoint senior + de 10 ans d'expérience pour piloter une migration complexe déjà engagée et sécuriser les prochaines étapes critiques. La mission couvre • la finalisation de la migration de données SharePoint (On-Prem & Online/Teams vers une cible On-Prem unique) • la préparation et le pilotage de l’ upgrade vers SharePoint Subscription Edition Environnement sensible, à forts enjeux métiers et de sécurité, avec une attente forte de maîtrise du delivery et de réassurance des parties prenantes Profil recherché : • Chef de projet senior/expert (10+ ans) expert SharePoint On-Prem & Online • Solide track record sur des migrations SharePoint complexes , idéalement en contexte de souveraineté / sécurité • Capacité à reprendre un projet en cours, structurer, cadrer et piloter les équipes techniques • Forte compétence en change management et communication avec les équipes métiers • F rançais / anglais , présentiel majoritaire • Démarrage ASAP , mission 6 mois
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
1647 résultats
Contrats
Lieu
1
1
France
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois