Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 2 981 résultats.
CDI

Offre d'emploi
Développeur Python, C++, Java et Big Data

CELAD
Publiée le

36k-42k €
Bordeaux, Nouvelle-Aquitaine
CDI / Freelance / Portage Salarial - Pas de télétravail - Bordeaux - Expérience de 3 ans minimum Nous poursuivons notre développement et recherchons actuellement un(e) Développeur python pour intervenir chez un de nos clients. Vos missions Vous interviendrez sur plusieurs volets : Data & exploitation Gestion des données d’essais dans les outils internes Correction des anomalies de chargement Gestion et suivi de la documentation associée Réalisation de tests sur les évolutions des outils et des formats de chargement Développement & scripting Développement de scripts en Python (obligatoire) Correction de bugs et maintenance des applications existantes Contributions en C++ et/ou Java API & interconnexions Développement et maintien en conditions opérationnelles des API Interconnexion des applications métiers (ex : outils internes, PLM) Participation à l’industrialisation pour limiter le Shadow IT Rationalisation et amélioration des outils existants Innovation & Data avancée Participation à des sujets Big Data Intégration et connexion de LLMs aux outils existants Collaboration avec les équipes client sur les problématiques data
CDI
Freelance

Offre d'emploi
Data Engineer senior

Atlanse
Publiée le
Agile Scrum
AWS Cloud
AWS Glue

1 an
60k-67k €
500-600 €
Paris, France
En tant que Data Engineer Senior PySpark, vous jouez un rôle clé dans la performance et la fiabilité des traitements de données à grande échelle. Vous êtes en charge de l’optimisation des pipelines existants et de l’organisation des activités de RUN & stabilisation, en veillant à prioriser les actions à forte valeur ajoutée dans un environnement Agile. Votre rôle Optimisation et refonte des pipelines data · Auditer, refactorer et faire évoluer les modules de data engineering : Refining Covariates Modelling, Exposition · Optimiser les pipelines PySpark pour améliorer les performances de traitement à grande échelle (partitioning, gestion des joins, cache, skew et volumétrie) · Renforcer la modularité, la lisibilité, l’évolutivité et la scalabilité des pipelines · Contribuer à la réduction de la dette technique et à la modernisation du legacy Industrialisation et qualité des développements · Structurer un framework flexible permettant l'ajout de nouvelles features et facilitant l’industrialisation des développements · Mettre en place les tests unitaires, d’intégration et fonctionnels · Formaliser des standards de développement Stabilisation, RUN et amélioration continue · Améliorer la stabilité des pipelines grâce au monitoring et à l’application des bonnes pratiques CI/CD · Structurer et prioriser les actions de RUN et de stabilisation · Définir et piloter un plan d'optimisation priorisé avec des gains mesurables Passage à l’échelle et évolution de l’architecture data · Adapter les pipelines pour un déploiement mondial / multi régions en tenant compte des enjeux de volumétrie et de passage à l’échelle · Optimiser le ratio coût / performance des traitements · Travailler en étroite collaboration avec les Data Scientists et les ML Engineers
CDI
CDD

Offre d'emploi
Data Analyst - Bordeaux

OCTOGONE
Publiée le
BI
Google Cloud Platform (GCP)
PL/SQL

9 mois
Bordeaux, Nouvelle-Aquitaine
Contexte Rattaché(e) à l'équipe Data au sein de la R&D d'un ERP Commerce d'un groupe de grande distribution, le/la Data Analyst aura pour mission de manipuler, mettre en qualité et exposer les données aux centrales d'achat du groupe. La mission s'inscrit dans un environnement technologique Cloud (GCP) utilisant des bases de données volumineuses. Description La mission inclut l'écriture et l'optimisation de requêtes SQL complexes pour l'extraction de données. Le consultant participera à la mise en qualité des données lors du déploiement de nouvelles Centrales et assurera une veille sur les outils BI et les principes d'IA générative. Livrables Requêtes SQL optimisées, jeux de données qualifiés pour les reprises de données, et tableaux de bord de visualisation (Looker, Power BI). Compétences Maîtrise avancée de SQL, connaissance de Google Cloud Platform (BigQuery), outils de Business Intelligence, programmation Python et familiarité avec l'IA/Machine Learning.
Freelance

Mission freelance
PMO Data

Codezys
Publiée le
Animation
Data management
Gouvernance

12 mois
330-430 €
Lille, Hauts-de-France
Contexte de la mission Dans le cadre de ses programmes de transformation stratégique, notre organisation souhaite renforcer la mise en œuvre de ses initiatives « data ». À cet effet, nous recherchons un PMO expérimenté afin d’assurer l’animation opérationnelle des équipes plateformes. La mission consiste à coordonner et suivre l’ensemble des travaux liés à la mise en œuvre des attendus « data », en veillant à la conformité avec les enjeux de gouvernance et d’architecture data. Le candidat idéal devra posséder une solide expertise en architecture data et gouvernance , afin d’accompagner efficacement les équipes dans la réalisation des objectifs stratégiques. Type de mission : Temps plein Démarrage : Dès que possible Objectifs et livrables Management de la backlog d'évolution : Assurer la priorisation, la gestion et la coordination des évolutions nécessaires pour la plateforme data en alignement avec les objectifs du programme. Animation des rituels de suivi par plateforme : Organiser et animer les réunions régulières afin de faire le point sur l’avancement, identifier les risques et coordonner les actions correctives. Reporting au directeur de programme : Élaborer des rapports synthétiques et précis pour suivre l’état d’avancement, les enjeux et les résultats des travaux en cours auprès de la direction.
Freelance

Mission freelance
Ingénieur Snowflake

STHREE SAS pour COMPUTER FUTURES
Publiée le
DBT
Snowflake

12 mois
110-430 €
Île-de-France, France
Bonjour, Je suis à la recherche d’un Ingénieur Snowflake: Missions principales : Ø Concevoir, développer et maintenir des pipelines de données ELT haute performance en utilisant Snowflake et dbt Ø Modéliser les données aux niveaux conceptuel et technique en fonction des besoins métier Ø Optimiser les requêtes SQL et les modèles dbt afin de garantir des performances optimales Ø Mettre en œuvre et maintenir une infrastructure DataOps pour l’automatisation des déploiements Ø Configurer et gérer la sécurité des données (RBAC, Row-Level Security, Dynamic Data Masking) Ø Assurer une ingestion efficace des données depuis AWS S3 vers Snowflake Ø Orchestrer les flux de données via dbt et créer des DAGs avec une gestion appropriée des tags Ø Implémenter des tests de qualité des données via les tests dbt Ø Gérer les aspects administratifs des bases Snowflake
Freelance
CDD

Offre d'emploi
Architecte Big Data / Expert Databricks (H/F)

SMARTPOINT
Publiée le
Apache Kafka
Apache Spark
AWS Cloud

6 mois
75k-90k €
700-750 €
Île-de-France, France
Dans un contexte d’accélération des projets data et de modernisation des plateformes analytiques, notre client recherche un Architecte Big Data / Expert Databricks H/F; Votre rôle sera clé pour concevoir des architectures data modernes, optimiser les performances et les coûts, tout en accompagnant les équipes dans leur montée en compétences. Vos missions Concevoir des architectures Big Data / Modern Data Stack robustes et scalables Réaliser des études techniques et cadrages des besoins data Définir et valider des architectures data sur Databricks et AWS Conduire des audits de performance et de code Produire des dossiers d’architecture (6 à 8 par an) Élaborer des supports de formation (10 à 12 par an) Animer des sessions de formation et de montée en compétences Rédiger des comptes-rendus d’audit (4 à 6 par an) Conseiller sur les bonnes pratiques d’optimisation des coûts et des performances
Freelance
CDI
CDD

Offre d'emploi
Chef de projet MOE DATA (Tableau)

Freelance.com
Publiée le
Python
Tableau Desktop
Tableau software

1 an
40k-70k €
400-550 €
Paris, France
Client : Public Postes : Chef de projet Data (Tableau) Expérience : 8 ans minimum Localisation : Paris Démarrage : Sous 2 semaines Durée : 6 mois renouvelable Missions principales En tant que Chef de Projet TMA DATA , vous serez responsable du : Pilotage opérationnel Coordonner la TMA avec la MOA, les équipes de développement, DevSecOps et les services DTNUM Garantir le bon fonctionnement des deux applications Prioriser et suivre les demandes de maintenance corrective et évolutive Assurer le suivi des performances et proposer des actions d’amélioration Pilotage projet Préparer et animer les comités projet Assurer un reporting régulier auprès de la hiérarchie et du métier Suivre les budgets et engagements financiers Garantir la qualité documentaire et la conformité des livrables Qualité & conformité Superviser les tests, audits, homologations et contrôles réglementaires Veiller au respect des normes RGPD, RGGA et exigences de sécurité Compétences requises : Techniques Maîtrise des architectures applicatives backend / frontend Très bonnes connaissances PostgreSQL et requêtage SQL Maîtrise du progiciel Tableau Maîtrise de GitLab et des outils de gestion de configuration Connaissance des environnements Java / React / Python (lecture, compréhension) Projet Maîtrise des méthodologies Agile et Cycle en V Maîtrise de Jira , Git, gestion d’arborescence projet, documentation Animation de comités projet, pilotage, reporting hiérarchique et métier Suivi budgétaire et financier Pilotage d’équipes de développement Qualité & Conformité Connaissance des tests et audits nécessaires à la mise en service : Métrologie Audit de sécurité RGGA Homologation SSI RGPD Profil recherché Expérience confirmée en chefferie de projet TMA Connaissance solide des environnements Data , Reporting , API , Tableau, Python, Vertica Capacité à travailler en environnement multi‑acteurs (MOA, MOE, DevSecOps, architectes) Excellentes compétences de communication, coordination et pilotage Rigueur, autonomie, sens du service et capacité d’analyse
Freelance

Mission freelance
Ingénieur R&D

CAT-AMANIA
Publiée le
RECHERCHEV

1 an
100-460 €
Lille, Hauts-de-France
La mission se découpe en 3 parties : Partie 1: Etat de l'art des tests laboratoires disponibles. L'enjeu est d’obtenir une donnée scientifique répétable. Tu réaliseras un état de l’art des moyens et méthodes d’essais laboratoire disponibles sur le grip des pneus dans l’industrie du transport (auto,moto,cycles,etc.) et décideras de la meilleure option de test (en interne ou externe, existante ou à créer) avec les contraintes de coût/délai et tu définiras un protocole d’essai répétable et reproductible. Partie 2: Corrélation du test laboratoire au terrain et identification du critère de performance. L'objectif est de caractériser le grip afin de définir physiquement le grip. Tu concevras (avec le support d’un ingénieur essais terrain) un plan d’essai terrain permettant de quantifier le grip réel et tu détermineras plusieurs seuils de grip (mini, équilibré, maxi) selon les terrains de pratique (VTT, ville, route, etc.). Pour cela tu identifieras le critère d’acceptation le plus pertinent pour garantir la sécurité de l'utilisateur Partie 3 : Quantifier l’impact de chaque paramètres qui agissent sur le grip afin de définir des règles de conception. L’objectif est de comprendre pour anticiper les futurs développements. Tu rédigeras une synthèse technique définissant les leviers prioritaires pour optimiser le grip sans dégrader les autres compromis (résistance au roulement, durabilité, etc.)
Freelance
CDI

Offre d'emploi
🚀 Opportunité – Chef de projet Cybersécurité / Data Protection (Toulouse)

OMICRONE
Publiée le
Cybersécurité
Prévention des pertes de données (DLP)
Scrum

2 ans
40k-45k €
400-550 €
Île-de-France, France
Dans le cadre d’un programme stratégique de cybersécurité à l’échelle groupe , nous recherchons un Chef de projet sécurité pour piloter des chantiers autour de la Data Protection (DLP) . 📍 Localisation : Toulouse (3 jours sur site / semaine) ✈️ Déplacements ponctuels à prévoir (Paris / Lyon) 📅 Démarrage : début mai 🎯 Vos missions : • Piloter le déploiement des chantiers cybersécurité au sein des différents établissements • Gérer les plannings et mettre à jour la roadmap projet • Organiser et animer les comités de pilotage et ateliers sécurité • Produire les indicateurs et tableaux de bord de suivi • Accompagner les équipes (PO, équipes Agile) et animer les rituels Scrum • Assurer le delivery global du chantier Data Protection / DLP 🛠 Environnement : • Programme cybersécurité groupe • Sujets Data Protection / DLP • Méthodologies Agile (Scrum) ✅ Profil recherché : • Expérience confirmée en gestion de projet cybersécurité (impératif) • Bonne connaissance des enjeux Data / Data Protection • Expérience en environnement complexe et multi-équipes • Capacité à travailler en autonomie et à piloter plusieurs sujets en parallèle • Anglais professionnel requis • Formation ingénieur ou équivalent
Freelance

Mission freelance
Tech Lead Data – Snowflake et Modern Data Stack (H/F)

Lùkla
Publiée le
Snowflake

1 an
Lyon, Auvergne-Rhône-Alpes
Dans le cadre du développement de sa plateforme data, nous recherchons un Tech Lead Data pour piloter la conception et l’évolution d’une Modern Data Stack performante et scalable. Vos missions Définir et piloter l’architecture data basée sur Snowflake Mettre en place les standards de modélisation, gouvernance et sécurité Structurer les pipelines d’ingestion et de transformation (dbt, Fivetran) Déployer les bonnes pratiques d’industrialisation (CI/CD, tests, qualité) Optimiser la performance et les coûts de la plateforme (FinOps) Encadrer techniquement les équipes data et accompagner leur montée en compétence Contribuer à la roadmap data et aux sujets d’innovation (IA notamment) Environnement technique Snowflake dbt Fivetran Power BI Azure DevOps
Freelance

Mission freelance
Senior Data engineer IA (H/F)

CHARLI GROUP
Publiée le
Apache Airflow
AWS Cloud
CI/CD

2 ans
400-610 €
Île-de-France, France
Dans le cadre de son plan de transformation Data, le groupe poursuit un objectif central : développer des applications Data permettant aux directions métiers (pilotage, marketing, commerce, etc.) de gagner en autonomie dans l'analyse de leurs données et le suivi de leurs KPI mais aussi de mettre en place des applications customer-facing Pour répondre à cet enjeu, le groupe s'appuie sur un écosystème technologique étendu, comprenant notamment : AWS, GitLab, Terraform, DBT, Snowflake, GenAI, Braze, Scala, Spark, Python, Power BI, ainsi que des briques d'Intelligence Artificielle. La plateforme repose sur des architectures robustes et évolutives (Datalake, Lakehouse, des architectures multi-tenant, des architectures event-driven et streaming) conçues pour ingérer et gérer plus de 100 To de données par jour, dont une part majoritaire en temps réel. Description du poste : Notre environnement de travail combine rigueur, une ambiance décontractée au sein des équipes, et des méthodes Agiles (Scrum et Kanban). Votre mission principale, si vous l'acceptez, consistera à intervenir sur des architectures de Streaming Data et IA full AWS (notamment Lambda, Step Function, Kinesis Stream, S3, Batch, Firehose, EMR Serverless, DynamoDB, etc.), ainsi que sur des technologies comme Scala, Spark, SQL, Snowflake, GitLab CI/CD, DBT, Airflow, Terraform. Vous serez amené à : Concevoir et développer des pipelines de données performants Développer en utilisant des outils tels que Scala, DBT et Spark Implémenter des architectures de Streaming Data robustes Contribuer activement aux initiatives FinOps Développer et optimiser des traitements d'intégration de données en streaming Rejoignez une équipe dynamique où innovation et expertise se rencontrent !
Freelance

Mission freelance
Business Analyst – ALM Treasury Transformation - Paris

Net technologie
Publiée le
ALM
Data quality
Recette

9 mois
Paris, France
Dans le cadre d’un programme stratégique de modernisation du SI ALM Treasury , nous recherchons un(e) consultant(e) pour accompagner la refonte des moteurs de calcul des indicateurs de risque de taux et de liquidité du Banking Book . 🎯 Missions Organisation et coordination des tests UAT des nouveaux moteurs de calcul Validation des modélisations (échéanciers, positions optionnelles, P&L, taux de cession interne) Contribution aux contrôles de Data Quality Coordination du déploiement des solutions en France et à l’international Animation d’ateliers métiers & coordination avec les équipes IT Suivi des roadmaps et dépendances projets 📌 Contribution possible à la rédaction de Business Requirements (≈20%).
Freelance

Mission freelance
Ingénieur SRE

CS Group Solutions
Publiée le
Site Reliability Engineering (SRE)

6 mois
Niort, Nouvelle-Aquitaine
Nous recherchons un Ingénieur SRE 3 jours de présence obligatoire à Niort par semaine. EXPERTISES ATTENDUES Savoir développer, configurer, déployer et tester les différents automatismes Maitriser les principes de base de l'intégration Maitriser la mise en place de procédures et outils d'exploitabilité et d'observabilité permettant de garantir la disponibilité attendue des solutions/produits/services Savoir évaluer les risques et impacts techniques lors d'une mise en production Savoir gérer les mises en production des évolutions des solutions/produits/services Maitriser l'utilisation d'un ordonnanceur Connaître les principes de base de l'observabilité (supervision, métrologie, ...) Connaître les démarches d'industrialisation et d'automatisation Connaître les services d'infrastructure des réseaux (DHCP, DNS, NTP, etc...), Connaître les bonnes pratiques Devops et le fonctionnement en mode Agile Connaître des méthodes et les outils de gestion de configuration Connaître Gitlab, Github, Ansible, Python, ... Connaître les principes de l'intégration continue Connaître les outils d'observabilité: Dynatrace, ... Autres compétences Bonne communication A l'aise en équipe et familier avec les principes agiles Curieux et perspicace Entraide Esprit d’analyse Bienveillance, ponctualité, responsabilisation, esprit d'équipe Autonomie, curiosité, assiduité, force de proposition PRESTATIONS ATTENDUES Participer à l’élaboration du dossier d’architecture avec les architectes et analyser les impacts sur le SI, accompagner les équipes projets sur les déploiements et faire des feedbacks Planifier les changements majeurs et transverses et mettre en place un suivi des changements Industrialiser les traitements en lien avec les équipes études Administrer les serveurs applicatifs et mettre à jour les normes et les environnements Faire évoluer les environnements , les outils et les composants applicatifs Contribuer au traitement et à la bonne résolution des problèmes en lien avec l’équipe d’exploitation Communiquer et partager les principes d’architecture, les standards SI et l’innovation avec les communautés d’experts SI LIVRABLES Documentations techniques et normes Rapport d’intervention Mise à jour des référentiels d'environnements Maintien des outils de l'espace d'intégration et la fabrique logicielles Améliorer le plan de production et support à l'équipe de production
CDI
Freelance

Offre d'emploi
Builder Azure / DevSecOps Data

VISIAN
Publiée le
Azure
Azure DevOps
CI/CD

1 an
Paris, France
L’objectif de la mission est de concevoir, bâtir et sécuriser l’architecture cloud Azure d'un prototype Energy Management System (EMS), tout en préparant une industrialisation future sans dette d’architecture. Missions Concevoir et déployer l’architecture Azure du prototype EMS, incluant : Ingestion IoT & streaming temps réel (Azure IoT Hub, Event Hubs, Eventstream Microsoft Fabric RTI) Traitement temps réel & validation qualité (Eventstream processors, KQL Databases, Quality gate asynchrone < 10s) Stockage différencié (RAW, VALIDATED / CERTIFIED, OneLake & intégration Fabric) Observabilité, sécurité et traçabilité (Azure Monitor, Log Analytics, diagnostics, métriques temps réel, audit de bout en bout) Mettre en œuvre des patterns event-driven & streaming adaptés aux workloads IoT / EMS. Construire une plateforme data temps réel et sémantiquement gouvernée avec Microsoft Fabric, RTI & Fabric IQ : Conception des pipelines (ingestion, enrichissement, filtrage, routing, persistance temps réel) Exploitation des KQL Databases pour agrégations temps réel, détection d’anomalies, corrélation d’événements Mise en place d’actions automatiques via Activator (alertes, workflows) Contribution à la modélisation des entités métier, règles de qualité fonctionnelle et états opérationnels Préparation de l’intégration d’agents intelligents sur données temps réel Assurer la mise en œuvre DevSecOps & Infrastructure as Code : Infrastructure en IaC (Terraform ou Bicep) Pipelines CI/CD (GitHub Actions / Azure DevOps) Gestion des environnements (dev / acc / prod), secrets (Key Vault), identités managées, RBAC, policies Azure Intégration des garde-fous sécurité dès le prototype (least privilege, chiffrement, audit, gouvernance Fabric & Purview) Développer la plateforme data : APIs, streams, endpoints temps réel Microservices de traitement événementiel en Python et/ou Node.js / TypeScript Composants de normalisation et validation qualité, règles métier temps réel, intégration de modèles d’IA (Azure ML) Respect des contraintes fortes : latence end-to-end < 10 secondes, fiabilité, idempotence, gestion des erreurs & backpressure Produire un socle simple, robuste et consommable avec environnements reproductibles et documentés Réaliser des démonstrations régulières à destination des parties prenantes métier et techniques Outils & Environnement Cloud & Architecture : Azure IoT Hub, Azure Event Hubs, Microsoft Fabric RTI, Fabric IQ, OneLake Traitement & Stockage : Eventstream processors, KQL Databases (Eventhouse), Azure Functions, Azure Container Apps Observabilité & Sécurité : Azure Monitor, Log Analytics, Key Vault, RBAC, Managed Identity, policies Azure DevSecOps & IaC : Terraform (préféré) ou Bicep, GitHub Actions, Azure DevOps Développement : Python, Node.js, TypeScript Modélisation & Qualité métier : Fabric IQ, règles métier, qualité fonctionnelle et technique Automatisation : Activator (alertes, workflows) IA & Data Science : Azure Machine Learning (optionnel)
Freelance
CDI

Offre d'emploi
Business Analyst Data (Assurance Vie / Banque Patrimoniale) H/F

Aleysia
Publiée le
Business Analyst
Data analysis
SQL

12 mois
35k-45k €
130-490 €
Paris, France
Si la Data est pour toi une passion plus qu'une compétence, rejoins notre univers technique qui t'attend de pied ferme avec ce poste de Business Analyst Data (Assurance Vie / Banque Patrimoniale) ! 🚀 Ton challenge si tu l’acceptes : • Recueillir, analyser et formaliser les besoins métiers (finance, risques, conformité…) • Animer des ateliers avec les équipes métier et cadrer les besoins • Concevoir et maintenir les modèles de données • Participer à la mise en place des flux data (ETL / DWH / Data Lake) • Assurer la recette fonctionnelle et garantir la qualité des données • Suivre les anomalies et assurer la cohérence des données • Travailler en méthodologie Agile/Scrum avec les équipes IT et Data
Freelance

Mission freelance
Tech Lead Customer Data Cloud

EBMC
Publiée le
SAP

6 mois
300-600 €
France
Dans le cadre d’un projet digital dans le secteur pharmaceutique, nous recherchons un Tech Lead spécialisé SAP Commerce Cloud afin d’accompagner une équipe projet sur des sujets de développement et d’évolution de la plateforme e-commerce. Le consultant interviendra en tant que référent technique sur le périmètre Commerce Cloud, avec pour mission de structurer les travaux, sécuriser les choix techniques et garantir la qualité des livrables. Il participera également à l’encadrement et à la montée en compétence de consultants, tout en contribuant activement aux activités de conception et de delivery.
2981 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous