Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 478 résultats.
Freelance

Mission freelance
📩 Data Engineer Microsoft Fabric

Gentis Recruitment SAS
Publiée le
Azure
Azure Data Factory
CI/CD

12 mois
Paris, France
Contexte Dans le cadre de la modernisation de sa plateforme data, un grand acteur du secteur de l’énergie renforce ses équipes data pour accompagner le déploiement de solutions basées sur Microsoft Fabric . L’objectif est de structurer une architecture data moderne, scalable et orientée métier, afin de répondre aux enjeux de valorisation des données (trading, consommation, production, performance énergétique). Missions Concevoir et développer des pipelines de données sur Microsoft Fabric Participer à la mise en place d’une architecture data (Lakehouse, Medallion Architecture) Intégrer et transformer des données issues de multiples sources (IoT, marché, SI internes) Optimiser les performances et la qualité des données (data quality, monitoring) Collaborer avec les équipes métiers (trading, risk, opérations) pour répondre aux besoins analytiques Contribuer à l’industrialisation des traitements (CI/CD, bonnes pratiques) Stack technique Microsoft Fabric (OneLake, Data Factory, Synapse, Power BI) Azure (Data Platform) Python / PySpark / SQL Data Lake / Lakehouse Git / CI-CD
Freelance

Mission freelance
POT9104 - Un Senior Data Engineer Talend sur Vélizy-Villacoublay.

Almatek
Publiée le
SQL

6 mois
Vélizy-Villacoublay, Île-de-France
Almatek recherche pour l'un de ses clients Un Senior Data Engineer Talend sur Vélizy-Villacoublay. Contexte de la mission Dans le cadre du programme de Digital and Data Transformation du Groupe, a la charge de la conception, de la livraison et du cycle de vie des data products supportant les initiatives stratégiques data du Groupe. Le Senior Data Engineer interviendra sur la construction et l’évolution des plateformes et pipelines data, la transformation de données brutes en données à forte valeur ajoutée, ainsi que l’amélioration continue des actifs data, en collaboration avec des équipes internationales. Environnement Technique Data Engineering & Architecture • ETL : Talend, SSIS, Azure Data Factory (ADF) • Bases de données & requêtage : Microsoft SQL Server, SQL avancé • Modélisation : Data Warehouses, Data Marts, Data Cubes • Transformation data : dbt • Architecture moderne : Medallion Architecture • Moteurs distribués : Trino (ou équivalent) • Stockage objet : MinIO (ou équivalent) • Data Lake & ingestion via APIs, fichiers, flux batch Microsoft Stack • SQL Server Database Engine • SSIS, SSAS • Power BI Reporting Services (PBIRS) • Langages : SQL, DAX, MDX • Optimisation des performances et tuning avancé Cloud & Bonus • Nice to have : GCP (BigQuery, GCS, Dataproc) CI/CD & Industrialisation • Pipelines CI/CD automatisés • Azure DevOps, GitLab • Déploiement, intégration continue, tests automatisés • Qualité de code, orchestration, build & release automation
Freelance
CDI

Offre d'emploi
Data Engineer Streaming

KLETA
Publiée le
Apache Kafka
Apache Spark

3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Data Engineer Streaming / Real-Time pour concevoir, optimiser et industrialiser des plateformes de traitement de données en temps réel. Vous analyserez des architectures existantes, proposerez des trajectoires d’évolution (modernisation des pipelines événementiels, optimisation des traitements stream, passage vers des architectures plus scalables et résilientes) et guiderez leur mise en œuvre avec Kafka, Flink, Spark Streaming ou équivalents. Vous serez responsable de la conception et de la fiabilisation des pipelines d’ingestion et de transformation en temps réel, de l’amélioration des performances et de l’intégration de mécanismes de tolérance aux pannes et d’observabilité des flux. Vous travaillerez main dans la main avec les équipes Cloud et DevOps pour intégrer les traitements dans des pipelines CI/CD robustes et adaptés aux contraintes d’exploitation. Vous aurez également un rôle clé dans la transmission de connaissances, l’animation d’ateliers techniques et l’accompagnement des équipes client sur les meilleures pratiques de streaming et d’event-driven architecture. Votre mission combinera expertise technique, rigueur méthodologique et capacité à structurer des solutions scalables et pérennes.
Freelance

Mission freelance
ARCHITECTE RESEAU ET SECURITE

SKILL EXPERT
Publiée le
BGP (Border Gateway Protocol)
Cisco Identity Services Engine (ISE)
Extreme Networks

1 an
Lorient, Bretagne
MISSIONS : • Élaboration de dossiers d’architecture et d’ingénierie détaillée (HLD/LLD). • Définition des plans d’implémentation, scénarios de migration et standards techniques. • Support expert auprès des infogérants : accompagnement, validation, troubleshooting avancé. • Participation aux choix technologiques, évaluations de solutions et recommandations. • Contribution aux politiques de sécurité, segmentation, NAC, posture et conformité. • Réalisation de tests, diagnostics et analyses de performance. • Veille technologique sur les environnements réseau et sécurité.
Freelance

Mission freelance
[LFR] Data Engineer TERADATA ET DATAVIZ, Sénior à Paris - 1456

ISUPPLIER
Publiée le

5 mois
300-405 €
Paris, France
Modélisation de données • Mode de chargement dans l’entrepôt (ETL) : BTEQ • Teradata, développements sous Teradata • Dataviz : Power BI et MSBI • CONTROL-M • Environnement UNIX ( répertoires principaux, Usage & Entrepôt ) • SQL sur SGBD relationel, Shell • TPT – réalisation de scripts • Outils collaboratifs et documentaires : GIT, Jira, Confluence, MEGA, Zeenea • Création de chaînes de déploiement DEVOPS • Mise en production de composants applicatifs avec livrables documentaires associés (DTA, feuille de route, ...) Sofskills : Sens du service. Bon relationnel et bonne communication écrite et orale. Ecoute. Esprit d'analyse et de synthèse. Capacité d'organisation et d'adaptation. Capacité à travailler en équipe. Autonomie.
Freelance
CDI

Offre d'emploi
Data Engineer (Bordeaux)

CAT-AMANIA
Publiée le
Agent IA
DBT
ETL (Extract-transform-load)

3 mois
40k-45k €
100-350 €
Bordeaux, Nouvelle-Aquitaine
Intégré ausein de la direction IT Data, vous viendrez apporter votre expertise technique sur des sujets récents autour de l'IA pour la data. En tant que Data Engineer, et en coordination avec le reste de l'équipe, vous serez amené à : - Effectuer des alimentations de données, - Travailler en binôme avec un Data Analyst sur un sujet IA/Data. - Travailler autour d'agent IA pour du requêtage SQL en langage naturelle - Mise à dispo d'outillage d'aide aux développement, monitoring… , - Faire une veille technologique autour des architectures data
Freelance

Mission freelance
Machine Learning Engineer – MLOps & Plateforme Data/IA

ESENCA
Publiée le
CI/CD
Docker
Google Cloud Platform (GCP)

3 ans
Lille, Hauts-de-France
🎯 Contexte Dans le cadre du développement d’une plateforme Data & IA à l’échelle internationale , un acteur majeur renforce ses équipes afin de structurer et industrialiser ses pratiques MLOps . L’objectif est de faciliter le déploiement, l’exploitation et la scalabilité des modèles de machine learning, tout en garantissant leur intégration fluide au sein des produits digitaux. Vous interviendrez dans un environnement moderne, orienté cloud, automatisation et intelligence artificielle , incluant des cas d’usage avancés autour de l’IA générative. 🧩 Mission En tant que Machine Learning Engineer , vous accompagnez la mise en œuvre et la montée en maturité des pratiques MLOps, depuis la conception jusqu’à la mise en production des modèles. Vous intervenez sur l’ensemble du cycle de vie des applications ML, avec une forte dimension industrialisation, automatisation et performance . 🚀 Responsabilités principales1. Déploiement et exploitation des modèles ML Mettre en production des modèles de machine learning Assurer leur disponibilité, leur performance et leur fiabilité Intégrer les solutions ML dans les produits digitaux 2. Data engineering & pipelines Collecter, nettoyer et structurer les données Concevoir et orchestrer des pipelines de données Garantir la qualité et la gouvernance des données 3. MLOps & automatisation Mettre en place des pipelines CI/CD pour les modèles ML Automatiser les déploiements et les mises à jour Industrialiser les processus de développement et d’exploitation 4. Monitoring & performance Développer des outils de monitoring des modèles (performance, dérive, disponibilité) Mettre en place des indicateurs de suivi Assurer la robustesse et la résilience des solutions 5. Contribution technique & innovation Participer aux choix techniques et d’architecture Contribuer à l’adoption de pratiques avancées (MLOps, LLMOps) Être force de proposition sur les évolutions technologiques 📦 Livrables attendus Pipelines de données et de déploiement industrialisés Modèles ML déployés en production Outils de monitoring et de supervision Documentation technique Amélioration continue des pratiques MLOps 📅 Modalités Démarrage : ASAP Rythme : temps plein Organisation : agile 🎯 Objectif Industrialiser et faire évoluer les pratiques MLOps afin de garantir des solutions ML robustes, scalables et intégrées , au service des produits digitaux et des usages métiers.
Freelance

Mission freelance
Data Engineer

Freelance.com
Publiée le
Amazon Redshift
Apache NiFi
API

1 an
400-480 €
Saint-Denis, Île-de-France
Dans le cadre du développement de son système d’information décisionnel, un grand groupe français renforce sa plateforme data dédiée au pilotage des activités immobilières. La mission s’inscrit dans l’évolution d’un hub de données centralisé , permettant de consolider, partager et valoriser les données métiers pour des usages analytiques avancés : pilotage opérationnel, reporting, data visualisation et ouverture vers des cas d’usage d’intelligence artificielle. Cette plateforme data, déployée depuis 2022, repose sur une architecture Lakehouse moderne dans le cloud AWS , et s’appuie sur des technologies telles que Databricks, NiFi, Redshift et Power BI . L’équipe data actuelle développe et maintient plusieurs applications analytiques visant à améliorer l’exploitation et la qualité des données au service des métiers. En tant qu’ Expert Data Engineer , vous interviendrez sur la conception, l’évolution et l’exploitation du hub de données. Vos principales responsabilités seront : Engineering & Data Platform Assurer la maintenance et l’optimisation des chaînes de traitement existantes (Python, SQL, Databricks, Power BI) Développer de nouveaux pipelines de données pour intégrer de nouvelles sources dans le Data Lake (Batch, API) Participer aux travaux de modélisation et d’urbanisation du hub de données Identifier, collecter, transformer et stocker les données nécessaires à l’alimentation des modèles analytiques Implémenter des algorithmes et traitements avancés exploitant les données du Data Lake Analyse & accompagnement métier Participer aux ateliers avec les métiers afin de formaliser les besoins Rédiger les expressions de besoins et spécifications fonctionnelles Définir les règles de calcul et d’agrégation des indicateurs Proposer des solutions adaptées aux enjeux d’analyse et de pilotage Descriptif de la mission Data visualisation & reporting Concevoir et développer des tableaux de bord et rapports Power BI Automatiser les processus de reporting Produire des indicateurs et restitutions analytiques pour les utilisateurs métiers Documentation & gouvernance Rédiger les spécifications techniques et fonctionnelles Documenter les règles d’alimentation du datawarehouse et les modèles de données Contribuer à la documentation des règles de sécurité et de gouvernance des données Participer aux plans de tests, recettes et supports utilisateurs
Freelance
CDI

Offre d'emploi
Data Engineer Python & Power BI (H/F)

STORM GROUP
Publiée le
Microsoft Power BI
Python

3 ans
40k-55k €
400-500 €
Île-de-France, France
Au sein d’une équipe spécialisée en risque de contrepartie, vous contribuez au développement et à l’amélioration d’outils de suivi, d’analyse et de certification des métriques de risque. Vos missions : Développement et optimisation d’outils de reporting et d’analyse Python, Power BI Structuration et modélisation des données pour des usages BI Suivi et contrôle des métriques de risque et des dépassements Participation aux processus de certification et de fiabilisation des données Collaboration avec des équipes pluridisciplinaires (risque, IT, métiers)
CDI

Offre d'emploi
Is Engineer - Product Owner IT - Domaine Bids & Projects H/F

█ █ █ █ █ █ █
Publiée le
Microsoft Excel
Oracle Database
Scrum

45k-55k €
Toulouse, Occitanie

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
AI Engineer - Azure

Groupe Aptenia
Publiée le
Azure
MLOps
Python

1 an
450-500 €
Grenoble, Auvergne-Rhône-Alpes
Nous sommes à la recherche d'un AI Engineer qui interviendra chez l'un de nos clients pour développer et industrialiser des modèles d’optimisation énergétique pour anticiper les besoins des bâtiments en fonction de la météo, des coûts et de l’origine de l’énergie. La phase exploratoire a déjà été réalisée, le Focus se fera sur le backend Python et l’industrialisation des modèles existants. 🎯 Vos missions clés ✅ Développer des solutions backend (Python, Azure) pour l’optimisation énergétique. ✅ Industrialiser des modèles de forecasting déjà existants. ✅ Collaborer avec une équipe de 6-7 Data Scientists.
Freelance

Mission freelance
DEVOPS Platform Engineer

Codezys
Publiée le
Ansible
CentOS
Docker

12 mois
Les Ulis, Île-de-France
Profil recherché : Expérience dans des missions longues en banque requise Contexte du projet : Recrutement d’un Platform Engineer en prestation externe pour l’intégration et l’administration des offres Rattaché à la Platform Engineering, dans la tribe « Automatisation & observabilité » Objectifs de la prestation : Maîtrise des serveurs Linux, Unix, RedHat, et langages comme Python Support aux projets internes « ME » pour la livraison d’applications dans le cloud Support en cas de bugs ou anomalies Installation des logiciels éditeurs Conception, industrialisation et maintenance de pipelines CI/CD (GitHub Actions, Jenkins, ArgoCD) Installation, paramétrage, et adaptation des progiciels Automatisation du provisioning et de la configuration des offres Platform Engineering Développement de playbooks Ansible et modules Terraform Installation et intégration des produits DT d’observabilité (Grafana, LOKI, Instana, ELK, Prometheus) Automatisation des tests et validation technique Installation et intégration des produits du socle (PostgreSQL, MongoDB, HAproxy, Kafka, Redis) Gestion de l’intégration et du paramétrage des logiciels/applicatifs dans les environnements de test Suivi des mises en exploitation en collaboration avec les équipes projets & production Maîtrise des offres d’infrastructure cloud « GTE » de la Société Générale Rédaction de scénarios de test, outils de benchmarking, et présentation des résultats Participation à la définition du modèle opérationnel et à l’offre de service Résultats attendus : Participation active aux livraisons de projets Communication des difficultés et propositions d’amélioration continue Support en cas d’anomalies et proposition de solutions Participation aux ateliers avec les équipes Développement et documentation de cas de test manuels et scénarisés Analyse et recommandations pour la mise à l’échelle des applications et infrastructures Présentations des résultats de performance Amélioration continue via des feedbacks Garant du modèle d’intégration du socle de conteneurisation et de l’écosystème Rédaction de documentation technique Réalisation de tests unitaires et d’intégration Participation aux réunions et suivi des actions projets Identification des risques et implication dans les comités de pilotage
Freelance
CDI

Offre d'emploi
Data Engineer Kubernetes

KLETA
Publiée le
Helm
Kubernetes

3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Data Engineer Kubernetes pour concevoir, optimiser et industrialiser des plateformes de traitement de données déployées sur des environnements conteneurisés. Vous analyserez des architectures existantes, proposerez des trajectoires d’évolution (modernisation des pipelines, containerisation des traitements, optimisation de l’orchestration et de la scalabilité) et guiderez leur mise en œuvre avec Kubernetes et les outils associés (Helm, ArgoCD, Operators, Kubernetes Jobs). Vous serez responsable de la conception et de la fiabilisation des pipelines data exécutés sur Kubernetes, de l’amélioration des performances et de l’intégration de mécanismes de résilience, d’observabilité et de gestion des ressources. Vous travaillerez main dans la main avec les équipes Cloud et DevOps pour intégrer les traitements dans des pipelines CI/CD robustes et adaptés aux contraintes d’exploitation. Vous aurez également un rôle clé dans la transmission de connaissances, l’animation d’ateliers techniques et l’accompagnement des équipes client sur les meilleures pratiques de data engineering en environnement Kubernetes. Votre mission combinera expertise technique, rigueur méthodologique et capacité à structurer des solutions scalables et pérennes.
CDI

Offre d'emploi
Embedded Software Engineer - Linux Systems F/H - Informatique industrielle (H/F)

█ █ █ █ █ █ █
Publiée le
Linux
Node.js
Python

Montpellier, Occitanie

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDI

Offre d'emploi
SAP AI & Mobile software engineer - 980 F/H - Informatique industrielle (H/F)

█ █ █ █ █ █ █
Publiée le
ABAP
Big Data

Belgique

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance
CDD

Offre d'emploi
Data Engineer H/F

SMARTPOINT
Publiée le
Apache Kafka
Apache Spark
Elasticsearch

6 mois
50k-55k €
400-410 €
Île-de-France, France
Dans le cadre du développement de nos activités, nous recherchons un(e) Data Engineer pour renforcer l'équipe technique de notre client et intervenir sur des projets à forte valeur ajoutée autour de la data. En tant que Data Engineer, vous serez amené(e) à : Assurer le suivi technique des projets : suivi des développements, réalisation de revues de code et respect des bonnes pratiques Gérer les incidents techniques : analyse, résolution et mise en production des correctifs Proposer des améliorations techniques : identification des axes d’évolution et optimisation des performances et de la stabilité des applications Garantir la qualité du code : mise en place de tests unitaires et gestion de l’intégration continue Assurer la documentation technique : maintien à jour de l’architecture et de la documentation
478 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous