Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 730 résultats.
Freelance
CDI

Offre d'emploi
Data Engineer Senior – Plateforme Data Cloud

VISIAN
Publiée le
AWS Cloud
Databricks
PySpark

3 ans
40k-50k €
500-540 €
Lyon, Auvergne-Rhône-Alpes
Data Engineer Senior – Plateforme Data Cloud (H/F) Lyon – Mission longue durée – Temps plein Nous recherchons un Data Engineer senior pour intervenir sur une plateforme data stratégique au sein d’un grand environnement industriel en transformation. La mission s’inscrit dans une équipe dédiée à l’industrialisation et à la performance des pipelines data, sur une architecture cloud moderne à forte volumétrie. Missions • Concevoir et optimiser des pipelines d’ingestion et de transformation de données • Garantir la performance, la fiabilité et la scalabilité de la plateforme • Mettre en place des mécanismes de contrôle qualité des données • Automatiser et superviser les traitements data • Participer à la gouvernance et au cycle de vie de la donnée • Contribuer à l’optimisation des infrastructures cloud • Supporter les utilisateurs de la plateforme • Participer à la veille technologique Environnement technique Databricks sur AWS PySpark, Python, SQL avancé Architecture Data Lake et pipelines industriels Outils DevOps / DataOps (Git, CI/CD, ticketing) Méthodologie Agile à l’échelle (SAFe) Profil recherché Minimum 5 ans d’expérience en data engineering Expertise Databricks, AWS et PySpark Expérience en industrialisation de pipelines data Rigueur technique et autonomie Bon esprit d’équipe Anglais professionnel Connaissance du secteur industriel ou énergie appréciée. Conditions Mission longue durée avec visibilité Projet à fort impact Équipe technique experte Environnement cloud avancé
Freelance

Mission freelance
LEAD MACHINE LEARNING MLOPS

Atlas Connect
Publiée le
Agent IA
API
API REST

6 mois
600-680 €
Paris, France
Mission Garantir l’excellence technologique du pôle IA en définissant les standards d’architecture et de développement, en sécurisant la mise en production de solutions d’intelligence artificielle complexes et en accompagnant la montée en compétence des équipes techniques. Le Tech Lead ML joue un rôle clé dans la conception, la robustesse et la scalabilité des produits IA tout en contribuant aux décisions stratégiques liées à la roadmap technologique. Responsabilités principalesArchitecture & Engineering IA Définir et maintenir les standards d’architecture ML/IA dans des environnements multi-cloud . Concevoir et valider les pipelines ML / IA end-to-end (data → training → évaluation → déploiement → monitoring). Mettre en place les bonnes pratiques de MLOps et industrialisation des modèles . Choix technologiques Superviser les choix d’outils et frameworks : frameworks ML solutions cloud (Google Cloud, Microsoft Azure) outils MLOps Garantir la cohérence technologique de l’écosystème IA. Qualité technique & gouvernance Auditer et challenger la qualité technique des produits IA : performance robustesse sécurité coûts (FinOps) maintenabilité Mettre en place des standards de gouvernance des modèles et des données . Leadership technique Jouer un rôle d’ expert et de mentor auprès des équipes Data Science et Data Engineering. Accompagner la montée en compétence technique des équipes. Définir et diffuser les bonnes pratiques de développement . Contribution stratégique Participer aux phases de cadrage et de conception des produits IA . Contribuer à la définition de la roadmap produit IA . Collaborer étroitement avec : le Product Owner IA les Data Scientists les Data Engineers les équipes software. Innovation & veille Assurer une veille technologique active sur les innovations IA : IA générative MLOps architectures data outils et frameworks émergents.
Freelance

Mission freelance
Data Platform Engineer

Phaidon London- Glocomms
Publiée le
Apache Spark
AWS Cloud
CI/CD

6 mois
400-550 €
Paris, France
Support Technique et Expérience Développeur Assurer un support quotidien aux ingénieurs et data scientists. Identifier et contribuer à la gestion de la dette technique ; fournir des outils d'automatisation et de test. Collaborer avec les équipes plateforme pour optimiser l'expérience développeur globale. Adoption de la plateforme et bonnes pratiques Promouvoir l'utilisation efficace des outils et fonctionnalités de la plateforme. Se tenir informé(e) des tendances du secteur et des technologies cloud/données pertinentes. Développement des compétences et animation de la communauté Évaluer les compétences de l'équipe et dispenser des formations ciblées. Animer une communauté de pratique pour présenter les améliorations et partager les bonnes pratiques. Produire de la documentation technique et des supports de formation. Retours d'information et évolution de la plateforme Recueillir les retours des utilisateurs et contribuer à l'amélioration du produit. Valider les livrables d'ingénierie de la plateforme par des tests alignés sur des cas d'utilisation réels. Défendre les intérêts des ingénieurs et des data scientists en interne.
Freelance
CDI

Offre d'emploi
Développeur Backend / Fullstack - (H/F)

SWING-ONE
Publiée le
API REST
Python

6 mois
Île-de-France, France
CONTEXTE DE LA MISSION : Nous recherchons un développeur Backend ou Fullstack expérimenté pour rejoindre une équipe spécialisée dans le développement et l’automatisation des infrastructures réseau et sécurité. Vous participerez à des projets variés, allant de la conception d’API et portails internes à l’intégration et au déploiement en production, en collaboration avec les équipes réseau et sécurité. MISSIONS PRINCIPALES : Développer et maintenir des API d’automatisation pour les services réseau et sécurité. Créer des portails d’accès aux API pour utilisateurs internes et clients (profil fullstack). Réaliser les tests unitaires et d’intégration et assurer la mise en production. Contribuer à l’automatisation et la fiabilisation des processus existants. Participer aux revues de code, à la veille technique et aux présentations techniques. Collaborer avec les équipes de développement pour intégrer les meilleures pratiques. Intervenir sur l’ensemble des environnements, de l’intégration à la production.
Freelance

Mission freelance
Ingénieur DevOps

JobiStart
Publiée le
DevOps
Google Cloud Platform (GCP)
Python

1 an
400-450 €
Île-de-France, France
Administrer et exploiter les environnements cloud (AWS, GCP) et Kubernetes . Mettre en place et optimiser la scalabilité des applications (HPA). Surveiller et améliorer les performances et la disponibilité des services. Assurer la sécurité des infrastructures cloud et des clusters Kubernetes. Concevoir, maintenir et faire évoluer les pipelines CI/CD . Automatiser les déploiements et la gestion de l’infrastructure ( IaC / GitOps ). Garantir le respect des SLA et appliquer les pratiques SRE (monitoring, alerting, gestion d’incidents). Gérer la mise en cache et la diffusion de contenu via CDN . Participer à la conception d’ architectures cloud natives , résilientes et distribuées. Contribuer à l’ amélioration continue des plateformes et des processus DevOps.
Freelance

Mission freelance
Consultant DevOps Senior Cloud (AWS/Azure) - Anglais Courant

LINKWAY
Publiée le
Ansible
AWS Cloud
AWS CloudFormation

3 mois
400-550 €
75017, Paris, Île-de-France
La mission consiste à intégrer une équipe d'infrastructure critique en tant que Consultant DevOps Senior. L'objectif est d'assurer le maintien en condition opérationnelle, l'évolution et la sécurité des environnements Cloud (AWS ou Azure) dans un contexte technique exigeant. Le consultant aura pour responsabilité première la gestion intégrale des pipelines CI/CD. Il s'agira de concevoir, implémenter et maintenir des chaines d'intégration et de déploiement continu pour automatiser les processus de build, de test et de release. Une expertise spécifique est requise sur l'automatisation liée aux systèmes de fichiers de stockage (storage fileshare). Le volet Infrastructure as Code (IaC) constitue une part majeure de l'activité. Le consultant devra utiliser Terraform ou CloudFormation pour gérer le provisionnement et la configuration de l'infrastructure via le code. Il devra s'assurer que l'architecture est "scalable" afin de répondre efficacement aux variations de charge. L'automatisation des tâches récurrentes et complexes passera par une maîtrise avancée du scripting, notamment via Python et Ansible. En matière d'observabilité, le consultant mettra en œuvre des solutions de monitoring et de logging pour suivre la performance des systèmes en temps réel. Il devra analyser les logs de manière proactive pour identifier les goulots d'étranglement et résoudre les incidents avant qu'ils n'impactent les services. La sécurité (DevSecOps) doit être nativement intégrée dans les pipelines. Le consultant appliquera les pratiques de sécurité et les contrôles de conformité automatisés au sein du CI/CD. Il travaillera également sur la documentation technique : création de plans de tests, documentation de handover pour les équipes QA et experts, et rédaction de procédures claires pour assurer la pérennité des automatisations mises en place.
Freelance
CDI

Offre d'emploi
Data Engineer (H/F)

AVA2I
Publiée le
Amazon Redshift
Apache Airflow
API

3 ans
Île-de-France, France
Dans le cadre de la phase 2 de construction de sa plateforme Data Groupe, un acteur majeur du secteur de l’énergie recherche un Data Engineer expérimenté afin de renforcer son équipe Data. L’objectif est de consolider le socle technique existant, d’industrialiser les pipelines et de contribuer aux projets d’ingénierie Data & IA, tout en assurant le Run des assets déjà en production. 🎯 Missions principales 🔹 Build – Data Platform Participer à la construction et à l’évolution de la plateforme Data Concevoir et développer des pipelines de données Réaliser des POC et spiker le backlog Contribuer aux choix d’architecture en respectant les standards définis Optimiser les requêtes Amazon Redshift (point clé de la mission) 🔹 Run – Exploitation Assurer le maintien en conditions opérationnelles Superviser les traitements Garantir la performance et la stabilité des assets 🔹 Contribution IA Participer aux projets d’AI Engineering Collaborer avec les squads Data Métier Être force de proposition sur les solutions techniques 🔹 Optimisation des coûts Maîtriser les coûts des services cloud (dimension FinOps importante) 🛠 Environnement technique☁ Cloud AWS (Redshift, RDS, Lambda, SQS, SNS, API Gateway…) GCP 💾 Data & Big Data SQL / NoSQL Data Warehouse Spark / Hadoop / HDFS Scalabilité & clustering ⚙ Dev & DevOps Python APIs (FastAPI / Flask) Airflow Docker Terraform GitLab CI/CD Linux Git (code review, merge request) 📊 Outils analytiques (bonus) Tableau Dataiku Alteryx
Freelance

Mission freelance
Cloud Network & Automation Engineer AWS

Tenth Revolution Group
Publiée le
CI/CD
Datadog
Linux

3 mois
110-550 €
Paris, France
Vous ne serez pas là pour “maintenir des routeurs”. Votre mission : coder, automatiser, sécuriser et scaler une plateforme IoT critique utilisée par des centaines de collectivités. Vos responsabilités principales : Automatisation & développement : scripts et outils réseau en Python / TypeScript, workflows et APIs, IaC (Terraform/CDK), pipelines CI/CD (GitHub Actions). Réseau cloud & scalabilité : VPC, routing, firewalling, VPN, peering, diagnostic d’incidents réseau à grande échelle, gestion de routeurs IoT 4G/5G. Sécurité by design : rotation automatique de certificats, hardening cloud et réseau, conformité cloud souverain. Observabilité & fiabilité : dashboards, alerting, SLO, automatisation de la détection et remédiation d’incidents, amélioration de la fiabilité globale. ✨ Pourquoi ce poste est unique : plus de code que de configuration, impact direct sur un produit utilisé par des centaines de collectivités, sujets souveraineté, sécurité et performance, équipe qui automatise tout.
Freelance

Mission freelance
Directeur de projet

SKILL EXPERT
Publiée le
Agile Scrum
Apache NiFi
Cloud

1 an
630-660 €
Saint-Denis, Île-de-France
Contexte de la prestation La division CAP de MATHIS SNCF Réseau participe aux grands chantiers de modernisation du réseau ferroviaire. Il consiste à automatiser l'ensemble des processus de surveillance, maintenance, ingénierie . L'objectif est de tirer parti des opportunités offertes par les nouvelles technologies dans la collecte et le traitement des données pour réduire au maximum l'impact sur les circulations. Au sein de ce programme et en lien avec la gouvernance de la donnée, un socle centralisé d’ingestion, de stockage, de traitement et de mise à disposition des données provenant des différentes sources, à destination des différents consommateurs du programme, a été construit. En 2025-2026-2027, ce socle va évoluer selon les axes suivants : •Rapatriement d’une partie des services techniques, à ce jour hébergé chez IT Novem, dans le SI géré par la DGNUM •Déploiement de la plateforme data basée sur l’outil Databricks et les nouvelles fonctionnalités de gestion de la donnée (sql endpoint, unity Catalog, deltasharing, …) •Déploiement des plateformes d’ingestion basée sur l’outil Apache Nifi et les nouvelles fonctionnalités sur AKS. •Intégration des applications d’espace d’analyse, selon la cible d’architecture et les points précédents dans une cible globale •Extension du puits acquisition SNCF RESEAU vers des usages département MATHIS et plus en fonction des besoins DGNUM.
Freelance
CDI
CDD

Offre d'emploi
Expert technique infra /Virtualisation

Etixway
Publiée le
Ansible
API REST
Bash

6 mois
40k-50k €
400-490 €
Nantes, Pays de la Loire
Pour le compte de l'un de nos clients (secteur bancaire sur Nantes), nous somme à la recherche d'un Expert technique Infra/Virtualisation. Environnement et contexte mission : Au sein de l'équipe Virtualisation - Automatisation de la banque., vous serez en charge de l'administration et de l'évolution de plateformes de Virtualisation fortement automatisées. Le parc à gérer se compose d'environ 2400 ESX et plus de 70 000 VMs. Description du projet : La mission consiste à intégrer les processus opérationnels de l'équipe Virtualisation - Automatisation. Cette mission est soumise aux astreintes structurelles et aux interventions ponctuelles en HNO. Description de la prestation : Accompagner la croissance des métiers tout en optimisant les plateformes de Virtualisation dans un environnement complexe. Contribuer aux projets techniques et métiers en collaboration avec les équipes réseaux, stockage et DevOps. Elaborer et mettre en œuvre des solutions d'industrialisation et d'automatisation. Déployer et maintenir des infrastructures de virtualisation ESXi, NSX, VSAN. Traiter les incidents et les demandes. Résoudre les problèmes.
Freelance

Mission freelance
Lead DATA Analyst (Expertise retail &Ventes)

Atlas Connect
Publiée le
Agile Scrum
Azure
Big Data

2 ans
540-580 €
Paris, France
Profil recherché – Data Analyst Lead (Expert) Nous recherchons un Data Analyst Lead senior (10+ ans d’expérience) disposant d’une forte expertise en analyse et conception de solutions data, dans un environnement Grande Distribution . Le candidat devra : Posséder une expérience significative en Grande Distribution (impératif) Être capable de concevoir, challenger et sécuriser des solutions data complexes Avoir une solide maîtrise de la modélisation de données Être reconnu pour son leadership transverse Savoir accompagner et faire monter en compétence une équipe de Data Analysts Être à l’aise dans l’animation d’ateliers, de communautés et d’instances de gouvernance Comprendre les enjeux business retail et les usages métiers de la donnée 🛠 Compétences techniques attendues 🔴 Compétences impératives Connaissance opérationnelle de la Grande Distribution KPI : ventes, marge, stock, approvisionnement Pilotage de la performance magasin Logiques multienseignes Compréhension des usages métiers Analyse de données (niveau confirmé / expert) Modélisation de données (niveau confirmé / expert) Conception de solutions data SQL avancé 🟠 Compétences importantes Environnements Big Data (Databricks, Azure) Python / Scala Conception de modèles de données communs Structuration et alignement des KPI métiers Data Quality / Data Observability Documentation et bonnes pratiques de développement Expérience en méthodologie SAFe / Agile 🟢 Outils & Environnement technique SQL Databricks Microsoft Azure Python / Scala Power BI MicroStrategy PowerDesigner DataGalaxy SODA Jira 🎯 Compétences comportementales (soft skills) Leadership et posture de référent Capacité à challenger et arbitrer Excellente communication transverse (IT / Métiers) Esprit structurant et rigoureux Orientation solution et performance Capacité à vulgariser des sujets complexes
Freelance

Mission freelance
Business Analyst Junior Lyon

Codezys
Publiée le
Angular
API
Business Analysis

6 mois
280-300 €
Lyon, Auvergne-Rhône-Alpes
Objectif : Développement de la composante Datamart de la nouvelle CMDB. Technologies utilisées : Nautobot : Framework développé spécifiquement pour les CMDB de domaine, principalement dédié à la gestion des serveurs et des réseaux. CMDB fédérée : Solution interne conçue avec Python, Angular, containers, et Oracle. Datamart : Étude en cours afin de déterminer la technologie à adopter. Des compétences en outils de gestion de données (notamment PowerDesigner ou équivalent) et en solution Elasticsearch sont souhaitées. Missions du Business Analyst recherché : Analyse et communication : Recueillir et analyser les besoins des utilisateurs, définir les spécifications fonctionnelles et techniques. Documentation : Formaliser et hiérarchiser les besoins métier, rédiger les spécifications fonctionnelles et les cahiers des charges, et documenter les processus liés à la CMDB. Accompagnement et formation : Soutenir les équipes métier dans la mise en œuvre de la solution et contribuer à la création de supports de formation. Collaboration avec les équipes de développement : Travailler en étroite coordination avec les développeurs basés à Porto pour assurer une compréhension précise des besoins et garantir la conformité des solutions techniques. Date de démarrage : 15 février 2026. Lieu de réalisation de la mission : Lyon (merci d’indiquer précisément la localisation dans vos propositions). Déplacements à prévoir : oui — Paris, Strasbourg, Porto.
Freelance

Mission freelance
Administrateur VTOM

HAYS France
Publiée le
Apache
AWS Cloud
Linux

6 mois
400-450 €
Paris, France
La maîtrise de VTOM est indispensable : c’est la compétence clé de ce poste. Le consultant aura pour mission d’assurer le bon fonctionnement, la fiabilité et l’optimisation de toutes les chaînes d’ordonnancement. Il jouera un rôle central dans la coordination des traitements métiers, la maintenance des plateformes et l'accompagnement des équipes projets. Responsabilités principales Administrer et maintenir les serveurs VTOM Vous garantissez la stabilité, la performance et la disponibilité de l’outil. Configurer, optimiser et superviser les jobs VTOM Paramétrage des tâches Suivi des exécutions Correction des anomalies Développer et maintenir des scripts (Shell, Python, etc.) Ces scripts seront utilisés pour automatiser et orchestrer les traitements. Encapsuler les scripts métiers dans VTOM Vous transformez les besoins fonctionnels en jobs techniques fiables. Assurer la MCO des chaînes d’ordonnancement Analyse proactive Résolution d’incidents Optimisation continue Préparer et valider les mises en production Notamment via la télédistribution. Accompagner les équipes métiers et projets Vous les conseillez dans la rédaction de leurs plans d’ordonnancement et dans l’intégration optimale de leurs applications. Participer aux choix d’architecture technique Dans des environnements hybrides : datacenter, AWS, Azure. Contribuer à la documentation technique et au reporting Rédaction ou mise à jour des procédures Reporting mensuel d’activité Respect strict des règles de sécurité Environnement technique Systèmes : Unix (AIX / Solaris), Linux (Red Hat, Suse, Ubuntu…), Windows Cloud : AWS, Azure Bases de données : Oracle, SQL Server, PostgreSQL, Ingres Solaris, MongoDB, Redis, Couchbase Middleware : Apache, Tomcat, Weblogic, MQ, Tuxedo, CFT Outils DevOps : Ansible, Jenkins, Terraform, Docker, Kubernetes Supervision : Nagios, Datadog, Splunk
Freelance
CDI

Offre d'emploi
Développeur Summit (H/F)

STORM GROUP
Publiée le
C#
C/C++
Java

3 ans
55k-60k €
500-550 €
Île-de-France, France
Contexte : Expert IT API Summit, C/C++ Missions : -Intégré au sein de l'un de nos pôles Summit CORE, le MOE assurera toutes les évolutions/maintenances des modules internes autour du progiciel Summit (PNL Explain, Credit Entity, OST, SRM, STP, VALO...) -Support IT Dev uniquement Level 3 -Exécuter des tâches autour du DevSecOps sous la responsabilité du Tech Lead Périmètre fonctionnel : - Front / Middle Office - Produits taux, dérivés de taux et credit - P&L, Booking, trade wokflow/live cycle, MKT data - STP
Freelance

Mission freelance
Data Architecte AWS / Iceberg

Atlas Connect
Publiée le
Apache Airflow
Apache Spark
API

12 mois
590-600 €
Île-de-France, France
Data Engineer Senior afin d’accompagner la conception, l’industrialisation et l’évolution de ses solutions data. Le prestataire interviendra sur les sujets d’architecture, de modélisation, d’optimisation des pipelines et contribuera activement à la stratégie Lakehouse de l’entreprise. Missions principales Concevoir, développer et optimiser des pipelines de données à grande échelle. Mettre en œuvre des flux batch , streaming et ingestion via API . Structurer les transformations selon un modèle Médaillon (Bronze / Silver / Gold). Développer et industrialiser les pipelines via DBT , Spark et Iceberg . Contribuer à l’évolution de l’architecture Lakehouse de l’entreprise. Déployer et maintenir les pipelines dans un environnement cloud (AWS ou équivalent). Orchestrer les workflows ETL/ELT via Airflow . Mettre en œuvre l’ Infrastructure as Code ( Terraform ). Exécuter les traitements dans des environnements conteneurisés ( Docker , Kubernetes ). Garantir la disponibilité, la supervision et l’observabilité des traitements. Participer à la gestion des incidents et à l’amélioration continue. Définir et mettre en œuvre les règles de qualité des données (tests, validation, contrôles automatisés). Documenter les architectures, pipelines et règles métier. Garantir la conformité des flux, notamment dans le cadre RGPD .
Freelance

Mission freelance
ingénieur Poste de travail Mac

QUALIS ESN
Publiée le
Bash
macOS
Python

7 mois
310-410 €
Guyancourt, Île-de-France
Mission principale : Assurer le Maintien en Conditions Opérationnelles (MCO) et le Maintien en Conditions de Sécurité (MCS) de la solution MOWE macOS (Mobile Workspace for Enterprise) basée sur Workspace ONE, garantissant la disponibilité, la performance et la conformité des postes macOS dans l’environnement de l’entreprise. __________ Responsabilités : • Administration et supervision de la plateforme Workspace ONE pour les environnements macOS. • Déploiement et configuration des profils, politiques de sécurité et applications sur les postes macOS. • Gestion des incidents et problèmes liés à la solution MOWE macOS (diagnostic, résolution, escalade si nécessaire). • Mise en œuvre des mises à jour (OS, applications, profils) en respectant les standards de sécurité et de compatibilité. • Suivi des vulnérabilités et application des correctifs pour garantir la conformité réglementaire et interne. • Automatisation des tâches (scripts, packaging, intégration) pour optimiser les opérations. • Documentation technique et mise à jour des procédures. • Collaboration avec les équipes sécurité, réseau et support pour assurer la cohérence des politiques. • Veille technologique sur macOS, Workspace ONE et les solutions EMM/UEM. __________ Compétences techniques : • Maîtrise de macOS (administration, configuration avancée). • Expertise sur Workspace ONE UEM (policies, profiles, enrollment, compliance). • Connaissance des protocoles MDM, Apple Business Manager, DEP, VPP. • Compétences en scripting (Bash, Python) pour automatisation. • Notions de sécurité des systèmes (chiffrement, certificats, authentification). • Bonne compréhension des réseaux (VPN, proxy, firewall) et intégration avec macOS.
730 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous