Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 724 résultats.
Freelance
CDI

Offre d'emploi
📩 Data Engineer / DevOps – Data Platform

Gentis Recruitment SAS
Publiée le
Apache Kafka
Apache Spark
AWS Cloud

1 an
Paris, France
Contexte de la mission Dans le cadre du développement d’une Data Marketplace interne , notre client construit une plateforme centralisant l’ensemble du parcours data (discovery, qualité, gouvernance, transformation, monitoring, BI). Déjà déployée auprès de premiers utilisateurs, la plateforme entre dans une phase de scalabilité et d’industrialisation avec un objectif de déploiement à grande échelle (plusieurs milliers d’utilisateurs à l’international). Vous intégrerez une équipe produit data avec des enjeux forts autour de la performance, de la qualité des données et de l’expérience utilisateur. Objectifs & livrables Développement et optimisation de pipelines data complexes Mise en place de process de data quality Contribution à une architecture scalable et modulaire Industrialisation des flux (CI/CD, automatisation) Documentation technique et participation aux choix d’architecture Missions principales Data Engineering Développer et maintenir des pipelines (batch & streaming) Gérer l’ingestion multi-sources (API, bases, streaming) Optimiser les performances (latence, volumétrie, retry) Implémenter des contrôles de qualité et de traçabilité Backend & Architecture Concevoir une architecture data modulaire et scalable Développer des composants réutilisables Garantir la maintenabilité et la qualité du code DevOps & Industrialisation Mise en place de pipelines CI/CD Automatisation des déploiements Gestion des environnements cloud Collaboration Travail étroit avec PO, data engineers et équipes métiers Participation aux rituels agiles et code reviews Stack technique Data Python, Scala Spark Kafka / Kinesis / EventHub Airflow, DBT Cloud AWS (Lambda, Glue, Step Functions, Redshift, DynamoDB) Azure (Functions, CosmosDB) DevOps Docker, Kubernetes CI/CD (GitLab CI, Jenkins, GitHub Actions) Terraform, Ansible Observabilité Prometheus, Grafana, ELK, Datadog
Freelance
CDI

Offre d'emploi
Ingénieur DevOps AWS - Région PACA - Habilitable

Groupe Aptenia
Publiée le
AWS Cloud
Datadog
Gitlab

6 mois
Provence-Alpes-Côte d'Azur, France
Nous recherchons un Ingénieur DevOps Cloud orienté AWS pour intervenir sur le développement et l’évolution d’une plateforme interne utilisée par des équipes métiers et techniques . Vous participerez à la conception et à l’optimisation des infrastructures cloud, à l’automatisation des environnements et au développement d’outils associés. L’environnement technique inclut AWS, Terraform, Datadog, Python et Vue.js . Une sensibilité aux sujets liés à l’IA est appréciée. Le poste requiert un bon esprit collaboratif , une capacité à comprendre les enjeux métier et une forte curiosité technique.
Freelance

Mission freelance
Mission PostGreSQL et REDIS

Codezys
Publiée le
Ansible
Bash
Greenplum

12 mois
Niort, Nouvelle-Aquitaine
Contexte de la mission La mission se divise en plusieurs phases, à commencer par la première, dédiée aux habilitations et à la gestion des environnements. 1 phase : Habilitations Gestion des comptes utilisateur, comprenant la création de comptes techniques. Attribution des droits utilisateurs à la maille de base / selon le schéma défini. Analyse des problématiques liées aux droits et mise en place des correctifs nécessaires. Actualisation des environments depuis une sauvegarde Migration de schémas ou de tables vers un environnement de développement, préproduction ou production. Utilisation d' ptech et de scripts Python pour cette opération. Capacité à faire évoluer le code existant si requis. Copie de données Transfert de tables vers des environnements de développement, préproduction ou production. Utilisation de fonctions PL/pgSQL . Possibilité de faire évoluer le code existant si nécessaire. Création ou mise à jour de sauvegardes. Modification ou création de fichiers de configuration YAML. Paramétrage en base via SQL, avec utilisation éventuelle de Git pour la gestion des versions. Gestion de bases et schémas : création et décommissionnement Utilisation d' ptech et de fonctions PL/pgSQL . Analyse de l’impact lors de la dépose ou modification de ces composants. Vérification que les droits sont correctement configurés après chaque opération. Compétences techniques spécifiques PostgreSQL : maîtrise avancée incluant la réplication, Patroni et PgBackRest (niveau expert). Scripts et automatisation : développement en Bash, SQL, PL/pgSQL, Python, Ansible (niveau avancé/expert). Redis : connaissance approfondie de l’infrastructure Redis HA, Sentinel, et capacité à l’implémenter (expérience impérative). Administration de bases de données : maîtrise des fondamentaux. Administration système Linux : connaissance des principes de base. Greenplum : connaissance de base ou volonté d’apprentissage.
Freelance
CDI

Offre d'emploi
Ingénieur de Production Linux (H/F)

AVA2I
Publiée le
Ansible
Bash
Jenkins

3 ans
40k-45k €
400-550 €
Île-de-France, France
1. Contexte Dans le cadre du renforcement de nos équipes IT, nous recherchons un Ingénieur de Production orienté Linux capable d’intervenir sur des environnements complexes, multi-applicatifs et fortement automatisés. 2. Missions principales Assurer le maintien en condition opérationnelle (MCO) des applications en production Gérer et superviser plusieurs applications critiques Participer aux mises en production et aux déploiements Diagnostiquer et résoudre les incidents de production Mettre en place et améliorer les outils d’automatisation Rédiger et maintenir la documentation technique Participer à l’ amélioration continue des processus de production Contribuer aux projets de migration et d’évolution des environnements techniques 3. Environnement technique Systèmes : Linux (maîtrise indispensable) Middleware / Messaging : MQ (type IBM MQ ou équivalent) Outils d’automatisation : Ansible Jenkins Scripting : Bash / Shell Python 4. Compétences requises Techniques Solide expertise des environnements Linux Bonnes connaissances des middlewares (MQ) Maîtrise des outils d’ automatisation (Ansible, Jenkins) Excellentes compétences en scripting Bash/Shell Bonne maîtrise de Python : Développement de scripts Lecture et maintenance de code existant Expérience en migration Python 2 vers Python 3 Fonctionnelles Capacité à gérer plusieurs applications simultanément Analyse et résolution de problèmes complexes Bonne compréhension des environnements de production 5. Profil recherché Formation Bac+5 en informatique ou équivalent Expérience significative en production informatique / exploitation Rigueur, autonomie et sens des responsabilités Bon esprit d’analyse et de communication Capacité à travailler en équipe et en environnement exigeant
Freelance
CDD

Offre d'emploi
Data Engineer H/F

SMARTPOINT
Publiée le
Apache Kafka
Apache Spark
Elasticsearch

6 mois
50k-55k €
400-410 €
Île-de-France, France
Dans le cadre du développement de nos activités, nous recherchons un(e) Data Engineer pour renforcer l'équipe technique de notre client et intervenir sur des projets à forte valeur ajoutée autour de la data. En tant que Data Engineer, vous serez amené(e) à : Assurer le suivi technique des projets : suivi des développements, réalisation de revues de code et respect des bonnes pratiques Gérer les incidents techniques : analyse, résolution et mise en production des correctifs Proposer des améliorations techniques : identification des axes d’évolution et optimisation des performances et de la stabilité des applications Garantir la qualité du code : mise en place de tests unitaires et gestion de l’intégration continue Assurer la documentation technique : maintien à jour de l’architecture et de la documentation
CDI
Freelance

Offre d'emploi
Ingénieur Support Applicatif en Finance de marché H/F

cty
Publiée le
Finance
JIRA
Powershell

3 ans
40k-70k €
400-550 €
Paris, France
Nous recherchons un (e) Ingénieur Support pour rejoindre notre équipe et accompagner nos utilisateurs sur des applications clés du secteur financier. Vos missions Assurer le support technique de niveau 2/3 sur nos applications internes. Analyser, diagnostiquer et résoudre les incidents techniques. Effectuer des requêtes SQL , analyser les données et identifier les anomalies. Automatiser certaines tâches via du scripting Python. Collaborer avec les équipes développement, produits et métiers financiers Rédiger la documentation technique et contribuer à l’amélioration des processus.
Freelance
CDI

Offre d'emploi
📩 Azure Platform Engineer – Data & Analytics Platform

Gentis Recruitment SAS
Publiée le
Azure
Azure Kubernetes Service (AKS)
CI/CD

3 mois
40k-45k €
300-400 €
Paris, France
Contexte de la mission Dans le cadre du développement d’une plateforme data cloud à l’échelle groupe, notre client recherche un Azure Platform Engineer pour renforcer une équipe en charge de la conception, du déploiement et de l’exploitation de la plateforme. Les enjeux sont forts autour de : la scalabilité la gouvernance des données la sécurité la performance des traitements L’environnement est majoritairement Azure , avec une ouverture possible vers du multi-cloud. Vos missions Infrastructure & Cloud (Azure) Développement et maintenance d’infrastructures via Terraform / Bicep / ARM Gestion des ressources Azure : ADLS Gen2, Blob Storage Réseaux (VNet, NSG, Private Endpoints) Gestion des environnements DEV / TEST / PROD Data Platform Administration et exploitation d’un Data Lake Azure Mise en place des règles de gouvernance et sécurité : Azure AD / RBAC Policies / Purview Optimisation des performances et des coûts CI/CD & automatisation Mise en place et maintenance de pipelines CI/CD Automatisation des déploiements (infra + data + services) Environnements : Azure DevOps / GitHub Actions Développement & APIs Développement de microservices en Python Création d’APIs REST Intégration avec les services Azure (Functions, Event Hub…) Containers & orchestration Déploiement de services containerisés (Docker) Orchestration via AKS / Azure Container Apps Monitoring & fiabilité Mise en place de la supervision : Azure Monitor Log Analytics Application Insights Suivi des performances et de la disponibilité Collaboration Rédaction de documentation technique Interaction avec équipes data, dev et métiers Participation aux rituels Agile Stack technique Cloud : Azure Data : ADLS Gen2, Databricks, Synapse IaC : Terraform, Bicep, ARM CI/CD : Azure DevOps, GitHub Actions Containers : Docker, AKS Langage : Python Streaming : Event Hub, Service Bus
Freelance
CDI

Offre d'emploi
Data Engineer GCP

CAT-AMANIA
Publiée le
Apache Airflow
BigQuery
Data Engineering

1 an
40k-50k €
350-400 €
Lille, Hauts-de-France
Vous serez intégré dans une équipe pluridisciplinaire (Data Engineer, DevSecFinOps) Vous travaillerez sur un use case dédié en collaboration avec les équipes Data (tech lead, gouvernance et architectes). Vous devrez avoir une approche FINOPS (Maîtrise et diminution des coûts) BUILD - Interlocuteur lors de la contribution à des projets dans le domaine de la Supply - Conception de solutions en respectant les normes et framework data - Développement, Modélisation sous la gouvernance de l'architecture data - Contribution au développement d'appli - Tests - Reporting RUN : - Maintien en condition opérationnelle de notre périmètre de responsabilité (4 référentiels de données opérationnels (RDO) multi sourceurs, 6 applications) - gestion des incidents - mise en production (via Git) - suivi de flux EXPERTISE : - Montée en compétence sur notre SI et notre domaine de responsabilité
Freelance

Mission freelance
Expert Kafka - Elastic H/F

AGH CONSULTING
Publiée le
Ansible
Apache Kafka
CI/CD

6 mois
300-480 €
Niort, Nouvelle-Aquitaine
Dans le cadre du développement et de l'industrialisation d'une plateforme de streaming de données, nous recherchons pour notre client, un(e) Expert Kafka capable d'accompagner les équipes techniques dans la mise en place, l'automatisation et l'optimisation de la plateforme. Le consultant interviendra au sein d'une squad en collaboration étroite avec les équipes internes afin d'améliorer les pratiques d'exploitation, d'industrialisation et de supervision de l'environnement. A ce titre, vos principales missions seront les suivantes : -Accompagner les équipes dans le choix et l'utilisation des solutions techniques -Participer à l'industrialisation et l'automatisation de la plateforme Kafka -Contribuer aux études techniques et développements -Définir et faire appliquer les normes, méthodes et outils -Assurer une veille technologique et informer sur les évolutions Livrables attendus -Production de dossiers d'expertise -Mise à jour des dossiers d'architecture -Mise à jour des éléments de suivi dans JIRA -Production de livrables techniques et référentiels d'expertise
Freelance

Mission freelance
Expert Linux ET Stockage

AVALIANCE
Publiée le
Administration linux
Linux
Python

3 ans
400-700 €
Paris, France
Vous rejoindrez une équipe en charge des services infrastructure "Managed compute", "Development & Services" et "Cloud”. Au sein de notre équipe Infrastructure, vous serez le garant de production et du maintien en condition opérationnelle de nos systèmes : •Référent sur la partie opérationnelle de notre périmètre (Daily, Gestion des priorités, compréhension des demandes utilisateurs) •MCO de notre parc de stockage entreprise (SAN + NAS) •MCO sur notre parc de virtualisation vmware •Déploiement de serveurs ou vm Linux
Freelance

Mission freelance
📩 Data Engineer Microsoft Fabric

Gentis Recruitment SAS
Publiée le
Azure
Azure Data Factory
CI/CD

12 mois
Paris, France
Contexte Dans le cadre de la modernisation de sa plateforme data, un grand acteur du secteur de l’énergie renforce ses équipes data pour accompagner le déploiement de solutions basées sur Microsoft Fabric . L’objectif est de structurer une architecture data moderne, scalable et orientée métier, afin de répondre aux enjeux de valorisation des données (trading, consommation, production, performance énergétique). Missions Concevoir et développer des pipelines de données sur Microsoft Fabric Participer à la mise en place d’une architecture data (Lakehouse, Medallion Architecture) Intégrer et transformer des données issues de multiples sources (IoT, marché, SI internes) Optimiser les performances et la qualité des données (data quality, monitoring) Collaborer avec les équipes métiers (trading, risk, opérations) pour répondre aux besoins analytiques Contribuer à l’industrialisation des traitements (CI/CD, bonnes pratiques) Stack technique Microsoft Fabric (OneLake, Data Factory, Synapse, Power BI) Azure (Data Platform) Python / PySpark / SQL Data Lake / Lakehouse Git / CI-CD
Freelance

Mission freelance
Generative AI Architect

Phaidon London- Glocomms
Publiée le
Agent IA
AI
AWS Cloud

6 mois
400-550 €
Paris, France
Définir et mettre en œuvre l'architecture de notre plateforme d'IA générative/agentique. Collaborer avec les ingénieurs IA et les stimuler intellectuellement pour industrialiser l'environnement d'IA agentique. Élaborer une documentation d'architecture détaillée et des schémas pour les cas d'utilisation de la plateforme. Former et développer les compétences de l'équipe d'architecture informatique (9 architectes) sur les technologies, les méthodologies et les évolutions de l'écosystème de l'IA générative. Animer des ateliers (Design Thinking, Cartographie d'impact, Analyse de la proposition de valeur) avec les parties prenantes des services informatiques, métiers, risques et conformité. Communiquer clairement des sujets techniques complexes à un public non technique. Produire une documentation de haute qualité et travailler de manière autonome dans un environnement matriciel.
CDI
Freelance

Offre d'emploi
MLOps/LLMOps - Lille (Hybride)

KUBE Partners S.L. / Pixie Services
Publiée le
CI/CD
Docker
FastAPI

1 an
40k-55k €
400-500 €
Lille, Hauts-de-France
🧠 Intitulé du poste Machine Learning Engineer – MLOps / IA / GCP 🎯 Mission principale Assurer l’ industrialisation, le déploiement et l’exploitation en production de solutions de Machine Learning , dans un environnement cloud (Google Cloud Platform), en intégrant des pratiques avancées de MLOps, CI/CD et data engineering . 🚀 Responsabilités clés Déployer et maintenir des applications ML en production Concevoir et orchestrer des pipelines de données Automatiser les déploiements ML Développer des solutions de monitoring et observabilité des modèles Participer à l’ intégration des modèles ML dans les produits digitaux Collaborer avec les data scientist pour transformer les cas d’usage en solutions industrialisées, scalables et robustes Contribuer à la stratégie ML et à la roadmap technique Promouvoir les bonnes pratiques MLOps et software engineering Participer au coaching et mentoring des équipes 🛠️ Compétences techniques requises (impératives) ☁️ GCP 🐍 Python +++ 🤖 Machine Learning / IA ⚙️ MLOps/LLM
Freelance

Mission freelance
Data Engineer -CLOUD GOOGLE-

DEVIK CONSULTING
Publiée le
Apache Airflow
BigQuery
Google Cloud Platform (GCP)

1 an
400-650 €
Paris, France
Description Pour le compte de notre client grand compte, nous recherchons un Expert Data Engineer Spécialisé sur Google Cloud afin de rejoindre la Squad data pour le pilotage commercial Tâches principales Développement de pipeline de données sur Cloud Composer / Airflow Optimisation des performances et coûts des traitements sur GCP Participation aux choix d'outils et des solutions techniques sur GCP et développement de nouvelles application Modélisation des données sur BigQuery Maintenir l'existant en condition opérationnelle Préparer et mettre en œuvre l’interopérabilité avec de nouveaux systèmes opérationnels Proposer des simplifications et/ou optimisations selon les normes internes Compétences demandées GCP : Confirmé Big Query : Expert Base de donnée : Confirmé Python : confirmé Lieu : Paris
Freelance
CDI

Offre d'emploi
Architecte Data

R&S TELECOM
Publiée le
Apache Hive
Cloudera
Hadoop

1 mois
Lyon, Auvergne-Rhône-Alpes
Le profil interviendra pour définir, concevoir et accomagner la construction de l'architecture cible Data. Ses missions principales seront de : Définir l’architecture cible Data : concevoir l’architecture Data cible n, alignée avec la stratégie globale Data et les principes Data‑Centric et définir les patterns d’intégration et les couches fonctionnelles de la future plateforme (ingestion, traitement, stockage, exposition). Concevoir l’architecture de la nouvelle plateforme Data : concevoir l’architecture technique globale de la plateforme, en intégrant l’écosystème existant (Teradata, Hadoop) et la stratégie d’évolution (cloud ou on‑prem, gouvernance, scalabilité). Proposer la trajectoire d’évolution permettant la transition vers la nouvelle plateforme (stratégie de migration, coexistence, phasage). Modélisation des données et harmonisation : concevoir les modèles de données harmonisés (modèle cible, datamarts, vues métiers, glossary). Définir les principes de modélisation à appliquer selon les usages : analytique, opérationnel, data products. Data Products & accompagnement métiers : accompagner les équipes métiers dans la conception et la structuration des data products. Garantir la cohérence des data products avec les modèles de données, les standards d’intégration et l’architecture cible. Définition et formalisation des standards Data : définir les standards d’intégration, de transformation, de stockage et d’exposition des données. Proposer et formaliser les bonnes pratiques autour des outils de l’écosystème (outils d’ingestion, qualité, orchestrateurs, catalogage, gouvernance).
Freelance

Mission freelance
Fullstack developer (.NET/Angular)

Codezys
Publiée le
.NET
Angular
AngularJS

1 mois
450-500 €
Aubervilliers, Île-de-France
Contexte de la mission Dans le cadre du projet Factor Acceleration , vous rejoignez l'équipe Factor, composée d’environ 10 collaborateurs, en tant que catalyseur de productivité. Votre mission principale consiste à lever le goulet d'étranglement lié à la réécriture du frontend en Angular, actuellement estimée à 300 jours, en s’appuyant sur des méthodes de développement assistées par des technologies d’IA de nouvelle génération. Objectifs et livrables Opérant en mode Agile-Scrum, vous adoptez une approche non conventionnelle de développement. Vous pilotez des outils d'IA afin de produire un code de haute qualité à une vitesse accrue, à travers plusieurs axes : Accélération (legacy remédiation) : Industrialiser la conversion des interfaces legacy et Angular v15 vers Angular v21, en utilisant des prompts et des agents de migration. Ensuite, contribuer à la réécriture des environ 1300 procédures stockées en base de données vers un ORM moderne. Vibe Coding / BMAD : Soutenir l’équipe dans l’adoption de nouvelles méthodes de développement pour transformer rapidement, via des itérations assistées par IA, les spécifications en composants fonctionnels sur la nouvelle stack technologique. Automatisation de la qualité : Exploiter l’IA pour générer automatiquement la couverture de tests unitaires (TU) et de tests de bout en bout (E2E). Agentic Workflows : Déployer des agents connectés à la base de code pour automatiser la revue de code, la remédiation de dette technique, la correction de bugs, et à terme, la génération automatique des User Stories. Livrables Composants Angular "AI-generated" : Développement de composants modulaires, optimisés et documentés, créés en collaboration avec des outils d’IA. Harnais de tests automatisés : Mise en place d’une couverture accrue par la création massive de tests unitaires et d’intégration, assurant la stabilité lors de la refonte. Bibliothèque de Prompts et d’Agents : Documentation exhaustive des méthodes d’accélération, facilitant la montée en compétences du reste de l’équipe. CI/CD augmentée : Contribution à l’enrichissement des pipelines d’intégration continue afin d’intégrer des étapes de vérification automatique par IA.
724 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous