Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 5 111 résultats.
Freelance

Mission freelance
Architecte Data

Cherry Pick
Publiée le
AWS Cloud
Google Cloud Platform (GCP)

12 mois
Paris, France
MISSION Garant des directives architecturales : Assurer le respect des standards définis. Conception des solutions de données : Responsable du design technique des solutions data. Lien technologique externe : Assurer la coordination avec les équipes data extérieures. Animation technique : Fédérer et animer la communauté technique interne. IMPLICATION ET RATTACHEMENT Disponibilité : 100 % (Temps plein). Ligne hiérarchique : Lead Data Architect. Objectifs clés : Maintenir l'architecture du paysage Data. Garantir la valeur technologique des solutions. Assurer le suivi de la dette technique sur l'ensemble du périmètre Data. COMPÉTENCES REQUISES Expertise Technique Expérience : Au moins 5 ans d'expérience en architecture de données. Big Data : Maîtrise indispensable des environnements Big Data (EMR, Spark, etc.). Plateformes Cloud : Expérience impérative sur GCP (BigQuery) ou AWS (Redshift/Athena/S3). Design d'Architecture : Solide expérience dans la conception et la mise en œuvre de briques technologiques (Collecte, Stockage, Traitement, Visualisation). Certifications : Bonne connaissance des architectures Cloud, idéalement certifié sur un ou plusieurs environnements (GCP, Azure, AWS). DevOps : Maîtrise des processus et outils de développement modernes (Git, CI/CD, etc.). Atout : Une expérience sur l'approche Data Mesh est un vrai plus. Soft Skills (Savoir-être) Rigueur, proactivité et sens de l'organisation. Capacité de synthèse et aptitude à vulgariser des sujets complexes. Empathie et fortes capacités de coopération (profil "intégrateur"). Anglais : Courant (indispensable). RESPONSABILITÉS CLÉS Garant des directives architecturales Soutenir la stratégie de données définie par la Data Team. Piloter et porter la roadmap technique de la plateforme Data. Apporter son expertise pour aider les parties prenantes à suivre la stratégie Data globale. Évaluer et optimiser les architectures de données existantes. Concevoir et déployer les briques technologiques (Collecte, Stockage, Processing, Visualisation). Veiller au respect des principes d'architecture, de sécurité et de confidentialité des données établis au niveau du groupe. Suivre et soutenir la stratégie NFR (Exigences Non-Fonctionnelles) en lien avec les Tech Leads de chaque équipe produit. Documenter l'architecture de manière exhaustive. Garantir la cohérence technique transverse (domaines et régions). Animation de la communauté technique Faciliter et animer les ateliers (workshops) communautaires. Garantir la cohérence des choix internes avec les technologies du marché. Lien technologique avec les équipes externes Assurer une veille technologique constante sur le marché. Être propriétaire de la cartographie technologique. Fournir des benchmarks et des recommandations technologiques. Assurer le relais des politiques d'Architecture, Sécurité et Confidentialité du Groupe. Apporter une vision globale et contextuelle de l'écosystème de l'entreprise.
Freelance

Mission freelance
Ingénieur(e) Système Azure

emagine Consulting SARL
Publiée le
Azure
Microsoft Windows
VMware

3 ans
Île-de-France, France
· Assurer le support de niveau 3 pour les incidents liés à l'infrastructure de nos applications étant hébergés sur nos cloud provider (Azure et GCP) · Suivre le backlog d’incidents et de demandes via l’outil ServiceNow · Qualification des demandes avant soumission à nos infogérant cloud. · Suivi des infogérant cloud "techniquement N3" pour les demandes d'incidents et de changements. · Rédiger et maintenir la documentation technique à jour. · Automatiser les tâches d'administration système. · Réaliser la qualification et suivi des remédiations de sécurité (CVE, Cloud, etc.) en lien avec nos infogérant · Réaliser les demandes d’ouvertures de flux réseau vers notre partenaire réseau · Prendre en charge les demandes urgente (installation de VM, test de reprise après sinistre isolé
Freelance

Mission freelance
Developpeur ETL sous Synapse

ALLEGIS GROUP
Publiée le
Azure Synapse
Qlikview

36 mois
400-500 €
Angoulême, Nouvelle-Aquitaine
Description : Nous recherchons un Testeur/Développeur ETL spécialisé en Business Intelligence pour rejoindre notre équipe SI BI au sein d'une mutuelle. Vous serez en charge de la qualité et du développement des processus d'alimentation de notre Data Warehouse, en garantissant la fiabilité et la cohérence des données dans un environnement assurantiel. Missions : - Concevoir, réaliser et exécuter des tests fonctionnels de bout en bout sur les développements ETL - Assurer les tests de non-régression de bout en bout sur les flux d'alimentation du Data Warehouse - Développer et maintenir des processus ETL pour l'alimentation du DWH - Participer au projet d'agrégation des indicateurs métier - Contribuer à l'intégration des données des portails dans le DWH - Assurer l'intégration des données de téléphonie dans le Data Warehouse - Identifier et documenter les anomalies détectées - Collaborer avec les équipes métier et IT pour garantir la qualité des livrables - Etablir les plans de recette, PV de recette conformément à méthodologie définie
Freelance

Mission freelance
Data Custodian

MLMCONSEIL
Publiée le
Data governance

6 mois
100-500 €
Nantes, Pays de la Loire
Pour mon client basé à Nantes , je suis à la recherche d'un Data Custodian : En tant que Data Custodian, on assure la visibilité, la qualité et la disponibilité des données issues du RAW, tout au long de la chaîne de traitement au sein de la Plateforme. On accompagne les équipes dans l’identification et l’accès aux données pertinentes, en facilitant la compréhension des structures et des flux, ainsi que la documentation des sources pertinentes. Capacité à travailler dans un framework Agile Capacité à tracer les flux et documenter les transformations Connaissance des sources et du RAW Anticipation des effets des évolutions des sources sur les socles Le Data Custodian doit avoir un passif de Data Engineer/LeadTech Data ou Data Steward.
Freelance
CDI

Offre d'emploi
Développeur Back-End Senior

VISIAN
Publiée le
AWS Cloud
Java
Spring

1 an
40k-45k €
150-450 €
Lille, Hauts-de-France
Contexte L'espace client est une interface WEB utilisée pour : Réserver des sillons Gérer la maintenance Suivre l'avancement et les interactions avec une infrastructure ferroviaire majeure Le besoin concerne un renfort Back‑End sénior pour retravailler l'affichage des services mis à disposition. Les services seront reçus en mode push, automatiquement, en fonction de l'étape du processus. Description Le prestataire interviendra pour : Développer et adapter les évolutions nécessaires côté Back‑End Contribuer à la qualité, à la sécurité et aux performances du code Participer aux rituels et échanges techniques avec l'équipe interne Intégrer les tests automatisés dans les pipelines existants Documenter les évolutions réalisées Faire preuve d'une très grande adaptabilité et être opérationnel très rapidement Livrables Développer des solutions backend de qualité : Conception, développement et maintenance des fonctionnalités backend. Contribution à la vie de l'équipe travaillant dans un cadre Agile. Participation, dans le cadre des principes DEVOPS, au déploiement et au suivi de votre application. Au sein d'un écosystème de projets variés, être force de proposition et au cœur de l'amélioration continue.
Freelance

Mission freelance
Expert Stratégie et Gouvernance Cloud (h/f)

emagine Consulting SARL
Publiée le
Azure
Gouvernance
Stratégie

6 mois
Hauts-de-Seine, France
Résumé : La mission principale du Consultant Stratégie et Gouvernance Cloud est de définir et d'implémenter une stratégie de gouvernance des services cloud , en se concentrant particulièrement sur Azure et en intégrant des solutions hybrides et multicloud (Azure/ AWS). Responsabilités : Définir le scope de couverture du cloud (IaaS, PaaS, SaaS, etc.) Comprendre la stratégie cloud de l’entreprise Réaliser des ateliers d’évaluation de la maturité sur différentes thématiques Formaliser les bonnes pratiques d’utilisation des services cloud Rédiger et faire valider une politique d’utilisation des services cloud Rédiger et faire valider une politique de gouvernance cloud Définir le RACI Identifier les impacts des politiques sur la documentation et les processus existants Identifier les changements d’organisation à anticiper (renforcement capacitaire, programme de formation, etc.) Fournir des recommandations pour l’intégration des nouvelles politiques Exigences Clés : 5+ ans d’expérience en cloud Expertise des services cloud Azure et AWS Background technique en sécurité (réseau, application, système, bases de données) Atouts : Certifications cloud Aisance en communication avec des interlocuteurs de niveau directeur Autres Détails : Durée de la mission : T1 2026, possibilité de débordement sur T2 Date de démarrage estimée : 16/03/2026 Localisation : Hauts-de-Seine.
Freelance

Mission freelance
Data Gouvernance / Data Custodian – Paris / Nantes

FRENCHOPS SERVICES
Publiée le
Data governance
Data Lake
Data management

1 an
Paris, France
Nous recherchons deux profils complémentaires : Expert Data Gouvernance : définition du cadre stratégique et de la gouvernance des données Data Custodian : mise en œuvre opérationnelle et supervision des données Ces deux rôles interviennent sur la visibilité, la qualité et la fiabilité des données tout au long de la chaîne de traitement. Expert Data Gouvernance Objectif Définir le cadre de gouvernance des données et apporter la vision stratégique permettant de structurer les pratiques autour de la plateforme data. Responsabilités Définir le cadre de gouvernance des données Structurer les rôles et responsabilités autour de la data Accompagner les équipes métiers et techniques Apporter une vision stratégique sur l’organisation et la gestion des données Informations mission Durée : 2 à 3 mois renouvelable Charge : 40 à 60 % Localisation : Paris ou Nantes Déplacements ponctuels à Nantes Data Custodian Rôle Le Data Custodian garantit la visibilité, la qualité et la disponibilité des données issues du RAW et agit comme point de contact privilégié avec les systèmes sources. Objectifs Garantir la disponibilité, la qualité et la traçabilité des données Assurer la complétude des sources Maintenir la visibilité sur les données brutes et leurs transformations Garantir la cohérence des données pour les équipes métiers et techniques Activités BUILD Cartographier les données RAW et identifier les sources Documenter les sources et les transformations Participer aux ateliers de conception Mettre en place des outils de catalogue / dictionnaire de données Définir les métriques et alertes pour la supervision Activités RUN Superviser la chaîne technique du RAW Suivre les flux et indicateurs Informer les équipes des évolutions des systèmes sources Analyser l’impact sur les socles data Sponsoriser les évolutions SI améliorant la qualité des données Durée : 1 an renouvelable Charge : temps plein Localisation : Nantes
Freelance
CDI

Offre d'emploi
Développeur Backend Kotlin

VISIAN
Publiée le
Amazon DynamoDB
AWS Cloud
Kotlin

1 an
Paris, France
Nous recherchons un·e développeur·euse backend confirmé·e ou senior pour renforcer une équipe mixte entre Nantes et Paris, afin de travailler sur les problématiques Paiement dans le cadre de la refonte du moteur booking. Le prestataire intégrera un chantier déjà en cours, avec des deadlines critiques en Q1 2027. Les objectifs clés de la refonte : Modélisation des API et du modèle de données selon la norme européenne OSDM. Construction d'un moteur d'orchestration agnostique des spécificités fournisseurs, avec déport de la logique complexe vers les équipes en charge des connecteurs fournisseurs. Sortie du monorepo historique et mise en place d'une nouvelle chaîne de delivery (GitLab repos, CI/CD GitLabCI, Helm, ArgoCD — modèle GitOps). La mission se concentre sur le stream Paiement du moteur booking et inclut notamment : La réalisation d'études et cadrages technico-fonctionnels (initiation, exécution, post‑paiement, réconciliation, refunds, gestion des échecs, interactions PSP, etc.). Le développement backend en Kotlin. La conception et l'implémentation d'API REST basées sur OSDM. La contribution aux choix d'architecture en tant que contributeur. La mise en qualité : tests (unitaires, intégration, performance), revues de code, amélioration CI/CD. Le monitoring et l'optimisation des performances. Les interactions quotidiennes avec les autres profils de l'équipe (PO, SM, Lead Dev, Dev, QA). Les interactions régulières avec les autres équipes du domaine. La définition des contrats d'interface entre moteur et connecteurs fournisseurs. La prise en compte des exigences de sécurité et conformité PCI‑DSS. La participation aux cérémonies agiles.
Offre premium
CDI
Freelance

Offre d'emploi
Expert Database Cassandra

Lùkla
Publiée le
Azure
Google Cloud Platform (GCP)
Grafana

3 ans
57k-72k €
560-710 €
Paris, France
Un grand groupe international du secteur du luxe recherche un Expert Database orienté Cassandra capable de reprendre et piloter un projet stratégique si nécessaire.Dans un environnement exigeant et à forte volumétrie, vous interviendrez comme référent technique sur les environnements NoSQL, tout en conservant une expertise solide sur les bases relationnelles (PostgreSQL, MySQL/MariaDB). Expertise & Pilotage Cassandra (priorité du poste) Concevoir, administrer et optimiser des clusters Cassandra Garantir performance, scalabilité et haute disponibilité Être capable de reprendre un projet existant en totale autonomie Participer aux choix d’architecture et aux évolutions stratégiques Administration des bases relationnelles Assurer la performance et la disponibilité des bases PostgreSQL, MySQL, MariaDB Optimisation des requêtes, indexation et design de schémas Gestion des patchs, upgrades et maintenance corrective et évolutive Haute Disponibilité & Résilience Mise en place de stratégies de sauvegarde robustes Gestion des réplications et solutions de clustering Contribution aux plans de reprise après sinistre (Disaster Recovery) Sécurité & Conformité Mise en œuvre des contrôles d’accès (RBAC) Chiffrement des données (au repos et en transit) Gestion des audits et de la traçabilité Documentation & Amélioration continue Rédaction et mise à jour de la documentation technique Audit des pratiques existantes Collaboration étroite avec les équipes applicatives et infrastructure
Freelance
CDI

Offre d'emploi
QA Big Data

KLETA
Publiée le
Big Data
Hadoop

3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un QA Big Data pour garantir la qualité, la fiabilité et la performance des pipelines et produits data. Vous analyserez les architectures et flux existants, identifierez les risques qualité et proposerez des stratégies de test adaptées aux environnements Big Data et analytiques. Vous concevrez et mettrez en œuvre des tests automatisés sur les traitements batch et streaming (qualité des données, complétude, fraîcheur, cohérence, non-régression), en utilisant des frameworks et outils adaptés (Great Expectations, dbt tests, Python, SQL ou équivalent). Vous serez responsable de la définition des critères d’acceptance data, de la mise en place de contrôles qualité et de la surveillance des anomalies en production. Vous travaillerez étroitement avec les équipes Data Engineering, Data Science et DevOps pour intégrer la qualité dans les pipelines CI/CD et les processus de delivery. Vous participerez également à l’analyse des incidents data, à l’amélioration continue des pratiques de test et à la documentation des standards qualité au sein de la plateforme.
CDI
Freelance

Offre d'emploi
Ingénieur DevOps / SRE H/F

Le Groupe SYD
Publiée le
Ansible
Azure
Dynatrace

12 mois
42k-50k €
450-500 €
Niort, Nouvelle-Aquitaine
🌟 Quel sera ton poste ? 🌟 💼 Poste : Ingénieur DevOps / SRE H/F 📍 Lieu : Niort (79) 🏠 Télétravail : 2 jours / semaine maximum (présence onsite 3j/semaine obligatoire) 📝 Contrat : Portage ou CDI 👉 Contexte client : Tu rejoins un acteur majeur du secteur mutualiste engagé dans l’évolution et la modernisation de son système d’information. Dans un contexte DevSecOps et multicloud (Openshift, Azure, Scaleway), tu interviens au cœur d’équipes agiles pour faire évoluer les outils, optimiser les pratiques et soutenir l’industrialisation des environnements. Tu auras pour missions de : Mettre à disposition et faire évoluer les outils DevOps / SRE dans un contexte DevSecOps. Administrer et superviser les solutions hébergées sur Openshift, Kubernetes et les clouds Azure / Scaleway. Accompagner les squads sur les dimensions performance, robustesse, sécurité, fiabilité tout au long du cycle de vie des produits SI. Contribuer à la mise à disposition des environnements et à l’industrialisation des pipelines CI/CD. Automatiser, industrialiser et fiabiliser les déploiements dans une logique DevOps. Garantir l’exploitabilité et l’observabilité des produits (supervision, traces, métriques). Participer au capacity planning et à la gestion des impacts techniques en production. Contribuer à l’amélioration continue des environnements et pratiques techniques. 🧰 Stack technique : Déploiement & Cloud : Kubernetes, Openshift, Helm, Azure, Scaleway, Pulumi, Terraform Observabilité : Dynatrace, Grafana, Prometheus, Kibana CI/CD : Github, Jenkins, Ansible Testing & Performance : JMeter, Postman, Gatling Connaissances attendues : hébergement applicatif en conteneur (Openshift/Kubernetes), cloud (Azure/Scaleway), bonnes pratiques DevOps & SRE, gestion de configuration Bonus apprécié : appétence développement Java et IA (MLflow)
Freelance

Mission freelance
Lead DATA Analyst (Expertise retail &Ventes)

Atlas Connect
Publiée le
Agile Scrum
Azure
Big Data

2 ans
540-580 €
Paris, France
Profil recherché – Data Analyst Lead (Expert) Nous recherchons un Data Analyst Lead senior (10+ ans d’expérience) disposant d’une forte expertise en analyse et conception de solutions data, dans un environnement Grande Distribution . Le candidat devra : Posséder une expérience significative en Grande Distribution (impératif) Être capable de concevoir, challenger et sécuriser des solutions data complexes Avoir une solide maîtrise de la modélisation de données Être reconnu pour son leadership transverse Savoir accompagner et faire monter en compétence une équipe de Data Analysts Être à l’aise dans l’animation d’ateliers, de communautés et d’instances de gouvernance Comprendre les enjeux business retail et les usages métiers de la donnée 🛠 Compétences techniques attendues 🔴 Compétences impératives Connaissance opérationnelle de la Grande Distribution KPI : ventes, marge, stock, approvisionnement Pilotage de la performance magasin Logiques multienseignes Compréhension des usages métiers Analyse de données (niveau confirmé / expert) Modélisation de données (niveau confirmé / expert) Conception de solutions data SQL avancé 🟠 Compétences importantes Environnements Big Data (Databricks, Azure) Python / Scala Conception de modèles de données communs Structuration et alignement des KPI métiers Data Quality / Data Observability Documentation et bonnes pratiques de développement Expérience en méthodologie SAFe / Agile 🟢 Outils & Environnement technique SQL Databricks Microsoft Azure Python / Scala Power BI MicroStrategy PowerDesigner DataGalaxy SODA Jira 🎯 Compétences comportementales (soft skills) Leadership et posture de référent Capacité à challenger et arbitrer Excellente communication transverse (IT / Métiers) Esprit structurant et rigoureux Orientation solution et performance Capacité à vulgariser des sujets complexes
Freelance

Mission freelance
Développeur NodeJS / Intégrateur PSP

SURICATE IT
Publiée le
AWS Cloud
Node.js
PSP

3 mois
350-380 €
Paris, France
Missions & Stack Core : Développement backend robuste avec NodeJS et TypeScript . Infrastructure : Déploiement et gestion via AWS Amplify & AWS Lambda Méthodologie : Approche AI-Driven (tu sais utiliser l'IA pour coder plus vite et mieux). Profil recherché Expertise Paiement : Une solide culture des PSPs (Stripe, Adyen, etc.) Mindset : Une bonne dose de patience (essentielle pour les phases de debug et les itérations). Autonomie : Capacité à prendre des décisions techniques sur un environnement cloud simplifié.
Freelance

Mission freelance
Data Engineer

Signe +
Publiée le
Deep Learning
MLOps
Python

6 mois
400-480 €
Toulouse, Occitanie
Nous recherchons pour l'un de nos clients un Data Engineer. Missions : En tant que Data Engineer, vous serez en charge de : Concevoir, développer et maintenir des data pipelines robustes et scalables en Python Collecter, transformer et valoriser de grands volumes de données Mettre en œuvre des traitements géospatiaux et 3D (GDAL, PDAL ou équivalents) Participer à l’industrialisation des modèles de données dans des environnements MLOps (MLflow, Kubeflow) Orchestrer les workflows data via des outils tels que Argo ou Prefect Déployer et exploiter les solutions dans des environnements Docker / Kubernetes Intervenir sur des plateformes Cloud (AWS, GCP ou Azure) Collaborer étroitement avec les équipes Data Science, DevOps et Métiers Participer aux bonnes pratiques data : qualité, performance, sécurité et observabilité
Freelance

Mission freelance
Software Engineer Expert

Codezys
Publiée le
Automatisation
Azure
Azure Data Factory

6 mois
Paris, France
Groupe d'Assurance et de Services est une entité fournissant des produits et services pour le groupe d'assurance. Dans le cadre de l'équipe Data Business Intelligence & Analytics (DBIA), le périmètre inclut la mise en œuvre de nouvelles fonctionnalités pour un nouveau programme (Plateforme de Données Globale). La Plateforme de Données Globale repose sur une infrastructure cloud publique, principalement sur la plateforme de traitement de données en cloud, pour le stockage et la consommation de données (analyse de données, apprentissage automatique, visualisation de données). Cette plateforme couvrira plus de 240 applications de données destinées à plus de 10 000 utilisateurs. Services : Conception, mise en œuvre et support du moteur d’ingestion développé en interne utilisant les workflows de la plateforme de traitement et du code Python ; Support de niveau 3 pour ce moteur d’ingestion. Objectifs et livrables Livrables : Conception et preuve de concept ; Déploiement de nouvelles fonctionnalités/services ; Support de niveau 3 ; Documentation opérationnelle ; Participation aux plannings de l’itération, revues de sprint, réunions quotidiennes et ateliers de conception.
Freelance
CDI

Offre d'emploi
Data Engineer Kubernetes

KLETA
Publiée le
Helm
Kubernetes

3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Data Engineer Kubernetes pour concevoir, optimiser et industrialiser des plateformes de traitement de données déployées sur des environnements conteneurisés. Vous analyserez des architectures existantes, proposerez des trajectoires d’évolution (modernisation des pipelines, containerisation des traitements, optimisation de l’orchestration et de la scalabilité) et guiderez leur mise en œuvre avec Kubernetes et les outils associés (Helm, ArgoCD, Operators, Kubernetes Jobs). Vous serez responsable de la conception et de la fiabilisation des pipelines data exécutés sur Kubernetes, de l’amélioration des performances et de l’intégration de mécanismes de résilience, d’observabilité et de gestion des ressources. Vous travaillerez main dans la main avec les équipes Cloud et DevOps pour intégrer les traitements dans des pipelines CI/CD robustes et adaptés aux contraintes d’exploitation. Vous aurez également un rôle clé dans la transmission de connaissances, l’animation d’ateliers techniques et l’accompagnement des équipes client sur les meilleures pratiques de data engineering en environnement Kubernetes. Votre mission combinera expertise technique, rigueur méthodologique et capacité à structurer des solutions scalables et pérennes.
5111 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous