Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 531 résultats.
Freelance

Mission freelance
Data Engineer senior - DATA et IA

Calytis
Publiée le
AWS Cloud
CI/CD
MLOps

12 mois
500-560 €
Paris, France
La prestation vise à contribuer aux initiatives Data et IA 2026 au sein de la direction informatique, dans le pôle socle, référentiels et Data Intelligence. L’objectif est de mettre à disposition une expertise ML/Data engineering permettant de concevoir, industrialiser etn opérer des solutions Data/IA/IA gen sur une plateforme cloud, incluant l’ingestion, le traitement, la gouvernance et la mise à disposition des données. La prestation s’inscrit également dans un cadre de fiabiliser l’usage MLOps, d’accompagner la fabrication de produits Data IA, en collaboration avec les équipes internes Data science. La prestation consiste à : - Concevoir, développer et industrialiser des pipelines de données en utilisant les services appropriés du cloud AWS (ex. CloudFormation, Lambda, EMR, S3, EC2, Step Functions, services IA). - Assurer la gouvernance MLOps et AWS Sagemaker : administration, automatisation, gouvernance, monitoring, industrialisation des modèles. - Réaliser des traitements analytiques et des travaux de transformation sur Snowflake et via des chaînes CI/CD sous Azure DevOps. - Produire des composants Data/IA en s’appuyant sur des langages adaptés (ex. Python, PySpark) et sur des mécanismes ETL/ELT. - Concevoir et exécuter les phases de cadrage, architecture, réalisation, test, intégration et mise en service des traitements. - Assurer l’alimentation des environnements Data/IA nécessaires à la production de produits analytiques ou applicatifs. - Faciliter la formalisation des besoins techniques liés aux cas d’usage Data/IA en interaction avec les équipes internes, en vue d'accélérer leur mise en oeuvre. Livrables : - Pipelines AWS opérationnels, documentés et intégrés dans les chaînes d’industrialisation. - Environnements MLOps Sagemaker industrialisés, incluant scripts, configurations, workflows et procédures. - Artefacts de traitement Snowflake (requêtes, tables, vues, procédures) documentés et maintenus. - Packages ou modules Python/PySpark prêts à l’usage et testés. - Schémas ETL/ELT et documentation associée. - Dossiers de cadrage, dossiers d’architecture, dossiers de tests, dossiers de mise en production. - Cartographie des flux, sources, consommations et dépendances. - Guides d’exploitation, procédures opératoires, dashboards de supervision et de qualité de la donnée. Indicateurs de performances : - Taux de succès et stabilité des pipelines AWS. - Délais de mise à disposition des données et des modèles. - Qualité, fraîcheur et complétude des données exposées. - Taux de réussite des déploiements via chaînes CI/CD. - Niveau de conformité des modèles et pipelines MLOps (traçabilité, auditabilité, gouvernance). - Respect des échéances et des engagements définis au démarrage de chaque lot de travail.
CDI
Freelance

Offre d'emploi
DBA MongoDB Expert / PaaS Azure

AVA2I
Publiée le
Azure
Mongodb
PaaS (Platform-as-a-Service)

3 ans
Île-de-France, France
Dans le cadre du renforcement de ses équipes IT et de l’évolution de ses plateformes data vers le cloud, un grand groupe international recherche un DBA MongoDB expert pour intervenir sur des environnements PaaS Azure à forte criticité . Le poste est orienté expertise opérationnelle et technique . Il ne s’agit pas d’un rôle d’architecte , mais d’un référent MongoDB capable d’intervenir en profondeur sur l’administration, la performance et la fiabilité des bases de données. Objectifs du poste Garantir la disponibilité, la performance et la sécurité des bases MongoDB Assurer le maintien en conditions opérationnelles (MCO) sur des plateformes critiques Apporter une expertise MongoDB avancée aux équipes IT et applicatives Accompagner la montée en puissance des environnements Azure PaaS Missions principales Administration & exploitation Administrer et exploiter des bases MongoDB en environnement Microsoft Azure PaaS Assurer le MCO : performance disponibilité sécurité Optimisation & performance Réaliser le tuning avancé des bases MongoDB Gérer les index, la volumétrie et la réplication Analyser et corriger les problématiques de performance Anticiper les risques liés à la montée en charge Support & incidents Gérer les incidents complexes N2 / N3 Réaliser des diagnostics approfondis et du troubleshooting Apporter un support expert aux équipes applicatives Maintenance & bonnes pratiques Réaliser les montées de version et opérations de maintenance Mettre en place et suivre les bonnes pratiques : sauvegardes / restaurations supervision sécurité haute disponibilité Contribuer à l’amélioration continue des standards d’exploitation MongoDB Environnement technique MongoDB (expertise indispensable) Azure PaaS (Cosmos DB Mongo API / MongoDB managé) Cloud Azure Automatisation / scripting (PowerShell, Python ou équivalent) Supervision, sécurité, haute disponibilité Environnements critiques à forte volumétrie
CDI

Offre d'emploi
Nous recherchons plusieurs Ingénieurs de Production / DevOps (H/F)

DCS EASYWARE
Publiée le

Paris, France
Environnements de production applicative critiques - Plusieurs postes ouverts Nous recherchons plusieurs Ingénieur(e)s de Production / DevOps afin de renforcer nos équipes en charge du RUN, du BUILD, de l'intégration et de l'automatisation sur des environnements applicatifs stratégiques et exigeants. Vous interviendrez sur des chaînes applicatives complètes, en lien étroit avec les équipes Études, Infrastructure, Cloud, Sécurité et DevOps. Vos missions principales RUN & MCO (N2/N3) - Garantir la disponibilité, la performance et la stabilité des applications. - Analyser, diagnostiquer et résoudre les incidents complexes. - Maintenir les environnements en condition opérationnelle (qualité, sécurité, continuité). - Prendre en charge la supervision, les sauvegardes, la gestion des vulnérabilités et de l'obsolescence. - Assurer un support technique aux équipes internes et contribuer au maintien des SLA. BUILD, Intégration & Mise en Production - Installer, configurer et déployer des applications sur environnements Linux, Windows, Cloud et conteneurs. - Réaliser les mises en production de bout en bout (Dev -> Recette -> Production). - Participer aux projets techniques : migrations, montées de versions, refontes, refresh, sécurisation. - Définir et mettre en oeuvre les exigences d'exploitabilité (DEX, DAT, consignes, supervision). DevOps & Automatisation - Développer et optimiser des chaînes d'ordonnancement sous Control-M. - Intégrer des pipelines CI/CD : Jenkins, Git/Bitbucket, XL-Deploy, XL-Release. - Automatiser les tâches récurrentes via scripting (Shell, PowerShell, Python...). - Contribuer à l'industrialisation, l'automatisation et l'amélioration continue. Tests techniques & qualité - Préparer et exécuter les tests techniques d'intégration. - Rédiger les rapports GO/NOGO. - Industrialiser les tests réutilisables. - Assurer un reporting régulier aux responsables techniques. Compétences techniques recherchées - Linux / Windows - DevOps (Jenkins, Git/Bitbucket, XL-Deploy, XL-Release) - Ordonnanceur Control-M - Cloud AWS et/ou GCP - Serveurs d'applications : Tomcat, IIS, Apache, JBoss, WebSphere - OpenShift / Conteneurs - Bases de données (Oracle...) - Scripting : Shell, PowerShell, Python Soft Skills - Très bon sens du service et de la communication. - Rigueur, autonomie, capacité à travailler sous pression sur des applications sensibles. - Proactivité, capacité à défendre les exigences d'exploitabilité. - Esprit d'analyse et force de proposition. Langues - Français courant - Anglais professionnel
Freelance

Mission freelance
243100/Architecte Cloud Azure certifié

WorldWide People
Publiée le
Architecture
Gouvernance

6 mois
Nanterre, Île-de-France
Architecte Cloud Azure certifié Nature de la prestation : Conception, l’industrialisation, l’exploitation et l’amélioration continue des socles Cloud de Confiance Bleu (Azure souverain) et S3NS (Google Cloud souverain). Missions principales Architecture & Gouvernance : Concevoir, cadrer et faire évoluer l’architecture des socles (Landing Zones, réseau, IAM, sécurité). Build & Industrialisation : Mettre en œuvre les socles via Infrastructure as Code (Terraform), concevoir et faire évoluer les pipelines CI/CD et workflows GitOps. Communs numériques : Développer, maintenir et faire évoluer les modules IaC, pipelines, librairies et socles applicatifs. Exploitation & Fiabilité : Administrer et exploiter les environnements, automatiser les opérations récurrentes, gérer IAM et sécurité opérationnelle. Environnement technique Clouds : Bleu (Azure souverain), S3NS (Google Cloud souverain). Outils : Terraform, Git, CI/CD, GitOps, Policy as Code, FinOps tooling, Microsoft 365, JIRA, Confluence. Compétences requises Landing Zone Azure / IAM / Réseau / Sécurité : Senior . Objectifs et livrables Livrables attendus : Dossiers d’architecture (Landing Zone, IAM, réseau, sécurité) – initiaux + MAJ à chaque évolution majeure. Référentiels de standards/patterns et principes de gouvernance. Modules Terraform et pipelines CI/CD (testés, versionnés, documentés). Guides techniques / DevEx, runbooks et documentation d’exploitation. Scripts d’automatisation, supervision & alerting avec couverture ≥ 95 % des composants critiques.
Freelance

Mission freelance
Intégration en automatisation et développement (Python/PowerShell/API)

CAT-AMANIA
Publiée le
DevOps
Python

1 an
400-550 €
Paris, France
Je suis à la recherche pour un de nos clients d'un Intégrateur en automatisation et développement (Python/PowerShell/API). Définition des prestations attendues / Description du besoin : - Défintion des missions et des obligations afférentes (obligation de conseil et/ou obligation de résultat) au Titulaire Mission principale • Développer des scripts et modules pour enrichir les automatisations (Python, PowerShell, API) • Mise en place d'un service d'automatisation DevOps, SecOPs • Concevoir et maintenir des workflows avancés • Mettre en place des scénarios automatisés robustes et optimisés pour la performance et la sécurité. • Gérer la documentation et la maintenance des workflows. Accompagner les équipes internes • Conseiller les équipes internes dans la mise en œuvre de solution automatisé MCO (Maintien en conditions opérationnelles) • Assurer le monitoring et le débogage des scripts et des appels API. • Auditer et optimiser les services déjà mis en place. Atouts supplémentaires : • Connaissances des environnements de "Conteneurisation" • Connaissances des environnements Cloud Compétences complémentaires : • Infrastructure sécurité (Pare-Feu, Répartition de charge, PKI, IDP, Massagerie, PAM) • Infrastucture réseaux (DNS, DHCP, IPAM, ISE) • Kubernetes
Freelance

Mission freelance
Ingénieur réseau et télécom (H/F)

LeHibou
Publiée le
Centreon
Réseaux
SD-WAN

12 mois
400-490 €
Montpellier, Occitanie
Notre client dans le secteur Assurance recherche un/une Ingénieur Réseau et Télécom (H/F) Description de la mission : Notre client, acteur majeur du secteur assurantiel, recherche son futur ingénieur réseau et télécom en freelance à Montpellier ! Au sein d’une équipe technique d’une dizaine de collaborateurs, vous occuperez un rôle de référent sur plusieurs domaines liés aux infrastructures réseau. En rejoignant le pôle chargé de l’exploitation réseau, vous interviendrez sur les missions suivantes : Garantir la disponibilité et la performance des équipements réseau et des solutions de téléphonie Prendre en charge les incidents et assurer un support technique de niveau 2 Développer et déployer des outils d’automatisation et d’orchestration basés sur des API Contribuer activement à la veille technologique et à la promotion des bonnes pratiques au sein de l’équipe Vous évoluerez dans un environnement dynamique, au cœur d’une équipe polyvalente dédiée au maintien en conditions opérationnelles d’un système d’information multi-sites. Périmètre d’intervention : Réseaux d’entreprise : SD-WAN, solutions de proxy cloud, interconnexions VPLS/MPLS, liaisons Internet et tunnels sécurisés Systèmes de téléphonie et communications unifiées Infrastructures IT associées Support & exploitation de niveau 2 Automatisation des processus Mise en place et suivi d’indicateurs de performance réseau
Freelance

Mission freelance
Data Engineer Azure Synapse / (Intégration Data - Référentiel )

STHREE SAS pour HUXLEY
Publiée le

12 mois
500 €
France
Data Engineer Azure Synapse / PySpark (Intégration Data - Référentiel Corporate) Secteur : Financial Services / Asset Management Contrat : Mission freelance - 6 mois renouvelables Localisation : France / Hybride 🔍 Contexte Un groupe international de gestion d'actifs recherche un Data Engineer confirmé pour participer à la modernisation et à la consolidation de son référentiel data interne , dans un programme stratégique d'intégration multi‑sources. 🎯 Votre rôle Développer de nouveaux flux d'intégration via Azure Synapse / PySpark Assurer la qualité, la cohérence et la traçabilité des données Contribuer à la mise en place du monitoring Data sur l'ensemble des pipelines Collaborer étroitement avec les Business Analysts et l'équipe Data Analytics Participer aux évolutions continues de la plateforme Data Azure 🧱 Compétences techniques clés Azure Synapse PySpark Azure DevOps SonarCloud Micro‑services API Management Microsoft Playwright Azure Data Factory SQL Server (RDBMS) 👤 Profil recherché Bac+5 (ingénieur ou équivalent) Min. 3 ans d'expérience en développement Data sur Azure Bonne maîtrise des pratiques DevOps & automatisation des tests Connaissance du secteur financier / Asset Management appréciée Excellent niveau FR & EN 📅 Démarrage : 2 février 2026
Freelance

Mission freelance
Expert Microsoft Azure (H/F)

Insitoo Freelances
Publiée le
Ansible
Node.js
Terraform

2 ans
100-550 €
Lille, Hauts-de-France
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Expert Microsoft Azure (H/F) à Lille, France. Contexte : Nous recherchons une expertise approfondie en Microsoft Azure pour soutenir notre infrastructure cloud. Notre projet nécessite une gestion efficace des environnements Windows et une automatisation des processus via des outils d'Infrastructure as Code tels que Terraform et Ansible. Nous avons également besoin de compétences en développement, notamment en Node.js, pour créer des applications robustes et évolutives. L'utilisation de PowerShell est essentielle pour automatiser les tâches administratives et améliorer l'efficacité opérationnelle. Notre objectif est de moderniser notre infrastructure tout en garantissant la sécurité et la conformité. Nous sommes déterminés à collaborer avec des experts qui peuvent nous aider à atteindre ces objectifs. De plus, nous aurons besoin de compétences sur l'AD, entraID. Les missions attendues par le Expert Microsoft Azure (H/F) : Nous visons à atteindre les objectifs suivants : Optimisation de l'infrastructure cloud via Microsoft Azure. Automatisation des processus avec Terraform et Ansible. Développement d'applications en Node.js. Automatisation des tâches administratives avec PowerShell. Assurer la sécurité et la conformité de l'infrastructure.
Freelance

Mission freelance
Data Engineer Azure Data Factory - CosmosDB

Atlas Connect
Publiée le
Azure
Azure Data Factory
Azure DevOps

12 mois
490-550 €
Île-de-France, France
Vos missions En tant que Data Engineer , vous serez amené(e) à : Concevoir, développer et maintenir des pipelines d’intégration de données sous Azure Data Factory Assurer la gestion complète des flux de données : ingestion, transformation, normalisation et mise à disposition pour les différents services du SI Réaliser des transformations et agrégations complexes en SQL , dans une logique de qualité, de performance et d’industrialisation Collaborer étroitement avec les équipes métiers afin de comprendre leurs besoins et proposer des solutions techniques adaptées intégrées au Datahub Contribuer à l’ amélioration continue des processus Data : automatisation, fiabilisation, optimisation et bonnes pratiques Participer à la fiabilité et à la qualité du code et des déploiements dans un environnement industrialisé ⚙️ Stack technique Cloud : Azure (hébergement, stockage, orchestration) Data : Azure Data Factory Bases de données : Azure SQL, Cosmos DB Langages : SQL (avancé), Python (Azure Functions) Infrastructure : Terraform (Infrastructure as Code) Qualité & sécurité : SonarCloud, Snyk CI/CD & DevOps : Azure DevOps
CDI

Offre d'emploi
Scrum Master DevOps (H/F)

SMARTPOINT
Publiée le
Ansible
AWS Cloud
Docker

12 mois
40k-45k €
400-550 €
Île-de-France, France
Contexte Dans un environnement agile et fortement orienté DevOps, le Scrum Master DevOps accompagne une ou plusieurs équipes techniques dans l’adoption et l’amélioration continue des pratiques Agile (Scrum) et DevOps , afin d’optimiser la livraison de valeur, la qualité et la performance opérationnelle. Missions principales Animer les cérémonies Agile : Sprint planning, daily, review, rétrospective Accompagner l’équipe dans l’application du cadre Scrum et des pratiques DevOps Lever les obstacles (impediments) impactant la performance de l’équipe Favoriser la collaboration entre Développement, Ops, QA et Sécurité Accompagner la mise en place et l’amélioration des pipelines CI/CD Promouvoir l’automatisation, l’industrialisation et la culture DevOps Suivre et améliorer les indicateurs de performance (vélocité, lead time, incidents, disponibilité) Travailler en étroite collaboration avec le Product Owner et les équipes techniques
Freelance

Mission freelance
Senior DevOps - ML Platform

Atlas Connect
Publiée le
Administration linux
AWS Cloud
AWS CloudFormation

12 mois
600-710 €
Île-de-France, France
Vous rejoindrez l’équipe ML Platform , dont la mission est d’améliorer la productivité des chercheurs en machine learning en développant des bibliothèques, services, outils et bonnes pratiques, tout en garantissant une mise en production robuste des modèles ML à grande échelle. L’équipe est composée : d’ingénieurs travaillant sur des projets transverses, et de profils accompagnant les équipes fonctionnelles dans leur parcours ML. Vous travaillerez également en étroite collaboration avec le ML Lab , une équipe de recherche académique nécessitant des outils et infrastructures dédiés, distincts de l’infrastructure principale, afin de : accéder librement aux technologies open source de pointe, collaborer avec des partenaires externes, expérimenter rapidement à grande échelle. Mission En tant que Senior DevOps Engineer au sein de l’équipe ML Platform, vous mettrez à profit votre solide background en ingénierie logicielle, votre maîtrise de Python et votre expérience des environnements cloud pour faciliter le travail quotidien du ML Lab sur , tout en assurant les interconnexions nécessaires avec l’infrastructure principale, majoritairement basée sur AWS . Responsabilités principales Configurer et maintenir l’environnement cloud , notamment pour l’accès GPU du ML Lab Mettre en place des mécanismes FinOps et des protections minimales contre les erreurs humaines (“fat fingers”) Optimiser les images Docker afin de réduire les temps de cold start Implémenter et maintenir des systèmes de monitoring pour l’entraînement des modèles ML Contribuer ponctuellement aux projets transverses de l’équipe ML Platform sur AWS (CI/CD, outillage cloud, services communs pour les chercheurs) Promouvoir et implémenter des processus d’ automatisation Renforcer la sécurité via des évaluations de vulnérabilités, la gestion des risques et le déploiement de mesures de cybersécurité adaptées
Freelance

Mission freelance
Tech Lead DevOps CIAM (AWS / SAP CDC Gigya / Cybersécurité)

Gentis Recruitment SAS
Publiée le
API
API REST
AWS Cloud

6 mois
Paris, France
1. Contexte de la mission Notre client déploie une plateforme CIAM basée sur SAP Customer Data Cloud (Gigya) afin de gérer l’authentification et la gestion des identités clients B2B et B2C . La plateforme actuelle comprend : Une base utilisateurs B2C Une base utilisateurs B2B Des bases en marque blanche pour des cas d’usage spécifiques Les enjeux stratégiques de la plateforme sont les suivants : Mise en place d’une expérience SSO unifiée , inspirée de FranceConnect Respect strict des exigences RGPD et cybersécurité Passage à l’échelle pour atteindre 13 millions d’utilisateurs à horizon 2028 Personnalisation des parcours utilisateurs sans impact sur le socle commun (master site) 2. Objectifs de la mission Le Tech Lead CIAM interviendra sur les axes suivants : Pilotage des évolutions techniques de la plateforme SAP CDC (Gigya) Définition et formalisation des standards d’intégration pour les applications B2B et B2C Garantie de la conformité réglementaire (RGPD) et des exigences cybersécurité Accompagnement et montée en compétence des équipes techniques internes 3. Périmètre d’intervention Architecture & Design Revue de l’architecture existante Conception et optimisation des parcours d’authentification Intégration des protocoles OIDC, OAuth2 et SAML Sécurité & Authentification Mise en œuvre de MFA granulaire Intégration OTP (SMS, email) Gestion des mécanismes anti-fraude (Captcha, protection des APIs) Performance & Scalabilité Automatisation des processus RUN Optimisation des performances et de la résilience Raccordement et onboarding applicatif à grande échelle Support & Expertise Rôle de référent technique CIAM Support aux équipes projet et applicatives Contribution à la formation et à la documentation technique 4. Livrables attendus Audit technique détaillé de la plateforme CIAM existante Roadmap d’évolution couvrant : Personnalisation des parcours MFA / OTP APIs et intégrations Procédures standardisées d’intégration applicative Plan de sécurisation conforme aux directives cybersécurité et RGPD 5. Profil recherché Compétences techniques requises Expertise confirmée sur SAP Customer Data Cloud (Gigya) et les architectures CIAM Maîtrise des protocoles d’identité : OIDC, OAuth2, SAML Solide expertise en cybersécurité et conformité RGPD Maîtrise du Cloud public , en particulier AWS Expérience d’intégration multi-applications à grande échelle Compétences en automatisation et scripting (Python, JavaScript) Maîtrise des API REST et des webhooks Connaissance des outils CI/CD et des extensions compatibles avec SAP CDC Mise en œuvre des bonnes pratiques DevOps (déploiement, monitoring, RUN automatisé) Compétences transverses Capacité à évoluer dans un environnement international Travail en contexte multi-projets et multi-équipes Forte capacité de structuration, de standardisation et de transmission
Freelance

Mission freelance
VOC & Detection & Incident Playbook Developer (92)

EterniTech
Publiée le
Cortex XSOAR
CrowdStrike
Qualys

3 mois
400-550 €
Hauts-de-Seine, France
Contexte de la mission : Dans un contexte international, le client renforce son GSOC afin de développer les capacités d’automatisation, de détection de la menace et de gestion des incidents sur l’ensemble des environnements IT, Cloud et Industriels. La mission s’inscrit dans une démarche proactive d’anticipation de la menace, d’amélioration continue des processus SOC/VOC/CSIRT/CTI et de montée en maturité des outils SIEM/SOAR et XDR. Missions principales : -Analyse des processus existants de détection et de gestion des incidents afin d’identifier les opportunités d’automatisation, d’optimisation et de cohérence, notamment en environnements IT, Cloud et Industriels -Conception, développement et maintenance de playbooks d’incidents intégrés sur les plateformes SIEM/SOAR, EDR/XDR, solutions de vulnérabilité et environnements Microsoft et industriels -Intégration avancée des flux CVE/CWE et des outils de veille afin de renforcer la priorisation des incidents et vulnérabilités sur l’ensemble du périmètre IT / Cloud / Industriel -Développement de scripts d’automatisation pour faciliter le traitement, la qualification et la remédiation rapide des incidents sur tous les environnements -Veille active sur les nouveaux types d’attaques et techniques d’automatisation (MITRE ATT&CK, MITRE ATT&CK for ICS, Cloud…), et adaptation continue des playbooks -Proposition et développement de nouveaux use-cases innovants en collaboration avec les équipes opérationnelles métiers, IT, Cloud et industrielles -Documentation et partage de la connaissance auprès des équipes SOC, VOC, CSIRT, IT, Cloud et OT sur les nouveaux playbooks, automatisations et intégrations -Garantie de la qualité, de la conformité et de l’évolutivité des automatisations délivrées dans une approche multi-environnement (IT, Cloud, Industriel) Environnement technique : Splunk SIEM & SOAR – Expert – Impératif Qualys – Confirmé – Important Crowdstrike & Cortex XDR – Confirmé – Important CTI (Cyber Threat Intelligence) – Confirmé – Important Azure Sentinel Prisma Cloud Microsoft Security MITRE ATT&CK / ATT&CK for ICS
Freelance

Mission freelance
Data Platform Engineer

Cherry Pick
Publiée le
AWS Cloud
Python

12 mois
600-650 €
Paris, France
Objectifs Votre mission est de responsabiliser et de faire monter en compétence notre communauté de plus de 50 data engineers et data scientists. Agissant comme le lien essentiel entre les feature teams et les ingénieurs de la plateforme, vous serez le garant de l’adoption et de l’évolution de notre plateforme data en fournissant un support technique opérationnel, en partageant les bonnes pratiques et en animant des initiatives de partage de connaissances. Grâce à un engagement proactif, un support direct et une collecte continue de feedback, vous favoriserez un environnement collaboratif, innovant et à fort impact — garantissant que notre plateforme s’adapte en permanence et délivre une valeur maximale à ses utilisateurs. Missions principales 1. Support technique : Accompagner les data engineers et data scientists dans leurs problématiques techniques en fournissant des solutions opérationnelles, des conseils, des bonnes pratiques et un support via des interactions directes au sein de leurs équipes. S’assurer que la dette technique est identifiée, comprise et gérée via des plans d’actions, et participer aux tâches sous-jacentes. Fournir des outils pour aider à gérer cette dette (tests, automatisation, agents IA, …). Collaborer avec les équipes data platform et support afin de garantir que les problèmes au sein des pipelines data et de la plateforme data sont identifiés et résolus, améliorant ainsi l’expérience développeur globale. 2. Évangélisation : Promouvoir l’adoption de la plateforme data par une utilisation quotidienne, en démontrant sa valeur auprès des utilisateurs existants. Partager avec la communauté de pratique et les équipes internes les tendances du marché, outils et technologies liés aux plateformes data. 3. Montée en compétences des équipes : Évaluer le niveau actuel des équipes sur les outils et pratiques de la Data Platform et l’améliorer via des formations, des exercices et la résolution de problématiques réelles. Promouvoir et animer une communauté de pratique afin de construire des parcours de formation d’amélioration, des ateliers internes et des webinaires mettant en valeur les capacités de notre Data Platform. Créer du contenu technique tel que des articles de blog, tutoriels, projets exemples et documentation afin d’aider les développeurs à comprendre et utiliser efficacement notre plateforme. 4. Boucle de feedback : Collecter activement les retours de la communauté des développeurs afin de fournir des analyses et suggestions d’amélioration produit aux équipes d’ingénierie de la plateforme. Fournir des tests pertinents pour les actifs techniques produits par les ingénieurs de la Data Platform et s’assurer qu’ils correspondent aux usages actuels des feature teams. Représenter les data engineers et data scientists au sein de l’entreprise, en veillant à ce que leurs besoins et défis soient compris et pris en compte. Qualifications / Compétences requises Maîtrise du développement Python et de la conception d’applications scalables et de haute qualité. Expérience avec des frameworks de traitement de données tels que Pandas ou Spark. Expérience pratique dans le développement et la maintenance de pipelines data de bout en bout. Expertise approfondie sur AWS, complétée par des certifications ou une expérience équivalente. Expérience des frameworks d’Infrastructure as Code (idéalement AWS CDK en Python). Connaissance des pratiques DevOps et des pipelines CI/CD afin d’améliorer les processus de déploiement. Excellentes compétences en communication et en présentation, capables d’expliquer des concepts techniques complexes à des publics variés. Forte appétence pour l’animation de communautés de développeurs et la création d’un impact positif. Bon niveau d’anglais, la documentation étant rédigée en anglais et une partie des utilisateurs de la Data Platform ne parlant pas français. Atouts supplémentaires : Expérience en développement produit agile et en méthodologie Scrum. Expérience de migration de pipelines data vers le cloud. Compréhension des bonnes pratiques de sécurité et de conformité dans des environnements cloud. Environnement technologique : AWS : S3, EMR, Glue, Athena, Lake Formation, Cloud Formation, CDK, Lambda, Fargate, … Data engineering : Airflow, Parquet, Apache Iceberg DevOps : Jenkins, SonarQube, Conda Logiciels : Python, Ruff
Freelance

Mission freelance
Expert AWS

QUALIS ESN
Publiée le
AWS Cloud

6 mois
430-550 €
Lyon, Auvergne-Rhône-Alpes
La prestation demandée a pour objet principal de fournir une expertise sur les technologies Cloud AWS dans le cadre de déploiement d’un projet vers le Cloud.. Cette prestation vise à accompagner la migration du projet GPS basé sur le progiciel Planisware vers une infrastructure cloud AWS en garantissant la conception, le développement, le déploiement, le support et l’évolutivité de la solution dans un environnement Cloud sécurisé et maîtrisé. La prestation se déroulera dans une équipe composée de 4 à 5 collaborateurs, placée sous la responsabilité d’un référent technique assurant l’encadrement opérationnel. Collaboration étroite avec les développeurs, architectes et sécurité, participation aux cérémonies Agile (daily, sprint planning, rétrospective). Cette Prestation comprendra les activités et tâches suivants : • Réaliser un état des lieux de l’existant, sur l’ensemble des chantiers applicatifs et techniques identifiés dans le périmètre de DevSecOps de GPS • Élaborer des spécifications fonctionnelles et techniques à partir des besoins exprimés par l’équipe projet • Concevoir, développer, paramétrer et documenter les services en assurant l’automatisation, la fiabilité, la sécurité et la scalabilité des environnements • Déployer les services sur les environnements définis, dans le respect des jalons • Fournir un support technique et fonctionnel pendant toute la durée de la prestation, et en particulier lors de la phase de déploiement opérationnel • Mettre en œuvre la réversibilité des infrastructures, permettant un retour ou un transfert depuis et vers AWS, dans une logique de maîtrise du multi-cloud.
CDI

Offre d'emploi
Consultant DevOps

SII
Publiée le
Ansible
AWS Cloud
DevOps

40k-52k €
Marseille, Provence-Alpes-Côte d'Azur
SII Aix Méditerranée, accompagne ses clients dans l’intégration des nouvelles technologies, procédés et méthodes de management de l’innovation pour contribuer au développement de leurs futurs produits ou services et faire évoluer leurs systèmes d’information. Nous conjuguons de manière durable et vertueuse la satisfaction de nos clients avec le bien-être et l’épanouissement de nos collaborateurs tout en délivrant un haut niveau de performance. Au travers de notre entité composée de quatre-vingts consultants et de leurs expertises liées au développement logiciel, au test et à la chefferie de projet, nous intervenons aujourd’hui sur des projets à forte valeur ajoutée, ambitieux et à l’international autour des secteurs du numérique, de l’industrie et des services en assistance technique et/ou en engagement. Nous couvrons un vaste secteur vous permettant de trouver une opportunité proche de chez vous : nous disposons d’opportunités sur Aix-en-Provence, Venelles, Marseille, Gémenos ou encore Avignon. Vous aurez le choix de rejoindre une équipe ambitieuse, talentueuse et engagée sur des sujets tels que : la conception d’une carte à puce implantée dans des documents biométriques, le développement d’une application de livraison de colis, l’innovation dans le suivi de cargos maritimes ou bien encore le développement d’applications de gestions d’évènements autoroutiers ou de plateforme monétique. Rencontrons-nous et valorisons ensemble les métiers de l’ingénieur et son rôle de « Changeur de Monde ». Nous recherchons sur Marseille et alentours plusieurs consultant(e)s DevOps / Cloud afin de rejoindre un grand client spécialisé dans l'identité et la sécurité numérique. Vos missions sont les suivantes : -> Mise en place de pipelines CICD -> Qualification, intégration, test de non régression et recette (Robot framework, Jenkins, Gitlab, Docker) -> Automatisation et scripting (Python, shell, ansible, Terraform ..) -> Développement de nouvelles features du service DevOps -> Audits techniques sur les environnements du client -> Élaboration de nouveaux process / procédures (standardisation, industrialisation), règles, normes concernant ces infrastructures. -> Gestion d'infrastructure Cloud (AWS, GCP ou Azure) -> N3 dans la résolution des incidents techniques -> Gestion des incidents et des problèmes infrastructure DevOps afin de garantir le maintien en condition opérationnelle et d'aider les équipes -> Assistance et formation des équipes support -> Contribution à la mise à jour des documents techniques
531 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous