Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 51 résultats.
Freelance

Mission freelance
Architecte / Expert MongoDB Atlas sur Azure

Publiée le
.NET CORE
Apache Kafka
Architecture ARM

6 mois
530-620 €
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
Garantir la mise en œuvre et la maintenance d’une solution MongoDB Atlas hébergée sur Azure robuste, performante et conforme aux exigences réglementaires (PDP, RGPD), tout en répondant aux besoins métiers : disponibilité, traçabilité, sécurité, gouvernance des données et exploitation BI (Grafana, Power BI). Responsabilités principales Architecture et conception Définir l’architecture cible MongoDB Atlas sur Azure (topologie, multi-régions, interconnexion, réseaux, haute disponibilité, sauvegarde et reprise d’activité). Concevoir les schémas documentaires et le modèle de données optimisé selon les cas d’usage applicatifs et les contraintes réglementaires (rétention, anonymisation, traçabilité). Élaborer la stratégie de sauvegarde, restauration et gestion des incidents (playbooks, tests de restauration). Sécurité et conformité Définir et implémenter les mécanismes de sécurité : chiffrement at-rest et in-transit , gestion des clés (BYOK / Azure Key Vault), contrôle d’accès (RBAC, LDAP/AD, IAM), audit et journalisation. Garantir la conformité PDP / RGPD des données et des traitements. Intégration et performance Piloter l’intégration technique avec les pipelines ETL/ELT , les solutions de streaming ( Kafka , Azure Data Factory , Functions , iPaaS , etc.). Optimiser la performance : indexation, sharding, agrégations, profiling, tuning des requêtes et gestion de la charge. Observabilité et supervision Mettre en place les pratiques d’observabilité : alerting, dashboards, métriques et logs centralisés via Grafana , Zabbix , Azure Monitor ou équivalents. Intégrer MongoDB avec les outils de visualisation Grafana et Power BI (connecteurs, sécurité, gouvernance des accès). Projet et documentation Participer aux phases projet : ateliers d’architecture, proof of concept, accompagnement en RUN (SLA, runbooks, transfert de compétences). Rédiger les livrables techniques : architecture cible, schémas de données, règles de sécurité, runbooks, plans de tests et documents d’exploitation. Compétences techniques requises Base de données & Cloud Expertise MongoDB Atlas : déploiement, configuration, sécurité, scaling, sharding, sauvegarde/restore, performance tuning. Très bonne connaissance d’ Azure : VNet, ExpressRoute/VPN, Managed Identities, Azure Key Vault, Azure AD, Storage, Log Analytics. Développement & intégration Maîtrise des drivers MongoDB (Java, Node.js, .NET, Python selon la stack applicative). Connaissance des principes de data modelling NoSQL : embedding vs referencing, patterns de consultation, conception pour volumes variables. Expérience avec les outils d’intégration et ingestion : Azure Data Factory , Kafka , SnapLogic , Functions . Sécurité & conformité Chiffrement, BYOK, IAM, RBAC, audit, conformité PDP/RGPD . Observabilité & reporting Monitoring MongoDB, alerting, dashboards ( Grafana , Zabbix , Azure Monitor ). Intégration MongoDB ↔ Power BI / Grafana (connecteurs, APIs, performances). DevOps Bonnes pratiques Infrastructure as Code : Terraform , ARM , Bicep . CI/CD et tests automatisés pour les déploiements. Notions de DevSecOps appréciées.
Freelance
CDI

Offre d'emploi
Développeur(se) Azure Data Fabric confirmé(e)

Publiée le
MySQL

18 mois
40k-45k €
100-500 €
Paris, France
Télétravail partiel
CONTEXTE : Experience : 5 ans et plus Métiers Fonctions : Etudes & Développement, Développeur Spécialités technologiques : Transformation digitale ; Gouvernance des données Dans un contexte de transformation digitale orientée data, nous recherchons un profil senior capable de concevoir, développer et maintenir des solutions de traitement et d’ingestion de données sur la plateforme Azure Data Fabric. Vous serez un acteur clé dans l’industrialisation des flux de données, l’optimisation des pipelines, et la mise en œuvre de solutions scalables et performantes. Le poste implique à la fois un rôle opérationnel, d’expertise technique et de leadership sur les bonnes pratiques de l’écosystème Azure. MISSIONS 1. Conception et développement ▪ Participer à l’analyse des besoins métiers et techniques en matière de traitement de données. ▪ Concevoir et développer des pipelines d’ingestion, de transformation et de distribution des données sur Azure Data Factory. ▪ Intégrer les services Azure liés à la Data Fabric qui seront nécessaire : ex : Azure Data Lake Storage Gen2 etc... ▪ Implémenter des modèles de données et des solutions de traitement ▪ Encadrer la modélisation des flux de données complexes (batch et streaming) et proposer des architectures “data-driven” adaptées aux enjeux métiers. 2. Conception et développement de pipelines avancés ▪ Concevoir, développer et maintenir des pipelines avec Azure Data Factory et/ou Azure Synapse Pipelines. ▪ Définir et mettre en œuvre des stratégies de surveillance (monitoring) et d’alerting des pipelines. ▪ Optimiser les performances et les coûts des traitements (partitionnement, parallélisation, contrôle qualité). 3. Support et amélioration continue ▪ Assurer le support dans l’utilisation de la plateforme. ▪ Être force de proposition sur l’optimisation des traitements, la réduction des coûts Azure, et les innovations technologiques. ▪ Suivre la performance et la fiabilité des solutions déployées via Azure Monitor, Log Analytics, Application Insights. Expertise souhaitée Compétences requises : Techniques : ▪ Azure Data Factory - Expert ▪ Azure Data Lake Storage Gen2 - Confirmé ▪ Azure Synapse Analytics (dedicated & serverless) - Confirmé à expert ▪ Azure Event Hub / Stream Analytics - Bonne connaissance ▪ Sécurité Azure & gouvernance - Bonne connaissance ▪ Python / SQL / PowerShell - Confirmé ▪ Architecture Data / Cloud - Expérience significative ▪ PowerBI Confirmé Compétences comportementales : • Bon relationnel et sens de l’écoute • Autonomie et esprit d’initiative • Esprit analytique et rigueur • Capacité à vulgariser les sujets techniques pour les métiers • Esprit d’équipe Profil recherché : ▪ Bac+3 à Bac+5 en informatique, ingénierie, data ou équivalent. ▪ Expérience significative en développement de solutions data sur Microsoft Azure. ▪ Minimum 5 ans d’expérience sur des projets data complexes en environnement cloud (Azure de préférence). ▪ Très bonne connaissance de l’écosystème Azure et de ses services data. ▪ Bonne compréhension des architectures data modernes (data lake, real-time,event-driven). ▪ Sensibilité forte à la performance, la sécurité et la gouvernance des données. ▪ Autonomie, rigueur, curiosité technologique, esprit d’équipe. ▪ Bon niveau de communication, capable d’interagir avec les équipes métiers et IT.
Freelance
CDI

Offre d'emploi
Product Owner Plateforme Big Data (AWS / Databricks)

Publiée le
Agile Scrum
AWS Cloud
Databricks

12 mois
Île-de-France, France
Télétravail partiel
Dans le cadre de sa croissance sur les projets Data Platform & Cloud , Hextaem recherche un(e) Product Owner Plateforme Big Data pour piloter la conception, la mise en œuvre et l’évolution d’une plateforme data moderne basée sur AWS et Databricks . Le/la PO jouera un rôle clé à l’interface entre les équipes métiers, techniques et data, afin de valoriser les données de l’entreprise à travers une plateforme scalable, sécurisée et orientée usage . Missions principales 1. Vision produit & stratégie Data Platform Définir la vision produit et la roadmap de la plateforme Big Data . Identifier les besoins des équipes métiers, data scientists et data engineers. Prioriser les fonctionnalités selon la valeur business et la faisabilité technique. Maintenir et piloter le backlog produit (JIRA, Azure DevOps ou équivalent). 2. Pilotage et delivery Animer les cérémonies Agile (daily, sprint review, planning, rétrospective). Collaborer étroitement avec les équipes Data Engineering, Cloud et Sécurité. Suivre l’avancement des développements et s’assurer de la qualité des livrables. Garantir la mise à disposition de datasets et services data fiables, documentés et performants. 3. Gouvernance et qualité de la donnée Contribuer à la mise en place des bonnes pratiques de data gouvernance (catalogue, qualité, sécurité). Superviser les flux de données dans Databricks (ingestion, transformation, exploitation). Assurer la cohérence des environnements (dev / recette / prod). 4. Évolution et innovation Identifier de nouveaux cas d’usage (IA, temps réel, RAG, data sharing). Proposer des améliorations continues en matière d’architecture et d’outils. Assurer une veille technologique active sur AWS, Databricks et les solutions Data/IA émergentes. Compétences techniques : Cloud & Big Data: AWS (S3, Glue, Lambda, Redshift, IAM, CloudFormation/Terraform) Data Platform: Databricks (Delta Lake, PySpark, MLflow, Unity Catalog) Data Engineering & Modélisation: Connaissance de la modélisation data, data pipeline, orchestration (Airflow, ADF, etc.) Langages: Bonne compréhension de SQL et Python (lecture et validation de code) CI/CD & DevOps: Git, Terraform, Jenkins/GitHub Actions (notions) Outils de pilotage: JIRA, Confluence, Miro, Power BI/Tableau (lecture fonctionnelle)
Freelance

Mission freelance
Data Platform Engineer – Snowflake / Terraform (Full Remote – Belgique)

Publiée le
Snowflake

6 mois
580 €
Paris, France
Télétravail partiel
Contexte du poste : Dans le cadre du renforcement de ses équipes Data & Cloud, notre client recherche un Data Platform Engineer spécialisé dans la conception, le déploiement et la maintenance d’infrastructures data à grande échelle. L’objectif est de bâtir un écosystème de données robuste, automatisé et sécurisé , supportant l’ensemble des pipelines et applications data de l’entreprise. Le poste est basé en Belgique , mais 100 % remote est possible. Missions principales : Concevoir, développer et maintenir l’infrastructure sous-jacente aux plateformes data (Snowflake principalement). Industrialiser le provisioning et la configuration via Terraform (Infrastructure as Code) . Garantir la scalabilité, la sécurité et la performance de la plateforme data. Mettre en place et maintenir les pipelines CI/CD (Git-based workflows). Gérer la sécurité des secrets et credentials via les outils dédiés (Vault, AWS/Azure/GCP Secret Manager). Collaborer avec les équipes Data Engineering, Cloud et Sécurité pour assurer la cohérence et la fiabilité de la plateforme. Contribuer à la documentation technique, au suivi Jira et à l’amélioration continue du delivery. Compétences techniques requises : Excellente maîtrise de la plateforme Snowflake (architecture, performance tuning, RBAC, best practices). Expertise confirmée en Terraform , notamment pour la création de modules et l’automatisation des déploiements cloud. Expérience sur des workflows CI/CD Git-based (GitHub Actions, GitLab CI, Jenkins...). Maîtrise d’au moins un outil de gestion des secrets : HashiCorp Vault, AWS Secrets Manager, Azure Key Vault ou GCP Secret Manager. Bonne connaissance de l’ écosystème DevOps et des outils de suivi (Jira, Confluence). Profil recherché : 5 à 8 ans d’expérience en ingénierie data ou cloud infrastructure. Solides compétences en Industrialisation et Sécurité des environnements data . Esprit analytique, autonome et rigoureux. Capacité à travailler dans un environnement international et collaboratif. Langue : Anglais courant (obligatoire) .
Freelance

Mission freelance
Architecte DevOps -IDF - Vorstone

Publiée le
Ansible
Architecture
Automatisation

1 an
600-750 €
Hauts-de-Seine, France
Télétravail partiel
Vorstone recherche un profil « Architecte DevOps » pour contribuer aux différents chantiers structurants de transformation sur le périmètre Automation d'un client grand groupe basé à Paris /IDF (Ile-de-France). Nous recherchons pour la Direction Digital Data et Systèmes d’Information un : Contexte de la prestation • Sous la responsabilité du département Architecture d’Infrastructure au sein de la Direction des opérations, l’Architecte DevOps est intégré à l’équipe Automation constituée d’architectes/ingénieurs techniques. • Nous recherchons un Architecte DevOps pour renforcer notre équipe et améliorer nos pratiques DevOps. Le candidat collaborera avec les équipes de développement et d'exploitation pour automatiser les processus, mettre en place des pipelines CI/CD, gérer l'infrastructure on prem/cloud et assurer la fiabilité de nos applications. Description de la prestation Intégré dans l’équipe Architecture Opérations, la ressource aura en charge : • Définir, concevoir les architectures DevOps pour les développeurs et en particulier pour l’Infra As Code. • Concevoir, développer et maintenir des pipelines CI/CD pour automatiser le déploiement, les tests et la livraison des applications. • Gérer l'infrastructure cloud sur Azure et On premise à l'aide de Terraform et Ansible. • Collaborer avec les équipes de développement pour intégrer les pratiques DevOps dans le cycle de vie du développement des applications. • Contribuer à l'élaboration et à l'amélioration des processus et des outils DevOps. • Documenter et partager les connaissances avec l’ensemble des Architectes. • Rédiger les Normes et Standards. • Bonne maîtrise de l’anglais. Environnements techniques • GitHub • Ansible • Terraform • Azure DevOps • ServiceNow Compétences personnelles Vous êtes reconnu pour votre bon relationnel et appréciez le travail en équipe. Vous faites également preuve d’autonomie et de rigueur dans vos réalisations, vous êtes force de proposition et possédez un bon esprit de synthèse. Vous avez de l’aisance en expression orale et savez adapter votre discours à votre auditoire, particulièrement lorsqu’il est nécessaire de vulgariser des sujets complexes. Enfin, votre niveau d’anglais vous permet d’échanger facilement à l’oral comme à l’écrit.
Freelance

Mission freelance
Tech Lead Kubernetes

Publiée le
Github
Kubernetes
Linux

12 mois
Île-de-France, France
Télétravail partiel
Nous recherchons un Tech Lead Kubernetes expérimenté afin d’accompagner la gestion, l’évolution et la fiabilisation des plateformes Kubernetes stratégiques du groupe. Le périmètre couvre à la fois les environnements On-Premises (Tanzu Kubernetes Grid intégré à VMware Cloud Foundation) et les clusters Amazon EKS utilisés pour les applications Data. Vous jouerez un rôle clé dans la disponibilité, la sécurité et la performance des socles techniques Cloud privés et publics, tout en contribuant à accélérer l’adoption des pratiques IaC , GitOps et DevSecOps au sein des équipes internes. Missions principales 1. Environnements On-Premises (TKG / VCF) Administrer, maintenir et faire évoluer les clusters Tanzu Kubernetes Grid (TKG) . Préparer et piloter la migration vers TKG 2.x intégré à VMware Cloud Foundation 9 . Apporter une expertise avancée sur la performance, la résilience et la sécurité Kubernetes. Accompagner la montée en compétences des équipes opérationnelles. Contribuer à l’intégration et à la fiabilisation des pipelines CI/CD dans une approche IaC & GitOps. 2. Environnements AWS (Amazon EKS) Administrer et optimiser les clusters Amazon EKS utilisés pour les workloads Data. Accompagner la reprise opérationnelle des clusters initialement gérés par les équipes Data Cloud. Fournir un support expert sur les incidents, la performance et la sécurité Kubernetes. Garantir la disponibilité, la résilience et l’évolution du socle technique. 3. Exploitation & amélioration continue (On-Prem & AWS) Assurer le maintien en condition opérationnelle des plateformes Kubernetes. Documenter et actualiser les procédures d’exploitation et de reprise après incident. Définir et maintenir les rôles RBAC et la gestion des droits utilisateurs. Automatiser le déploiement bout-en-bout des environnements Kubernetes. Contribuer à la définition du socle commun d’hébergement des applications critiques. 4. Adoption Cloud, DevOps & GitOps Promouvoir les usages Cloud et Kubernetes au sein du groupe. Participer à l’amélioration continue des pratiques GitOps et DevSecOps . Accompagner les équipes Exploitation et Développement dans leur montée en compétences. Assurer le transfert de connaissances et la continuité de service. Livrables attendus Documentation technique complète et actualisée (en français). Référentiel documentaire structuré et maintenu. Contributions aux schémas d’architecture Kubernetes & Cloud. Modules IaC réutilisables & pipelines CI/CD opérationnels
Freelance
CDI

Offre d'emploi
Ingénieur DevOps

Publiée le
API REST
AWS Cloud
Github

12 mois
40k-55k €
400-500 €
Lille, Hauts-de-France
Télétravail partiel
Au sein d’une Business Unit dédiée à la Data, vous interviendrez sur une plateforme cloud stratégique, utilisée par l’ensemble des profils data : data engineers, data scientists, data analysts et équipes de développement. Votre rôle sera de contribuer à l’évolution, la résilience et la sécurité de l’infrastructure data, tout en apportant un support technique avancé. Votre rôle Vous serez impliqué·e dans trois périmètres principaux : 1. Évolution et exploitation d’une offre de compute Kubernetes (AWS EKS) Faire évoluer le produit selon l’état de l’art et automatiser les fonctionnalités existantes et futures. Analyser, challenger et formaliser les besoins utilisateurs. Automatiser la mise à disposition de ressources et d'accès en self-service. Assurer le maintien en condition opérationnelle (MCO) et le support N3. Suivre les évolutions de Kubernetes et de l’écosystème CNCF. Garantir la sécurité et la conformité des clusters. Améliorer en continu les mécanismes d’observabilité (logs, métriques, alerting). Veiller à la fiabilité, l’évolutivité et la maintenabilité du produit. 2. APIsation de la plateforme Identifier les besoins Ops et les traduire en solutions techniques basées sur des API. Concevoir, développer et maintenir des API robustes et évolutives. Garantir la maintenabilité, la performance et l'interopérabilité entre les services. 3. Animation technique & bonnes pratiques DevOps Mettre en place une automatisation complète de la chaîne de delivery. Garantir la qualité des livrables et standardiser les processus. Automatiser les tâches répétitives ou sources d’erreur. Sensibiliser et accompagner l’équipe sur les bonnes pratiques DevOps. Ce qui fera votre succès Mindset & Soft Skills Proactivité et ownership : être moteur sur l’amélioration continue et l’évolution des produits. Culture de l’automatisation : chercher systématiquement à simplifier et industrialiser. Communication technique pédagogique : capacité à vulgariser, challenger et guider. Exigence sur la sécurité et l’observabilité , intégrées nativement dans les conceptions. Veille technologique active , notamment sur Kubernetes, CNCF et AWS.
Freelance

Mission freelance
IT ENGINEERING MANAGER

Publiée le
Amazon Elastic Compute Cloud (EC2)
Amazon S3
AWS Cloud

12 mois
580-600 €
Île-de-France, France
Télétravail partiel
Engineering Manager / Head of Engineering / Lead Technique expérimenté , capable d’apporter structure, cohérence et excellence technique dans un contexte digital multi-équipes (squads internes et prestataires). Le profil doit allier expertise technique solide , leadership naturel et vision d’ingénierie moderne orientée qualité et productivité. Expérience et parcours 8 à 12 ans d’expérience dans le développement ou l’architecture logicielle, dont au moins 3 ans en management technique ou en direction d’équipes de delivery . Expérience confirmée dans un environnement web / digital à fort trafic ou produit SaaS. Habitude de travailler dans un modèle d’équipes agiles multi-squads (internes + externes). Solide expérience dans la mise en place de standards techniques , d’ outils CI/CD , et dans la structuration d’organisations d’ingénierie . Compétences techniques clés Langages & frameworks : TypeScript, Node.js, React (niveau expert) ; Python apprécié. Architecture logicielle : Clean / Hexagonale / modulaire ; maîtrise des Design Patterns. CI/CD & DevOps : GitHub Actions, AWS CodePipeline, infrastructure AWS (EC2, Lambda, S3, CloudFront…). Outils : GitHub, Jira, Confluence, Google Workspace. Connaissance approfondie de l’ intégration continue , du testing (unitaires, intégration, E2E), et des bonnes pratiques d’ingénierie logicielle .
Freelance

Mission freelance
Ingénieur Dev’Op’s Domaine applicatif H/F

Publiée le
Apache
Apache Tomcat
Azure

6 mois
Guyancourt, Île-de-France
Télétravail partiel
Notre client Grand Compte situé à Guyancourt, recherche un Ingénieur Dev’Op’s Domaine applicatif. Le démarrage est prévu le 15/12/2025. Contexte : Dans un contexte de transformation digitale des applicatifs front-office à destination des chantiers. Au sein de la direction des Opérations Monde. Sur un domaine applicatif exigeant : Maintien en conditions opérationnelles et projet. Des infra très hétérogènes : On’Prem, Azure, Saas. De nombreux axes d’améliorations à identifier et à travailler. Le tout au sein d’une équipe très soudée. Les missions principales : Accompagner les projets du domaine Production >> Projets de déploiement de nouveaux applicatifs Cloud AZURE Préparer/ Optimiser l’exploitabilité des produits Garantir la qualité, la valeur et la performance des services applicatifs du périmètre Accompagner les domaines dans la gestion de leur portefeuille applicatif. Activités principales : Participation à la construction et au design du produit : • Être force de proposition pour faire évoluer / optimiser le produit en mettant en avant l'intérêt pour l'utilisateur. • Contribuer aux DAT et aux SAT • Anticiper et définir les conditions d’exploitabilité (sécurité/Interopérabilité/data) du produit dès la phase projet Garantir l’exploitabilité du produit : • Identifier et coordonner les bons interlocuteurs pour traiter les incidents et les changes, s’assurer qu’ils ont le bon niveau de compétences et accès aux outils nécessaires. • Définir les étapes et anticiper les risques des déploiements • Définir ou challenger les plans de tests : contribuer aux cahiers de tests, réaliser certains tests • Préparer, dupliquer et déployer les environnements • Piloter la rédaction et valider l’ensemble des procédures d’exploitation Suivi de la performance des services : • Superviser la bonne santé des applications « globales » avec les équipes régionales de supervision. • Garantir les engagements de service sur l’ensemble des services appli pour les incidents, les demandes de changements et demandes de services. • Piloter la réalisation des analyses à froid des incidents (amélioration continue). Développer l’industrialisation à chaque étape de la vie du produit : • Identifier les axes d’améliorations sur le périmètre : automatisation, transferts d’activités etc... • Automatiser / sécuriser les déploiements • Implémenter les règles de détection d’incidents (observabilité).
Freelance

Mission freelance
Lead Développeur Frontend Vue3 / Typescript

Publiée le
CI/CD
Git
Github

12 mois
400-450 €
Ronchin, Hauts-de-France
Au sein de notre siège social, nous recherchons pour le compte de notre client spécialisé dans la Grande Distribution, un Lead Développeur Frontend – Vue3 / Typescript (H/F). La mission est basée à Ronchin (59) . Contexte : Les équipes du domaine Inhabitant Data & Profile construisent les référentiels Clients et Habitats globaux d’un large écosystème digital. Notre objectif : améliorer la connaissance des utilisateurs et de leurs environnements, tout en garantissant la protection des données et une expérience utilisateur fluide et qualitative. Dans ce cadre, nous renforçons notre équipe transverse domaine avec un Lead Développeur Frontend expérimenté, capable d’incarner la vision technique front et d’accompagner les équipes digitales dans la maîtrise de la collecte et de la valorisation des données. Plus particulièrement, vos tâches seront les suivantes : • Être le garant des bonnes pratiques frontend et du respect des standards techniques • Collaborer étroitement avec l’UX Designer, l’Architecte Solution et les Tech Leads des produits • Accompagner et coacher les développeurs frontend des différentes équipes • Concevoir, développer et documenter des composants partagés et réutilisables • Participer à la mise en place des tests unitaires et à la documentation technique
Freelance
CDI

Offre d'emploi
Consultant Senior Anaplan

Publiée le
Méthode Agile

18 mois
10k-40k €
100-400 €
Paris, France
Télétravail partiel
CONTEXTE : Expérience : 4 ans et plus Métiers Fonctions : Conseil métier, AMOA, Consultant Senior, Spécialités technologiques : Supply Chain ;BI, ALM, Devops, Intégration de données MISSIONS Recueillir et analyser les besoins métiers Concevoir et modéliser des solutions Anaplan adaptées aux processus clients Participer à la mise en œuvre technique : création de modules, dashboards, actions, intégrations Assurer la gouvernance des modèles et la cohérence des données Former et accompagner les utilisateurs clés Encadrer les consultants juniors et piloter les phases de projet (planning, qualité, livrables) Proposer des améliorations continues et de nouvelles fonctionnalités Participer à la veille technologique autour d’Anaplan et de la planification connectée Expertise souhaitée Formation : Bac+5 (École d’ingénieur, École de commerce, Master en Finance, Data ou SI) Expérience : Minimum 5 ans d’expérience dans la mise en place de solutions EPM/CPM (Anaplan, Tagetik, Adaptive, etc.) Certification Anaplan (Level 2 Model Builder, idéalement Solution Architect) Bonne connaissance d’un ou plusieurs domaines métiers (Finance, Supply Chain, RH, Sales) Capacité à gérer un projet de bout en bout et à interagir avec les directions métiers et IT Bonnes compétences analytiques, rigueur et esprit de synthèse Anglais professionnel Maîtrise d’Anaplan (modélisation, data hubs, actions, dashboards, ALM, Anaplan Connect, CloudWorks) Connaissance de processus budgétaires, prévisionnels ou S&OP Pratique d’outils de BI ou d’intégration de données (Power BI, Tableau, Talend…) Bon niveau en Excel / SQL Connaissance des environnements Agile / DevOps
Freelance
CDI

Offre d'emploi
Architecte Réseaux et sécurité

Publiée le
Architecture
LAN
Réseau de stockage SAN

6 mois
Guyancourt, Île-de-France
Télétravail partiel
Le département Distributed Infrastructure & Network recherche l’excellence en en délivrant la qualité de service requise, en renforçant la maîtrise des risques opérationnels et des coûts. Les principaux services fournis se composent des infrastructures (Datacenters, Réseau LAN MAN WAN et télécom, Sécurité, Serveurs, stockage, service desk, services de production des applications métie)r. Les priorités pour ce cluster concernent la fiabilisation des traitements, le contrôle et la cohérence du dispositif international ainsi que l’optimisation des processus, du dispositif et des relations clients. La mission se déroule au sein du service "International Network Services" (INS) en charge des activités Build Réseaux & Sécurité (Ingénierie, Conception et Delivery) qui gère un parc de plus de 4000 équipements Réseaux & Sécurité et de 60 sites internationaux (sites terminaux, hubs et Data Center).
CDI
Freelance

Offre d'emploi
DevOps SRE H/F

Publiée le
Ansible
Bash
BigQuery

12 mois
45k-60k €
350-450 €
Boulogne-Billancourt, Île-de-France
Télétravail partiel
🌟 Quel sera ton poste ? 🌟 📍Lieu : Boulogne-Billancourt (92) 🏠 Télétravail : 1 jour par semaine 👉 Contexte client : Tu veux rejoindre un acteur phare du numérique et de la publicité digitale en France, en pleine transformation technologique ? L’entreprise développe des solutions de publicité programmatique et de marketing digital à grande échelle, combinant innovation, performance et data. Au sein des équipes techniques dédiées à la publicité en ligne, tu interviens sur des applications déployées dans le Cloud GCP. Ta mission : assurer la stabilité, l’évolutivité et la performance des infrastructures, tout en collaborant étroitement avec les développeurs (Java, Python, Ruby) pour garantir l’exploitabilité des applications durant les phases de Build et Run. Tu seras le référent DevOps et production au sein d’une équipe passionnée, dans un environnement Agile. Tu auras pour missions de : Créer et configurer les infrastructures Cloud GCP via Terraform. Configurer et déployer les applications à l’aide de Kustomize et Helm. Écrire et maintenir des scripts Bash et Python pour l’automatisation. Gérer la CI/CD via GitLab, GitHub ou CircleCI. Assurer le support des incidents et le suivi du processus d’alerte. Mettre en place et suivre le monitoring / alerting et les SLA/SLO. Rédiger et maintenir la documentation technique. Partager tes bonnes pratiques DevOps avec les autres membres de l’équipe.
CDI

Offre d'emploi
Responsable Informatique/Infrastructures H/F

Publiée le

62k-70k €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Fed IT, cabinet de recrutement spécialisé dans les fonctions informatiques, recherche pour son client, centre de formations initiales et pour adultes, un(e) Responsable des Systèmes d'Information H/F, dans le cadre d'une création de poste. Directement rattaché(e) à la direction générale et opérationnelle, vous intervenez pour une société de 300 collaborateurs et 1200 étudiants. Ainsi, vous : -Managez l'ensemble de l'équipe IT (1 manager et 6 personnes en infra et support, 2 personnes au pôle applicatif et 1 chef de projet), -Pilotez, avec l'aide des managers de pôles, les projets (changement de tenant, bascule sous HyperV, cybersécurité, création d'un data hub...), -Intervenez en environnement technique : Windows, Microsoft 365, cloud AWS (et 2 serveurs physiques sur site), -Gérez, en parallèle de la dimension technique/projet, l'organisation et l'audit régulier de votre équipe, -Êtes force de propositions techniques et réfléchies auprès de votre direction, -Intervenez en environnement Agile, Rémunération : 60 à 65 K€ bruts/an (fixe selon expérience) + 10 % de variable sur objectifs + repas de midi gratuits + statut cadre au forfait et RTT + 1 à 2 jour(s) de télétravail/semaine (après validation de période d'essai).
Freelance

Mission freelance
Ingénieur Backend Python / Monitoring Azure H/F

Publiée le
Apache Airflow
Apache Spark
Azure

3 mois
500 €
Levallois-Perret, Île-de-France
Télétravail partiel
Notre client dans le secteur Luxe recherche un/une Ingénieur Backend Python / Monitoring AzureH/F Description de la mission: Notre client est leader dans le secteur de la beauté et du luxe. Sur cette mission, vos responsabilités seront : • Développer et maintenir des applications backend robustes en Python. • Appliquer des architectures de données de type ELT pour structurer les données. • Développer et maintenir des pipelines de données avec Airflow, Logstash et des scripts Python/Spark pour la collecte et la transformation des données. • Gérer le stockage des données avec Postgres SQL, ElasticSearch, et Azure. • Utiliser Grafana pour la visualisation des données et la création de tableaux de bord. • Intégrer des solutions de monitoring et de logging avec Azure Log Analytics & Metrics. • Collaborer avec les équipes de développement, d'exploitation et de data science dans un environnement Agile Scrum et DevOps. • Utiliser GitHub pour la gestion des dépôts et des pipelines CI/CD. • Participer aux réunions de planification et de révision pour aligner les objectifs techniques avec les besoins commerciaux. Compétences techniques requises : • Maîtrise avancée de Python/Spark et d'autres langages de programmation orientés objets, et expérience avec les API REST & SOAP, Webhooks. • Expertise avancée dans Postgre SQL, ElasticSearch, et Logstash. • Connaissance approfondie des architectures de données ELT. • Expertise avancée avec les technologies Azure, notamment Azure Blob Storage, Event Hub, Azure Log Analytics & Metrics. • Compétences en développement de pipelines de données avec Airflow. • Utilisation de GitHub pour les dépôts et les pipelines CI/CD. • Connaissance autour de Apache Spark est un plus. • Anglais : Niveau intermédiaire requis. Compétences / Qualités indispensables : Python, PostgreSQL, Azure, ElasticSearch, Logstash, Airflow Compétences / Qualités qui seraient un + : Github Devops Informations concernant le télétravail : 2 jours de télétravail par semaine
CDI
Freelance

Offre d'emploi
Ingénieur IA/GenAI/MLOps

Publiée le
IA Générative

3 ans
40k-70k €
400-650 €
Île-de-France, France
Les principaux livrables attendus sont : - Référentiel des bonnes pratiques - Méthodes de Feature Engineering et de validation des données. - Compte-rendus des différents ateliers et réunions - Modèles et pipelines CI/CD - Livrables attendus dans le cadre de l’assurance qualité - Matrice des risques et plan de mitigation En tant qu’ingénieur(e) IA / MLOps, vos principales missions sont de : • Gérer le portefeuille de cas d’usage d’IA (ML/deeplearning, IA Gen, agentique) pour un ou plusieurs départements. • Être le référent IA auprès de vos différents interlocuteurs : chef de projets, développeurs, architectes, métiers, partenaires internes et externes. • Accompagner les directions dans le cadrage de leurs cas d’usage et traduire les besoins métiers en spécifications techniques. • Contribuer à la modélisation de votre portefeuille de cas d’usage. S’assurer que les modèles développés respectent les standards de performance, robustesse, explicabilité et conformité. Garantir que les modèles / cas d’usage développés soient parfaitement industrialisables. o Mettre en place les bonnes pratiques, méthodes de Feature Engineering et de validation des données. o Challenger les approches proposées par les Data Scientists. • Piloter l’industrialisation et le déploiement des modèles IA o Définir et appliquer le cadre ML Ops du groupe : reproductibilité, versioning, automatisation des tests, gouvernance des modèles o Concevoir des architectures IA modulaires, en évaluant en amont ce qui a déjà été développé et en favorisant la mutualisation plutôt que le redéveloppement systématique. Travailler en collaboration étroite avec les autres directions IA pour harmoniser les choix technologiques et accélérer l’industrialisation. o Construire et implémenter les pipelines, CI/CD, monitoring. o S’assurer de la conformité avec les normes internes techniques et réglementaires (cadre normatif / IA act / RGPD). • Garantir la qualité et la conformité o Structurer et diffuser les bonnes pratiques : organisation du code / worflow Git, qualité et tests, ML Ops et reproductibilité (tracking, versioning, CI/CD, orchestration, infra as code, …), sécurité, gouvernance et réutilisabilité, « definition of done », règles d’usage de GitHub Copilot o Auditer et valider les modèles / cas d’usage développés. o Garantir la qualité et la conformité des livrables avant mise en production. o Etablir la traçabilité : documentation, métadonnées, suivi des performances. o Être le point de contact technique privilégié pour les instances de validation. • Encadrer et accompagner les juniors et les collaborateurs dans le domaine de l’IA. o Organiser la montée en compétence progressive et objectivée des juniors. • Jouer un rôle de pédagogue vis-à-vis des métiers pour vulgariser les concepts, les choix technologiques et assurer leur adhésion. • Assurer une veille technologique active sur les outils, frameworks, et paradigmes IA. Proposer de nouvelles solutions / architectures adaptées aux besoins métiers. Usage Interne / Internal Use Anticiper les évolutions des réglementations et intégrer les enjeux de responsabilité de l’IA.
51 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous