L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 4 924 résultats.
Mission freelance
Data & ML Ops Engineer
Publiée le
API
DevOps
Machine Learning
6 mois
300-450 €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Missions principales : Data Engineering Concevoir, développer et maintenir des pipelines de données robustes pour alimenter les applications. Garantir l’ingestion, la transformation et le stockage de volumes importants de données. Optimiser les traitements afin d’assurer des performances adaptées aux enjeux de volumétrie. Mettre en œuvre des dispositifs de qualité des données (contrôles, alertes, supervision). Travailler en étroite collaboration avec les équipes de développement pour définir et exposer les interfaces de données (API, bases). Documenter les flux et assurer la mise à jour du catalogue de données des projets. MLOps Industrialiser les processus d’entraînement des modèles de Machine Learning dédiés à l’optimisation du dimensionnement des structures. Déployer des pipelines CI/CD pour les modèles ML (gestion des versions des données et modèles, automatisation des entraînements). Suivre et analyser les performances des modèles en production (détection de dérives, indicateurs de performance). Accompagner les Data Scientists dans la mise en production des modèles.
Mission freelance
Data Manager - Migration Microsoft Business Central - Valréas (84)
Publiée le
Data management
ERP
Migration
3 mois
Valréas, Provence-Alpes-Côte d'Azur
Nous recherchons en urgence un(e) Data Manager pour le site de Valréas (secteur Orange / Nyons). Le contexte : Les données ont été centralisées récemment sous la responsabilité du DSI (équipe de 6 personnes). Le projet de migration vient de démarrer, et le rôle de data manager est clé pour la réussite de ce projet. Type de poste : À terme, il s’agit d’un CDI . Pour répondre à l’urgence, nous pouvons envisager une mission ponctuelle le temps du projet. Profil recherché : Si consultant : Connaissance impérative de Microsoft Business Central . Sinon : un(e) spécialiste Data sur des ERP en manufacturing avec gestion qualité et traçabilité.
Offre d'emploi
PIXIE - Architecte Data Sénior Lyon/Paris +7 ans - Data IA
Publiée le
AWS Cloud
Big Data
Google Cloud Platform (GCP)
3 ans
France
Bonjour Pour un de mes clients, je recherche un(e) Architecte Data Sénior Site : Lyon (2 jours par semaine sur site) ou Paris Expérience : +7 ans Contexte : Mission pour la cellule Marché Data IA Profil recherché : Architecte Data Sénior Missions principales : Définir la stratégie et la feuille de route Data Structurer et cadrer les chantiers Data Animer la communauté Data Mettre en place la gouvernance des données Contribuer aux choix d’architecture et d’outils Produire des livrables Data Piloter l’avancement en mode Agile avec reporting Compétences clés : Stratégie Data expert Gouvernance Data expert Architecture Data expert Animation transverse maîtrise Agile et Planisware connaissance Environnement : Planisware Outils Data GitLab, Jira, Confluence, ITSM Teams, SharePoint AWS, GCP Résumé : Architecte Data Sénior avec forte expertise en stratégie, gouvernance et architecture Data, environnement cloud et Agile Si vous êtes intéressé(e) et que votre profil correspond, merci d’envoyer votre CV à jour. Je reviendrai vers vous rapidement pour échanger.
Mission freelance
Cloud Network - Ops Engineer
Publiée le
AWS Cloud
DNS
Google Cloud Platform (GCP)
1 an
350-500 €
Paris, France
Télétravail partiel
Au sein de l’équipe Réseau & Cloud, le consultant interviendra sur la conception, l’automatisation et l’exploitation de composants réseau dans des environnements hybrides et cloud. Il contribuera à la livraison de fonctionnalités techniques dans un cadre agile (Scrum), participera aux activités de Build et de Run, au maintien en condition opérationnelle et à l’automatisation des infrastructures. La mission couvre des environnements AWS et GCP (VPC, transit, segmentation, DNS, IPAM) et inclut des projets d’innovation et d’amélioration continue. Mission en présentiel à Lille, Paris ou Lyon avec 2 jours de télétravail par semaine.
Offre d'emploi
Business Analyst
Publiée le
Finance
Méthode Agile
SQL
6 mois
40k-45k €
400-550 €
Paris, France
Télétravail partiel
Je suis actuellement à la recherche d’un(e) Business Analyst confirmé(e) (8 à 10 ans d’expérience) pour intervenir au sein d’une équipe IT Shared Applications dans un environnement financier international et réglementé. Contexte Dans le cadre de projets réglementaires, commerciaux et d’évolutions du système d’information, un acteur majeur du secteur financier recherche un renfort senior pour accompagner l’accélération de ses projets IT, dans un contexte de forte montée en charge. Missions principales Analyse et formalisation des besoins métiers (banque / marchés financiers) Rédaction de spécifications fonctionnelles et techniques détaillées Interface fonctionnelle entre les équipes métiers, IT et les parties prenantes du projet Participation aux projets (RFP, livrables, documentation, cahiers de tests) Contribution aux tests d’intégration et support fonctionnel à l’équipe projet Maintien de la documentation applicative Analyse de données via SQL Suivi et reporting des sujets fonctionnels pris en charge Profil recherché Business Analyst confirmé(e) avec 8 à 10 ans d’expérience Expérience significative en banque et/ou marchés financiers Excellentes capacités d’analyse, de synthèse et de rédaction Maîtrise de l’anglais courant indispensable (environnement international) Autonomie, proactivité et capacité à gérer plusieurs sujets en parallèle Très bon relationnel et esprit d’équipe
Offre d'emploi
Data Engineer GCP
Publiée le
BigQuery
Google Cloud Platform (GCP)
6 mois
Rouen, Normandie
Télétravail partiel
Nous recherchons un(e) Data Engineer spécialisé(e) sur Google Cloud Platform (GCP) pour renforcer l'équipe Data de notre client Vous serez chargé(e) de concevoir, développer et maintenir des pipelines de données performants et fiables, afin de structurer et valoriser les données de l’entreprise. Votre rôle sera central dans la mise en place d’une infrastructure data moderne et évolutive, au service des équipes métiers, Data Science et BI. Concevoir, développer et maintenir des pipelines de données sur GCP (Dataflow, Dataproc, Cloud Composer, etc.) Mettre en place et administrer des data lakes et data warehouses (BigQuery, Cloud Storage) Intégrer des flux de données provenant de sources variées (API, streaming, batch) Participer à la modélisation et à la gouvernance des données Automatiser les déploiements et superviser les environnements (Terraform, CI/CD) Collaborer avec les équipes Data Science, BI et Produit Garantir la qualité, la sécurité et la conformité des données (RGPD, bonnes pratiques GCP)
Mission freelance
Data Architecte H/F
Publiée le
Apache Airflow
Apache Spark
BigQuery
210 jours
510-770 €
Paris, France
Télétravail partiel
Rejoignez un leader français de l'audiovisuel pour une mission stratégique d' Architecte Data GCP . Vous accompagnerez la Direction Technique du Numérique dans la consolidation et l'optimisation de sa Data Platform, en interface directe avec les équipes Data (Product Owners, Data Engineers, Data Scientists). Votre rôle sera de structurer l'architecture technique globale, améliorer l'expérience développeur et piloter l'optimisation des coûts cloud. Vos Missions : 🏗️ Architecture Technique Garantir la cohérence de la stack data entre équipes et projets Définir et faire respecter les contrats d'interface (schémas, API, data contracts) Effectuer la veille technologique et évaluer les standards du marché Tester, auditer et introduire de nouvelles technologies Réaliser un audit de l'architecture existante et recommander les améliorations ⚡ Developer Experience Contribuer à la création de modules Terraform et à leur industrialisation Accompagner les équipes dans l'usage de l'Infrastructure as Code Définir les standards CI/CD pour les équipes data (tests, lint, automatisation) 💰 FinOps & Optimisation Mettre en place un suivi budgétaire par équipe Implémenter des outils d'alerting et monitoring (quotas, seuils, dérives) Identifier les leviers d'optimisation et participer à la roadmap FinOps
Mission freelance
DevOps / Cloud Platform Engineer – AWS & Terraform
Publiée le
AWS Cloud
DevOps
Linux
12 mois
600-650 €
Paris, France
Télétravail partiel
Mission L’équipe Platform Engineering du client est au cœur de la livraison de nos produits en fournissant une plateforme cloud fiable, sécurisée et scalable. En tant qu’Ingénieur DevOps (AWS/Terraform), votre mission est de concevoir, industrialiser et opérer la plateforme et les outils qui permettent aux équipes de construire, déployer et faire évoluer leurs applications rapidement et en toute sécurité sur AWS. Tâches principales Dans cette mission d’Ingénieur Plateforme Cloud Data, vous aurez les responsabilités suivantes : Concevoir et développer des modules Terraform avancés et réutilisables (réseau, sécurité, calcul, data, edge) alignés avec des standards d’architecture robustes et les bonnes pratiques AWS. Faire évoluer une architecture multi-comptes (AWS Organizations, Control Tower/SCPs, gouvernance, identités) afin de fournir un cadre de déploiement sécurisé et scalable. Définir des blueprints d’infrastructure et d’applications (« golden paths ») pour des workloads conteneurisés (EKS/ECS/Fargate), serverless (Lambda) et traditionnels (EC2/ASG), incluant le réseau, l’observabilité et la sécurité. Construire et maintenir des pipelines CI/CD pour l’infrastructure et les applications (Jenkins/GitLab CI), incluant les tests, le policy-as-code (OPA/Conftest), la sécurité (tfsec/Checkov) et l’automatisation des plans/apply (Atlantis/Spacelift/Terraform Cloud). Exploiter et renforcer la plateforme : supervision/alerting/logging/tracing (CloudWatch, OpenTelemetry, Prometheus/Grafana, OpenSearch, Datadog), définition des SLI/SLO, gestion de la capacité, sauvegardes et reprise après sinistre. Sécuriser l’environnement : IAM à privilèges minimaux, KMS, Secrets Manager, patching, gestion des secrets (SOPS), scan des IaC et des images. Gérer Terraform à grande échelle : state distant (S3 + verrouillage DynamoDB), stratégie de versioning, cycle de vie des modules, patterns multi-environnements, détection et remédiation du drift. Accompagner les équipes du client dans la migration des workloads on-premise vers AWS : évaluations, sélection des patterns, adoption de templates, outillage et coaching pour l’auto-service. Identifier et automatiser les tâches répétitives (outillage Bash/Python, automatisation Terraform ou copilotes IA) afin d’accélérer les déploiements et les migrations. Contribuer au support N2/N3, à la gestion des incidents et aux post-mortems ; produire une documentation claire et assurer le transfert de connaissances. Qualifications / Compétences requises Minimum 3 ans d’expérience en DevOps/SRE/Platform Engineering et au moins 2 ans d’expérience en production sur AWS. Diplôme Bachelor ou Master en Informatique/Ingénierie (ou équivalent). Excellente maîtrise de Terraform : conception de modules, providers, gestion du state, structuration et bonnes pratiques, tests et releases. Expertise approfondie AWS : VPC/Transit Gateway, IAM, EC2/ASG, EKS/ECS/Fargate, RDS, DynamoDB, S3, ALB/NLB, Route 53, Lambda, CloudWatch, Systems Manager, KMS, Organizations/Control Tower. Solides compétences Linux, réseaux (TCP/IP, DNS, TLS) et scripting (Bash) ; Python pour l’outillage et les intégrations. Fortes pratiques DevOps et expérience CI/CD ; Git, MR/revue de code. Conteneurs et orchestration (Docker, Kubernetes/EKS), packaging (Helm), registry et sécurité de la supply chain. Excellentes capacités de collaboration ; aptitude à traduire les besoins produit en solutions techniques simples, robustes et sécurisées. Bonus Expérience des méthodes agiles (Scrum/Kanban) et culture produit (roadmaps, discovery, boucles de feedback). Certifications appréciées : AWS Solutions Architect/DevOps Professional, HashiCorp Terraform Associate, CKA/CKAD. Familiarité avec des outils tels que Terragrunt, Atlantis/Spacelift/Terraform Cloud, Argo CD/Flux (GitOps), Packer. Forte sensibilité sécurité et conformité en environnement cloud.
Offre d'emploi
Data Analyst H/F
Publiée le
Data analysis
Database
PL/SQL
35k-40k €
Saint-Brieuc, Bretagne
Lieu : Saint-Brieuc (22) Salaire : 35/40K€ Rythme : Présentiel Nous recrutons pour un intégrateur de solutions industrielles et tertiaires en pleine croissance situé à proximité de Saint-Brieuc dans les Côtes d’Armor. Il s’identifie comme un interlocuteur global pour les entreprises ayant besoin de solutions logicielles innovantes en automatisation, informatique, électricité, GTB, maintenance… Il souhaite couvrir l’ensemble du cycle, de l’étude/conception à la mise en œuvre, la formation, la maintenance et le suivi de leurs clients, afin d’apporter une solution clés-en-main. Dans le cadre de leur développement, notre client souhaite recruté un Data Analyst confirmé. Les missions sont les suivantes : - Interpréter les besoins métier et les transformer en problématiques analytiques exploitables. - Veiller à la qualité, la cohérence et la robustesse des données utilisées dans les modèles et analyses. - Préparer, explorer et modéliser des jeux de données complexes afin d’en extraire des résultats actionnables. - Développer et maintenir des indicateurs, rapports avancés et outils analytiques pour soutenir les décisions stratégiques. - Documenter les méthodes, modèles et workflows, et contribuer à la diffusion des bonnes pratiques data au sein de l’organisation. - Accompagner et former les utilisateurs aux analyses, modèles et outils développés pour garantir leur bonne appropriation. - Effectuer une veille continue sur les technologies, méthodes statistiques et avancées en machine learning, puis partager les évolutions pertinentes avec l’équipe.
Mission freelance
Architecte Technique Réseaux Cloud (GCP) – Network Security & Availability
Publiée le
Architecture
Google Cloud Platform (GCP)
IAC
3 ans
160-550 €
Lille, Hauts-de-France
Missions principales Conception & architecture : définir les architectures et standards des environnements réseau (on‑prem et cloud), en cohérence avec l’urbanisme SI et l’existant Produits self‑service & automatisation : concevoir des API et outillages pour automatiser les changements (infra as code, pipelines), afin de délivrer des produits réseau self‑service Run & support N3 : assurer le support de niveau 3 sur des problèmes réseau complexes, contribuer au run et à l’amélioration continue de la disponibilité et de la sécurité Industrialisation & automatisation des opérations récurrentes (scripts, modules Terraform, Python). Gouvernance & référentiels techniques : définir/tenir à jour le référentiel (outils, procédures, normes, sécurité) et standards techniques réseau. Études & préconisations : analyser l’impact des nouvelles solutions, préconiser des choix techniques , organiser la veille et promouvoir les bonnes pratiques d’architecture auprès des équipes
Mission freelance
Client Master Data Lead F/H
Publiée le
API
Data governance
Data management
12 mois
600-650 €
La Défense, Île-de-France
Télétravail partiel
Contexte : Dans le cadre de la transformation Data du Groupe , pilotée par le Group Data Office, un référentiel Client Groupe a été mis en place afin de garantir la cohérence, l’interopérabilité et la fiabilité des données clients à l’échelle de l’ensemble des entités. Dans un contexte de forte croissance via des opérations de fusions-acquisitions , chaque entité dispose aujourd’hui de ses propres systèmes d’information et bases clients. L’enjeu stratégique est désormais de déployer et intégrer ce référentiel Client Groupe sur l’ensemble des entités afin de soutenir les processus transverses et les usages analytiques. Nous recherchons un(e) Client Master Data Lead pour piloter cette démarche de déploiement et d’intégration. Missions En tant que Client Master Data Lead , vous serez en charge de : Définir et piloter la stratégie de déploiement du référentiel Client au sein des différentes entités du Groupe Assurer le rôle de coordinateur central entre le Group Data Office, les équipes IT et les équipes métiers Garantir l’alignement sur les modèles de données clients , les règles de gouvernance et les interfaces techniques Piloter la planification, les priorités et la communication auprès des parties prenantes Mettre en place un reporting structuré (KPI, tableaux de bord, suivi des risques) à destination de la Direction Data Groupe et du Comité Exécutif Responsabilités principales1. Stratégie & Gouvernance Définir la roadmap de déploiement (par entité, par domaine, par lots) Contribuer à la définition du Target Operating Model de la gestion des données clients Identifier les risques, dépendances et enjeux de conduite du changement Mettre en place les indicateurs de suivi et de performance du programme 2. Coordination & Pilotage Être le point de contact unique entre l’équipe référentiel et les équipes locales IT/métiers Coordonner les projets d’intégration (mapping, migration, synchronisation des données) Animer les comités de pilotage et groupes de travail Assurer le suivi des décisions, actions et livrables 3. Conduite du changement Promouvoir l’adoption et la valeur du référentiel Client Accompagner les métiers dans l’adaptation de leurs processus Contribuer aux supports de formation, communication et reporting Localisation 📍 Paris – La Défense (hybride, 2 jours de télétravail par semaine) Rattachement Rattaché(e) au Head of Group Data Office , avec des interactions fortes avec les équipes IT, Data Governance, Data Stewards et Architecture.
Offre d'emploi
Chef de Projet Technique
Publiée le
Cloud
IA Générative
3 ans
40k-45k €
400-450 €
Île-de-France, France
Dans le cadre du programme de transformation IT, on a lancé de nombreux chantiers visant à utiliser des services Cloud à travers son SI. Vous interviendrez sur des projets de notre SI : Web, Cloud, API, IA… Vous intégrez une équipe de 6 chefs de projets IT au sein de laquelle vous serez amené à proposer, partager et mettre en œuvre les bonnes pratiques projets de chacun. D’une manière générale, vous êtes amené à effectuer les activités suivantes : Analyser et comprendre les besoins du client, Contribuer à l’élaboration d’une solution technique adaptée, Réaliser les spécificités techniques, schémas d’architecture applicative Suivre le projet de la réalisation jusqu’à au passage en run du produit (coordination des intervenants, animation de l’équipe, résolution des problèmes) et respecter les contraintes (qualité, délais).
Mission freelance
CONSULTANT TECHNQUE BI DATA EXPERT SSIS SQL SERVEUR AZURE DEVOPS
Publiée le
Azure
BI
DevOps
24 mois
300-600 €
Nanterre, Île-de-France
Télétravail partiel
CONSULTANT BI DATA EXPERT SSIS SQL SERVEUR AZURE DEVOPS Expérience ciblée : PLUS DE 10 ANS Compétences impératives - Compétences techniques : Conception / Modélisation BI (Flux & modèles de données) Expériences significatives sur la mise en place complète de projets BI Data ETL (conception, modélisation, réalisation) et sur le RUN en environnement Full Microsoft (SSIS, SQL Server : Modélisation, procédures stockées, optimisation SQL, etc.). Connaissance et mise en œuvre de la suite Microsoft AZURE DEVOPS (Git, Board Agile, Pipeline de déploiement CI/CD). Anglais professionnel courant - Compétences organisationnelles Expérience significative sur l'implémentation de projets BI d'intégration de données (datawarehouse & datamarts) Avoir la capacité de mener des mini-projets en autonomie tout en étant accompagné par un(e) maitrise d'ouvrage et/ou le métier. Capacité à s'organiser, à s'adapter sur les priorités, à synthétiser l'état d'avancement de ses activités et à remonter les alertes si besoin. - Compétence(s) appréciée(s) : Outils de reporting BI : TABLEAU, IBM Cognos, Power BI Habitué aux relations avec des partenaires offshore Certifications sur la suite MSBI - Descriptif détaillé de la mission : Assurer le RUN des applications existantes (ETL, Bases de données, support niveau 3) Comprendre les enjeux métier, problématiques à résoudre et opportunités à concrétiser. Echanger et challenger les besoins métiers avec les équipes AMOA BI en tenant compte des contraintes techniques. Proposer, concevoir et spécifier des solutions techniques viables, évolutives et tenant compte de l'existant. Rédaction des documents techniques (spécification techniques, document d'exploitation…etc). Conseiller, proposer des axes d'amélioration, alerter si besoin. - Environnement technique de la mission : Socle Data : SSIS, SQLServer (2016), procédures stockées, Azure DevOps (Git, Board Agile, Pipeline de déploiement CI/CD) Reporting : COGNOS BI 10.2 et 11 & Tableau Date début de mission : ASAP Durée estimée de la mission : longue - 3 mois (renouvelables)
Mission freelance
INGENIEUR DATA BI - GENIO
Publiée le
BI
24 mois
250-500 €
Paris, France
Télétravail partiel
INGENIEUR DATA BI GENIO / SQL / BIG QUERY / TERADATA / GCP nous recherchons un Data Engineer entre 3 et 7 ans d'expérience qui aura la capacité de gérer à la fois les aspects MCO/TMA mais également la partie projets pour les différentes directions du groupe en collaboration avec le reste de l'équipe. À la suite d'une passation avec notre centre de service, il devra également être en mesure d'innover et d'améliorer les processus existants pour perfectionner l'efficience de l'équipe au quotidien dans ses différentes tâches. DESCRIPTION DE LA MISSION • Participe à l'analyse du besoin avec la supervision du PPO ou Manager et à la conception du modèle de données permettant de répondre aux enjeux. • Utilise l'analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en œuvre des projets • Conçois, développe et maintien les pipelines de données pour l'acquisition, la transformation, le stockage et la mise à disposition des données. • Optimise les performances des développements pour assurer une disponibilité et une fiabilité maximale • Identifie et résout les goulots d'étranglement et les problèmes de performances dans les flux de données • Met en place des processus et des contrôles pour garantir la qualité des données • Conçoit et met en œuvre des systèmes d'alerte, de monitoring et de reprise automatique efficaces. • Réalise la recette technique et anime la recette fonctionnelle avec les utilisateurs • Rédaction des documents associés au projet (Spécification Fonctionnelles, Spécifications Techniques, Cahier de recette Technique, Document d'exploitation) • Être force de proposition sur l'amélioration de notre stack Data • Faire le reporting d'avancement des travaux • Support au déploiement • Assure la maintenance corrective ou évolutive • S'assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l'équipe ENVIRONNEMENT TECHNIQUE L'environnement Data dans le cadre de cette mission est actuellement constitué principalement d'une base de données Teradata (Cloud) ainsi qu'un environnement BigQuery. • Langages/Framework : SQL, BigQuery, Python, Java, Shell • Outils : OpenText GENIO, Talend • Base de données : Teradata, BigQuery, SQL Server, IBM DB2 PLANIFICATION ET LOCALISATION Démarrage ASAP / PARIS
Offre d'emploi
DÉVELOPPEMENT JAVA BACKEND Spring (3-6 ans d'exp)
Publiée le
Java
Spring
Spring Batch
3 ans
40k-55k €
400-500 €
Paris, France
Télétravail partiel
🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 💡 Contexte /Objectifs : L'entité est en charge du SI du Leasing pour deux lignes métiers:- les financements structurés de la grande clientèle- les financements pour les PME. Le bénéficiaire souhaite mettre en oeuvre plusieurs évolutions de son socle technique. A ce titre, le Bénéficiaire souhaite bénéficier de l'expertise du Prestataire en termes de Conception et développement Dans ce cadre la prestation consiste à contribuer à/au(x) : - La gestion du projet ITRM - La comitologie - Suivi - Reporting Environnement technique : Java 6/7/8/17, spring batch, spring web, xldeplloy, jenkins, SQL, Sonar Autres technologies : XLdeploy, Docker et Kubernetes. 🤝 Livrables : Les livrables attendus sont : Développement JAVA backend pour le projet Maille Contrat (réécriture de l'interface risque). Devops: mise en place de la chaine de déploiement du projet, des serveurs, monitoring etc.
Mission freelance
Ingénieur DevOps Cloud Azure & Data - Confirmé 5 ans xp
Publiée le
Azure
Cloud
Databricks
1 an
Île-de-France, France
Télétravail partiel
Description du contexte Au sein de la Direction Digital et Data, le consultant intégrera le Data Lab , en charge de l’ensemble des projets BI et Data du groupement. La plateforme cible est le Cloud Microsoft Azure . Dans le cadre des projets de transformation, l’Ingénieur DevOps participera au déploiement et à l’industrialisation des solutions data. Polyvalent et à l’aise dans la communication avec les équipes techniques, il devra également contribuer aux sujets de sécurité, aux ateliers, et au suivi des recommandations issues des audits. L’environnement est Agile , et l’équipe composée d’une dizaine de collaborateurs. Missions principales Construire des infrastructures Cloud Public (principalement Azure) Industrialiser les architectures cibles & configurer les équipements (CI/CD) Mettre en place outils & procédures de supervision garantissant la haute disponibilité Participer aux phases de validation technique (mise en production & évolutions) Collaborer étroitement avec les équipes Développement, Sécurité et Projets
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Entretiens et tests techniques developpeurs Java Angular junior
- Freelance : peu de retours sur mes candidatures – vos stratégies ?
- Gestion d’entreprise : astuces pour freelances IT
- Traitement fiscal des cotisations sociales payées en 2025 sur CA micro-BNC 2024
- L'EI à l'IS est-elle toujours plus intéressante qu'à l'IR ?
- ESN qui cherche à trop marger
4924 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois