L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 4 036 résultats.
Offre d'emploi
INGÉNIEUR DEVOPS
EterniTech
Publiée le
Azure
GenAI
Méthode Agile
3 mois
Paris, France
Je cherche pour un de mes clients un DEVOPS AI Contrainte forte du projet: Agile, GenAI, RGPD, AI Act Les livrables sont: -Composants applicatifs et intégrations -Pipelines d'automatisation et de déploiement -Assurance qualité et documentation Compétences techniques: -Terraform - Confirmé - Impératif -GenAI - Junior - Important -Azure - Confirmé - Important - Agile - Junior - Souhaitable Connaissances linguistiques: -Français Courant (Impératif) -Anglais Professionnel (Impératif) Description détaillée **VOTRE MISSION** * Implémenter et maintenir les composants applicatifs nécessaires aux solutions GenAI : APIs, services backend, interfaces frontend et connecteurs vers les briques IA (agents, RAG, vector DB). * Travailler en binôme avec l’AI Engineer pour intégrer proprement les modèles et pipelines GenAI dans des architectures robustes et industrialisées. * Concevoir des APIs sécurisées et scalables (REST/GraphQL) et assurer l’intégration avec OneAPI, Azure services et les API internes. * Développer en Python et en JavaScript selon les besoins du projet ; produire du code propre, testé et documenté. * Participer à l’industrialisation : conteneurisation (Docker), orchestration sur AKS, déploiement via CI/CD (Azure DevOps / GitHub Actions), IaC (Terraform). * Mettre en place l’observabilité et l’alerte (logs, métriques, traces) pour assurer la fiabilité et suivre les coûts en production. * Assurer la qualité logicielle : tests unitaires/intégration, revue de code, performance et sécurité applicative (RBAC, chiffrement, bonnes pratiques secure-by-design). * Contribuer à la création de briques réutilisables, templates et patterns pour accélérer les futures squads (boilerplates, SDKs, connecteurs). * Collaborer avec le PO, l’AI Engineer, la DSI, la cybersécurité et les équipes opérationnelles pour garantir l’exploitabilité et l’adoption. **VOTRE PROFIL** * Bac +3 à Bac +5 en informatique, génie logiciel, ou équivalent. * Expérience professionnelle confirmée (minimum 3 ans) en développement logiciel, idéalement en environnements Cloud (Azure). * Solides compétences en programmation Python et JavaScript (Node.js, React) ; bonne pratique des design patterns backend/frontend. * Expérience avec les architectures cloud Azure : AKS, WebApp, storage, services PaaS et bonnes pratiques d’exploitation. * Maîtrise de la conteneurisation et de l’orchestration (Docker, Kubernetes) et des pipelines CI/CD (Azure DevOps, GitHub Actions). * Connaissance d’Infrastructure as Code (Terraform) et des pratiques DevOps. * Compréhension des concepts GenAI (LLMs, RAG, embeddings, vector DB) et capacité à intégrer des composants IA en collaboration avec un AI Engineer ; expérience pratique appréciée mais pas impérative. * Compétences en bases de données SQL/NoSQL et en conception de schémas adaptés aux besoins d’indexation/sémantique. * Rigueur sur la qualité du code : tests, revue, automatisation ; sensibilité aux enjeux de sécurité et de souveraineté des données. * Curiosité technique, capacité d’adaptation (outils et stacks variables selon les besoins), esprit d’équipe et bon relationnel. * Familiarité avec les outils low-code/no-code est un plus. * Anglais professionnel (lu/écrit) ; français courant indispensable. * Disponible pour être en régie sur 2026, et participer activement à la construction et à la standardisation des pratiques d’une AI Factory interne. Définition du profil : DEVOPS ENGINEER INGÉNIEUR DEVOPS Il /elle développe et exploite les produits / plateformes Cloud dans le respect du cadre technique/technologique instauré. Activités et tâches - Développe les nouveaux produits, réalise les tests unitaires et rédige la documentation technique - S'inscrit dans la chaine CI/CD - S'intègre dans les pratiques de développement instaurées (revue de code, tests de vulnérabilité, qualité de code) - Identifie les optimisations à réaliser sur les techniques d'automatisation et de déploiement - Sécurise la production readiness des produits (tests d'intégration, scripts d'exploitation, automatisation des actions de support, documentation technique) - Assure l'exploitation des produits / plateformes Cloud et répond aux incidents d'exploitation associés (selon les niveaux de services définis) - Contribue à l'amélioration continue des produits / plateformes Cloud - Apporte une expertise technique aux utilisateurs / clients / consommateurs sur son périmètre de produits/plateformes Cloud - Anime ou participe à la communauté Cloud DevOps Description du besoin : Mission :DEVOPS Localisation :92 Démarrage : Mars Jours obligatoires sur site : 1 jours/semaine Expérience : Confirmé
Mission freelance
Ingénieur DEVOPS - Openshift - MLOps H/F
Insitoo Freelances
Publiée le
Artifactory
Azure Kubernetes Service (AKS)
Openshift
2 ans
295-556 €
Marignane, Provence-Alpes-Côte d'Azur
Habilitation obligatoire Les missions attendues par l' Ingénieur DEVOPS - Openshift - MLOps H/F : La mission consiste à établir, exploiter et améliorer une plateforme AI/MLOps basée sur Kubernetes / OpenShift pour supporter le cycle de vie complet des modèles ML, depuis l'expérimentation jusqu’au déploiement opérationnel. Objectifs principaux (non exhaustif) : Garantir la fiabilité , la scalabilité et la sécurité de la plateforme AI. Fluidifier le passage ML → production , en automatisant au maximum les étapes. Compétences techniques essentielles : Expertise containers Docker , orchestration Kubernetes , avec forte pratique OpenShift . Compétence DevOps : CI/CD , IaC, GitOps. Maîtrise de solutions MLOps : Kubeflow , Elyra , environnements LLM. Connaissances avancées sur les pipelines : Tekton , modèles de déploiement, Artifactory. Compétences en scripting : Python , Go . Connaissance des frameworks de Machine Learning Soft skills & exigences : Autonomie sur un environnement complexe. Capacité à intervenir sur une plateforme AI en production. Aptitude au troubleshooting multi-couches (pods, ressources, pipelines). Rigueur, sécurité et conformité dans les environnements sensibles Maintenance & Opérations Exploitation quotidienne d’une plateforme AI basée sur kube/OCP . Application des mises à jour , correctifs et évolutions des composants plateforme. Déploiement & Supervision Déploiement des modèles ML dans l’environnement OCP. Automatisation des tâches de scaling, monitoring et gestion du cycle de vie. CI/CD & Pipelines Conception, construction et maintenance de pipelines CI/CD avec Tekton ou Kubeflow . Gestion des workflows d’entraînement, réentraînement et inference. Support & Troubleshooting Diagnostic des crashes pods, problèmes de ressources, échecs pipelines. Résolution des incidents liés à la production de modèles. Customisation & Sécurité Rebuild et customisation de composants plateforme (workbenches, runtimes). Garantie de la conformité & sécurité sur l’ensemble des environnements. Teletravail : 2j/5
Offre d'emploi
devops
5COM Consulting
Publiée le
Azure
DevOps
Terraform
12 mois
40k-46k €
280-410 €
Bordeaux, Nouvelle-Aquitaine
ngénieur SRE/DEVOPS dans une équipe Agile pour construire les infras dans le cloud Azure grâce à TerraForm, construire les pipelines via GITLAB CI, gérer la bonne conduite de tous les process en suivant les exigences de production de l'équipe DEVOPS (30 personnes). Objectifs et livrables Conception, participation à la définition de l’architecture et déploiement de l'infrastructure onPremise et Cloud Conception & développement de scripts et APIs techniques Configuration de middlewares Analyser les anomalies sur les environnements de pré-production/ staging et de production Définition des critères d’exploitabilité d’un applicatif S’assurer de la mise en place des critères de sécurité définis Être garant, de la mise en place de l'exploitabilité des applicatifs déployés en production (smokeTest, supervision, alerting, fiches consignes, KPI…), en suivant les critères d’exploitabilité définis par la communauté devops Effectue le suivi de la qualité de la production (performances, incidents) conformément au contrat de service Accompagne les projets d’un domaine d’activité en tant que spécialiste de la production : vérification du respect des critères d’exploitabilité Élabore, réalise et fiabilise les plans d’ordonnancement des traitements de production Automatiser les tâches manuelles automatisables, répétables et sans valeur ajoutée Conception et construction des usines de déploiement logiciels Maintien en condition opérationnelle des usines de déploiement logiciels existantes et des APIs associées, des outillages et infrastructures transverses Réaliser de l'astreinte, notamment lors d'alertes en HNO Travailler en mode agile dans les squads de développement (le mode agile ne doit pas empêcher le ticket JIRA) Diffuser la connaissance et les bonnes pratiques devops, notamment en participant et en animant des communautés de pratiques Devops. Documenter Être force de proposition dans l'amélioration des techniques d'industrialisation et d’automatisation, grâce à de la veille technologique Communication avec les autres équipes IT du groupe Support aux équipes de développement et d'exploitation Compétences demandées Compétences Niveau de compétence ANSIBLE Élémentaire Hashicorp VAULT Avancé Gitlab CI/CD Avancé LINUX Confirmé Cloud AZURE Confirmé Python Confirmé SQL Azure Avancé Bases DE données NoSQL Avancé terraform Confirmé BASH Shell Avancé Langues Niveau de langue Anglais Élémentaire
Offre d'emploi
Administrateur single sign-on (H/F)
STORM GROUP
Publiée le
Ansible
Azure
Keycloak
3 ans
55k €
500 €
Île-de-France, France
La direction Sécurité opère des plateformes d’authentification et de Single Sign-On critiques pour l’accès aux applications internes, partenaires et clients. Dans ce cadre, l’équipe Access Control recherche un prestataire pour assurer le RUN (MCO/MCS) des plateformes SSO et d’authentification, et contribuer à leur évolution dans un environnement banque / assurance fortement réglementé (sécurité, conformité, disponibilité). Le périmètre exact pourra être ajusté, mais couvrira notamment : Plateformes SSO / fédération d’identités (type : SAML, OpenID Connect, OAuth2) Solutions d’annuaire / LDAP / AD / AAD MFA / authentification forte, certificats, gestion des secrets Intégration avec les applications métiers (web, API, mobiles) Une bonne connaissance de Ilex Sign & Go est un vrai plus Missions principales Le prestataire interviendra au sein de l’équipe Access Control et aura pour missions principales : RUN / MCO Assurer l’exploitation quotidienne des plateformes SSO et d’authentification Superviser les composants (disponibilité, performances, logs, alertes) Gérer les incidents N2/N3 : diagnostic, résolution, escalade, communication Analyser les causes racines (RCA) et proposer des actions préventives Participer aux astreintes / plages étendues le cas échéant Administration & intégration : Gérer les configurations SSO et les fédérations d’identités (SAML, OIDC, OAuth2) Intégrer de nouvelles applications au SSO (création de connecteurs, policy, mappings, scopes) Participer aux mises à jour, montées de version, campagnes de patching Contribuer à la sécurisation des parcours d’authentification (MFA, durcissement, etc.) Amélioration continue & documentation : Mettre à jour et enrichir la documentation d’exploitation et les procédures Contribuer à l’industrialisation et à l’automatisation des opérations récurrentes (scripts, CI/CD, Ansible, etc.) Participer aux comités techniques et proposer des optimisations (performance, sécurité, résilience)
Offre d'emploi
SENIOR DATA AND AI ENGINEER
ANDEMA
Publiée le
Azure
Databricks
36 mois
Lille, Hauts-de-France
Projet : Dans un contexte de transformation et d’accélération, la Data de la DSI opère la plateforme internationale Data et IA, reposant sur une architecture Cloud AZURE / Lakehouse et animée en agilité, se renforce en expertise de Data Engineers. L’équipe est en charge de : • La collecte et l’intégration des données • La structuration et la modélisation • La qualité et la performance des traitements • La préparation des datasets pour les usages métiers, analytiques et IA Votre mission : En tant que Senior Data and AI Engineer, vous travaillerez en collaboration étroite avec les métiers. Vous aurez la responsabilité de vérifier et d'améliorer les pratiques de développement ainsi que la mise en œuvre et l’amélioration de la plateforme Data en réponse aux besoins des différents projets. Localisation : métropole lilloise (3j de présentiel par semaine) Durée : mission longue
Mission freelance
EXPERT RESEAU et SECURITE
Codezys
Publiée le
Ansible
Azure
Cisco
12 mois
450-550 €
Le Mans, Pays de la Loire
La société devra assurer la fourniture des prestations suivantes : Conception d’une feuille de route (roadmap) et d’un plan d’investissement à 3 et 5 ans , visant à faire évoluer les infrastructures et les solutions en adéquation avec les enjeux de sécurité et de maintien en condition opérationnelle. Réalisation d’études complexes permettant de définir les solutions de sécurité les plus adaptées, en réponse aux besoins exprimés par la direction informatique, tout en évaluant leur faisabilité, performance, risques et coûts. Préparation et présentation des dossiers de décision aux instances de gouvernance compétentes. Rédaction des cahiers des charges techniques , en collaboration avec les acheteurs, et apport de contributions dans le processus de sélection des prestataires et fournisseurs. Supervision et coordination de la mise en œuvre et de l’administration des architectures matérielles et logicielles (systèmes, outils et architectures de sécurité), notamment à travers le pilotage de chantiers et projets techniques. Définition des bonnes pratiques de gestion, ainsi que des indicateurs clés pour le suivi des infrastructures et des solutions de sécurité. Contributions à la mise en œuvre et à la gestion du référentiel technique relatif aux infrastructures et solutions de sécurité. Prise en charge des escalades pour les incidents complexes ou nouveaux, en coordination avec les équipes d’administration et en lien avec des interlocuteurs internes ou externes (éditeurs, partenaires, etc.). Cela inclut la gestion des actions de remise en service et la mise en œuvre de mesures correctives. Transmission de compétences et assistance technique sur l’ensemble du périmètre concerné, afin d’assurer une montée en compétence et un support efficace.
Mission freelance
Architecte infrastructure confirmé (H/F) - 26
Mindquest
Publiée le
Azure Kubernetes Service (AKS)
Docker
VMware
1 an
550-600 €
Clansayes, Auvergne-Rhône-Alpes
Contexte Au sein de l’équipe architecture, le prestataire aura pour mission principale de concevoir, formaliser et faire évoluer les architectures des différents systèmes d’information. Le prestataire sera l’interlocuteur privilégié des équipes projets et des équipes techniques, il/elle devra garantir la cohérence, la sécurité et la robustesse des infrastructures déployées, dans le respect des standards et bonnes pratiques du groupe. Mission Il/elle aura pour activités principales : La conception et l’évolution des architectures techniques - Analyser les besoins métiers et proposer des solutions d’architecture adaptées - Modélisation de l’infrastructure (réseaux, serveurs, stockage, sécurité) et participer à la définition des normes associées. - Rédaction des notes d’architectures et dossier d’architecture - Veille technologique La participation aux projets - Accompagner les chefs de projets dans les phases d’études et l’identification des besoins pour le projet (humain, processus etc…) - Assurer la bonne intégration des règles cybersécurité applicables au projet - Soutien à l’équipe d’expertise dans la réalisation (Mises à jour des dossiers d’architecture, apport d’expertise etc…) La mission implique de nombreux contacts avec des clients internes (départements de maintenance, départements projets, chef d’installation, officiers de sécurité…) et des fournisseurs (contrats de maintenance, d’achats, …). Il définit l'architecture technique de tout ou partie du système d'information. Il garantit la cohérence et la pérennité de l'ensemble des moyens informatiques, en exploitant au mieux les possibilités de l'art, dans le cadre du plan d'urbanisme de l'entreprise. Descriptif des prestations Conception : - Définit l'architecture technique du ou des systèmes d'information. - Vérifie et analyse les impacts techniques des nouvelles solutions et leur cohérence avec l'architecture existante. Administration : - Définit et gère le référentiel du système informatique sur les plans : outils, procédures, normes, vocabulaire, sécurité. - Définit et gère les standards techniques. Préconisation : - Pour tout nouveau projet ou toute nouvelle technologie, participe à l'étude d'impact sur l'architecture existante ou prévisionnelle. - Préconise des choix techniques en vue d'assurer la cohérence de cette évolution. Conseil : - Conseille l'urbaniste sur l'utilisation et les implémentations possibles des outils informatiques et de télécommunications
Offre d'emploi
Expert Data Snowflake / Azure (H/F)
Lùkla
Publiée le
Snowflake
1 an
Lyon, Auvergne-Rhône-Alpes
Dans le cadre d’un projet stratégique de mise en place d’un MVP Data, nous recherchons un Expert Data Snowflake / Azure, avec une forte culture Data Engineering et Cloud. Vos missions : Participer à la conception et à l’implémentation de l’architecture Data basée sur Snowflake et Azure Contribuer aux choix d’architecture cloud, data et infrastructure Développer et optimiser les pipelines de données (ingestion, transformation, modélisation) Travailler sur les aspects performance, sécurité et scalabilité Collaborer étroitement avec les équipes projet et les partenaires impliqués dans l’implémentation Intégrer les bonnes pratiques DevOps / DataOps Environnement technique : Snowflake Microsoft Azure Concepts Cloud & Architecture Data Infrastructure & DevOps (CI/CD, automatisation, monitoring…) Outils Data Engineering
Mission freelance
Ingénieur DevOps Azure
Codezys
Publiée le
Azure DevOps Services
Docker
Java
12 mois
Lille, Hauts-de-France
Contexte de la mission Développeur DevOps Azure expérimenté pour rejoindre notre équipe de développement. Missions principales : Concevoir et mettre en œuvre des pipelines CI/CD sur Azure DevOps. Gérer et automatiser l'infrastructure avec des outils tels que Terraform et Azure Resource Manager. Mettre en place le déploiements sur les différents environnements. Surveiller et optimiser les performances des applications en production. Collaborer avec les équipes de développement pour améliorer les processus de livraison. Participer à l'amélioration continue des pratiques DevOps au sein de l'équipe. Partager les connaissances avec les autres membres de l'équipe.
Offre d'emploi
Data Architect H/F
OBJECTWARE
Publiée le
Azure Data Factory
Microsoft Fabric
Microsoft Power BI
60k-65k €
Bordeaux, Nouvelle-Aquitaine
Résumé du poste Notre client recherche un Data Architect expérimenté pour rejoindre une équipe Data Fabric et contribuer à la conception et à la mise en œuvre de l’architecture data à l’échelle de l’entreprise. Le rôle se concentre sur la création de produits de données réutilisables pour les domaines métiers , en travaillant étroitement avec les équipes Master Data Management (MDM), Data Engineers, Data Analysts, Information Security ainsi que les parties prenantes métiers. Le poste combine leadership architectural et travail opérationnel , incluant la modélisation de données, la conception d’intégrations, la mise en œuvre de la gouvernance et la configuration de la plateforme . Principales responsabilitésArchitecture de données & gouvernance Identifier et formaliser les domaines de master data à l’échelle de l’entreprise (Customer, HR, Finance, etc.). Collaborer avec l’équipe MDM pour concevoir les structures de golden record, la logique de consolidation et les flux d’intégration . Concevoir et documenter des produits de master data réutilisables (schémas, contrats, modes d’accès, APIs). Contribuer à la modélisation des données aux niveaux conceptuel, logique et physique sur les différents domaines de données. Travailler avec les Data Engineers pour traduire l’architecture en medallion layers, zones curées et pipelines d’intégration . Définir des standards de gouvernance incluant ownership, stewardship, lineage, classification et gestion du cycle de vie des données . Configurer les standards de métadonnées et les structures du catalogue de données afin d’assurer la découvrabilité et la réutilisation . S’assurer que les décisions architecturales sont clairement documentées et exploitables . Évolution de la plateforme, qualité & gouvernance Concevoir et mettre en œuvre des modèles de sécurité des données (RBAC, classification, masquage, contrôles de confidentialité). Participer à la mise en œuvre et à l’exploitation des outils de gouvernance des données (ex : Microsoft Purview), incluant scans, validation du lineage et classification . Définir des standards pour la documentation, la découvrabilité et l’enregistrement des data products dans la plateforme . Examiner les implémentations des domaines de données afin d’éviter la duplication ou la fragmentation des master data . S’assurer que la gouvernance et les métadonnées sont intégrées dans les processus CI/CD et de déploiement . Identifier et réduire les risques liés à l’incohérence des données, aux shadow master data ou à la prolifération non contrôlée des données . Contribuer à l’évaluation de nouvelles technologies et analyser leurs impacts en matière de gouvernance et d’intégration . Support et accompagnement Fournir un accompagnement architectural aux Data Engineers et Data Analysts . Participer à des ateliers techniques et sessions de conception . Accompagner l’ intégration de nouveaux domaines de données via des templates architecturaux et des implémentations de référence . Promouvoir des pratiques cohérentes en matière de métadonnées, sécurité et qualité des données . Agir comme interface entre l’équipe Data Platform, l’équipe MDM et les parties prenantes gouvernance / sécurité .
Offre d'emploi
Expert DBA MongoDB Cloud Azure
GRADIANT
Publiée le
Azure
dBase
Mongodb
3 ans
40k-76k €
400-700 €
Paris, France
Le parc serveurs est constitué d’environ 4000 machines repartis sur deux cloud provider (Azure / AWS) et deux datacenters dont 95 % sous forme d’enveloppes virtuelles. Le parc Workstation repartie sur plusieurs sites (contexte international) est composé d’environ 2000 postes (fixes et mobiles). Ces postes sont reparties dans plusieurs annuaires active directory. Sous la responsabilité des Responsables des DBA, l’expert devra : • Travailler en environnement de haute disponibilité • Travailler sur des environnements virtuels • Travailler dans un environnement hybride Microsoft OnPrem / Cloud Azure / Cloud AWS • Gérer les demandes standard et non standard des équipes de support aux applications et des développeurs concernant les nouveaux besoins ou l'évolution des composants de base de données. • S’intégrer aux process agiles des équipes de développement de son périmètre. • Travailler en étroite collaboration avec les équipes infrastructure pour comprendre et appliquer les processus et normes infra • être impliqué dans l'étude concernant l'avenir des actifs infra. • Contribuer à la transformation de l'infrastructure informatique, qui consiste à mettre en place des solutions pour tirer parti des opportunités offertes par les nouvelles technologies (cloud, infrastructure sous forme de code, développement). • Définir les composants et l'architecture d'infrastructure appropriés à mettre en œuvre dans le cadre de projets d'entreprise. Conseillez et suggérez des solutions innovantes, le cas échéant. Très à l’aise avec la résolution de problèmes techniques, votre aptitude à comprendre les besoins et/ou problèmes des utilisateurs IT et Business sera un atout important pour réussir dans le poste ! 2. Activités Les principales activités sont : 2.1 Expertise MongoDB (prioritaire) Le DBA devra assurer les activités suivantes : • Expertise avancée MongoDB (cluster, réplication, haute disponibilité). • Optimisation et performance tuning : analyse de requêtes, indexation, diagnostic. • Gestion de l’intégrité et de la sécurité des données. • Mise en place et suivi des sauvegardes, restauration, continuité de service. • Support utilisateur de niveau expert (accompagnement projets, résolution incidents). • Contribution à la gouvernance : standards, bonnes pratiques, documentation, monitoring. • Maitrise du cloud Azure en mode Iaas 2.2 Services PaaS Azure Database Le DBA interviendra en tant que référent technique sur les services : • Azure SQL Database, SQL Managed Instance, Cosmos DB, PostgreSQL/MySQL Flexible Server. • Définition et maintien de la gouvernance : o sécurité, RBAC, accès o alerting et observabilité o stratégie de sauvegardes/supervision • Support technique avancé pour les équipes projets et exploitation. • Participation aux architectures, amélioration continue et alignement sur les standards Cloud. • Garantir la cohérence, la disponibilité et la conformité des plateformes de données PaaS. • Réalisation de la documentation nécessaire.
Mission freelance
Data Engineer Azure
Cherry Pick
Publiée le
Azure
Azure Data Factory
Python
12 mois
500-550 €
Paris, France
En quelques mots Cherry Pick est à la recherche d'un "Data Engineer" pour un client dans le secteur de l'assurance Description 📊 Le Contexte : La Data au service de l'Investissement Vous rejoignez le Datahub d'un acteur majeur de l'épargne, une plateforme critique au cœur du système d'information. Ce hub centralise et normalise l'ensemble des données du groupe pour alimenter des processus business à fort impact : calcul des commissions , génération de documents réglementaires, marketing prédictif et pilotage financier. L'enjeu est de transformer une masse de données brutes en informations fiables et exploitables pour l'ensemble de l'écosystème (partenaires, clients, directions métiers). 🎯 Vos Missions : Ingénierie & Industrialisation Intégré(e) à l'équipe Data, vous êtes le garant de la robustesse des flux de données. Design & Delivery : Concevoir, développer et maintenir des pipelines d’intégration complexes via Azure Data Factory (ADF) . Cycle de vie de la donnée : Assurer l'ingestion, la transformation, la normalisation et la mise à disposition des données pour les services consommateurs. Expertise SQL : Réaliser des agrégations et des transformations avancées, avec un souci constant de performance et de qualité. Infrastructure as Code (IaC) : Participer au déploiement et à la gestion des infrastructures via Terraform . Collaboration Métier : Agir en tant que partenaire des équipes finance et marketing pour traduire leurs besoins en solutions techniques robustes. Qualité & CI/CD : Contribuer à l'automatisation des tests et des déploiements (Azure DevOps, SonarCloud).
Offre d'emploi
Expert DBA PostgreSQL Azure
GRADIANT
Publiée le
Azure
PostgreSQL
3 ans
40k-75k €
400-700 €
Paris, France
Il gère et administre les systèmes de gestion de données de l'entreprise, en assure la cohérence, la qualité et la sécurité. Il participe à la définition et à la mise en œuvre des bases de données et des progiciels retenus par l'entreprise. ADMINISTRATION : • Effectue le choix d'implémentation des bases de données • Crée les bases en liaison avec l'administrateur système et les chefs de projets concernés • Met en œuvre les logiciels de gestion de bases de données. Effectue l'adaptation, l'administration et la maintenance de ces logiciels • Met en exploitation et en gestion les serveurs de données (administration, automatisation, développement des procédures, sécurité et autorisation d'accès, optimisation des traitements et des requêtes…) • Crée, à la demande des domaines ou de l'exploitation, les outils spécifiques d'aide à l'exploitation EXPLOITATION : • Assure l'intégrité des bases de données existantes en garantissant la sécurité physique (procédures de sauvegarde, restauration, journalisation, démarrage après incidents…) et logique (confidentialité, accès) • Met en œuvre les outils de surveillance • Règle les paramètres des bases de données pour une utilisation optimale. SUPPORT : • Assiste les utilisateurs (formation, requêtes techniques…) • Effectue un support technique de second niveau pour l'ensemble des bases de données • Possède un rôle de correspondant technique entre les chefs de projets et le support technique des éditeurs ÉTUDES ET CONTRÔLES : • Assure une veille technologique sur les SGBD et les progiciels retenus par l'entreprise • Suit et contrôle les évolutions de version des bases existantes et progiciels retenus par l'entreprise • Teste, valide, pour les aspects techniques, tous les logiciels et progiciels • Définit les normes et standards d'utilisation et d'exploitation des SGBD Ce sont les points clés auquel le candidat doit répondre à minima. • Référent PostgreSQL • Administration N3 des environnements PostgreSQL (IaaS & PaaS : Azure PostgreSQL Flexible Server) • Définition et mise en œuvre de standards d’exploitation : sécurité, reloads, supervision, PRA • Automatisation des déploiements et des opérations via Ansible, Git, scripting • Intégration avec les outils Azure : Bicep, Log Analytics, Azure Monitor • Participation à la mise en place de dashboards techniques (Grafana) • Contribution au support, à la documentation, et à la démarche DevOps DBA • Expérience sur du réseau Azure > 4 ans • Expérience sur du réseau AWS > 2 ans • Astreinte 1 semaine/2 ou 3 • Niveau d'anglais B2 minimum obligatoire • Télétravail : tous les lundi et mardi, un vendredi sur 2 • Certification Azure DP300 Microsoft Certified: Azure Database Administrator Associate
Offre d'emploi
Lead Cloud Engineer
Groupe Aptenia
Publiée le
Ansible
Azure
CI/CD
6 mois
Lyon, Auvergne-Rhône-Alpes
Nous recherchons un Lead Cloud Engineer / Ingénieur Cloud Senior, pour concevoir, automatiser et opérer des environnements Cloud publics et privés à forte criticité dans un contexte SaaS en transformation. En relai du responsable, vous assurez le pilotage opérationnel, la priorisation et l’animation d’équipe. Vous industrialisez l’infrastructure via l’IaC (Terraform/Ansible), garantissez le MCO, la performance et la fiabilité (SLA/SLO), et pilotez les projets de migration et d’évolution vers un modèle multi-cloud. performance (SLA/SLO), et contribuez aux projets de migration et d’évolution multi-cloud dans un contexte SaaS en forte transformation.
Mission freelance
Ingénieur système Microsoft (H/F)
ODHCOM - FREELANCEREPUBLIK
Publiée le
Active Directory
Azure
Powershell
12 mois
430-450 €
Île-de-France, France
Contexte Dans un contexte de forte croissance des besoins liés à la gestion des identités Cloud, notre client renforce son équipe Microsoft afin d’absorber un volume important de demandes d’intégration SSO (environ 20 par mois). Au sein du CSI et rattaché au Responsable Back Office, l’Ingénieur Système Microsoft interviendra en tant qu’expert sur les services d’identité, d’authentification et de fédération autour de Microsoft ENTRA ID et de son écosystème. La mission requiert une expertise confirmée sur les environnements Microsoft, notamment pour assurer un support de niveau 3 et structurer les processus d’industrialisation. Des compétences en développement sont attendues, notamment en PowerShell et Power Platform, afin de répondre aux besoins d’automatisation. Missions / Livrables Garantir la cohérence des différentes briques du système d’information, leur interopérabilité et leur évolution. Assurer le maintien en condition opérationnelle (MCO) de l’infrastructure bureautique. Intégrer les applications bureautiques et métiers au sein de l’environnement Microsoft. Réceptionner, contrôler et valider les mises en production ainsi que les opérations de migration. Veiller à la qualité des livrables techniques (procédures, documentations, standards). Participer aux cérémonies et travaux d’équipe. Contribuer à la veille technologique et formuler des recommandations d’évolution.
Offre d'emploi
CHEF DE PROJET DATA
UCASE CONSULTING
Publiée le
Azure
Microsoft Power BI
3 ans
40k-60k €
400-620 €
Paris, France
Bonjour, Pour le compte de notre client, nous recherchons un chef de projet data. La mission consiste à renforcer une équipe de Chefs de projets Data pilotant des portefeuilles projets pour le compte de nos clients. 1.2 Contexte de la prestation La prestation faisant l’objet de cette consultation correspond à une régie reconductible (Pilotage de projet). Au sein de la Direction de notre client, vous intégrerez la Factory Data & IA. 2 DESCRIPTION DE LA MISSION 2.1 Objectifs La prestation, objet du présent cahier des charges, est une prestation à temps plein de Chef de Projet Data et BI. Vous interviendrez en tant que responsable d’un projet sur l’étude, le chiffrage, la réalisation et l’exploitation de tâches liées à la constitution de traitements Data complexes ainsi que leur visualisation via PowerBI ou Qlik. Le projet doit tourner autour de plusieurs axes stratégiques dont le chef de projet aura comme responsabilité de construire la roadmap sur 3 à 4 ans : - Maintenance et évolutions d’un entrepôt de données - Maintenance et évolutions des rapports Qlik existants - Migration des rapports Qlik vers PowerBI (36 uses cases identifiés) - Adaptation de l’entrepôt de données pour les besoins de PowerBI Les projets sont menés en équipe de Data Engineers/Data Scientists, accompagnés d’ops, architectes, de développeurs/concepteurs Qlik et PowerBI et encadrés par le Chef de projet Data. 2.2 Description détaillée des tâches qui constituent la mission Il s’agit de piloter un projet stratégique à très haute visibilité. Le chef de projet retenu sera rattaché à une équipe constituée exclusivement de Chef de Projets mais sera dédié au projet et devra être en capacité : - D’assurer un pilotage de qualité tout en garantissant que les livrables sont disponibles dans le respect des contraintes en terme de qualité/coûts/délais, - De construire la roadmap du projet dans sa globalité pour une visibilité sur 3 / 4 ans avec priorisation des enjeux stratégiques métiers et utilisateurs - Devra animer les instances de comitologie et mettre en place une animation d’équipe afin de faire adhérer chaque acteur à la construction de ce projet « one team » - Challenger les acteurs sur la conduite du changement importante liée à la migration des outils et les accompagner dans cette transformation - D’assurer la juste communication auprès des clients et des différents acteurs du projet Au sein de la direction, la plupart des projets sont menés en agilité ; le découpage des livrables est réalisé par sprints. Le contenu de chaque sprint est variable mais toujours constitué sur la base d’US (User Stories). Les livrables liés aux US sont donc variables mais suivent généralement une recette commune liée à la Definition of Done du projet. A noter que ces livrables sont réalisés par l'équipe projet, il n'y a pas de responsabilité de production individuelle. Les sprints projet s'échelonnent généralement sur 2 semaines. Autres Points essentiels de la Mission : - Validation des spécifications fonctionnelles avant présentations aux équipes en charge du développement et backlog refining - Pilotage opérationnel des différents acteurs SI internes à la SNCF et rattachés à D2D/DEA - Assurer l’interface avec la DSI cliente - Pilotage opérationnel des différents domaines projets, notamment : o Conception et consolidation régulière du Planning o Elaboration des supports et Participation aux instances de pilotage (COPROJ, et COPIL) o Alimente le Responsable de Clientèle ou le Directeur de mission avec les données nécessaires au pilotage financier/économique (Imputations des différents acteurs) - Garant de la qualité des livrables - Pilotage opérationnel des actions sur les différents environnements (déploiement, pilote la mise en place des Flux de Données, habilitation et Gestion des Arborescences Datalakes…) - Garant et principal interlocuteur du support N3 applicatif et acteur de l’exploitation
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Travail asynchrone ou compagnie qui ne regarde pas les heures: Ca existe ?
- Etat du marché 2026: rebond ou stagnation ?
- Deuxieme versement ARCE sans CA
- AdminPilot - outil d'admin par chat pour freelances, vos avis ?
- Barème kilométrique - voiture de prêt
- Facturation électronique 06 : Une FE n’est pas un PDF par mail !!!
4036 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois