Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 5 118 résultats.
Freelance

Mission freelance
Data Steward (H/F)

Insitoo Freelances
Publiée le
BI
SAP BW

2 ans
350-450 €
Lyon, Auvergne-Rhône-Alpes
Les missions attendues par le Data Steward (H/F) : Dans le cadre d’une transformation vers une plateforme data moderne (migration d’un environnement décisionnel type SAP BW vers Snowflake), nous recherchons un Data Steward spécialisé Finance pour accompagner les équipes métier et IT dans la structuration et l’évolution de ses environnements data. Le rôle se situe dans une phase de structuration du dispositif data et combine gestion de projet, expertise fonctionnelle Finance, et coordination transverse. Missions principales : Pilotage & Coordination Cadrer les besoins métiers et définir les périmètres projet. Coordonner les acteurs Finance, IT, Data Engineering et BI. Suivre l’avancement, identifier les risques et garantir l’alignement global. Assurer la production d’une documentation claire et structurée. Expertise fonctionnelle Finance Recueillir, formaliser et challenger les besoins Finance / Contrôle de Gestion. Rédiger les spécifications fonctionnelles et les traduire en exigences techniques. Participer aux phases de tests (IT & UAT). Accompagner les utilisateurs: recette, formation, support.
Freelance
CDI
CDD

Offre d'emploi
Dev react native / Data Engineer

IT CONSULTANTS
Publiée le
Méthode Agile

6 mois
Châtillon, Île-de-France
Nous recherchons un profil hybride, combinant une expertise en développement mobile React Native et une compétence solide en Data Engineering sur Databricks/Azure. Votre mission principale portera sur la maintenance évolutive et corrective d’une application mobile développée en React Native. En fonction de la charge de travail côté front, vous pourrez également intervenir sur la partie back/data du produit afin de contribuer aux traitements et pipelines de données sur Azure/ Databricks. Vos missions Vous interviendrez au cœur d’une squad produit sur les sujets suivants : 1) Développement mobile • Assurer la maintenance évolutive et corrective d’une application mobile en React Native • Garantir une expérience utilisateur fluide, performante et conforme aux bonnes pratiques (optimisation, modularité, testabilité) • Implémenter de nouvelles fonctionnalités ainsi que les tests associés, dans une démarche clean code (sécurité, maintenabilité) 2) Data Engineering • Concevoir, développer et implémenter des solutions Big Data Analytics • Construire et industrialiser les pipelines de données (collecte, transformation, traitement) dans le Data Lake • Développer des notebooks avancés sous Databricks (langage SQL, Framework SPARK) • Rédiger la documentation technique (DAT, release notes, etc.) • Réaliser des tests unitaires et assurer la qualité des livrables • Contribuer à la maintenance évolutive et corrective des traitements • Livrer dans un environnement DevOps (CI/CD) et maîtriser les outils associés Profil recherché • Expérience confirmée en développement d’applications React Native en production (5 ans min.) • Expérience en Data Engineering sur Azure / Databricks / Spark / SQL (3 ans min.) • Maîtrise des APIs REST • Bonne connaissance de Git et première expérience en CI/CD / DevOps Soft Skills • Proactivité et force de proposition • Capacité à évoluer dans un environnement métier complexe • Forte appétence pour la qualité du code et les bonnes pratiques Stack technique • React Native : ++++ • Databricks : +++ • Spark : +++ • Azure : ++ Un test technique sera réalisé lors de l’entretien.
CDI
Freelance

Offre d'emploi
Expert Active Directory Lille (H/F)

AVA2I
Publiée le
Active Directory
Azure Active Directory
Windows Server

3 ans
Lille, Hauts-de-France
Dans le cadre du renforcement de son équipe Infrastructure, un acteur majeur du secteur des paiements recherche un Ingénieur Systèmes Microsoft spécialisé Active Directory pour intervenir sur des environnements critiques à forte exigence de disponibilité et de sécurité. Vous intégrerez une équipe en charge de l’administration, de l’évolution et de la sécurisation des infrastructures Microsoft au sein d’un grand compte international. 🛠 Vos missions🔹 Administration & Exploitation Administration avancée de l’environnement Active Directory Gestion des contrôleurs de domaine (installation, maintenance, supervision) Administration des services DNS / DHCP Gestion des GPO , comptes, groupes et stratégies de sécurité Administration et gestion des certificats / PKI 🔐 Sécurité & Conformité Durcissement des serveurs Windows Gestion des accès et habilitations Mise en œuvre des bonnes pratiques de sécurité Microsoft Audit des droits et contrôle de conformité 🔄 Projets & Évolutions Participation aux projets de migration Active Directory Intégration Azure AD / Entra ID dans des environnements hybrides Automatisation des tâches via PowerShell Rédaction de la documentation technique 🧩 Support & Expertise Support N2/N3 Résolution d’incidents complexes Analyse de performance et optimisation Accompagnement des équipes techniques 🖥 Environnement technique Windows Server 2016 / 2019 / 2022 Active Directory GPO DNS / DHCP PowerShell Azure AD / Entra ID (apprécié) Outils de supervision VMware ou Hyper-V
CDI

Offre d'emploi
Data Engineer Sénior DBT / SQL

Clostera
Publiée le
BigQuery
DBT
Google Cloud Platform (GCP)

Essonne, France
Qui sommes-nous ? Clostera est une société de conseil & intégration de solutions IT à taille humaine et localisée à Paris, résolument tournée vers l'humain et l’innovation : l’innovation génératrice de valeur ! CLOSTERA place le bien-être de ses CONSULTANTS au cœur de la stratégie de réussite des projets IT sur lesquels nous intervenons au travers d’une approche « employee centric » individualisée. Nos domaines d’expertise : Cloud et Infrastructures Systèmes, Réseaux & Cybersécurité ; Service Management & ITSM ; Project management ; Data & IA ; Services Applicatifs métiers & Digitaux. Rejoignez nous ! Aujourd’hui nous recherchons un Data Engineer DBT / SQL F/H pour intervenir sur la conception et le développement de services digitaux de notre client, visant à transformer et optimiser les fonctions financières du groupe. Ce que vous ferez : Vous rejoindrez l’équipe Flux , composée de profils expérimentés, dans le cadre du remplacement d’un consultant sur des projets à forte criticité liés à la gestion et à l’intégration de flux de données financiers. Les projets portent notamment sur des programmes visant à faciliter l’intégration de flux provenant de systèmes legacy et d’éditeurs externes vers l’écosystème comptable. Vos missions principales : Concevoir et développer des pipelines data pour l’intégration et la transformation de flux financiers. Mettre en place et maintenir des process batch automatisés (alimentation et export de fichiers). Structurer les pipelines et transformations de données via DBT . Manipuler et analyser des volumes importants de données en SQL. Déployer des interfaces génériques via scripts SQL . Contribuer à la mise en production des flux dans un environnement data industrialisé. Participer à l’amélioration continue des pipelines et des processus de traitement des données.
CDI
Freelance

Offre d'emploi
Project manager Data Trade Denodo/VQL ( H/F)

AVA2I
Publiée le
Data quality
Finance
Microsoft Power BI

3 ans
Île-de-France, France
Dans le cadre d’un programme stratégique Data mené au sein d’un grand environnement bancaire international , une équipe IT orientée métiers Corporate & Trade Finance renforce ses capacités pour accompagner la transformation et l’accessibilité des données. Un projet structurant est en cours visant à centraliser, modéliser et distribuer les données Trade Finance , tout en garantissant un haut niveau de qualité, de gouvernance et de sécurité . Accompagner le métier Trade Finance dans l’accessibilité et la valorisation de ses données Piloter la migration des rapports BI existants vers une nouvelle solution Data Définir les plans d’actions et les roadmaps de migration des rapports existants Analyser et cadrer les besoins métier via des ateliers fonctionnels Prioriser et budgétiser les sujets de migration Coordonner les échanges avec des équipes internationales Implémenter les modèles de données sur une plateforme de virtualisation de données (Denodo / VQL) Rédiger la documentation fonctionnelle et les user stories Superviser les développements afin de maîtriser les risques et le périmètre Assurer l’assistance fonctionnelle auprès des équipes de développement Concevoir et maintenir des rapports sur Power BI Contribuer aux processus de Data Quality (définition et mise en place de règles)
Freelance

Mission freelance
ALSL - Data Engineer (GCP) – Plateforme Data

Pickmeup
Publiée le
Apache Airflow
Google Cloud Platform (GCP)
PySpark

3 mois
400-540 €
Paris, France
On cherche un(e) Data Engineer pour renforcer une équipe qui fait tourner la plateforme data au quotidien. Le sujet est très concret : ramener des données qui viennent de partout , les centraliser proprement , les rendre fiables , et garder une plateforme qui tient la charge (et qui ne casse pas en prod au premier pic). Vous travaillerez avec un Product Owner, un Data Steward et d’autres data engineers. On est sur une logique : ingestion, standardisation, stockage, et tout ce qui va avec côté run (monitoring, reprise, sécurité, doc). Vos missions : Collecter et centraliser des sources hétérogènes (API, fichiers, bases, événements). Construire des pipelines robustes : gestion des erreurs, reprises, backfills, alerting, qualité. Développer les traitements en Python / SQL / Spark (volumes en hausse, donc on fait attention à la perf et aux coûts). Orchestrer les flux avec Airflow . Structurer le stockage sur Cloud Storage avec une approche Delta Lake (évolution de schémas, merge/upsert, partitionnement, rétention). Industrialiser l’ensemble : Terraform / Terragrunt , GitLab CI/CD , environnements propres (dev/staging/prod). Contribuer à la gouvernance et à la conformité : catalogage et métadonnées via Dataplex + documentation utile (pas un wiki fantôme). Environnement technique : Python, SQL, Spark Airflow (orchestration) GCP : BigQuery, Dataproc, Pub/Sub, Cloud Storage Delta Lake Terraform + Terragrunt GitLab + GitLab CI/CD Méthodes : Agile (Scrum/Kanban)
CDI

Offre d'emploi
Développeur web / Data (H/F)

ADSearch
Publiée le

50k-60k €
Pantin, Île-de-France
Développeur web / data H/F – CDD – Pantin – Développement, Data, SQL La division IT de notre bureau Paris recherche pour son client, un organisme, un Développeur web / data (H/F) à Paris. Rattaché au responsable du département études et développement de la DSI, vous prenez en charge l’analyse, le traitement et la valorisation des données dans le cadre des missions qui vous sont confiées. Vous participez à la conception, au développement et à l’optimisation des applications nécessaires afin d’assurer la fiabilité et la performance des flux de données. VOS MISSIONS Vous serez en charge des missions suivantes : Collecter, nettoyer et structurer des données issues de sources variées (bases de données, API, fichiers externes). Réaliser des analyses pour répondre aux besoins métiers et formuler des recommandations basées sur les données. Concevoir des rapports et dashboards interactifs à l’aide d’outils de Business Intelligence. Gérer, maintenir et optimiser des bases de données
Freelance

Mission freelance
Cloud DevOps – API Management Platform

ESENCA
Publiée le
Argo CD
Azure
Github

1 an
Lille, Hauts-de-France
Attention : mission dans la région lilloise, avec une présence sur site obligatoire, partielle mais régulière. Objectif global Assurer le pilotage et l’évolution d’une plateforme d’API Management à grande échelle, en garantissant performance, disponibilité, sécurité et une expérience développeur optimale. Contrainte forte du projet Connaissance d’un provider d’API Management, idéalement Kong. Description du poste Vous rejoignez une équipe produit en charge d’une plateforme d’API Management combinant des API Gateways et un portail développeur. Cette plateforme permet aux utilisateurs de consommer des API existantes ou d’en exposer de nouvelles, dans un contexte international et multi-environnements. La plateforme héberge plusieurs centaines d’API et supporte des milliards d’appels par semaine. Elle est déployée dans des environnements cloud conteneurisés, multi-tenants et multi-clusters. En tant que Cloud DevOps, vous intervenez sur l’ensemble du cycle de vie de la plateforme, du build au run, dans un environnement technique exigeant. Missions principales Déployer et opérer un portail développeur et des API Gateways dans le cloud Participer à l’industrialisation des déploiements et à l’amélioration continue des pipelines CI/CD Mettre en place et maintenir le monitoring, l’alerting et le respect des SLO Contribuer aux chantiers techniques : intégration d’API Management, service mesh, DRP, FinOps Diagnostiquer et résoudre des incidents dans des environnements complexes à forte charge Participer aux activités de run : support, maintien en conditions opérationnelles et amélioration de l’existant Collaborer avec des équipes internationales dans un contexte distribué Compétences techniques requises Infrastructure & DevOps : Terraform, ArgoCD, Shell, Python Cloud & Conteneurisation : GCP, Azure, Kubernetes, Helm, Aiven Outils & plateformes : GitHub, GitHub Actions, Vault, Artifactory, Jira API Management : Kong ou solution équivalente Observabilité & Run : Datadog, PagerDuty Bonnes connaissances en architecture, systèmes, réseaux et sécurité Compétences linguistiques Anglais professionnel impératif
Freelance

Mission freelance
Lead Automation & DevOps Infrastructure – Spécialisation Agentic AI & LLM

Deodis
Publiée le
Argo CD
AWS Cloud
Azure

1 an
450 €
Île-de-France, France
Nous recherchons un profil Lead Automation / DevOps Infrastructure disposant d’une solide expérience (>6 ans) dans la conception, l’industrialisation et l’automatisation d’environnements d’infrastructure modernes en production ou en laboratoire R&D. Le candidat doit maîtriser à un haut niveau les environnements Linux/Unix, les pipelines CI/CD, les déploiements Kubernetes, l’IaC (Terraform) et les pratiques DevSecOps dans des environnements soumis à des contraintes de sécurité et de conformité. Ce rôle requiert également une forte capacité à travailler en interface avec des équipes d’ingénierie IA / data pour intégrer, expérimenter et déployer des POC innovants autour d’agents autonomes et de modèles LLM appliqués à la supervision, à l’automatisation et à l’aide opérationnelle à la production. Une appétence pour les technologies émergentes (Agentic AI, LLMs, orchestrateurs, frameworks Python) est indispensable, même si l’expertise IA peut être renforcée sur place. Le profil idéal possède une culture DevOps + Cloud + Infra + Automatisation , complétée par des compétences d’ingénierie logicielle lui permettant de documenter, sécuriser, orchestrer et transmettre les spécifications d’industrialisation à des équipes produit. L’environnement étant international et pluridisciplinaire, une excellente communication en anglais est nécessaire, ainsi qu’une capacité à collaborer dans un contexte agile.
Freelance
CDI

Offre d'emploi
Data Engineer GCP

KLETA
Publiée le
BigQuery
Google Cloud Platform (GCP)

3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Data Engineer GCP pour concevoir, optimiser et industrialiser des plateformes data cloud natives sur Google Cloud. Vous analyserez des architectures existantes, proposerez des trajectoires d’évolution (refonte des pipelines, migration vers des traitements serverless, optimisation des modèles analytiques) et guiderez leur mise en œuvre avec BigQuery, Dataflow, Pub/Sub et Cloud Storage. Vous serez responsable de la conception et de la fiabilisation des pipelines d’ingestion et de transformation, de l’amélioration des performances et de l’intégration de mécanismes d’observabilité et de qualité des données. Vous travaillerez main dans la main avec les équipes Cloud et DevOps pour intégrer les traitements dans des pipelines CI/CD robustes et adaptés aux contraintes d’exploitation. Vous aurez également un rôle clé dans la transmission de connaissances, l’animation d’ateliers techniques et l’accompagnement des équipes client sur les meilleures pratiques de data engineering cloud native et d’usage avancé de GCP. Votre mission combinera expertise technique, rigueur méthodologique et capacité à structurer des solutions scalables et pérennes.
Freelance
CDI

Offre d'emploi
Consultant.e Data Talend F/H

ADDIXWARE
Publiée le
Qlik
Talend

1 an
39k-43k €
370-410 €
Avignon, Provence-Alpes-Côte d'Azur
Nous recherchons un Consultant Talend expérimenté pour accompagner nos clients dans leurs projets Data : intégration, transformation, qualité et gouvernance des données. Vos missions : - Développer et maintenir des flux d'intégration de données via Talend - Participer aux projets de gouvernance data, de la conception à la mise en production - Intervenir sur la visualisation et le pilotage des données (compétences Qlik appréciées) - Analyser les besoins métiers et proposer des solutions fiables et performantes - Assurer le support, la documentation et la qualité des livrables - Accompagner les équipes internes et favoriser la montée en maturité data
Freelance

Mission freelance
DATA ENGINEER

Codezys
Publiée le
Azure
BigQuery
Business Intelligence

12 mois
Hauts-de-Seine, France
Localisation :92 Démarrage : ASAP Jours obligatoires sur site : 3 jours/semaine Expérience : 5 ans minimum TJM: 400€ Data Engineer domaine Recyclage & Valorisation (F-H) Pour atteindre l'objectif stratégique de transformer ses données en un véritable actif, on réorganise ses services en créant une Direction DATA et FLUX rattachée au DSI du Groupe. Au sein de cette nouvelle direction, le/la Data Engineer domaine Recyclage & Valorisation aura en responsabilité l’infrastructure Data servant aux projets BI pour les métiers du Recyclage et de la Valorisation , conformément au niveau de service et de sécurité attendu. Il/ Elle a également la charge du maintien en condition opérationnelle de la Data Plateforme existante et de son évolution. MISSIONS • Est en charge de la mise en œuvre, du run et de l’évolution de la plateforme Data : o Intègre de nouveaux flux de données o S’assure du bon déroulement des batchs d’intégration des données o S’assure de l’intégrité et des performances de la plateforme Data o Veille à maintenir la plateforme Data « up to date » en mettant à jour ses composants et en la faisant évoluer en adéquation avec les dernières avancées technologiques • Pour être efficace, le/la Data Engineer doit avoir une connaissance transverse des flux de données qui transitent dans la plateforme data • Collabore avec les Data Analysts / Scientists pour s’assurer de la bonne utilisation des données qui sont exposées via la plateforme Data o Gère la mise à disposition et les droits d’accès à la donnée o S’assure des interactions entre les consommateurs des données et la data plateforme dans un soucis de rationalisation et de performance o Propose des améliorations techniques (indexation, datamart, pré calcul de kpis…) • Participe aux travaux d’amélioration continue de la qualité des données. • Assure le niveau de support N 3 sur la fraîcheur, l’intégrité et la mise à disposition des données • Est référent technique du socle Data • Interagit avec le département data gouvernance de la direction pour aligner les modèles de données avec la stratégie data des métiers • Travaille en étroite collaboration avec les data managers dans les BUs en charge de la définition et de la qualité des objets data pris en charge • Participe à la road map de mise en qualité des données lancées par les data managers
Freelance
CDI

Offre d'emploi
Data Ingénieur (32)

VISIAN
Publiée le
BigQuery
Google Cloud Platform (GCP)

1 an
Île-de-France, France
Data IngénieurPrestations attenduesPrestation de cette équipe Collecter et centraliser les différentes sources de données non homogènes Assurer la conformité et la sécurité des données Participer aux initiatives de gouvernance des données Prestation du data ingénieur En interaction avec les membres de l'équipe, la prestation consiste à : Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l'équipe Construire et maintenir de pipelines data robustes et scalables Accompagner les membres de l'équipe dans l'exploitation et le requêtage des données Organiser et structurer le stockage des données Mettre en place et maintenir des infrastructures scalables capable de répondre aux besoins et à l'accroissement rapide du volume de données Construire et maintenir les workflows de la CI/CD Partager avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur Assurer l'évolutivité, la sécurité, la stabilité des environnements Participer aux différentes instances des data ingénieurs Contribuer et veiller à la mise à jour de la documentation Faire de la veille technologique active dans le domaine
CDI

Offre d'emploi
Manager Plateformes et Outils Data - CDI

CAPEST conseils
Publiée le
Apache Kafka
Business Object
Cloud

Nouvelle-Aquitaine, France
Avant toute chose, avez vous bien noté qu'il s'agissait d'un poste à pourvoir en CDI ? Je suis désolée. Pas d'ouverture possible pour une mission. Dans le cadre du développement de ses activités Data, notre client recherche un Manager Plateformes et Outils Data. L’équipe est en charge des Plateformes et Outils DATA permettant l’exploitation de la donnée par les métiers, la BI et la Data Science, dans un environnement combinant solutions Cloud hybrid (souverain), et outils data spécialisés sont au cœur de la stratégie DATA. Nous recherchons un profil permettant le management et le pilotage des équipes et le Maintien en condition opérationnel des plateformes data. L’objectif du poste est de sécuriser le fonctionnement de l’équipe et de fluidifier les opérations, afin de permettre au Responsable du pôle de se concentrer sur les enjeux stratégiques et la transformation data. Vos missions Piloter l’activité de l’équipe Suivre les projets liés aux plateformes et outils data Coordonner les équipes, vis à vis des projets, de l'IT et les métiers Challenger et accompagner les équipes sur les sujets techniques Contribuer à l’amélioration continue des plateformes et des pratiques avoir une posture orienté capital humain respecter les engagements projets Environnement technologique Informatica- MDM Kafka Hadoop Business Objects Tableau Dataiku SAS environnements Onpremise et cloud Profil recherché Expérience confirmée dans les environnements Data / BI / plateformes data Passé technique fortement souhaité (data engineer, BI engineer, architecte data…) Bonne compréhension des architectures data, SaaS et cloud Capacité à dialoguer avec des profils techniques et métiers Leadership transversal et sens de l’organisation Ce poste s’adresse à un profil souhaitant évoluer vers un rôle de pilotage et de coordination au cœur de la transformation data. Poste en CDI.
CDI
Freelance

Offre d'emploi
Administrateur Systèmes & Réseaux H/F

Le Groupe SYD
Publiée le
Azure
Bash
Cisco

12 mois
36k-40k €
350-400 €
Nantes, Pays de la Loire
🌟 Quel sera ton poste ? 🌟 💼 Poste : Administrateur Systèmes & Réseaux H/F 📍Lieu : Nantes (44) 🏠 Télétravail : Flexible 📝Contrat : CDI ou Freelance 👉 Contexte client : Tu rejoins un fabricant français innovant spécialisé dans le contrôle d’accès et l’interphonie sans fil. Au sein d’un environnement technique riche et en constante évolution, tu participes activement à la fiabilité, la sécurité et la performance de l’infrastructure informatique du groupe. Tu auras pour missions de : Administration Systèmes Installer, configurer et maintenir les serveurs Windows et Linux Administrer les environnements virtualisés Gérer les sauvegardes et restaurations Assurer la disponibilité, la performance et la sécurité des systèmes Réaliser les mises à jour, correctifs et montées de version Administration Réseaux Déployer et maintenir les équipements réseau (firewalls, VPN) Analyser les flux et anticiper les incidents Garantir la sécurité des échanges internes et externes Sécurité & Supervision Mettre en œuvre les politiques de sécurité (filtrage, segmentation) Gérer les incidents de sécurité Participer aux audits de sécurité et de conformité Assurer une veille technologique et cybersécurité Support & collaboration Assurer le support N2/N3 auprès des équipes Documenter les procédures et configurations Travailler en étroite collaboration avec les équipes techniques Stack technique : Windows Server, Linux Debian/Red Hat/Ubuntu, VMware, TCP/IP, DNS, DHCP, VLAN, VPN, routage, Fortinet, Cisco, pfSense, IDS/IPS, PowerShell, Bash, GLPI, Zabbix, Grafana, Veeam, NAS/SAN, Azure, AWS, OVH, Docker, Kubernetes
CDI
Freelance

Offre d'emploi
Expert MongoDB (H/F)

AVA2I
Publiée le
Azure
Mongodb
PaaS (Platform-as-a-Service)

3 ans
Île-de-France, France
Dans le cadre du renforcement de ses équipes IT et de l’évolution de ses plateformes data vers le cloud, un acteur majeur du secteur de l’énergie recherche un DBA expert MongoDB pour intervenir sur des environnements PaaS Azure à forte criticité . Le poste est orienté expertise opérationnelle et technique . Il ne s’agit pas d’un rôle d’architecte, mais bien d’un référent MongoDB , capable d’intervenir en profondeur sur l’administration, la performance et la gestion des incidents complexes. Missions principales Administration & ExploitationAdministration et exploitation de bases MongoDB en environnement Azure PaaS Maintien en conditions opérationnelles ( MCO ) : performance disponibilité sécurité Optimisation & Performance Optimisation des bases : tuning gestion des index gestion des volumes réplication et haute disponibilité Support & Incidents Gestion des incidents complexes N2 / N3 Support technique aux équipes applicatives Contribution à la résolution des incidents critiques en production Maintenance & Bonnes pratiques Réalisation des montées de version et opérations de maintenance Mise en place et suivi des bonnes pratiques : sauvegarde / restauration supervision sécurité 🛠 Environnement technique MongoDB (expertise indispensable) Azure PaaS : Cosmos DB (API Mongo) MongoDB managé Cloud Microsoft Azure Automatisation / scripting : PowerShell, Python ou équivalent Supervision, sécurité, haute disponibilité

Déposez votre CV

  • Fixez vos conditions

    Rémunération, télétravail... Définissez tous les critères importants pour vous.

  • Faites-vous chasser

    Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.

  • 100% gratuit

    Aucune commission prélevée sur votre mission freelance.

5118 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous