Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 2 636 résultats.
Freelance

Mission freelance
Tech Lead Data & BI (Snowflake / dbt / Power BI)

EMGS GROUP
Publiée le
Data modelling
DBT
Microsoft Power BI

6 mois
500-600 €
Paris, France
ans le cadre du renforcement d’une équipe data, nous recherchons un Tech Lead Data & BI pour piloter la delivery technique de solutions data et de visualisation. Missions : Pilotage technique des projets data et BI Conception et mise en œuvre de modèles de données et datamarts Développement et structuration de projets dbt (modèles, tests, documentation) Mise en place de pipelines industrialisés (orchestration, CI/CD, contrôles qualité) Définition des standards et bonnes pratiques Power BI (templates, performance, gouvernance) Construction et optimisation des modèles sémantiques et des reportings Accompagnement et montée en compétences des équipes Contribution au cadrage technique des nouvelles initiatives Livrables attendus : Modèles de données Snowflake robustes et documentés Pipelines data industrialisés et sécurisés Modèles sémantiques et rapports Power BI performants Standards et guides de bonnes pratiques (connexion, gouvernance, templates)
Freelance

Mission freelance
Consultant IA (Développement & Industrialisation)-(h/f)

emagine Consulting SARL
Publiée le

9 mois
500-550 €
75008, Paris, Île-de-France
Ce rôle vise à améliorer et standardiser le développement des solutions d’IA à travers l’organisation, en veillant à leur capacité évolutive, efficace et conforme à la réglementation. Responsabilités : Contribuer à la standardisation des patrons GenAI et des composants réutilisables. Concevoir une architecture évolutive et modulaire pour les services d’IA. Développer et maintenir des API et microservices pour l’intégration avec des applications existantes (par exemple, CEDRE, Salesforce). Promouvoir la réutilisation des composants entre les unités métier et les cas d’usage. Contribuer à la définition des normes techniques et des architectures de référence. Mettre en place des pipelines de déploiement robustes pour les solutions d’IA (CI/CD, versioning, surveillance). Contribuer à la mise en place et à l’amélioration des pratiques MLOps. Assurez-vous que les solutions sont prêtes à la production, maintenables et évolutives. Surveillez les performances, l’utilisation et la dérive du modèle. Optimisez les coûts, les performances et la fiabilité des solutions déployées. Assurez-vous de respecter la confidentialité des données, les réglementations financières et les normes de sécurité informatique. Mettez en place des mécanismes d’accès et de traitement sécurisés aux données. Assurez l’auditabilité, la traçabilité et l’explicabilité des systèmes d’IA. Contribuer au groupe de travail sur l’innovation concernant les nouveaux cas d’utilisation et la priorisation des projets. Indispensables : Expérience dans la conception d’architectures d’IA évolutives et de conceptions modulaires. Maîtrise du développement d’API et de microservices. Une solide compréhension des pipelines CI/CD et des pratiques MLOps. Connaissance de la confidentialité des données et de la conformité réglementaire financière. Familiarité avec les normes et pratiques de sécurité informatique. Bon à avoir : Expérience avec les patrons GenAI et les composants réutilisables. Implication antérieure dans les cadres de gouvernance de l’IA. Familiarité avec des applications sectorielles spécifiques (par exemple, secteur financier). Autres détails : Lieu : PARIS Structure interne de l’équipe : Membre d’une équipe dédiée à l’innovation en IA. Télétravail : 2 jours par semaine
Freelance
CDI

Offre d'emploi
Architecte Data / Stratégie Plateforme Data Européenne

OBJECTWARE
Publiée le
Apache Kafka
BI
Data Lake

3 ans
40k-73k €
400-550 €
Île-de-France, France
🎯 Objectif de la mission Dans un contexte de transformation data à l’échelle européenne, vous intervenez en tant qu’ Architecte / Consultant Senior Data pour structurer, rationaliser et industrialiser la plateforme data du groupe. Vous accompagnez la définition de la stratégie cible, la gouvernance et la trajectoire de migration vers une plateforme data unifiée, scalable et conforme aux contraintes réglementaires (RGPD, localisation des données, sécurité). 🧩 Missions principales🔎 1. Diagnostic des plateformes data existantes Réaliser une cartographie complète des plateformes data existantes Analyser les architectures de bout en bout (de l’ingestion à l’usage métier) Étudier l’organisation, les rôles et responsabilités Identifier les dépendances techniques et fonctionnelles Recenser et prioriser les cas d’usage Data, BI et IA Intégrer les contraintes réglementaires (RGPD, souveraineté des données) 🏗️ 2. Définition de la stratégie data cible Concevoir une architecture cible de plateforme data pan-européenne Travailler avec les équipes d’architecture groupe Recommander les choix technologiques (cloud, data platforms, outils) Définir un modèle de gouvernance data transverse (business lines) Fixer les principes de scalabilité, industrialisation et performance 🔁 3. Stratégie de migration & roadmap Construire une roadmap de transformation et migration vers la cible Définir les étapes de migration des données et des usages Organiser et animer les ateliers avec les équipes IT et métiers Préparer et suivre les comités de pilotage IT Coordonner les phases de tests, recette et non-régression 🚀 4. Accompagnement des premières phases de delivery Accompagner le démarrage des premières implémentations Garantir la cohérence entre architecture cible et réalisation Assurer un rôle de référent auprès des équipes de delivery
CDI
Freelance

Offre d'emploi
Directeur des Systèmes d'Information

VISIAN
Publiée le
Budget Management
Data governance
Project Portfolio Management (PPM)

1 an
Paris, France
Missions Assurer le rôle de DSI à part entière sur la durée de la mission Clarifier l’organisation, les rôles et responsabilités (RUN / BUILD / support) Mettre en place ou renforcer les instances de gouvernance IT (CODIR DSI, comités projets) Fiabiliser le pilotage (rituels, indicateurs, priorisation) Garantir le maintien en condition opérationnelle des systèmes critiques Sécuriser la production IT (disponibilité, performance, incidents majeurs) Traitement des irritants prioritaires métiers Reprendre le pilotage des projets structurants / sensibles Reprioriser le portefeuille projets en lien avec la Direction Générale Identifier rapidement les zones de risque, arbitrages et décisions à prendre Sécuriser les trajectoires (planning, coûts, qualité) Remettre à niveau les pratiques essentielles (documentation, MEP, qualité, sécurité) Apporter des méthodes pragmatiques adaptées à la maturité réelle de l’organisation Professionnaliser sans sur-organiser Être un interlocuteur crédible et opérationnel pour le COMEX Rendre compte de façon claire, factuelle et synthétique Formuler des recommandations actionnables, sans posture politique Produire un état des lieux clair (forces, faiblesses, risques) Capitaliser sur les actions menées et décisions prises Préparer le passage de relais au futur DSI (dossier de reprise)
Freelance
CDI

Offre d'emploi
Chef de projet DATA / Delivery Master DATA

DATAMED RESEARCH
Publiée le
Animation
Gestion de projet
Pilotage

12 mois
40k-65k €
450-630 €
Paris, France
Objectifs et livrables Dans le cadre de cette mission, le Delivery Master Data sera responsable de la coordination et de l’accompagnement des équipes projets afin d’assurer la bonne livraison des initiatives Data. Il occupe un rôle central à l’interface entre les équipes techniques, les chefs de projet et les parties prenantes métiers. Missions principales 1. Pilotage des projets Data Planifier et organiser les projets de bout en bout, de la phase d’étude jusqu’à la mise en production Coordonner les équipes multidisciplinaires (Data Engineers, Data Scientists, Product Owners, etc.) Suivre les KPI et mettre en place des plans d’actions correctifs si nécessaire 2. Gestion de la qualité et des délais Garantir le respect des délais et des standards de qualité Veiller à l’application des bonnes pratiques en matière de Data Governance, sécurité et conformité 3. Gestion Agile Animer les cérémonies Agile (Daily, Sprint Review, Rétrospective…) Favoriser une culture d’amélioration continue et de collaboration 4. Communication et gestion des parties prenantes Assurer une communication fluide entre les équipes internes, les clients et les partenaires Préparer et animer les comités de pilotage et de suivi Gérer les attentes clients et accompagner les évolutions des projets 5. Optimisation des processus Identifier les axes d’amélioration des processus de delivery Mettre en place des actions d’optimisation et d’automatisation Améliorer l’efficacité opérationnelle des équipes
Freelance

Mission freelance
Consultant.e Intégrateur.rice Solutions Relation Client (Genesys Cloud / Zendesk)

LIANEO
Publiée le
Agent IA
Genesys
Zendesk

12 mois
450-580 €
La Défense, Île-de-France
Ce projet de refonte vise à : Unifier et moderniser les parcours client. Optimiser la gestion des interactions et du ticketing. Intégrer des agents d'Intelligence Artificielle (IA) et des solutions d'IA conversationnelle afin d'améliorer l'efficacité opérationnelle et l'expérience client. Objectifs et missions principales: Contribuer aux choix d'architecture (CCaaS, IA, intégration SI, gestion des flux, données). Contribuer à la définition de la cible (et de la trajectoire) fonctionnelle et technologique intégrant les solutions de centre de contact as a Service (CCaaS), le ticketing et les agents IA. Intégrer et déployer la solution Genesys Cloud (omnicanal, routage, IVR, bots). Assister les équipes métiers à la configuration de la solution Zendesk (Support, automatisations, SLA). Concevoir et gérer les intégrations (API, SSO, flux événementiels). Être l'interface entre les métiers, les équipes DSI (architecture, applicatives, sécurité, data, cloud) et les éditeurs. Livrables attendus: Contributions aux choix d'architecture et aux définitions de la cible fonctionnelle et technologique. Configurations et déploiements des solutions Genesys Cloud et Zendesk. Spécifications et implémentations des intégrations (API, SSO, webhooks). Documentation technique et fonctionnelle des solutions mises en œuvre. Comptes-rendus de réunions et de workshops. Supports de formation et d'accompagnement des équipes métier.
Freelance

Mission freelance
Backend Engineer Python / GenAI / GCP / ADK (H/F)

HOXTON PARTNERS
Publiée le
Agent IA
IA Générative
Python

6 mois
500-520 €
Paris, France
Dans le cadre d’un projet stratégique pour un acteur majeur du secteur du luxe, nous recherchons un Backend Engineer Python / IA Gen / GCP / ADK Google pour intervenir sur la conception, le développement et l’industrialisation de services backend orientés intelligence artificielle. Le consultant participera à la mise en place d’une architecture moderne basée sur des microservices Python, au développement d’APIs robustes avec FastAPI, ainsi qu’à l’intégration de LLMs et de frameworks agentiques dans l’environnement applicatif. La mission implique également des enjeux forts autour de la résilience des échanges entre services, de la performance, de la scalabilité, de la sécurité et du déploiement sur Google Cloud Platform. Nous recherchons un profil capable d’évoluer dans un contexte exigeant, avec une vraie autonomie et une bonne capacité à collaborer avec des interlocuteurs techniques et métiers dans un environnement international.
Freelance

Mission freelance
Data Analyst Opérations & Maintenance

NEXTWYN
Publiée le
Azure Data Factory
BI
Big Data

3 mois
Paris, France
Nous recrutons un·e Data Analyst Opérations & Maintenance (Paris) Dans le cadre d’un projet stratégique au sein d’un grand groupe industriel international, nous renforçons notre pôle Data & IA et recherchons un Data Analyst O&M capable de valoriser des données issues de réseaux industriels complexes (IoT, supervision, maintenance, signalisation…). 🎯 Votre mission : transformer des données opérationnelles en insights concrets pour améliorer la performance, la supervision des actifs, la sécurité et la sobriété énergétique. Vous interviendrez sur la conception de tableaux de bord (Qlik) , l’ analyse de données , la qualité , la documentation , et la collaboration avec les équipes métiers dans un environnement international. 🔍 Vos responsabilités Recueillir et prioriser les besoins métiers avec les PO, CSM et équipes opérationnelles. Explorer, auditer et qualifier les données issues des systèmes industriels. Concevoir et développer des tableaux de bord (Qlik principalement). Standardiser et rationaliser les modèles de données avec les Data Managers. Documenter les règles de gestion et maintenir le dictionnaire de données. Réaliser les recettes fonctionnelles et mettre en place des plans de tests data.
Freelance

Mission freelance
Enterprise Architect – Data Mesh

Signe +
Publiée le
Data Mesh

12 mois
660 €
Toulouse, Occitanie
🎯 MISSIONS Implémenter une architecture Data Mesh au sein d'un SI industriel complexe Concevoir la Data Service Layer (couche de services de données) Produire les dossiers d'architecture (cibles, patterns, gouvernance) Définir les standards de la donnée orientée domaine Accompagner les équipes produit dans l'adoption du modèle Data Mesh Assurer l'alignement avec les contraintes sécurité & conformité 👤 PROFIL RECHERCHÉ Enterprise Architect confirmé – spécialisation Data Mesh Expérience sur des environnements grands comptes / industrie appréciée Maîtrise des concepts : Data Domain, Data Product, Self-serve platform, Federated governance Compétences en rédaction de dossiers d'architecture Capacité à intervenir en autonomie dès le démarrage
Freelance
CDI

Offre d'emploi
Ingénieur devops - OPS Data & IA

OBJECTWARE
Publiée le
DevOps

3 ans
Île-de-France, France
Dans le cadre de ses activités, une grande organisation du secteur financier recherche un intervenant pour intégrer une entité dédiée à la Data et à l’Intelligence Artificielle . L’équipe est responsable : de la qualité des livrables data du déploiement sur un cloud privé interne de la disponibilité et de la fiabilité des assets Elle conçoit, développe et maintient des plateformes et frameworks de data science . 2. Objectifs de la mission Assurer l’ exploitation et la fiabilité des environnements de production Data / IA Participer à l’ industrialisation des modèles de machine learning Contribuer à la construction et à l’évolution des plateformes data Garantir la qualité, la performance et la disponibilité des services Accompagner les équipes sur les bonnes pratiques DevOps et Data 3. Missions 3.1 Production & Exploitation Administration, exploitation et automatisation des systèmes d’exploitation Gestion et maintien en conditions opérationnelles d’un parc de containers de production Supervision et optimisation des environnements de production Data / IA 3.2 DevOps & Conteneurisation Build, optimisation et maintenance d’images Docker Gestion du RUN d’un volume important de containers en production Participation à l’industrialisation des déploiements via les outils CI/CD et GitOps 3.3 Plateforme Data & IA Construire et porter la vision technique de la plateforme de data science Piloter les choix techniques en lien avec les enjeux Data et IA Contribuer à la conception et à l’évolution des frameworks data 3.4 Innovation & expertise Réaliser une veille technologique active sur les outils et pratiques en Data Science Former et accompagner les équipes sur les technologies les plus pertinentes Être force de proposition sur les évolutions techniques 3.5 Qualité & documentation Rédaction de documents techniques (architecture, gestion des incidents) Production de livrables de qualité Partage des connaissances et bonnes pratiques au sein de l’équipe 4. Stack technique Infrastructure & DevOps GitLab CI/CD GitOps Cloud privé interne Containers & orchestration Docker Kubernetes Observabilité & monitoring Prometheus Grafana Thanos Sécurité & gestion des accès Vault (gestion des secrets) Keycloak, JWT, OIDC Réseau Reverse Proxy (Traefik) Data & stockage PostgreSQL Redis ELK Outils complémentaires Artifactory Certmanager Langages & systèmes Python Golang Bash GNU/Linux 5. Profil recherché Expertise avancée sur Kubernetes (architecture et administration de clusters) Bonne maîtrise des pratiques DevOps / CI-CD / GitOps Solides compétences en production et exploitation Connaissances des environnements Data et IA Compétences en réseau, sécurité et gestion des accès Capacité à évoluer dans un environnement complexe et exigeant 6. Enjeux clés du poste Industrialisation des workflows de Data Science Fiabilisation des environnements de production IA Scalabilité des plateformes Diffusion des bonnes pratiques DevOps et Data
Freelance
CDI

Offre d'emploi
Ingénieur Data SAS / Teradata – Environnement Banque (H/F)

Deodis
Publiée le
Data quality
Gouvernance

1 an
40k-45k €
400-480 €
Île-de-France, France
Nous recherchons un(e) Data Engineer spécialisé(e) SAS / Teradata pour intervenir au sein d’un environnement bancaire exigeant, dans le cadre de la gestion et de l’évolution d’une plateforme Data stratégique utilisée pour des besoins réglementaires. Vous serez en charge de l’administration de la plateforme SAS, de la mise en place et de l’automatisation des traitements de chargement de données via des scripts SAS et Shell, ainsi que du suivi de la qualité et de la conformité des données en base Teradata. Vous interviendrez également sur le support aux utilisateurs métiers (notamment en environnement international), l’analyse des incidents, la validation des flux de données et l’optimisation des traitements batch. Ce rôle requiert une forte expertise technique sur SAS, une bonne maîtrise des environnements Data legacy, ainsi qu’une capacité à évoluer dans un contexte structuré, orienté Data Quality, gouvernance et performance.
Freelance
CDI

Offre d'emploi
📩 Data Engineer – Data Quality & Governance

Gentis Recruitment SAS
Publiée le
Agile Scrum
Apache Spark
API

1 an
Paris, France
Contexte de la mission Dans le cadre du développement de son équipe Data Accelerator (DAC), notre client recherche un Data Engineer confirmé orienté Data Quality et Data Governance. DAC est une équipe transverse en charge d’accompagner les équipes métiers et IT sur l’ensemble de la chaîne de valeur de la donnée : collecte, ingestion, transformation, industrialisation, gouvernance et optimisation des performances. L’environnement s’appuie principalement sur les technologies AWS, Databricks, Dataiku et Collibra, avec un fort enjeu autour de la qualité, de la fiabilisation et de la structuration des données au sein du Data Lake. Le consultant interviendra dans un contexte stratégique avec une forte collaboration avec les équipes Data Analysts, Data Scientists ainsi qu’avec le Chief Data Officer. Missions principalesQualification et gestion des données Captation des données structurées et non structurées provenant de multiples sources Intégration et supervision des flux de données Structuration de la donnée (normalisation, sémantique, référentiel) Cartographie des données disponibles Nettoyage des données (suppression des doublons, contrôle qualité) Validation et qualification des données avant intégration dans le Data Lake Participation à la création et à l’amélioration des référentiels de données Industrialisation et performance Développement et optimisation des traitements data Amélioration des performances et maîtrise des coûts des plateformes data Participation aux développements correctifs, évolutifs et adaptatifs Contribution aux dossiers d’architecture Production des tableaux de bord de suivi Gouvernance & collaboration Participation à la définition de la politique data Respect des standards de sécurité, gouvernance et conformité Collaboration avec les équipes métiers, IT et gouvernance data Contribution à l’industrialisation des cas d’usage Data & GenAI
CDI

Offre d'emploi
Développeur IA - (RAG, Guardrails)

CAT-AMANIA
Publiée le
Angular
Apache Kafka
Azure

Île-de-France, France
• Gestion autonome des clés LLM (AI Products) • Monitoring et observabilité avancée (Langfuse, dashboards, consommation LLM) • Évolutions autour de LiteLLM et des providers (Mistral, Azure OpenAI, Bedrock…) • Industrialisation des patterns RAG, agents, pipelines IA • Conformité et sécurité IA selon la Charte IA Groupe • Maîtrise des architectures RAG avancées (hybrides BM25 + vecteurs, graph RAG, agents augmentés) • Très bonne compréhension des LLM (Mistral, GPT, Claude…) et protocoles de génération • Maîtrise des patterns d’observabilité IA (Langfuse, tracing prompts) • Connaissance des obligations IA Act / données sensibles via la Charte IA • Conception d’API robustes, scalables et sécurisées • Développement de microservices cloud-ready (Azure / Kubernetes) • Conception d’architectures “LLM Gateway” ou “Model Router” (type LiteLLM) • Gestion de pipelines data (Kafka ou équivalents) • Compétences Fullstack (Python, Java, Angular) • Intégration avec des SI complexes (SharePoint, GED, systèmes distribués) • Optimisation coûts/perf des workloads IA • Utilisation des chaînes CICD (Jenkins, GitLab) • Déploiement AWS (Terraform) • Mise en place de dashboards, alerting (Datadog, Langfuse) • Application des standards sécurité IA / DPO (Charte IA)
CDI
Freelance

Offre d'emploi
Assistant RSSI e-Commerce & Big Data (H/F)

Clostera
Publiée le
Cybersécurité
Gouvernance

3 ans
50k-58k €
400-500 €
Île-de-France, France
Rejoignez-nous ! Dans le cadre de plusieurs projets liés au e-Commerce et à la gestion de la donnée, vous intervenez en support du Responsable de la Sécurité des Systèmes d’Information (RSSI). Vous contribuez à la gouvernance sécurité, à la sécurisation des processus métiers et techniques, ainsi qu’à la protection des applications et infrastructures. Le périmètre couvre des activités digitales variées (plateformes e-Commerce, services clients, data & analytics), avec des enjeux liés à l’exposition Internet, à la donnée sensible et aux risques de fraude. Ce que vous ferez : Assister le RSSI dans la définition et le pilotage de la gouvernance sécurité Contribuer à la sécurisation des processus métiers et IT Participer à la sécurité des développements (web et mobile) Accompagner les équipes techniques sur les bonnes pratiques de sécurité Identifier, analyser et challenger les risques liés aux projets Réaliser ou contribuer aux analyses de risques (méthode EBIOS RM) Sensibiliser les équipes aux enjeux de cybersécurité et de fraude Produire des livrables (rapports, synthèses, supports de présentation) Participer aux échanges avec les équipes métiers et IT Assurer un rôle de conseil, d’alerte et d’escalade si nécessaire Environnement technique : Écosystèmes e-Commerce (sites exposés Internet, parcours clients, paiement) Applications web et mobiles Environnements Big Data et gestion du cycle de vie de la donnée Protocoles de communication standards Référentiels de sécurité applicative (OWASP) Bonnes pratiques de sécurité (ANSSI) Contexte réglementaire lié aux données personnelles
Freelance

Mission freelance
Data analyst SENIOR

MLMCONSEIL
Publiée le
Python

6 mois
100-470 €
Nantes, Pays de la Loire
Recherche d'un data analyst SENIOR : Tâches Comprendre et modéliser les problématiques métier et celles du pôle Définir avec justesse le périmètre des données nécessaire à la solution technique Designer et construire des modèles de machine learning Modéliser des résultats d’analyse des données pour les rendre lisibles, exploitables et actionnables Comprendre et modéliser les problématiques métier et celles du pôle Définir avec justesse le périmètre des données nécessaire à la solution technique Designer et construire des modèles de machine learning
Freelance
CDI
CDD

Offre d'emploi
DataOps & Administrateur Hadoop TJM MAX 580

Craftman data
Publiée le
Ansible
Apache Hive
Apache Spark

1 an
40k-45k €
400-580 €
Paris, France
Missions et responsabilités principales1. Déploiement et industrialisation des clusters Big Data Déploiement automatisé de clusters via des pipelines CI/CD Utilisation d’outils d’automatisation pour l’installation et la configuration des composants Adaptation des architectures selon les besoins projets (dimensionnement, sécurité, performance) Contribution à l’industrialisation des processus (CI/CD, Infrastructure as Code) Déploiement et configuration d’outils de gestion de plateforme Installation et configuration d’interfaces utilisateurs pour les environnements analytiques 2. Stack Big Data administrée Administration et intégration des composants suivants : Service d’annuaire : gestion des identités Service d’authentification : sécurisation des accès Système de fichiers distribué : gestion du stockage Framework de traitement distribué : gestion des ressources et exécution Outil de gestion des accès : politiques de sécurité Moteur de calcul distribué Moteur SQL pour l’accès aux données Base de données relationnelle associée aux services Service de coordination distribué Responsabilités associées : Installation, configuration et paramétrage avancé Gestion des dépendances inter-services Maintien de la cohérence des versions Optimisation des performances et de la stabilité 3. Provisionnement et préparation des environnements Provisionnement des machines virtuelles Préparation des prérequis systèmes (OS, stockage, réseau) Automatisation des installations via scripts et outils d’orchestration Gestion des environnements (développement, test, production) 4. Observabilité et supervision Mise en place et maintien de la supervision : Collecte des métriques Gestion et routage des alertes Centralisation et exploitation des logs Visualisation via tableaux de bord Définition et amélioration des indicateurs de supervision Analyse proactive des alertes Diagnostic et résolution d’incidents 5. Maintien en Condition Opérationnelle (MCO) Administration quotidienne des plateformes Big Data Support technique aux équipes projets et utilisateurs Gestion des incidents et demandes d’évolution Montées de version et correctifs Suivi de la capacité (CPU, RAM, stockage) Documentation technique et mise à jour des procédures Rituels et interactions Participation aux rituels d’équipe Coordination avec : Équipes infrastructure et exploitation Équipes projets data / métiers Référents sécurité Accompagnement des équipes dans l’usage de la plateforme Environnement technique global CI/CD & DevOps : outils d’intégration et de déploiement continus, gestion de code, qualité Automatisation : outils d’orchestration et scripting Infrastructure : virtualisation, conteneurisation Big Data : écosystème de traitement distribué Observabilité : outils de monitoring, logs et visualisation Points de vigilance Forte interdépendance des composants de la plateforme Sensibilité aux problématiques de capacité et de performance Importance de l’anticipation via la supervision Respect strict des standards de sécurité et des procédures internes Coordination transverse nécessaire pour les déploiements et évolutions majeures Charge estimative Déploiement d’un cluster complet : variable selon dimensionnement et spécificités projet MCO : charge récurrente hebdomadaire Incidents critiques : charge ponctuelle selon criticité
2636 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous