Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 684 résultats.
CDI

Offre d'emploi
Data Engineer Adtech Big Query

ECONOCOM INFOGERANCE ET SYSTEME
Publiée le

45k-50k €
Rennes, Bretagne
Contexte de la mission : Le client a pour mission d'accompagner les agences médias nationales et locales, les annonceurs grands comptes et les acteurs publics au travers de plans média 360° (TV Segmentée, Streaming, display, programmatique, social...) permettant de communiquer de manière ciblée auprès des intentionnistes BtoC et BtoB au travers de différents formats publicitaires. La mission sera encadrée par le responsable datas & adtech, le product manager, et les parties prenantes (accounts managers et commerciaux). Objectifs et livrables : Finalités du poste : • Construire et maintenir les flux de données nécessaires à la Customer Data Platform (CDP). • Mettre la donnée à disposition des Account Managers pour répondre plus vite et mieux aux briefs. • Automatiser les traitements datas (datas propriétaires, datas des plateformes publicitaires) et mettre en place les outils internes en utilisant les capacités de l'IA (nouvelles activités au sein de l'entité). • Intégrer dans notre stack technique les outils publicitaires du marché pour la collecte, le ciblage et l'activation de données et la mise en place de campagnes publicitaires sur différent canaux. Missions principales : • Organiser, structurer, exploiter la donnée dans la CDP. • Maitriser les scripts d'ingestion (Python, SQL BigQuery) et en assurer le bon fonctionnement quotidien. • Intégrer toutes les données internes utiles à l'entreprise en collaborant avec les autres équipes (Développeurs, Data, Produit, IT et Juridique). • Construire les dashboards de l'entité pour piloter la pertinence de notre donnée, comprendre et améliorer la monétisation de nos médias, et le pilotage de l'entité (clients, briefs, campagnes, performances). • Développer les outils internes pour accélérer les opérations (réponse aux briefs, automatisation de mise en place de campagnes) en collaboration étroite en avec les Account Managers. • Intégrer les adtechs (alternatives IDs, dsp Equativ & The Trade Desk, pixels et audiences tracking, autres solutions du marché - metabase, mindmetrics) Technologies : • Développements web et back pour les outils internes • Pilotage activité et pilotage interne (BigQuery, Metabase) • Intégration de solutions marchés(DSP GAM, Equativ, TheTradeDesk, First-ID,...) Référence de l'offre : 1ocsrdgcap
Freelance

Mission freelance
Project Leader SI Finance & Risques

TEOLIA CONSULTING
Publiée le
Big Data
Finance

1 an
400-730 €
Val-de-Marne, France
Au sein d’une tribu dédiée aux domaines Finance, Risques et Recouvrement , vous interviendrez dans une squad d’une dizaine de collaborateurs en charge de : La collecte de la comptabilité mensuelle La production d’indicateurs comptables, financiers et risques La gestion des pistes d’audit La production d’états et flux réglementaires Dans un contexte de transformation du SI , avec une forte orientation data-driven , vous contribuerez à faire évoluer les outils et processus au service des métiers. En tant que Project Leader , vous serez responsable du pilotage de projets SI sur les périmètres Finance & Risques : Piloter des projets de bout en bout (cadrage, conception, réalisation, déploiement) Recueillir et analyser les besoins métiers Traduire les besoins en solutions IT en lien avec les équipes techniques Coordonner les différentes parties prenantes (métiers, IT, data, etc.) Suivre l’avancement (planning, budget, risques, qualité) Organiser et animer les instances projet Garantir la bonne mise en production et l’accompagnement au déploiement Assurer un rôle d’interface clé entre les équipes métiers et la DSI
CDI

Offre d'emploi
Data Analyst (F/H)

CELAD
Publiée le

Montpellier, Occitanie
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ 2 jours de télétravail par semaine – Montpellier (34) – Expérience de 7 ans min Envie de rejoindre une équipe où la tech et les projets stimulants sont au rendez-vous ? Cette opportunité est faite pour vous ! Voici un aperçu détaillé de vos missions : Taches principales - activités BI - Collaborer étroitement avec les Business Analystes afin d’identifier les besoins Data du métier grâce à des ateliers d’affinage - Collecter et exploiter les données pour les restituer sous forme d’indicateurs ou de Tableaux de bord, et ainsi contribuer et conduire les analyses Data mises en lien avec les problématiques métiers - Présenter les résultats aux équipes métiers - Véhiculer auprès des métiers le cadre de gouvernance Data (Data Management, Data Privacy…) de l’entreprise, en portant les messages et expertises autour du Digital - Contribuer à l’évolution des pratiques du Chapitre dans une logique d’amélioration continue Une connaissance fonctionnelle de l’analyse data dans le domaine bancaire pour apporter un regard critique et répondre aux problématiques d’analyse de donnée des métiers Evolutions des activités en temps 2 – activités data digital (tracking et data analyse associée) : - Identifier, avec les Squads métiers, les besoins de tracking dans des ateliers d’affinage - Réaliser les spécifications et recettes du tracking - Collecter et extraire les données nécessaires à l’analyse - Construire des tableaux de bord - Restituer le plan de marquage déployé dans un livrable au format prédéfini pour les caisses régionales. - Présenter le rendu aux squads métiers. En tant qu’intervenant externe sur le poste de data analyst, vous interviendrez spécifiquement sur : Fabrication de Tableaux de Bord via Microstrategy (sur des activités BI), Calcul d’indicateurs via script SQL sur environnement Teradata (sur des activités BI) et intégration dans des pipelines de restitution normées. Il sera également demandé à l’intervenant/e externe d'intervenir sur les activités Digital en lien avec la Données pour garantir la réussite du Pilotage des Parcours web : Mise en œuvre du Tracking sur les parcours utilisateurs et Fabrication de Tableaux de Bord pour restituer les données aux métier (sur des activités Parcours Digitaux) - Logiciel et solutions analytiques : Tag Commander, Piano Analytics, Cosmo Survey, Conduite des analyses marketing sur la base du tracking déployé et force de proposition sur les possibles optimisations lors de ces analyses. Outil de Data Visualisation (Expert) : Microstrategy étant un plus (ou connaissance Power Bi, Tableau) Langage : SQL (expert) Apprécié : Data & Digital Logiciel d'analyse de la donnée pour le Tracking (type Tag Commander, Piano Analytics) Analyse Comportementale utilisateur.
Freelance
CDI

Offre d'emploi
Architecte Data IA

CAT-AMANIA
Publiée le
Architecture
IA
Machine Learning

2 ans
40k-45k €
400-700 €
Niort, Nouvelle-Aquitaine
Nous sommes actuellement à la recherche d'un Architecte Data IA pour l'un de nos clients sur le bassin niortais : Concevoir et mettre en place des architectures data robustes et évolutives Définir la stratégie de gestion et de valorisation des données Piloter des projets en intelligence artificielle et machine learning Collaborer avec les équipes techniques et métiers pour identifier les cas d’usage Garantir la qualité, la sécurité et la gouvernance des données Assurer une veille technologique constante sur les outils data et IA
CDI

Offre d'emploi
Senior Data Scientist - Ecommerce (f/m/d) (H/F)

█ █ █ █ █ █ █
Publiée le
Apache Spark
Git
Python

Paris, France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance
CDI

Offre d'emploi
Data engineer

Gentis Recruitment SAS
Publiée le
ETL (Extract-transform-load)
microsoft
Modélisation

6 mois
40k-64k €
550-800 €
Luxembourg
Data Engineer orienté gestion de la donnée , capable de prendre en charge la donnée de bout en bout : de son arrivée jusqu’à son exploitation, en garantissant sa qualité, sa cohérence et sa performance. Le poste s’inscrit dans un environnement majoritairement Microsoft , avec des enjeux forts autour de la structuration, de l’analyse et de la modélisation des données . Missions principales Gérer la donnée tout au long de son cycle de vie (ingestion, transformation, stockage, exploitation). Concevoir, maintenir et optimiser des data pipelines fiables et performants. Organiser et structurer les données via des modèles de données clairs et adaptés aux usages métier. Participer à des activités de data analysis pour assurer la qualité et la cohérence des données. Automatiser les traitements et flux de données via du scripting Python . Collaborer étroitement avec les équipes techniques et métiers , dans une logique transverse, afin de comprendre et répondre aux besoins liés à la donnée. Veiller aux bonnes pratiques de gouvernance, de sécurité et de performance des données. Environnement technique Écosystème Microsoft (bases de données, outils data, cloud) Python (scripting, automatisation, traitement de données) Data pipelines / ETL – ELT Modélisation de données SQL Une connaissance de l’industrie des fonds / de la gestion d’actifs constitue un réel avantage.
CDI

Offre d'emploi
Sales Data & Commissions Manager H/F

█ █ █ █ █ █ █
Publiée le

Paris, France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Coordinateur Data H/F

HAYS France
Publiée le

2 mois
Caen, Normandie
Mission : Mission de 2 mois en Freelance puis préembauche en CDI Lieu : Caen Vos Missions Organisation du reporting groupe Structure et centraliser les indicateurs clés (KPI) pour le pilotage stratégique et opérationnel. Définit et maintenir une architecture de reporting homogène pour l'ensemble du groupe. Évolution des tableaux de bord Conçoit, maintient et fait évoluer les dashboards pour répondre aux besoins métiers. Garantit l'automatisation, la lisibilité et la fiabilité des rapports. Modélisation des données et flux d'alimentation Conçoit et maintient les modèles de données (Datawarehouse, Datalake, Datamarts). Crée et optimise les processus d'intégration (ETL/ELT) pour alimenter les systèmes analytiques. S'assure de la qualité, de l'exhaustivité et de la fraîcheur des données. Relation avec les métiers et la Direction Technique (OT) Assure le lien fonctionnel entre les équipes métiers et la DSI (Direction Technique). Analyse les besoins, formalise les expressions de besoins, coordonne les réponses techniques. Mise en place de procédures de contrôle qualité Définit et met en oeuvre des règles de contrôle de cohérence et de qualité des données. Met en place des alertes, indicateurs de suivi et tableaux de bord de contrôle. Participe à la conformité réglementaire (ex : RGPD, audit interne). Administration de la plateforme BI Gére les environnements de BI (paramétrage, déploiement, supervision). Met en oeuvre une gouvernance des accès et des rôles : Définit les périmètres d'accès aux données (cloisonnement par entité, fonction, niveau hiérarchique). Assure une gestion fine des droits utilisateurs, rôles et permissions. Formation et accompagnement des utilisateurs Forme les utilisateurs clés et les référents métier aux outils BI et aux bonnes pratiques d'usage des données. Élabore des supports pédagogiques (guides, vidéos, documentation). Développe l'acculturation des collaborateurs à la donnée et à l'IA. Veille technologique & innovation Suit les évolutions dans les domaines BI, data, cloud et IA. Identifie les opportunités d'optimisation ou de transformation des processus métier grâce à la donnée
CDI

Offre d'emploi
Expert Data / IA – Prévision des ventes H/F

DAVRICOURT
Publiée le
Intelligence artificielle

50k-55k €
Arras, Hauts-de-France
Dans le cadre de la réalisation d'un projet en assistance technique, nous recherchons un(e) Expert Data / IA – Prévision des ventes pour l'un de nos clients. Vous interviendrez sur un projet stratégique sur site à proximité d'Arras ou en full remote. À ce titre, vos missions quotidiennes seront les suivantes : - Analyser les mécanismes actuels de prévision des ventes et les sources de données existantes ; - Évaluer la qualité, la structure et la fiabilité des données (ERP, historiques, tables métiers) ; - Identifier les variables clés influençant les ventes (saisonnalité, contraintes logistiques, etc.) ; - Concevoir et développer des modèles de prévision (statistiques et machine learning) ; - Tester, comparer et optimiser les modèles en fonction des spécificités métiers ; - Industrialiser les modèles (automatisation, intégration SI, pipelines data) ; - Structurer les flux de données et garantir la robustesse des solutions ; - Mettre à disposition des outils de restitution et faciliter leur adoption par les équipes métiers ; - Accompagner les équipes et proposer des axes d'amélioration à fort impact business.
Freelance

Mission freelance
Un Architecte Dataiku / Architecte Data Senior à Saint-Brieuc

Almatek
Publiée le
Dataiku

6 mois
Saint-Brieuc, Bretagne
Almatek recherche pour l'un de ses client, Un Architecte Dataiku / Architecte Data Senior à Saint-Brieuc Les livrables sont : Schéma d’architecture data global + focus Dataiku Guide des bonnes pratiques Dataiku Templates / bibliothèque réutilisable Compétences techniques : Dataiku - Confirmé - Impératif Architecture data modernes - Confirmé - Impératif DBT et workflows de transformation - Confirmé - Impératif Description détaillée Contexte: L’architecte Dataiku interviendra en support transverse des équipes métiers et techniques pour structurer les usages et diffuser les bonnes pratiques. Objectifs Industrialiser et structurer l’usage de Dataiku Accompagner les équipes dans l’exploitation de la donnée Définir des standards et composants réutilisables Assurer l’intégration avec l’écosystème data (S3, DBT, Data Catalog) Contribuer aux initiatives de data governance Missions principales 1. Architecture & gouvernance Définir l’architecture Dataiku et son intégration avec AWS S3 Structurer les environnements (dev / recette / prod) Mettre en place les bonnes pratiques (flows, versioning, sécurité) 2. Administration & industrialisation Administrer la plateforme (accès, configuration, monitoring) Mettre en place les processus de déploiement et de recette Créer une bibliothèque de composants réutilisables (templates, pipelines) Contribuer à la productisation des cas d’usage data 3. Accompagnement des équipes Support aux équipes métiers et techniques Aide à la prise en main de Dataiku Diffusion des bonnes pratiques et montée en compétence Accompagnement à la mise en œuvre de cas d’usage 4. Intégration data Articuler Dataiku avec : DBT (silver ? gold) outils de data quality (ex : Elementary) Data Catalog Assurer la traçabilité et la documentation des données 5. Data governance Support au déploiement du data catalog Contribution à l’alimentation des métadonnées Appui aux data owners et aux processus de gouvernance Contribution possible sur ingestion / contrôle des données Profil recherché Compétences techniques Expertise Dataiku (architecture et administration) Bonne maîtrise des architectures data (Data Lake, ELT) Connaissance AWS (S3) et DBT Sensibilité data quality et data governance Compétences fonctionnelles Structuration de bonnes pratiques Accompagnement des équipes métiers Connaissance MDM appréciée Modalités Démarrage : ASAP Présence : ~2 jours/semaine sur site (22) Contexte : environnement majoritairement interne
CDI
Freelance

Offre d'emploi
Architecte Big Data IA

CHARLI GROUP
Publiée le
Gouvernance
IA
Natural Language Processing (NLP)

3 ans
Paris, France
1. Contexte du service : Cette mission vise à établir un cadre complet pour la gestion des données non structurées afin de soutenir les initiatives axées sur les données et l'IA. Elle a pour objectif de définir des normes, des règles et des cadres garantissant la fiabilité et la réutilisabilité des données, et facilitant ainsi le déploiement de solutions de données et d'IA évolutives grâce à la collaboration avec les parties prenantes concernées. Cette activité comprend le pilotage d'approches innovantes, la consolidation des enseignements tirés et la garantie de l'alignement avec les stratégies de données globales. 2. Périmètre du service: : Développement du socle méthodologique de la gestion des données non structurées, aligné sur les meilleures pratiques du secteur. Définition et documentation des normes, règles et cadres garantissant la qualité, la cohérence et la réutilisabilité des données. Coordination avec les parties prenantes internes pour recueillir leurs retours et assurer l'alignement avec les objectifs stratégiques. Tests pilotes de cadres de données non structurées innovants et intégration des enseignements tirés dans les pratiques opérationnelles. Évaluation des fournisseurs de technologies, analyse comparative des solutions et recommandation d'outils et de plateformes adaptés. Évaluation des techniques de traitement de documents (OCR, NLP, VLM), de la gestion des métadonnées, des ontologies et des solutions de bases de données vectorielles. Accompagnement des initiatives de transformation liées à l'utilisation des données à des fins d'IA et d'analyse. 3. Prestations de service: Un cadre méthodologique complet pour la gestion des données non structurées. Des normes, politiques et règles documentées pour la qualité des données, les métadonnées et l'architecture des données. Des rapports sur les projets pilotes, incluant les enseignements tirés et les meilleures pratiques. Des rapports d'évaluation des fournisseurs et des analyses comparatives. Une documentation technique sur les techniques de traitement de documents et les méthodes de transformation des données. Des recommandations concernant les outils, les plateformes et les plans de mise en œuvre alignés sur les besoins opérationnels.
Freelance

Mission freelance
Data Governance Manager

Codezys
Publiée le
Conduite du changement
Data governance
Data management

6 mois
330-400 €
Bordeaux, Nouvelle-Aquitaine
Objectifs de la prestation Dans le cadre de la consolidation de sa gouvernance data, l'entreprise souhaite renforcer et structurer ses pratiques en s'appuyant sur un environnement technologique avancé, comprenant les plateformes Snowflake, Power BI et Datahub. Pour cela, l'équipe Data Management, composée de 4 professionnels, recherche un expert transverse afin de piloter la structuration, le déploiement et l'animation de la gouvernance opérationnelle. Mandat confié Déploiement du modèle de Data Stewardship Clarifier les rôles, périmètres et rituels entre Data Owners, Data Stewards et équipes techniques. Créer des kits d'onboarding, des standards et des supports pour accompagner les Data Stewards dans leur mission. Lancer et animer la communauté de Data Stewards afin de promouvoir une gouvernance partagée et efficace. Adoption & Data Catalog Renforcer l'adoption du Data Catalog (Datahub) et promouvoir les bonnes pratiques de gouvernance associées. Accélérer la documentation des assets data prioritaires pour assurer une meilleure compréhension et exploitation des données. Étendre la couverture du catalogue aux traitements d'intelligence artificielle (IA), intégrant ainsi la gouvernance dès la conception. Animation & transverse Organiser des ateliers avec les utilisateurs pour favoriser l'appropriation des outils et des méthodes de gouvernance. Faire émerger les irritants et structurer un backlog transverse pour répondre aux enjeux opérationnels. Intégrer la gouvernance lors des phases de cadrage des projets, en adoptant une approche 'governance by design'. Réactiver les communautés existantes, notamment les référents Power BI, afin de maintenir une dynamique de partage et de collaboration. Profil recherché Le candidat idéal devra posséder une expertise transverse en gouvernance data, avec une capacité à intervenir à la fois au niveau stratégique et opérationnel. Il devra démontrer des compétences en animation de communautés, en structuration de processus et en animation d'ateliers, tout en étant capable de travailler en étroite collaboration avec les équipes techniques et métier. Les propositions devront détailler la méthodologie proposée pour atteindre ces objectifs, ainsi que la démonstration de capacités similaires dans des environnements complexes et structurés.
Freelance

Mission freelance
Expert Data Engineer – Looker Core

Nicholson SAS
Publiée le
BigQuery
IA
Legacy System Migration Workbench (LSMW)

6 mois
700-850 €
Paris, France
Contexte de la mission Dans le cadre d’un projet stratégique de migration vers le Cloud (« Data Move To Cloud »), vous rejoignez une entité majeure du secteur du transport aérien. Votre rôle sera d’évaluer et d’accompagner l’adoption de Looker Core comme futur standard de Dataviz du groupe. Missions principales Accompagnement de POCs : Piloter le développement technique et soutenir les équipes métiers dans la réalisation de leurs preuves de concept. Expertise Conseil : Apporter un regard critique et structurant sur l'architecture, la sécurité et l'optimisation FinOps liées à l'outil. Acculturation & Pédagogie : Former les utilisateurs finaux et assurer l'interface technique avec les équipes IT (Ops, Architectes). Étude Stratégique : Évaluer la capacité de Looker à répondre aux nouveaux enjeux (analyses ad-hoc, IA conversationnelle) et sa pertinence pour remplacer les solutions legacy (SAP BO, Spotfire). Informations pratiques Lieu : Paris (Rythme hybride : 2 à 3 jours de télétravail / semaine). Démarrage : ASAP. Durée : Jusqu’au 11/11/2026 (Visibilité long terme). TJM : Selon profil (séniorité et expertise) Note : Looker Studio est hors périmètre. Le client cherche un profil expert en Looker Core/ LookML. Looker Studio et ses dérives ne rentrent pas en perspective.
CDI
Freelance

Offre d'emploi
Senior Data Analyst

DEKIMO EXPERTS
Publiée le
Snowflake

6 mois
Paris, France
🚀 Senior Data Analyst – Fintech (Paris / Hybrid) Contexte Fintech européenne en forte croissance, recherche un Senior Data Analyst freelance pour renforcer la séniorité de son équipe Data et piloter des projets à fort impact business. La mission En tant que business partner data , vous intervenez au cœur des décisions stratégiques : Piloter des projets data transverses (Finance, Sales, Product, Marketing, Ops…) Traduire des problématiques métier en analyses actionnables Construire dashboards & reportings stratégiques Réaliser des analyses avancées (cohortes, attribution, forecasting) Contribuer à la structuration de la data (modélisation, qualité, self-service) Stack & environnement Snowflake · dbt · SQL · Tableau Profil recherché 5+ ans en data analytics (startup / scale-up idéalement) Excellente communication & posture de partenaire métier Forte autonomie et capacité à driver des projets complexes Expertise SQL + outils de data viz FR / EN courant
Freelance

Mission freelance
Expert Collibra technico-fonctionnel

Inventiv IT
Publiée le
Agile Scrum
AWS Cloud
Collibra

5 mois
660-720 €
Paris, France
Nous recherchons un expert Collibra technico-fonctionnel avec plus de 15 ans d'expérience dans le cadre d'une mission au forfait avec engagement de résultat sur une période de 5 mois. Dans un contexte groupe avec un socle Data existant, une dizaine de direction métiers et un outil Collibra mise en place. Certifications requises Certification Collibra Certification Agile / Scrum Certification RGPD / CNIL Profil recherché Expérience (15 ans d'expériences minimum) Minimum 10 ans d’expérience data Minimum 4 ans en Data Governance Expérience significative sur Collibra (implémentation et exploitation) Mise en place de workflows automatisés (au moins 2) Expérience d’intégration avec des SI (connecteurs, APIs…) Compétences techniques Collibra (configuration, workflows, administration) Data Governance & Data Catalog Data Engineering / BI / Data Management Environnements : Databricks, AWS, outils de metadata (Collate…) Méthodologies Agile (Scrum) Certifications requises Certification Collibra Certification Agile / Scrum Certification RGPD / CNIL Soft skills Autonomie et rigueur Capacité d’analyse et de proposition Excellentes compétences en communication Capacité à interagir avec des profils techniques et métiers Organisation & environnement Encadrement : Product Owner Data Catalog Interaction avec équipes Data (DSI, Data Factory) Mode de travail hybride : Non négociable 3 jours/semaine sur site (Paris) 2 jours/semaine en télétravail Entretien technique en présentiel à Paris Modalités Mission au forfait avec engagement de résultat Suivi mensuel via livrables et compte-rendu d’activité Validation régulière en COPIL
Freelance
CDI
CDD

Offre d'emploi
Responsable Practice SRE

RIDCHA DATA
Publiée le
DevOps
Docker
Helm

1 an
Ivry-sur-Seine, Île-de-France
Contexte Dans le cadre du développement de sa Direction des Services, un acteur majeur du numérique recherche un(e) Responsable Practice SRE pour piloter et structurer la démarche Site Reliability Engineering au sein de la DSI. Vos missions Définir et piloter la stratégie SRE de l’entreprise Superviser la fiabilité, la performance et la sécurité des applications hébergées dans le cloud Accompagner les équipes dans la mise en œuvre des bonnes pratiques SRE / DevOps Automatiser les processus opérationnels et réduire les interventions manuelles Structurer et animer la communauté SRE afin d’harmoniser les pratiques Piloter la gestion proactive des incidents et les analyses post-mortem Superviser l’intégration des applications aux services d’infogérance Sélectionner et déployer les outils nécessaires à la pratique SRE Collaborer avec les équipes Dev, Ops, Sécurité et Cloud Platform Assurer une veille technologique continue sur les pratiques et outils SRE Responsabilités principales Élaborer la roadmap SRE : résilience, capacity planning, performance, disponibilité Encadrer et accompagner les équipes SRE dans leur montée en compétences Garantir le respect des SLA et l’amélioration continue des services Participer aux audits sécurité et conformité Promouvoir les bonnes pratiques cloud auprès des équipes métiers / BU Compétences techniques requises Très bonne maîtrise des environnements Cloud Expertise en : Linux / Unix Docker Kubernetes CI/CD Helm Terraform Ansible Solide expérience sur les outils de : Monitoring / Observabilité Logging / Supervision Bonne culture DevOps / SRE / Cloud Native
684 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous