Trouvez votre prochaine offre d’emploi ou de mission freelance Databricks

Votre recherche renvoie 107 résultats.
Freelance

Mission freelance
Architecte Cloud AWS / Azure (Data Platform) - Paris

Net technologie
Publiée le
Architecture
AWS Cloud
Azure

3 mois
Paris, France
Nous recherchons un Architecte Cloud expérimenté pour accompagner la mise en place d’une nouvelle Data Platform au sein d’un programme de transformation data. 🎯 Enjeux : concevoir et piloter l’architecture SI cloud, garantir la cohérence avec la stratégie IT, et accompagner l’innovation autour des architectures Data Lakehouse . 🚀 Missions Définir et piloter l’ architecture cloud (AWS / Azure) Contribuer aux choix technologiques et à la stratégie SI Accompagner les projets dans la conception et l’intégration des solutions Définir les standards d’architecture et bonnes pratiques Garantir la sécurité, la résilience et la performance du SI Participer à l’amélioration continue et au partage des connaissances
Freelance

Mission freelance
Responsable Data Factory – Power BI, Azure Data Factory, Databricks & SAP BO

Comet
Publiée le
Azure Data Factory
Azure Synapse
Databricks

12 mois
560-750 €
Paris, France
Grand groupe français recherche un Manager de Transition Senior pour accompagner la direction Digital & Data dans le pilotage et la coordination de son portefeuille de projets Data . La mission s’inscrit dans un environnement de transformation numérique où les équipes Data portent des projets stratégiques pour les métiers du groupe. Le consultant interviendra au sein d’un pôle Data Factory composé d’ingénieurs Data , chargé de concevoir, déployer et maintenir les solutions Data et BI de l’entreprise. MissionsGouvernance et coordination Accompagner la direction Digital & Data dans le pilotage stratégique des projets Data Concevoir et préparer les dossiers d’investissement des projets Rédiger des cahiers des charges techniques Analyser les réponses aux consultations fournisseurs Piloter les prestataires externes Garantir la cohérence des roadmaps stratégiques et opérationnelles Préparer les éléments nécessaires aux instances de gouvernance Pilotage du portefeuille projets Participer à l’identification et à la priorisation des projets Data Mettre en place et maintenir les outils de pilotage du portefeuille Assurer le suivi : planning budget ressources risques Produire les tableaux de bord et reportings consolidés Assurer la coordination entre les équipes IT, métiers et partenaires externes Support opérationnel et managérial Accompagner les chefs de projets et les ingénieurs Data Contribuer à l’amélioration des processus internes Faciliter la circulation de l’information entre les parties prenantes Contribuer à la structuration et à la diffusion de la culture Data
Freelance

Mission freelance
Data Engineer Senior – Azure Databricks (Python) (H/F)

HOXTON PARTNERS
Publiée le
Azure
Databricks
Python

6 mois
Paris, France
Dans le cadre d’un projet Data sous environnement Microsoft Azure, nous recherchons un Data Engineer disposant d’une expérience significative sur Azure Databricks (Python). Le consultant interviendra sur la conception, le développement et l’optimisation de traitements data au sein d’une plateforme moderne. Il participera à la mise en place de pipelines de transformation et à l’intégration des flux dans l’écosystème Azure. Les principales responsabilités incluent: Développement de notebooks Azure Databricks en Python / PySpark Conception et optimisation de pipelines de transformation Intégration avec Azure Data Factory Contribution aux sujets de gouvernance via Unity Catalog Participation aux déploiements et bonnes pratiques d’industrialisation (Terraform)
Freelance

Mission freelance
Ops engineer - Data Factory (AWS, Databricks)

CAT-AMANIA
Publiée le
Amazon S3
AWS Glue
Databricks

1 an
100-450 €
Lille, Hauts-de-France
Objectifs et livrables Ta mission sera de Garantir la robustesse de la plateforme (DRP, PCA) Monitorer et prendre des actions proactives de management de la plateforme de stockage (Storage Lens, Cloudtrails) Assurer le support et l'accompagnement sur S3, Glue, Unity Catalog Déployer de nouvelles ressources infra via Terraform et maintenir l'existant Etroite collaboration avec les ops engineer de notre team infra centrale et notre staff ops Accompagner et former Définir et promouvoir les bonnes pratiques proposées au sein de l'équipe Participer et conseiller lors de la conception des pipelines de données des équipes Développer le futur Gouvernance automatisée (Data contract registry, access management) Déploiement de Unity catalog et activations de ses nouvelles features (lineage, managed tables etc.)
Freelance
CDI

Offre d'emploi
DataOps Engineer - H/F

AMD Blue
Publiée le
Amazon S3
AWS Cloud
CI/CD

3 ans
48k-56k €
480-550 €
Lille, Hauts-de-France
Qui sommes-nous ? Chez AMD Blue , l'innovation est notre passion, et nous sommes fiers de présenter Blue Ops . Avec une présence établie sur l'ensemble du territoire français et une récente expansion aux États-Unis, nous sommes résolument tournés vers l'avenir. Dans le cadre d’un besoin client, nous avons l'opportunité d'accueillir un nouveau membre au sein de notre Tribu Ops . Contexte de la mission : Notre client recherche un(e) Senior Data Ops Engineer pour rejoindre son équipe en charge du Datalake. La donnée est au cœur de la stratégie de notre client, guidant chaque décision de la conception à l'expérience utilisateur. L'équipe est responsable de la mise à disposition du stockage, de la robustesse, de la scalabilité et de la gouvernance technique du patrimoine de données. Descriptif de la mission : Les missions sont : Garantir la robustesse de la plateforme : Gestion du DRP et du PCA. Monitoring et pilotage : Actions proactives de management de la plateforme de stockage (Storage Lens, Cloudtrails). Support et accompagnement : Expertise sur S3, Glue et Unity Catalog. Infrastructure as Code : Déploiement de nouvelles ressources via Terraform et maintenance de l'existant. Collaboration : Travail en étroite collaboration avec les ingénieurs infra et les équipes ops. Accompagnement et formation : Définition et promotion des bonnes pratiques, conseil lors de la conception des pipelines de données. Développement du futur : Automatisation de la gouvernance (Data contract registry, access management) et déploiement de Unity Catalog (lineage, managed tables, etc.).
Freelance

Mission freelance
Domain Data Architect

Groupe Aptenia
Publiée le
Architecture
Azure
Databricks

3 ans
660-700 €
Lyon, Auvergne-Rhône-Alpes
🔍 Nous sommes à la recherche d'un Architecte Data Domain pour piloter la stratégie de transformation de notre client. Votre rôle : définir la feuille de route, prioriser les programmes, et aligner les équipes techniques et métiers. Vous serez le référent technique Azure/Databricks, tout en coordonnant des équipes d’architectes data et en intervenant techniquement si nécessaire. ✅ Définir et piloter la stratégie d’évolution du domaine data. ✅ Prioriser et justifier les transformations techniques auprès des métiers. ✅ Être référent technique sur Azure et Databricks. ✅ Coordonner des équipes d’architectes data et intervenir techniquement (dépannage, analyse d’impacts). ✅ Garantir l’alignement entre enjeux métiers et solutions techniques.
Freelance

Mission freelance
Data Engineer Senior – Databricks / AWS / Airflow (Core Data Platform)

CHOURAK CONSULTING
Publiée le
Apache Airflow
AWS Cloud
CI/CD

3 mois
400-550 €
Île-de-France, France
Nous recherchons un Data Engineer Senior pour rejoindre une équipe Data stratégique au sein d’un acteur international, avec des enjeux forts autour de la performance financière et de la fiabilité des données RH & Finance . 🎯 Contexte de la mission Vous intégrerez une équipe Core Data Product composée d’un Product Manager et de plusieurs Data Engineers. La Data est au cœur des décisions stratégiques. L’équipe est actuellement engagée dans une revue globale de son architecture et de sa modélisation , avec un objectif clair : moderniser la plateforme et transformer la stack legacy vers les nouveaux standards Data Platform. ⚙️ Missions principales Concevoir, construire et maintenir des pipelines et infrastructures data robustes et performantes . Optimiser l’architecture et la modélisation des flux. Participer à la transformation vers les nouveaux standards de la Data Platform. Garantir la qualité, la fiabilité et la gouvernance des données (Finance & HR). Assurer un RUN de qualité selon le principe “You build it, you run it”. Promouvoir les bonnes pratiques : CI/CD, revue de code, qualité du code . Garantir la sécurité et la conformité des données (RGPD). Évoluer en environnement Agile au sein d’une équipe internationale (anglais quotidien).
Freelance

Mission freelance
[MDO] Analyst Fonctionnel expérimenté

ISUPPLIER
Publiée le
Databricks
Python
SQL

1 an
400-430 €
Clermont-Ferrand, Auvergne-Rhône-Alpes
Contexte : Dans le cadre de projets data stratégiques, le consultant interviendra pour assurer l’analyse, le traitement et la qualité des données provenant des équipes N2 en usine. Il participera à toutes les phases, de la collecte des besoins à la mise en production et au support post-déploiement, en environnement Agile. Missions principales : Recueillir et analyser les besoins métiers . Formaliser les user stories pour les développements et traitements de données. Réaliser l’analyse des données provenant des équipes N2. Participer à la phase de recette et vérifier la qualité des livrables. Contribuer aux déploiements et aux mises en production. Rédiger et maintenir la documentation fonctionnelle et technique . Assurer le support post-mise en production . Compétences requises : Databricks Python SQL avancé Azure Fundamentals Expérience de travail en environnement Agile Connaissance des enjeux data : qualité, traçabilité, gouvernance Anglais : niveau B2 minimum (TOEIC 785–940)
Freelance

Mission freelance
Scrum Master

HAYS France
Publiée le
Azure DevOps
Confluence
Databricks

3 ans
500-600 €
Colmar, Grand Est
L’un de mes clients, acteur international majeur dans le domaine des technologies industrielles et spécialisé dans le développement de solutions IoT et cloud, recherche actuellement un Scrum Master afin d’intervenir dans le cadre d’une mission au sein de ses équipes digitales. Missions : • Animation complète des cérémonies Scrum : planning meetings, daily, sprint reviews, rétrospectives • Suivi du respect de la méthodologie agile au sein des équipes techniques • Levée des obstacles en coordination avec les équipes projets (PO, PM, architectes, DevOps…) • Accompagnement et montée en maturité agile des équipes • Suivi de la vélocité, mise à jour des boards Jira, suivi des indicateurs (burndown / burnup) • Participation active à la coordination et à la structuration des projets logiciels et data • Collaboration étroite avec les équipes impliquées dans le développement de services cloud, IoT et data analytics
Freelance

Mission freelance
Data Engineer

Freelance.com
Publiée le
Amazon Redshift
Apache NiFi
API

1 an
400-480 €
Saint-Denis, Île-de-France
Dans le cadre du développement de son système d’information décisionnel, un grand groupe français renforce sa plateforme data dédiée au pilotage des activités immobilières. La mission s’inscrit dans l’évolution d’un hub de données centralisé , permettant de consolider, partager et valoriser les données métiers pour des usages analytiques avancés : pilotage opérationnel, reporting, data visualisation et ouverture vers des cas d’usage d’intelligence artificielle. Cette plateforme data, déployée depuis 2022, repose sur une architecture Lakehouse moderne dans le cloud AWS , et s’appuie sur des technologies telles que Databricks, NiFi, Redshift et Power BI . L’équipe data actuelle développe et maintient plusieurs applications analytiques visant à améliorer l’exploitation et la qualité des données au service des métiers. En tant qu’ Expert Data Engineer , vous interviendrez sur la conception, l’évolution et l’exploitation du hub de données. Vos principales responsabilités seront : Engineering & Data Platform Assurer la maintenance et l’optimisation des chaînes de traitement existantes (Python, SQL, Databricks, Power BI) Développer de nouveaux pipelines de données pour intégrer de nouvelles sources dans le Data Lake (Batch, API) Participer aux travaux de modélisation et d’urbanisation du hub de données Identifier, collecter, transformer et stocker les données nécessaires à l’alimentation des modèles analytiques Implémenter des algorithmes et traitements avancés exploitant les données du Data Lake Analyse & accompagnement métier Participer aux ateliers avec les métiers afin de formaliser les besoins Rédiger les expressions de besoins et spécifications fonctionnelles Définir les règles de calcul et d’agrégation des indicateurs Proposer des solutions adaptées aux enjeux d’analyse et de pilotage Descriptif de la mission Data visualisation & reporting Concevoir et développer des tableaux de bord et rapports Power BI Automatiser les processus de reporting Produire des indicateurs et restitutions analytiques pour les utilisateurs métiers Documentation & gouvernance Rédiger les spécifications techniques et fonctionnelles Documenter les règles d’alimentation du datawarehouse et les modèles de données Contribuer à la documentation des règles de sécurité et de gouvernance des données Participer aux plans de tests, recettes et supports utilisateurs
CDI

Offre d'emploi
Delivery Manager (CDI)

WINSIDE Technology
Publiée le
Databricks
Microsoft Power BI
Service Delivery Management

45k-52k €
Lyon, Auvergne-Rhône-Alpes
🎯 Contexte Winside recrute un Delivery Manager / POA pour renforcer le pilotage opérationnel d’une application critique, au sein d’un programme Data majeur dans le secteur de l’énergie. Ce rôle est orienté Run & Delivery (et non gestion de projet classique), en complément du Product Manager déjà en place. 🚀 Missions Piloter le delivery opérationnel de l’application Garantir que les livraisons avancent et sont mises en production dans les délais Organiser et coordonner les tests avec les équipes de recette Gérer les releases , les mises en production et les décalages si nécessaire Suivre les sujets de run, incidentologie et qualité de service Produire des indicateurs de santé applicative Être un véritable pilote opérationnel d’application
Freelance
CDI

Offre d'emploi
Databricks Data Engineer

VISIAN
Publiée le
API REST
PySpark

1 an
Île-de-France, France
Descriptif du poste Expert reconnu en plateforme de données et architecture Lakehouse, incluant : Optimisation Spark / PySpark (AQE, broadcast joins, stratégies de caching, autoscaling de cluster). Politiques de cluster, configuration de cluster et pool, et optimisation des coûts. Monitoring, diagnostics et dépannage des performances à l'aide de métriques et event logs. APIs REST et CLI pour l'automatisation. Expert reconnu en utilisation de Delta Lake, incluant : Pipelines d'ingestion et de transformation (Bronze–Silver–Gold). Delta Live Tables pour les pipelines de production (CDC, expectations, orchestration). Structured streaming et traitement incrémental. Débogage des goulots d'étranglement de performance dans les workloads Delta (data skew, petits fichiers, auto-compaction). Expert reconnu en : Python pour l'ingénierie des données, programmation orientée objet, data science, tests unitaires (pytest) et packaging. SQL (SQL analytique, window functions, SQL Databricks). Spark / PySpark pour le traitement distribué et l'optimisation. Expert reconnu en utilisation de Unity Catalog, incluant : Implémentation du contrôle d'accès granulaire (sécurité au niveau des lignes et colonnes, vues dynamiques, masquage). Gestion des objets Unity Catalog à grande échelle (catalogs, schémas, tables, modèles et gouvernance des fonctions). Pratiques de développement sécurisé, protection des données et conformité réglementaire (RGPD, PII). Expert reconnu en Databricks Jobs et Workflows (orchestration des tâches, retries, monitoring), incluant : Databricks Repos et intégration Git / Gitflow. Déploiement des assets Databricks (notebooks, jobs, pipelines DLT) via des pipelines CI/CD. Databricks SQL editor et SQL Warehouses pour les dashboards ou pipelines de production. Infrastructure as Code utilisant Terraform (providers Databricks et Azure) et ARM templates. Maîtrise avancée de l'écosystème Databricks Machine Learning et Generative AI. Maîtrise avancée de MLflow (experiment tracking, model registry, model serving). Maîtrise avancée de la construction de pipelines ML utilisant Databricks AutoML, Feature Store et feature engineering. Expérience pratique avérée avec les outils de développement basés sur l'IA, incluant les workflows basés sur des agents. Bonne compréhension des normes d'interopérabilité émergentes telles que le Model Context Protocol (MCP) ou équivalent. Capacité à évaluer de manière critique et à intégrer de manière sécurisée les résultats générés par l'IA dans les workflows de développement.
CDI
Freelance

Offre d'emploi
Data Analyst Sénior

Inventiv IT
Publiée le
Batch
BigQuery
ClickHouse

1 an
Casablanca, Casablanca-Settat, Maroc
Mission Principale Rattaché au pôle Data/IA Fabric, votre objectif est de résoudre les divergences de données entre les différents environnements, notamment le On-Premise et le Cloud. Vous définissez les standards de mesure pour une zone internationale multi-pays et jouez un rôle moteur dans la transition vers une architecture unique, robuste et fiable. Responsabilités Audit et Réconciliation : Analyser les flux provenant de Firebase, Batch et Clickhouse pour identifier l'origine des écarts de KPIs, comme le nombre d'utilisateurs actifs, entre BigQuery et Clickhouse. Standardisation des Métriques : Définir des règles de gestion communes et des mappings JSON/HTTPS unifiés pour garantir la cohérence des données, quel que soit le canal d'émission, tel que App Kiph ou Sent Apk. Optimisation de l'Architecture : Collaborer avec les ingénieurs pour migrer progressivement les traitements vers une architecture cible, avec une préférence pour GCP et BigQuery, tout en assurant l'intégrité de la donnée historique. Architecture cible robuste Gouvernance et Qualité : Mettre en place des dashboards de monitoring de la qualité de données et instaurer des alertes sur les seuils de divergence entre les sorties. Mise en place d'une modern Data Platform robuste Compétences Techniques Requises Maîtrise SQL Expert : Capacité à requêter et optimiser des volumes massifs sur BigQuery (GCP) et Clickhouse. Stack Data Mobile : Expérience significative avec l'écosystème Firebase et les outils de push notification comme Batch. Ingestion & Formats : Excellente compréhension des flux JSON/HTTPS et des problématiques de collecte de données via SDK ou APK. Modélisation : Maîtrise des principes d'ETL/ELT et de la construction de modèles de données robustes (la connaissance de dbt est un plus). Profil Recherché Formation : Diplôme d'Ingénieur ou Master en Data/Statistiques. Expérience : 5 ans minimum Soft Skills : Esprit analytique poussé, capacité à vulgariser des problématiques techniques complexes auprès d'interlocuteurs métiers et excellente communication pour coordonner plusieurs pays. L’indispensable INVENTIV IT Expérience avérée sur des projets de Data Platform & Data Market Place. Capacité à évoluer dans un contexte technologique mature incluant Databricks, Snowflake, Power BI et l'IA. Poste basé à Casablanca, Maroc Mode : Forfait/Régie Rythme : Hybride/à distance Profil sénior : 5 ans d’expérience minimum
Freelance

Mission freelance
Data Engineer Azure / IA

Sapiens Group
Publiée le
Azure
Azure DevOps
Databricks

12 mois
400-450 €
Lille, Hauts-de-France
Ingénierie Data Concevoir et développer des pipelines de données (ETL / ELT) . Collecter, transformer et intégrer des données provenant de différentes sources (API, bases de données, fichiers, streaming). Mettre en place et optimiser des flux de données robustes et scalables . Garantir la qualité, la fiabilité et la traçabilité des données . Concevoir et maintenir des modèles de données adaptés aux usages analytiques. Plateforme et outils Data Développer des solutions sur des plateformes Big Data et Cloud (ex : Databricks). Automatiser les workflows et déploiements via CI/CD (Azure DevOps) . Optimiser les performances des traitements Python et SQL . Participer à la mise à disposition des données pour les outils de visualisation et de reporting (Power BI) . Intelligence Artificielle appliquée à la Data Utiliser des outils d’IA pour assister le développement (génération et optimisation de code). Mettre en place des processus automatisés d’analyse et de transformation de données basés sur l’IA. Contribuer à l’intégration de modèles d’IA ou de Machine Learning dans les pipelines de données. Utiliser l’IA pour la documentation automatique, la détection d’anomalies et l’analyse exploratoire des données . Collaboration et méthodologie Travailler en méthodologie Agile / Scrum . Collaborer avec les équipes Data, BI, Data Science et métiers . Participer aux rituels Agile (daily, sprint planning, rétrospective). Contribuer aux bonnes pratiques de gouvernance et de gestion des données .
Freelance

Mission freelance
Développeur Mobile React Native & Data (Hybride Databricks/Spark)

LINKWAY
Publiée le
Android
Apache Spark
API REST

10 mois
400-450 €
Île-de-France, France
Nous sommes à la recherche d'un Développeur Mobile Senior spécialisé en React Native , possédant une double compétence rare et stratégique en Data Engineering (Databricks, Spark, SQL) . Développement Mobile & Architecture (React Native) : Concevoir l'architecture technique de l'application mobile en utilisant les meilleures pratiques React Native (Bridge, JSI, TurboModules). Développer des interfaces utilisateurs complexes et réactives, impliquant de la visualisation de données (graphiques dynamiques, cartes interactives, tableaux de bord). Gérer l'état de l'application de manière optimisée (Redux, MobX ou Context API) pour minimiser les re-renders. Assurer la compatibilité cross-platform (iOS/Android) et gérer le déploiement sur les stores (App Store, Google Play) ou via des outils de distribution interne (MDM). Ingénierie de Données & Intégration (Databricks / Spark / SQL) : Interagir directement avec l'environnement Databricks pour optimiser les requêtes qui alimentent l'application mobile. Utiliser Apache Spark pour effectuer des transformations de données ou des agrégations nécessaires avant l'envoi vers le mobile, afin d'alléger la charge de traitement côté client. Rédiger et optimiser des requêtes SQL complexes pour extraire des insights précis depuis le Data Lake, en garantissant des temps de réponse compatibles avec une expérience mobile. Participer à la définition des schémas de données pour assurer qu'ils soient "mobile-friendly" (payloads JSON optimisés, pagination efficace). Qualité, Performance et Méthodologie : Mettre en place des tests unitaires, d'intégration et E2E (Jest, Detox) pour sécuriser les livraisons. Diagnostiquer et résoudre les problèmes de performance (fuites de mémoire, lenteurs réseau, goulots d'étranglement SQL). Participer activement aux cérémonies Agile (Scrum/Kanban), aux revues de code et au mentorat technique des développeurs plus juniors. Assurer une veille technologique constante sur l'écosystème React Native et les évolutions de la plateforme Databricks.
Freelance

Mission freelance
DATA ANALYST - Expert (>10 ans) F/H

SMARTPOINT
Publiée le
Apache Spark
Databricks
DataGalaxy

24 mois
550-580 €
Île-de-France, France
Dans le cadre du renforcement du DataLab, nous recherchons un Data Analyst Lead en prestation, rattaché à l’équipe Gouvernance des données. La mission s’inscrit dans un environnement Grande Distribution, multienseignes et multimétiers, avec de forts enjeux de pilotage de la performance, qualité des données, modélisation et usages analytiques à grande échelle. La connaissance du domaine de la Grande Distribution est un critère essentiel. Objectifs de la mission Apporter une expertise en data analyse et en conception de solutions informatiques orientées données. Contribuer à la montée en compétence des Data Analysts du DataLab. Accompagner les équipes produits et projets sur des sujets analytiques et techniques avancés. Animer la communauté des Data Analystes. Coanimer la Data Authority et les ateliers associés, en lien avec l’équipe Gouvernance des données. Principales missions Expertise en data analyse et conception de solutions data. Support avancé aux équipes produits / projets (indicateurs complexes, modélisation, cohérence des solutions). Contribution à la structuration et à l’alignement des KPI métiers. Animation de la communauté des data analystes (ateliers, bonnes pratiques, retours d’expérience). Contribution à la modélisation des données, notamment en faisant vivre le modèle de données communes. Coanimation de la Data Authority et des ateliers associés. Compétences clés attendues Expertise confirmée en data analyse. Capacité à concevoir et challenger des solutions data. Pratique avérée de la modélisation des données. Connaissance significative et opérationnelle de la Grande Distribution (critère indispensable) : enjeux business, indicateurs clés (vente, marge, stock, approvisionnement, performance magasin), compréhension des usages métiers de la donnée. Capacité à accompagner et faire monter en compétence des Data Analysts. Aisance dans l’animation de communautés et d’ateliers transverses. Contexte technique Technologies Big Data : SQL, Databricks, Scala, Python BI / Reporting : Power BI, MicroStrategy Modélisation des données : PowerDesigner Gouvernance des données : DataGalaxy Qualité des données / Data Observability : SODA Méthodologie projet : SAFE (Agilité à l’échelle) Outils Agile : Jira Environnements Big Data : Microsoft Azure & DataBricks Définit, développe, met en place et maintient les outils nécessaires à l'analyse des données par les équipes Data Conçoit les modèles de données et les contrats d'interfaces Est responsable de créer des solutions permettant le traitement de volumes importants de données tout en garantissant leur sécurité MISE EN PRODUCTION Prépare les documents requis pour les Mises En Production (MEP) et pour le Run (document d'exploitation, supervision, ?) Participe à la mise en place des processus et outils de supervision de son produit et des traitements associés Participe au transfert de compétences vers l'équipe en charge du RUN Respecte les bonnes pratiques de développement (optimisation, sécurisation, documentation, etc.) Participe aux différentes cérémonies agiles VEILLE ET SUIVI Assure une veille active sur les technologies et langages utilisés et leurs évolutions afin d'améliorer les compétences des équipes Participe à la résolution d'incidents sur le produit en collaboration avec les parties prenantes
107 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous