L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 389 résultats.
Mission freelance
Program PMO – Structuration & Sourcing
Publiée le
Gestion de projet
12 mois
560-590 €
Paris, France
Télétravail partiel
Dans le cadre d’un programme stratégique de transformation IS/IT de grande envergure, notre client lance plusieurs initiatives majeures visant à moderniser l’environnement technologique , industrialiser les modèles de delivery , et accélérer la transition vers le Cloud , tout en renforçant les pratiques Data & DevOps. Ce programme, piloté au niveau exécutif (exposition au Comité IT , reporting consolidé pour le CFO Groupe ), implique un pilotage complexe multi-interlocuteurs , une gouvernance renforcée, et un besoin de structuration précise des activités et de la stratégie associée. Les projets associés portent notamment sur : l’ optimisation des modes de delivery (approche factory / service center), la structuration de nouveaux parcours Data & IT , la modernisation de l’écosystème applicatif , l’ amélioration de la gouvernance et de la performance globale du portefeuille IS/IT, la mise en place de nouveaux partenaires technologiques (via RFP), et la consolidation d’un pilotage global du programme (KPIs, OKR, business case). Afin d’accompagner ce changement, nous recherchons trois profils PMO expérimentés capables d’intervenir sur des périmètres complémentaires : gouvernance globale, pilotage multi-workpackages, et structuration d’un nouveau projet incluant une procédure de sourcing. Missions principales Définir le scope du projet : objectifs, livrables, streams, activités. Rédiger un plan de projet détaillé (project plan). Préparer, lancer et piloter une procédure de RFP pour sélectionner un partenaire externe — de l’expression de besoin à l’attribution du contrat. Organiser le kick-off projet, onboarder l’équipe, et lancer la livraison. Suivre planning, budget, qualité ; gérer les risques. Piloter le partenaire externe, s’assurer de la qualité et du respect des délais. Mettre en place le reporting projet et préparer les supports de pilotage / comités de suivi. ✅ Profil recherché & compétences clés Expérience avérée en structuration de projet, définition de scope, planification. Très bonne capacité d’écriture et de formalisation — pour le project plan, la RFP, les livrables contractuels/documentaires. Expérience en sourcing partenaires / pilotage de RFP / gestion de partenariat externe. Compétences en Data / architecture data / pipelines appréciées. Capacité à manager des interlocuteurs multiples (métiers, IT, partenaires externes). Approche stratégique, sens de l’organisation, rigueur, autonomie. Exposition possible à des instances de gouvernance (comité IT / comité de pilotage), et bonne aptitude à produire des livrables de haut niveau.
Mission freelance
Data ingénieur ( H/F) - Full remote
Publiée le
Apache Spark
Big Data
Google Cloud Platform (GCP)
1 an
370-500 €
France
Télétravail 100%
Contexte de la mission : Intégrez une équipe BI dédiée aux données de la relation client. Vous travaillerez dans un environnement en pleine transformation, avec une migration vers le cloud GCP en cours. Vos responsabilités : Intégrer une équipe agile et contribuer à la gestion et à l’évolution des données BI orientées CRM. Participer à la migration des environnements BI traditionnels vers GCP . Développer, maintenir et optimiser les flux de données (SQL, Big Data). Assurer la qualité, la performance et la fiabilité des traitements. Collaborer avec les équipes métiers et techniques pour répondre aux besoins de reporting et d’analyse.
Mission freelance
[FBO] Data Engineer avec expertise MLOps
Publiée le
Planification
Python
3 ans
400-590 €
Île-de-France, France
Télétravail partiel
Le bénéficiaire souhaite une prestation d’accompagnement dans le cadre de la mise en place d'une plateforme AIOPS. Les missions sont : En tant que DataOps Engineer avec expertise MLOps, les missions sont : - Deploiement et maintenance des pipelines de données scalables et résilients (batch/streaming) en utilisant Kafka, Airflow, Kubernetes. - Industrialisation du cycle de vie des modèles ML (de l’entraînement au monitoring en production) via des pratiques MLOps (MLflow, Kubeflow, etc.). - Automatisation de l’infrastructure et les déploiements (IaC avec Terraform/Ansible, CI/CD avec Jenkins/ArgoCD). - Garantie la qualité des données (testing, linéage, observabilité) et la performance des modèles (drift detection, monitoring). - Collaboration avec les Data Scientists, Data Engineers pour aligner les solutions techniques sur les besoins métiers. Responsabilités Clés 1. Pipeline de Données & Orchestration - Développement et optimissation des pipelines Kafka (producteurs/consommateurs, topics ) pour le traitement en temps réel. - Orchestrer les workflows avec Apache Airflow (DAGs dynamiques, opérateurs custom Python/Kubernetes). - Automatisation le déploiement et la scalabilité des pipelines sur Kubernetes (Helm, Operators, ressources custom). - Gérer les dépendances entre pipelines (ex : déclenchement conditionnel, backfills). 2. MLOps & Industrialisation des Modèles - Packager et déployer des modèles ML. - Mettre en place des pipelines MLOps : - Entraînement (MLflow, Pipelines). - Testing (validation des données, tests de modèles avec Great Expectations). - Déploiement (, A/B testing). - Monitoring (drift des features/prédictions, logs avec ELK/Prometheus). - Optimisation des performances des modèles en production (latence, ressources GPU/CPU). 3. Infrastructure as Code (IaC) & CI/CD - Définition l’infrastructure en Terraform (modules réutilisables pour Kafka, Kubernetes, IBM Cloud). - Automatisation les déploiements avec Jenkins/ArgoCD (pipelines multi-environnements : dev/staging/prod). - Configuration les clusters Kubernetes (namespaces, RBAC, storage classes, autoscale HPA/VPA). - Sécurisation des accès (Vault pour les secrets) 4. Qualité des Données & Observabilité - Implémentation des tests automatisés : - Qualité des données (complétude, cohérence, schéma) - Validation des modèles (métriques, biais). - Monitorisation les pipelines et modèles : - Métriques techniques (latence, erreurs) et métiers (précision, recall). - Alertes proactives (ex : Dynatrace ou Grafana). 5. Collaboration & Amélioration Continue Participation aux rituels Agile (refinement, retro) et promouvoir les bonnes pratiques Data/MLOps. Control des équipes sur les outils (Airflow, Kafka) et les processus (CI/CD, testing). Assurance d´une veille technologique (ex : évolutions de Kubernetes Operators pour Kafka/ML, outils comme Metaflow). Collaboration avec les Product Owners pour prioriser les besoins métiers.
Mission freelance
Senior Data Engineer GCP (H/F)
Publiée le
Google Cloud Platform (GCP)
12 mois
550 €
Paris, France
Télétravail partiel
Nous recherchons un Senior Data Engineer pour intervenir au sein d’une équipe Data & Commerce dans un environnement international exigeant. Le consultant interviendra sur la conception et la mise en œuvre d’architectures Cloud GCP complexes, l’optimisation avancée BigQuery, le développement API, l’orchestration de pipelines et l’industrialisation des modèles Data & AI. La mission couvre un périmètre complet allant de l’architecture à la performance, en passant par les pratiques DevOps et IaC avec Terraform. Le rôle inclut également la participation aux initiatives GenAI, l’encadrement technique des développeurs et l’optimisation des modèles de données (Star Schema, Snowflake). Le consultant interagira directement avec les équipes Customer Service / Client Management pour soutenir la construction d’une plateforme Data évolutive, performante et conforme aux standards du groupe.
Mission freelance
Global IT Program PMO / Gouvernance & Stratégie
Publiée le
Gestion de projet
12 mois
600-640 €
Paris, France
Télétravail partiel
Dans le cadre d’un programme stratégique de transformation IS/IT de grande envergure, notre client lance plusieurs initiatives majeures visant à moderniser l’environnement technologique , industrialiser les modèles de delivery , et accélérer la transition vers le Cloud , tout en renforçant les pratiques Data & DevOps. Ce programme, piloté au niveau exécutif (exposition au Comité IT , reporting consolidé pour le CFO Groupe ), implique un pilotage complexe multi-interlocuteurs , une gouvernance renforcée, et un besoin de structuration précise des activités et de la stratégie associée. Les projets associés portent notamment sur : l’ optimisation des modes de delivery (approche factory / service center), la structuration de nouveaux parcours Data & IT , la modernisation de l’écosystème applicatif , l’ amélioration de la gouvernance et de la performance globale du portefeuille IS/IT, la mise en place de nouveaux partenaires technologiques (via RFP), et la consolidation d’un pilotage global du programme (KPIs, OKR, business case). Afin d’accompagner ce changement, nous recherchons trois profils PMO expérimentés capables d’intervenir sur des périmètres complémentaires : gouvernance globale, pilotage multi-workpackages, et structuration d’un nouveau projet incluant une procédure de sourcing. Coordonner l’ensemble des activités de pilotage du programme (gouvernance, comités, parties prenantes) en accord avec la stratégie définie. Contribuer à la définition et l’ajustement de la stratégie, des OKR, et au suivi du business case. Animer la gouvernance : organiser les comités, assurer la cohérence entre les instances et les parties prenantes (métier, IT, exécutif). Définir les KPIs, mettre en place le reporting global programme, consolider les indicateurs. Préparer les présentations pour les comités exécutifs / comité de pilotage (Steering Committee) à destination des décideurs. Contribuer à l’optimisation de la “factory” de delivery (service center, modes industrialisés). Profil recherché & compétences clés Expérience confirmée en gestion de programmes stratégiques multi-streams, forte dimension gouvernance. Rigueur, autonomie, capacité à structurer le reporting et la gouvernance. Très bonne capacité à synthétiser et formaliser des informations complexes, et à produire des présentations pour des comités exécutifs / comité IT / CFO (niveau exposé élevé). Compétences en industrialisation du delivery (service center / factory), gestion de business case, pilotage d’opérations IT / intégration applicative. Maîtrise des outils de pilotage (ex : Jira), capacité à travailler dans un contexte mêlant IT, finance et métiers. Culture Cloud / DevOps bienvenue — une connaissance des principes DevOps ou une première familiarité avec des services Cloud (idéal pour aligner le PMO avec la stratégie IS/IT).
Offre d'emploi
DATA Engineer Senior GCP-python
Publiée le
Gitlab
18 mois
10k-55k €
100-550 €
Paris, France
CONTEXTE Au sein de l’équipe Bronze, la mission se déroulera en collaboration avec les autres équipes de la Data, au coeur de la plateforme Data. Cette équipe est composée d’un product owner, d’un data steward et de deux autres data ingénieurs. Notre stack technique est principalement constituée de Python, Spark, SQL pour les traitements de données, Airflow pour l’orchestration et Cloud Storage et Delta lake pour le stockage. La stack inclut aussi les services BigQuery, Dataproc, PubSub et Cloud Storage de la Google Cloud Platform et Terraform et Terragrunt pour la gestion de l’infrastructure. MISSIONS : Prestation de cette équipe 1. Collecter et centraliser les différentes sources de données non homogènes 2. Assurer la conformité et la sécurité des données 3. Participer aux initiatives de gouvernance des données Prestation du data ingénieur En interaction avec les membres de l’équipe, la mission consiste à : • Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l’équipe • Construire et maintenir de pipelines data robustes et scalables • Accompagner les membres de l’équipe dans l’exploitation et le requêtage des données • Organiser et structurer le stockage des données • Mettre en place et maintenir des infrastructures scalables capable de répondre aux besoins et à l’accroissement rapide du volume de données • Construire et maintenir les workflows de la CI/CD • Partager avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur • Assurer l’évolutivité, la sécurité, la stabilité des environnements • Participer aux différentes instances des data ingénieurs • Contribuer et veiller à la mise à jour de la documentation • Faire de la veille technologique active dans le domaine Expertises demandées pour la réalisation de la prestation : • Au moins 3 ans d’expérience en tant que Data Ingénieur dans un environnement data • Compétences solides en data : structures de données, code, architecture • Expériences dans la conception et la réalisation de pipelines data • Expériences dans un environnement du cloud Google (GCP) • Expériences intégrant BigQuery et Dataplex Universal Catalog • Expériences intégrant les langages Python et SQL • Expériences intégrant Spark • Expériences intégrant delta lake • Expériences intégrant Terraform et Terragrunt • Expériences intégrant Gitlab et Gitlab CI/CD • Expériences intégrant les méthodologies Agile : Scrum ou Kanban • Capacité à vulgariser et à communiquer sur des aspects purement techniques
Offre d'emploi
Data architect senior H/F
Publiée le
50k-60k €
Strasbourg, Grand Est
Télétravail partiel
Au sein de la DSI, vous intégrez une équipe pluridisciplinaire et jouez un rôle stratégique dans la définition, la structuration et l'évolution des architectures data. Vous êtes garant de la cohérence, de la performance et de la sécurité des systèmes de données. Concevoir et faire évoluer l'architecture data globale (modélisation, flux, stockage, sécurité) Définir les standards et bonnes pratiques en matière de gouvernance des données Superviser la mise en place des pipelines de données (Databricks, Power Automate) Piloter la modélisation des bases de données SQL et NoSQL Collaborer avec les équipes métier et techniques pour aligner les besoins fonctionnels et les solutions data Assurer la qualité, la traçabilité et la fiabilité des données dans un environnement cloud Participer au suivi et à la maintenance de l'exploitation
Mission freelance
POT8770 - Un Chef de Projet (H/F) DATA FABRIC Sur Grenoble
Publiée le
ETL (Extract-transform-load)
6 mois
250-500 €
Grenoble, Auvergne-Rhône-Alpes
Télétravail partiel
Almatek recherche pour l'un de ses clients, Un Chef de Projet (H/F) DATA FABRIC Sur Grenoble Contexte projet : Mise en place de la nouvelle organisation data dont l’objectif primaire est de préparer et d’organiser les moyens pour répondre aux enjeux de valorisation, d’exploitation et de gouvernance de la donnée d’entreprise. Objectif Projet : La mise en place de la Data Fabric : La conception et l’implémentation d’un socle d’architecture robuste, scalable et modulaire La définition du plan de migration L’intégration d’un ensemble de briques technologiques Le déploiement et le suivi opérationnel du plan de migration. Exigences profils : Profil Data Manager avec des fondations solides en Architecture cloud et urbanisme du décisionnel Une expérience préalable en tant qu’Architecte ou chef de projet sur des enjeux similaires est nécessaire Bonne compréhension des enjeux de gouvernance et de management de la donnée Connaissance du socle technologique (infrastructure, architecture) et maîtrise des briques applicatives impliquées (ETL, ELT, ESB, Data WareHouse, LakeHouse, Catalogue). Capacité à piloter des projets en mode multi-acteurs (partenaire externe, métiers, IT, sous-traitants). Excellente communication et capacité à fédérer les parties prenantes. Anglais courant Environnement Technique : Data Pipeline (ETLT, CDC) ESB / ETL (messagerie, artefact de transformation custom) Stockage (Warehouse, Lakehouse) Data Product Catalog (gouvernance & distribution) Data Quality Management Data Stewardship Data Catalog (Semantic Layer) Automations Monitoring, lineage & administration partagés
Offre d'emploi
🎯 Product Owner Data expérimenté – Secteur Assurance & Finance – Niort (présentiel 3j/semaine)
Publiée le
Cloud
Data science
Dataiku
1 an
Niort, Nouvelle-Aquitaine
Dans le cadre d’une stratégie ambitieuse de transformation axée sur la valorisation de la donnée à horizon 2025-2026, une équipe DATA nouvellement constituée recherche un second Product Owner pour renforcer ses capacités de pilotage et de livraison. 🔍 Vos missions clés : Être le lien stratégique entre les métiers (actuaires, gestionnaires, commerciaux…) et les équipes techniques Définir, prioriser et piloter un portefeuille de produits data à forte valeur ajoutée Contribuer à la mise en place du modèle opérationnel et au déploiement des offres de services Garantir la valeur métier des solutions développées 📌 Objectifs & livrables : Animation de comités et challenge des directions métiers Identification et portage de cas d’usage innovants : RPA, IA, DataScience, MlOps Détermination des éléments de valeur : quantitatif, qualitatif, expérience collaborateur Rédaction d’études de solutions et modélisation opérationnelle
Mission freelance
Intermediate Data Engineer
Publiée le
API
AWS Cloud
Big Data
12 mois
Paris, France
Contexte du projet Notre client dans le secteur de l'energie, dans sa stratégie de transformation data-driven , souhaite exploiter pleinement ses données pour : proposer de nouvelles offres, réduire les risques opérationnels, accroître l’efficacité des équipes. Le projet One Pulse vise à centraliser et harmoniser les indicateurs clés liés aux activités d’approvisionnement dans différents pays. Objectif : mettre en place une plateforme Big Data robuste et scalable permettant de collecter, traiter et diffuser les données de manière cohérente et sécurisée à travers le groupe. Objectif de la mission Développer une plateforme basée sur des technologies Big Data et Cloud (AWS) pour : capturer et traiter des volumes importants de données, normaliser et exposer des indicateurs multi-pays, garantir la conformité avec les guidelines techniques et d’architecture, améliorer les frameworks communs (CI/CD, tests, monitoring, performance, qualité de code, etc.). Activités principales Collecter et challenger les besoins métiers. Concevoir des solutions conformes aux guidelines d’architecture. Participer au développement et à la maintenance du code (Python, API, Big Data). Optimiser la performance, la qualité et la robustesse des solutions. Rédiger la documentation technique en anglais. Mettre en place des outils de monitoring et d’alerting. Contribuer à la phase de production et à l’amélioration continue. Compétences attendues Techniques (2 à 3 compétences maîtrisées minimum) : CompétenceNiveau attendu: Python / API (Software engineering)Big Data ingestion (S3, Medaillon architecture)Big Data patterns (lambda, partitioning, bucketing…)AWS Fonctionnelles : Proactivité et autonomie, Leadership technique (capacité à guider d’autres devs), Sens de la qualité et du delivery, Rigueur, communication claire, Anglais courant. Livrables attendus Conception, développement et documentation technique, Rapports d’avancement et dashboards de suivi, Plan de monitoring et correction d’anomalies, Code source, spécifications techniques et fonctionnelles, Plan de réversibilité et continuité de service. Profil recherché Un Data Engineer expérimenté (3 à 6 ans d’expérience) capable d’évoluer dans un environnement Big Data international et complexe, avec une bonne culture logicielle et une maîtrise de Python et des architectures data sur cloud (idéalement AWS).
Mission freelance
IT ENGINEERING MANAGER
Publiée le
Amazon Elastic Compute Cloud (EC2)
Amazon S3
AWS Cloud
12 mois
580-600 €
Île-de-France, France
Télétravail partiel
Engineering Manager / Head of Engineering / Lead Technique expérimenté , capable d’apporter structure, cohérence et excellence technique dans un contexte digital multi-équipes (squads internes et prestataires). Le profil doit allier expertise technique solide , leadership naturel et vision d’ingénierie moderne orientée qualité et productivité. Expérience et parcours 8 à 12 ans d’expérience dans le développement ou l’architecture logicielle, dont au moins 3 ans en management technique ou en direction d’équipes de delivery . Expérience confirmée dans un environnement web / digital à fort trafic ou produit SaaS. Habitude de travailler dans un modèle d’équipes agiles multi-squads (internes + externes). Solide expérience dans la mise en place de standards techniques , d’ outils CI/CD , et dans la structuration d’organisations d’ingénierie . Compétences techniques clés Langages & frameworks : TypeScript, Node.js, React (niveau expert) ; Python apprécié. Architecture logicielle : Clean / Hexagonale / modulaire ; maîtrise des Design Patterns. CI/CD & DevOps : GitHub Actions, AWS CodePipeline, infrastructure AWS (EC2, Lambda, S3, CloudFront…). Outils : GitHub, Jira, Confluence, Google Workspace. Connaissance approfondie de l’ intégration continue , du testing (unitaires, intégration, E2E), et des bonnes pratiques d’ingénierie logicielle .
Mission freelance
Consultant(e) Data Privacy & Compliance
Publiée le
Amazon S3
18 mois
100-500 €
Paris, France
Télétravail partiel
CONTEXTE EXPERIENCE : 5 ans et plus Métiers Fonctions : Pilotage de projet ou de programme,Consultant Spécialités technologiques : Gestion des projets,Migration de données,Conduite du changement,RGPD,Cybersécurité Secteurs d'activités Assurance Description et livrables de la prestation Description et livrables de la prestation Le consultant interviendra dans le cadre du renforcement de la gouvernance et de la conformité des données personnelles au sein d’un environnement international. La prestation vise à soutenir l’équipe Data Privacy dans la mise en œuvre opérationnelle des politiques de protection des données, la gestion des projets de conformité et la coordination des activités transverses entre les entités. Principaux axes d’intervention : Gouvernance et conformité - Adapter et déployer les politiques internes de protection des données conformément aux réglementations applicables (RGPD, etc.). - Maintenir le registre de traitement et assurer la conformité documentaire (consentements, notices, autorisations, etc.). - Contribuer à la mise en œuvre de contrôles permanents et au suivi des audits internes. -Participer aux comités de gouvernance et assurer le reporting vers les parties prenantes locales et centrales. Accompagnement des projets et support aux équipes - Apporter un appui opérationnel sur les projets impliquant des données personnelles : nouveaux produits, migrations, intégration d’outils IA, cloud, etc. - Réaliser ou contribuer aux Data Privacy Impact Assessments (DPIA) et évaluations de conformité. - Soutenir les activités de due diligence et d’évaluation fournisseurs (ex. Microsoft, Amazon, Cyber). - Participer à la mise en œuvre du processus de distribution des produits Data Privacy auprès de l’ensemble des entités. - Assurer un rôle d’interface avec les équipes en charge des incidents et des demandes d’accès. Transformation et conduite du changement - Accompagner les équipes dans la montée en maturité sur les enjeux Data Privacy. - Contribuer au déploiement de la plateforme OneTrust, notamment sur les aspects migration, paramétrage et intégration. - Promouvoir les bonnes pratiques et challenger les processus existants pour améliorer l’efficacité opérationnelle. Expertise souhaitée Compétences techniques et fonctionnelles - Minimum 5 ans d'expérience dans des fonctions de conformité, Data Privacy, gouvernance des données ou gestion de projets réglementaires. - Bonne compréhension du cadre RGPD et des pratiques de conformité opérationnelle. - Maîtrise ou connaissance avancée de la plateforme OneTrust (ou équivalent). - Familiarité avec les environnements IT, infrastructures, mainframe, et les enjeux de migration de données. - Capacité à collaborer efficacement avec les directions IT, cybersécurité, data et juridique. - Compétences en pilotage de projets transverses et en coordination d’acteurs multiples. Compétences comportementales - Anglais professionnel courant (environnement de travail international). - Esprit analytique, rigueur et sens de la priorisation. - Excellente communication et capacité à interagir avec des interlocuteurs de haut niveau. - Aptitude à instaurer la confiance tout en challengeant les pratiques établies. - Sens du résultat, autonomie et esprit de collaboration.
Mission freelance
Ingénieur SRE / Exploitation Systèmes (F/H)
Publiée le
Administration système
Site Reliability Engineering (SRE)
12 mois
Toulouse, Occitanie
Contexte : L’entreprise, acteur international de référence dans les technologies spatiales, la data-science et les solutions d’observation de la Terre, opère des services critiques présents dans plus de 30 pays. Avec plus de 1000 collaborateurs, elle conçoit et exploite des systèmes complexes combinant infrastructures on-premise, cloud, logiciels et chaînes de traitement data. Au sein de la Direction des Systèmes d’Information (DSI), le département Opérations garantit le maintien en conditions opérationnelles (MCO), la fiabilité, la disponibilité et la performance de l’ensemble des services techniques fournis aux clients finaux. Pour accompagner la forte croissance et renforcer la résilience des plateformes opérationnelles, l’entreprise recherche un : Ce rôle est au cœur des services critiques 24/7. Il combine pratiques SRE, ingénierie d’exploitation, automatisation, système, monitoring et coordination transverse. Vous interviendrez sur des environnements hybrides (cloud + on-premise), à forte exigence de disponibilité et de performance. Missions : 1. Gestion des incidents : Piloter les incidents majeurs et coordonner l’ensemble des équipes techniques jusqu’au rétablissement complet du service. Mener les analyses post-incident, identifier les causes racines, proposer et suivre les actions préventives. Formaliser et optimiser les processus et procédures opérationnelles. 2. Observabilité et monitoring : Maintenir et faire évoluer les outils de supervision, d’observabilité et d’alerting. Développer dashboards, métriques, logs et traces pour une visibilité complète sur l’état de santé des services. Détecter faiblesses techniques, dépendances critiques et risques opérationnels. Définir et suivre SLI/SLO avec les équipes produit et les parties prenantes métier. 3. Automatisation et industrialisation : Automatiser les tâches répétitives pour réduire le toil opérationnel. Mettre en place et améliorer les pipelines CI/CD et l’Infrastructure as Code. Collaboration étroite avec les équipes de développement pour intégrer les bonnes pratiques SRE dans le cycle de vie logiciel. Standardiser configurations, environnements et processus pour améliorer la fiabilité globale. 4. Coordination pluridisciplinaire : Support niveau 2/3, en lien direct avec les équipes d’exploitation H24. Coopération avec les équipes IT, les développeurs et les responsables produit pour corriger les incidents et prévenir les récidives. Contribution au respect des engagements techniques, contractuels et calendaires. Application des politiques de sécurité et maintien en condition de sécurité (MCS) des systèmes en lien avec la sécurité SSI.
Mission freelance
Data Engineer / Expert Big Data – Cloud & On-Prem - Certifié ITIL V4 Obligatoire
Publiée le
AWS Cloud
Google Cloud Platform (GCP)
Migration
6 mois
750-800 €
Île-de-France, France
Télétravail partiel
Rejoignez une équipe DATA/IA d’une vingtaine de personnes pour accompagner la migration des projets vers des infrastructures modernes on-prem et cloud public (AWS / GCP) ✅ Accompagner les projets dans leur migration vers des architectures modernes (AWS / GCP / on-prem). ✅ Participer à la conception et à la mise en œuvre des infrastructures Data (en lien avec les CloudOps & Architectes). ✅ Paramétrer, configurer et tester les plateformes (performances, résilience, reprise d’activité). ✅ Implémenter le monitoring et l’alerting. ✅ Rédiger les documents d’exploitation et contribuer à la montée en compétence des équipes. ✅ Participer au RUN : gestion des incidents, patching, upgrades et astreintes.
Offre d'emploi
Consultant FinOps Cloud & On-Premise
Publiée le
Azure
Azure DevOps
FinOps
2 ans
55k-65k €
550-610 €
Paris, France
Télétravail partiel
Le Consultant FinOps Cloud et On-Premise (infrastructures locales) œuvrera à l'efficacité et à l'optimisation des coûts de notre environnement multi-cloud et de notre infrastructure sur site. Vous fournirez des informations et des rapports cohérents concernant la conformité, la consommation et l'optimisation des coûts. Vous mettrez en œuvre et maintiendrez la performance financière en fournissant les outils et capacités nécessaires, et devrez suivre et optimiser notre stratégie d'infrastructure en apportant son expertise et son soutien. Responsabilités et missions : Aider à définir et mettre en œuvre une gouvernance Cloud et On-Premise. Produire et améliorer des rapports pertinents sur le Cloud et le On-Premise, exploitables par la Direction pour la prise de décision. Collaborer efficacement avec des équipes transverses à l'échelle mondiale, comprendre leurs besoins, obtenir des résultats grâce à l'analyse de données et établir des partenariats stratégiques. Soutenir les équipes infrastructures & opérations dans la définition des objectifs/KPI, la récupération et la modélisation des données. Travailler en étroite collaboration avec nos équipes infrastructures et opérations pour cartographier les flux de processus de données, permettant au FinOps de développer un modèle unique au sein de notre organisation. Analyser et prévoir les coûts d'hébergement Cloud et On-Premise. Fournir des recommandations d'optimisation des coûts et piloter leur mise en œuvre. Utiliser des outils et technologies pour prendre des décisions fondées sur les données (Data Driven). Soutenir les projets et programmes en fournissant des estimations de coûts. Développer des modèles de coûts et de financement pour appuyer les résultats souhaités via des business cases.
Mission freelance
Lead Machine leaning engineering
Publiée le
FastAPI
Flask
Gitlab
12 mois
470-510 €
Île-de-France, France
Télétravail partiel
Je recherche un(e) Lead Machine Learning Engineer pour accompagner la Direction Data d’un grand média français dans la mise en place d’une équipe dédiée aux sujets de recommandation et de personnalisation. 👤 Mission Vous interviendrez au cœur d’une équipe Data (PO, Data Scientist, Lead ML, ML Engineer) pour concevoir, déployer et industrialiser des modèles de machine learning en production, dans un environnement full Google Cloud. 💼 Compétences requises : • 5+ années d’expérience en environnement Data / Machine Learning • Déploiement en production de modèles ML (scalabilité, haute perf) • Maîtrise de Google Cloud (Vertex AI, BigQuery, Cloud Run, Composer, CloudSQL, IAM) • Très bonnes compétences en Python et SQL • Connaissances de Flask, FastAPI, SQLAlchemy, Pgvector, Pandas, Hugging Face • Expérience en Terraform / Terragrunt • Très bonnes connaissances en ML, Deep Learning, systèmes de recommandation • Maîtrise de GitLab & GitLab CI/CD • Capacité à vulgariser, communiquer et accompagner une équipe • Expérience des méthodes Agile (Scrum / Kanban) 📍 Modalités : • Présence sur site requise (~50% du temps) • Expérience attendue : Sénior • Environnement : Paris • Matériel sécurisé requis (chiffrement, antivirus, etc.)
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- L'EI à l'IS est-elle toujours plus intéressante qu'à l'IR ?
- Facturation électronique 04 : Factures erronées / fausses factures…
- Facturation électronique 01 : Rappel du calendrier !
- ARE terminée + dividendes versés après fin de droits : risque de régularisation ? (SASU)
- ARE terminée et dividendes après fin de droits
- ARE terminée + dividendes après fin de droits : risque de régularisation ? (SASU)
389 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois