L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 5 347 résultats.
Mission freelance
Product Owner sénior DAM et Media Portal AEM H/F
Publiée le
API
3 ans
400-550 €
Issy-les-Moulineaux, Île-de-France
Télétravail partiel
Nous cherchons des experts DAM et Data - capables de construire et piloter les roadmaps de ce produit - autour des enjeux d'intégration de ces outils dans un éco-système de grand groupe et de data quality d'assets (fichiers, médias) en vue de pouvoir les exposer à de multiples consommateurs. DAM - Confirmé - Impératif Data - Confirmé - Impératif AI - Confirmé - Serait un plus AEM - Confirmé - Serait un plus Description détaillée Nous recherchons 1 Product Owner Senior pour piloter l’évolution stratégique des produits DAM et Media Portal , en les orientant vers une gestion avancée et intelligente des données. Au-delà de la gestion centralisée des assets digitaux, la mission consiste à structurer, classifier et exposer efficacement la donnée via des API performantes, à mettre en place une organisation sémantique robuste, et à tirer parti de l’intelligence artificielle pour enrichir les métadonnées clés. Ce rôle est au coeur de la Data Governance et contribue directement à l’efficacité des équipes métiers, au rayonnement international des assets de marque et à l’accélération des workflows omnicanaux. Ce poste est une opportunité de piloter un produit stratégique, en lien avec l’équipe Business Content Strategy, dans un environnement riche et stimulant, avec un fort impact sur les résultats globaux de l’entreprise. Le Product Owner devra driver le delivery et la discovery continus sur son périmètre en se basant sur les objectifs de l’équipe, la vision de la Tribe et les besoins et retours des consommateurs des Features délivrées en travaillant main dans la main avec les Tech Lead du périmètre. L’équipe est composée de 1 Program Manager AEM, 2 PO DAM/MP, 1 Tech Lead, 2 Dev + 1 Solution Architect. Responsabilités principales : - Vision & Stratégie Produit - Structuration et Gouvernance de la Data - Exposition & Intégration via API - Innovation & Enrichissement via IA - Pilotage & Méthodologies Agiles
Offre d'emploi
Data Engineer – Intégration & Cloud (GCP / BigQuery / Talend)
Publiée le
API REST
BigQuery
Microsoft Power BI
40k-45k €
Paris, France
Nous recherchons un Data Engineer pour intervenir sur un projet stratégique d’intégration et de valorisation de données au sein d’un environnement Cloud moderne. Le consultant interviendra sur la création, l’optimisation et la maintenance de pipelines data entre plusieurs plateformes internes, avec un fort niveau d’autonomie technique. Concevoir, développer et maintenir des flux de données entre différentes sources (API REST, Cloud, bases SQL). Mettre en place des traitements d’ingestion, transformation, normalisation et contrôle qualité des données. Développer et optimiser des pipelines dans GCP / BigQuery . Construire et maintenir des jobs Talend pour l’intégration et l’automatisation des traitements. Automatiser et industrialiser les workflows via des scripts Shell / Bash . Contribuer à la création et à l’optimisation de dashboards Power BI (KPI, dataviz). Garantir la qualité, la performance et la conformité des données. Documenter les flux, rédiger les spécifications et collaborer avec les équipes métiers et techniques. Versionner les développements via GitLab et respecter les bonnes pratiques CI/CD.
Mission freelance
Consultant fonctionnel PROGICIEL GMAO E/S - (H/F) - 93 + 2 jours TT
Publiée le
Gestion de maintenance assistée par ordinateur (GMAO)
IBM Maximo
SQL
1 an
Saint-Denis, Île-de-France
Télétravail partiel
Contexte Vous interviendrez en prestation au sein d’un grand groupe du secteur transport, La mission se déroule autour de la GMAO SPOT Engins Outillage, outil de gestion de la maintenance couvrant à la fois un référentiel national d’outillages et le suivi des engins moteurs. Elle vise à accompagner les utilisateurs (établissements et directions) sur leurs besoins d’évolution de l’outil et de qualité des données, en lien avec différents métiers, types de maintenance et outils (Maximo, applications mobiles, BI). Mission * Le maintien de l’outil en « Mode de Condition Opérationnel » nécessite la conservation d’une équipe métier prenant en compte les demandes d’évolutions et d’assistance émanant des utilisateurs. * Le champ d’action de cette équipe concerne aussi bien la prise en charge d’opérations d’intégration, de mise en qualité et de maintien des données dans la GMAO, que la réponse aux besoins d’amélioration et ou d’adaptation des outils afin de maintenir et faire progresser la satisfaction des utilisateurs finaux. * L’équipe métier assure l’interface avec son homologue SI en charge de la réalisation des travaux. Description détaillée des tâches constituant la mission : * Contribution Assistance Service Utilisateurs * Enrichissement fonctionnel des arbres de diagnostic et fiches procédures, * Formation N1/N2 ASU aux nouvelles fonctionnalités/Processus, * Expertise fonctionnelle des tickets (rôle N3), * Mise en qualité des données de production, * Contrôle/mise à jour des fichiers de chargement de données à destination de MCO-SI. * Continuité évolutive et corrective * Analyse des anomalies de production, * Expression des besoins métier (évolutions et anomalies), y compris sur les restitutions du décisionnel * Définition et priorisation du contenu des lots évolutifs/correctifs des versions, * Recette métier, * Rédaction et mise à jour de la documentation (livrets, support de formation, guides de version, procédures, communications…), * Suivi et maintien des canaux de communication (SharePoint, Yammer, SharePoint MCO…). * Assistance utilisateurs * Mise en qualité des données patrimoniales, * Accompagnement des prescripteurs Engins et Outillage, * Accompagnements spécifiques à la suite d’évolutions des schémas de maintenance ou de stratégies de l’entreprise, * Accompagnement au changement et au déploiement. * Appui à des actions de formation ciblée * Satisfaction client (préparation, animation, contribution) * Organisation de REX, * Information/ présentation des outils de la GMAO (Décisionnel, applis mobiles, BO) aux nouveaux utilisateurs, * Animation de groupes de travail, * Suivi/gestion des demandes, * Points métier / SI (BO, Mobilité, Décisionnel), *REX ASU.
Mission freelance
Data Engineer Spark/Scala
Publiée le
Apache Spark
Scala
3 mois
330-400 £GB
Paris, France
Télétravail partiel
Data Engineer Spark/Scala Paris o Expérience dans la mise en œuvre de technologies et frameworks Big Data et NoSQL (Hadoop, Kafka, Spark, Scala, Hive, SolR, HBase, Kerberos) o Spark / Scala : confirmé o A l'aise avec le programmation fonctionnelle (connaissance des librairies ZIO, MONIX, CATS appréciée) o Expérience de travail dans un environnement Agile ; avec outils et méthodologies associés (Confluence, Jira, Scrum, Kanban) Au sein de la DSI Finance de la DSI, le poste recherché porte sur le besoin d’un Data Engineer Spark/Scala confirmé (5-6 ans d’expérience). Objectifs et livrables Objectifs Le prestataire intégrera le projet d’intégration en coordination avec le chantier assiette comptable de référence en tant que Data Engineer. Les développements sur ce chantier s’appuient sur la plateforme Datalake Finance, basée sur la distribution Hadoop HortonWorks qui collecte les données des différents systèmes de synthèse afin de répondre aux nouveaux besoins de reporting Finances & Risques (COREP, calcul RWA, IFRS9, etc.…) Les tâches seront les suivantes : • la mission consistera à prendre part aux développements, au sein du datalake pour acquérir les nouvelles sources de données, les assemblées et les distribuées aux consommateurs, tout en étant garant de la pérennité et la non-régression de l’outillage déjà en place • Vous participerez à la conception et à l’implémentation de ce projet et serez amené, à ce titre, à travailler en méthode Agile avec de nombreux acteurs métiers et les équipes de maintenance Compétences techniques o Expérience dans la mise en œuvre de technologies et frameworks Big Data et NoSQL (Hadoop, Kafka, Spark, Scala, Hive, SolR, HBase, Kerberos) o Spark / Scala : confirmé o A l'aise avec le programmation fonctionnelle (connaissance des librairies ZIO, MONIX, CATS appréciée) o Expérience de travail dans un environnement Agile ; avec outils et méthodologies associés (Confluence, Jira, Scrum, Kanban) Compétences demandéesCompétences Niveau de compétence Apache Kafka Avancé Apache Hadoop Confirmé Apache Hive Avancé SCALA Confirmé Spark Confirmé
Offre d'emploi
Développeur Back-End JavaScript sénior - (H/F)
Publiée le
API
Javascript
Node.js
6 mois
Île-de-France, France
Télétravail partiel
CONTEXTE DE LA MISSION : Vous rejoindrez une organisation agile structurée (Squads / Chapters / Scrum) évoluant dans un environnement cloud et micro-services. Le backend est au cœur des enjeux techniques, avec une priorité forte autour d’une architecture Node.js / TypeScript, basée sur le framework Hono. MISSIONS PRINCIAPLES : Concevoir et développer des APIs backend robustes et performantes en Node.js / TypeScript (Hono en priorité) Participer à la refonte et à l’évolution de services existants vers une architecture micro-services Assurer la maintenance et l’optimisation des applications en production Travailler sur la performance, la scalabilité et la fiabilité des services
Offre d'emploi
Consultant confirmé en Cybersécurité (H/F)
Publiée le
Cybersécurité
France
Poste : Vous serez amené à intervenir auprès de clients de toutes tailles, tous secteurs, privé comme public, et en fonction de vos compétences et aspirations, vous intervenez sur les thématiques au cœur de l'actualité, notamment : * Audit technique et contrôle de conformité en cybersécurité. • Cyber-résilience, gestion des incidents de sécurité, exercices de crise, gestion de crise. • Expertise technologique cyber (Durcissement AD, Windows, Architectures Cloud, Sécurité Industrielle…). • Gouvernance, gestion des risques et accompagnement RSSI. • Animation de formations et sessions de sensibilisation à la cybersécurité. Votre rôle vous amène également à participer au développement de notre savoir-faire et de notre portefeuille d'offres, ainsi qu'au cycle de vente. Vous contribuez à la professionnalisation de l'activité par la capitalisation métier et le partage d'expériences et de connaissances au sein de nos pôles de compétences. Nos missions au forfait sont variées, le plus souvent produites en équipe et en cohérence avec vos aptitudes, compétences et souhaits d'évolution.
Mission freelance
Consultant Analyst Run - Generix
Publiée le
Run
1 an
400-630 €
Paris, France
Télétravail partiel
Description Pour le compte de notre client grand compte, nous recherchons un Consultant Analyst RUN spécialiste de la technologie Generix. Le consultant sera responsable de la qualité du service, de la maintenance technique et fonctionnelle, ainsi que des évolutions futures des applications Finance et produits qui lui seront confiés. Le consultant interviendra dans un context international, une parfaite maitrise de la langue anglaise est obligatoire, l’espagnol serait un plus. Périmètre d’intervention : Les applications sont : Generix , et plus particulièrement le module Generix Invoices Service Le run du premier pays, la Belgique , débutera au début de l’année 2026 Cette expertise est impérative pour assurer le run en tant qu’administrateur de la plateforme Ivalua , notamment les fonctionnalités SRM, S2C et P2P Cette expertise n’est pas obligatoire mais constituerait un atout important Le run des premiers pays et fonctionnalités démarrera tout début 2026 Applications complémentaires appréciées SideTrade (Augmented Cash et plusieurs modules optionnels) Le run de plus de 10 pays devra être maîtrisé Oracle OeBS R12 Les produits Generix et d’autres applications seront intégrés à l’ERP Groupe basé sur la technologie Oracle OeBS R12 Azure Data Factory (ADF) Utilisé comme middleware pour connecter certaines applications à l’ERP Groupe Responsabilités Le/la candidat(e) devra mettre en place et assurer l’administration de l’ensemble des outils, couvrant un périmètre fonctionnel élargi, incluant : La validation de la mise en œuvre des processus de run La validation des procédures préparées par les équipes projets Le rôle de point de contact principal et de partenaire métier entre les équipes Finance de l’ensemble des entités L’alignement des stratégies IT avec les objectifs métiers à l’échelle internationale La coordination des demandes tout en garantissant la cohérence fonctionnelle et la conformité des applications La gestion du patching continu et le rôle de point de validation obligatoire pour toute évolution des plateformes La garantie de la continuité de service et du maintien en conditions opérationnelles (MCO) La participation aux sujets Architecture, Sécurité, Audit, RGPD, Conformité et politiques internes Le pilotage des prestataires, le suivi de leurs activités et la vérification de la conformité des livrables contractuels
Mission freelance
Consultant technicien logistique Bureau Technique H/F
Publiée le
Supply Chain
6 mois
210-250 €
Île-de-France, France
Télétravail partiel
Sur un en-cours d’environ 800 défauts cabine, appelant des matériels consommable ou petit réparable : Pendre en compte les expressions de besoins critique des entités opérationnelles Analyser les solutions Supply Chain (stock, logistique, réparation, achat…) permettant d’y répondre Assurer l’interface avec les Gestionnaires de stock et de commande en charge des références, et les chargés de contrat Achat Assurer l’interface avec les entités opérationnelles et les Bureaux Techniques pour étudier les éventuelles solutions techniques alternatives Choisir et mettre en œuvre la solution Supply Chain la plus pertinente pour chaque besoin (accélération flux logistique, upgrade de commande, passage de commande d’achat, relance fournisseur…) Suivre et mettre à jour les Systèmes d’Informations à chaque étape (Commandes, Planned Ship Date, Estimated Time of arrival) Répondre aux sollicitations des interlocuteurs opérationnels en leur donnant de la visibilité sur les actions en cours S’adapter face à l’aléa et aux priorités opérationnelles
Mission freelance
Business Analyst senior/Expert Data – Asset Management
Publiée le
Architecture
Business Analyst
Data Warehouse
2 ans
400-700 €
Île-de-France, France
Télétravail partiel
Nous recherchons un Business Analyst Data expérimenté pour accompagner un Asset Manager dans la structuration et l’évolution de son écosystème Data. Vos missions : Recueillir et formaliser les besoins Data des équipes métier (Front, Risk, Reporting, Compliance). Contribuer à la conception du modèle de données et à la qualité / gouvernance des données. Participer à la mise en place d’outils de data management et data lineage. Collaborer avec les équipes IT, Data Engineers et Métier sur la roadmap Data
Mission freelance
Consultant Kafka H/F
Publiée le
Apache Kafka
API
DevOps
3 ans
550-650 €
Paris, France
Télétravail partiel
Contexte Au sein de l’équipe Data Analytics, nous concevons, déployons et maintenons des architectures Big Data destinées à répondre aux besoins internes de l’entreprise. Dans le cadre du renforcement de notre équipe support, nous recherchons un Data Engineer spécialisé Kafka pour intervenir sur des plateformes critiques à fort volume de données. Missions principales Mettre en œuvre son expertise sur Kafka (conception, configuration, optimisation et troubleshooting) Assurer le support, l’automatisation et le maintien en conditions opérationnelles (MCO) des plateformes Kafka Participer aux développements de l’équipe Data Analytics, notamment sur le projet “Topic as a Service” Contribuer à l’amélioration continue des architectures Big Data et des processus d’exploitation Assurer le support de la plateforme Worlwide Participer à la documentation technique et au partage des bonnes pratiques Interagir avec des équipes internationales dans un environnement anglophone Environnement technique Apache Kafka OpenSearch Elastic Stack : Elasticsearch, Logstash, Kibana, Beats Ansible Git / Bitbucket Développement Python REST APIs
Mission freelance
Consultant fonctionnel PROGICIEL GMAO SPOT E/J - (H/F) - 93 + 2 jours TT
Publiée le
Gestion de maintenance assistée par ordinateur (GMAO)
IBM Maximo
SQL
1 an
Saint-Denis, Île-de-France
Télétravail partiel
Context Vous interviendrez en prestation au sein d’un grand groupe du secteur transport, La mission s’inscrit dans le cadre de la GMAO SPOT Engins Outillage, outil permettant de gérer la maintenance : d’un côté, des outillages référencés dans un référentiel national (avec leurs règles de maintenance), de l’autre, des engins moteurs circulant sur le réseau (avec leurs nomenclatures et plans de maintenance). L’enjeu est d’accompagner les utilisateurs (établissements et directions) sur leurs besoins d’évolutions applicatives et de qualité des données, afin d’assurer un suivi pérenne de la maintenance, en lien avec différents métiers et outils (EAM Maximo, applis mobiles, BI). Mission Objectifs : * Le maintien de l’outil en « Mode de Condition Opérationnel » nécessite la conservation d’une équipe métier prenant en compte les demandes d’évolutions et d’assistance émanant des utilisateurs. * Le champ d’action de cette équipe concerne aussi bien la prise en charge d’opérations d’intégration, de mise en qualité et de maintien des données dans la GMAO, que la réponse aux besoins d’amélioration et ou d’adaptation des outils afin de maintenir et faire progresser la satisfaction des utilisateurs finaux. * L’équipe métier assure l’interface avec son homologue SI en charge de la réalisation des travaux. Description détaillée des tâches constituant la mission : * Contribution Assistance Service Utilisateurs * Enrichissement fonctionnel des arbres de diagnostic et fiches procédures, * Formation N1/N2 ASU aux nouvelles fonctionnalités/Processus, * Expertise fonctionnelle des tickets (rôle N3), * Mise en qualité des données de production, * Contrôle/mise à jour des fichiers de chargement de données à destination de MCO-SI. * Continuité évolutive et corrective * Analyse des anomalies de production, Expression des besoins métier (évolutions et anomalies), y compris sur les restitutions du décisionnel * Définition et priorisation du contenu des lots évolutifs/correctifs des versions, * Recette métier, * Rédaction et mise à jour de la documentation (livrets, support de formation, guides de version, procédures, communications…), * Suivi et maintien des canaux de communication (SharePoint, Yammer, SharePoint MCO…). * Assistance utilisateurs Mise en qualité des données patrimoniales, * Accompagnement des prescripteurs Engins et Outillage, * Accompagnements spécifiques à la suite d’évolutions des schémas de maintenance ou de stratégies de l’entreprise, * Accompagnement au changement et au déploiement. * Appui à des actions de formation ciblée * Satisfaction client (préparation, animation, contribution) * Organisation de REX, * Information/ présentation des outils de la GMAO (Décisionnel, applis mobiles, BO) aux nouveaux utilisateurs, * Animation de groupes de travail, * Suivi/gestion des demandes, * Points métier / SI (BO, Mobilité, Décisionnel), * REX ASU. Résultats attendus et/ou livrables avec échéancier si besoin : * Intégration de toutes les données dans SPOT en utilisant les guides métiers, référentiels et notes d’application, * Participation ponctuelle aux réunions des correspondants SPOT. * Amélioration de la satisfaction des Utilisateurs mesurable au travers des baromètres
Offre d'emploi
Consultant fonctionnel ServiceNow (H/F)
Publiée le
ITSM
ServiceNow
3 ans
38k-52k €
340-440 €
Île-de-France, France
Télétravail partiel
Rejoignez-nous ! Aujourd’hui, nous recherchons un(e) Consultant fonctionnel ServiceNow pour intervenir sur un projet clé chez l’un de nos clients grands comptes. Ce que vous ferez : En tant que Consultant Fonctionnel ServiceNow , vous interviendrez sur des projets variés, de la gestion opérationnelle à l’accompagnement de grands programmes de transformation digitale. Vos missions pourront inclure : Animation d’ateliers avec les utilisateurs et la MOA Analyse des besoins métiers et rédaction des spécifications fonctionnelles Conception de solutions adaptées en respectant les bonnes pratiques ITIL et ServiceNow Suivi des développements avec la MOE et coordination avec les équipes internes Tests, recettes et accompagnement au déploiement en production Rédaction de documentation et support utilisateur Participation à des projets innovants sur de nouveaux modules (ITSM, CSM, HR, ITBM, FSM, WSD…) Votre positionnement vous permettra d’accompagner les équipes métiers dans l’optimisation de leurs processus via ServiceNow et de jouer un rôle clé dans la conduite de projets stratégiques de transformation digitale.
Mission freelance
Développeur AWS Data et spark
Publiée le
API
AWS Cloud
AWS Glue
1 an
540-580 €
Maisons-Alfort, Île-de-France
Télétravail partiel
Dans le cadre d’un programme stratégique de pilotage financier, nous recherchons un Ingénieur Logiciel Data Cloud AWS confirmé (+7 ans d’expérience) pour rejoindre une équipe de développement et d’ingénierie orientée données et services cloud. Vous interviendrez sur la conception, l’implémentation et l’amélioration continue des services AWS nécessaires au traitement, à l’analyse et à la planification financière. Le contexte est exigeant : réglementaire, sécurité, performance, optimisation des coûts et démarche DevOps/DORA. Vous intégrerez une équipe de 9 personnes, dont un pôle cloud/data AWS déjà en place. Vos missions : Concevoir, développer et faire évoluer les services applicatifs AWS (Glue Spark, Lambda, Step Functions, Athena, S3, IAM). Intégrer les services aux différents écosystèmes techniques (plateforme Data, MDM, ZDP, Data Link, Anaplan). Proposer des optimisations, améliorer les architectures existantes, renforcer la robustesse et la performance. Prendre en compte les exigences métiers, réglementaires, sécuritaires et environnementales. Participer à une démarche d’amélioration continue (Lean, DevOps, DORA). Documenter les architectures, formaliser les conceptions, assurer un bon niveau de qualité. Implémenter les bonnes pratiques TDD / BDD. Collaborer en équipe dans un environnement cloud industriel avancé.
Mission freelance
Data Engineer / MLops expérimenté ou sénior Python, Pydantic, PymuPDF/3 jours TT
Publiée le
Machine Learning
Python
6 mois
410-550 £GB
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Data Engineer / MLops expérimenté ou sénior Python, Pydantic, PymuPDF Compétences attendues : Pipeline de données et de machine learning Compétences en programmation (Python, Pydantic, PymuPDF) Compétences sur les services d’IA d’AWS (sagemaker) et des services AWS (StepFunction, Lambda, SQS, CloudWatch, Textract…) Compétences en computer Vision par réseaux de neurones Outils de DevOps et de Cloud Computing (Terraform) Processus CI / CD Outils d’automatisation Méthodologies agiles (Jira, Confluence, Kanban, Scrum…) Connaissance des principaux LLM dont les modèles Gemini Compétences en optimisation sous contraintes et connaissance d’outils comme ORTools Localisation de la mission : Lyon 2 jours de présence sur site Date de démarrage : Début janvier Minimum 3 ans d’expérience Profils expérimentés (3 à 7 ans d’expérience) Profils senior (7 ans et +) Missions : Détection d’opportunités IA/ML et contribution à des preuves de concept (POC) (Identifier et analyser des opportunités IA/ML, concevoir et documenter des POC fonctionnels, puis présenter et évaluer leur valeur métier et robustesse auprès des parties prenantes.) Développement de fonctionnalités de Machine Learning et d'IA (Concevoir et valider l’architecture SI, collaborer avec l’équipe produit pour intégrer des fonctionnalités IA/ML, livrer des incréments industrialisables et contribuer à la documentation technique et produit.) Industrialisation et standardisation des pratiques IA / MLOps (Intégrer et déployer des modèles IA avec des formats standard, optimiser leur performance et coût, assurer le monitoring et les mises à jour, contribuer aux pratiques MLOps et réaliser une veille technologique en ML/IA.)
Mission freelance
[FBO] Data Engineer avec expertise MLOps
Publiée le
Planification
Python
3 ans
400-590 €
Île-de-France, France
Télétravail partiel
Le bénéficiaire souhaite une prestation d’accompagnement dans le cadre de la mise en place d'une plateforme AIOPS. Les missions sont : En tant que DataOps Engineer avec expertise MLOps, les missions sont : - Deploiement et maintenance des pipelines de données scalables et résilients (batch/streaming) en utilisant Kafka, Airflow, Kubernetes. - Industrialisation du cycle de vie des modèles ML (de l’entraînement au monitoring en production) via des pratiques MLOps (MLflow, Kubeflow, etc.). - Automatisation de l’infrastructure et les déploiements (IaC avec Terraform/Ansible, CI/CD avec Jenkins/ArgoCD). - Garantie la qualité des données (testing, linéage, observabilité) et la performance des modèles (drift detection, monitoring). - Collaboration avec les Data Scientists, Data Engineers pour aligner les solutions techniques sur les besoins métiers. Responsabilités Clés 1. Pipeline de Données & Orchestration - Développement et optimissation des pipelines Kafka (producteurs/consommateurs, topics ) pour le traitement en temps réel. - Orchestrer les workflows avec Apache Airflow (DAGs dynamiques, opérateurs custom Python/Kubernetes). - Automatisation le déploiement et la scalabilité des pipelines sur Kubernetes (Helm, Operators, ressources custom). - Gérer les dépendances entre pipelines (ex : déclenchement conditionnel, backfills). 2. MLOps & Industrialisation des Modèles - Packager et déployer des modèles ML. - Mettre en place des pipelines MLOps : - Entraînement (MLflow, Pipelines). - Testing (validation des données, tests de modèles avec Great Expectations). - Déploiement (, A/B testing). - Monitoring (drift des features/prédictions, logs avec ELK/Prometheus). - Optimisation des performances des modèles en production (latence, ressources GPU/CPU). 3. Infrastructure as Code (IaC) & CI/CD - Définition l’infrastructure en Terraform (modules réutilisables pour Kafka, Kubernetes, IBM Cloud). - Automatisation les déploiements avec Jenkins/ArgoCD (pipelines multi-environnements : dev/staging/prod). - Configuration les clusters Kubernetes (namespaces, RBAC, storage classes, autoscale HPA/VPA). - Sécurisation des accès (Vault pour les secrets) 4. Qualité des Données & Observabilité - Implémentation des tests automatisés : - Qualité des données (complétude, cohérence, schéma) - Validation des modèles (métriques, biais). - Monitorisation les pipelines et modèles : - Métriques techniques (latence, erreurs) et métiers (précision, recall). - Alertes proactives (ex : Dynatrace ou Grafana). 5. Collaboration & Amélioration Continue Participation aux rituels Agile (refinement, retro) et promouvoir les bonnes pratiques Data/MLOps. Control des équipes sur les outils (Airflow, Kafka) et les processus (CI/CD, testing). Assurance d´une veille technologique (ex : évolutions de Kubernetes Operators pour Kafka/ML, outils comme Metaflow). Collaboration avec les Product Owners pour prioriser les besoins métiers.
Mission freelance
Consultant(e) SAP PP Confirmé(e)/Senior
Publiée le
12 mois
Yvelines, France
Télétravail partiel
Contexte de la Mission : Dans le cadre d’un projet de transformation, nous recherchons un(e) Consultant(e) SAP PP confirmé(e)/senior pour accompagner la migration d’un système Oracle vers SAP ECC6. La mission inclut des activités de MOA, support métier, tests et paramétrage, avec pour objectif d’assurer une transition fluide et efficace des processus de gestion de la production (PP) et l'intégration avec le module MM. Cette mission, dont la durée sera définie selon les besoins du projet, pourra se dérouler soit en Gironde (33), soit en Île-de-France (75).
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Traitement fiscal des cotisations sociales payées en 2025 sur CA micro-BNC 2024
- La Société de portage avec qui j'ai signé m'impose la soltion MAY
- Utiliser Qonto pour créer la microentreprise
- Compte dédié micro-entreprise
- Service de comptabilité en ligne fiable et réactif pour une succursale de SASU
- Offre propulse IT
5347 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois