L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 751 résultats.
Mission freelance
POT8811 - Un Lead Data Migration SAP (Qualité, MDG, Gouvernance) sur Paris
Publiée le
ERP
6 mois
Paris, France
Almatek recherche pour l'un de ses clients, un Lead Data Migration SAP (Qualité, MDG, Gouvernance) sur Paris Objectif du poste Sécuriser la migration des données et la gouvernance, pour éviter les risques data silencieux qui déstabilisent l’activité après go live. Missions principales • Définir la stratégie de migration (objets, règles, séquences, contrôles). • Piloter nettoyage, dédoublonnage, data quality et réconciliation. • Orchestrer extraction, transformation, chargement et validations. • Mettre en place une gouvernance data avec rôles et responsabilités clairs. Compétences et outils Compétences et outils • Data migration ERP, réconciliation, contrôles et gestion de la pression fin de projet. • Connaissance SAP MDG appréciée. • Approche pragmatique orientée qualité et continuité opérationnelle. Profil recherché • 6 ans et plus sur data migration ERP, idéalement S/4HANA. • Excellente rigueur, leadership transversal.
Mission freelance
Développeur IA LLM _ Python _ API
Publiée le
API
Python
1 an
400-550 €
Paris, France
Télétravail partiel
Je suis à la recherche pour un de nos clients d'un Développeur IA LLM Python API. Maîtrise de Python pour le backend et l'interfaçage API. Expérience avérée en développement d'API REST (FastAPI, Flask ou Django). - Intégration de LLM (Large Language Models) : Expérience pratique de l'utilisation d'APIs de modèles génératifs (OpenAI, Mistral, Anthropic, ou modèles Open Source via Hugging Face). Capacité à démontrer des travaux sur le Prompt Engineering et la structuration des sorties (Output Parsing, JSON mode). - Développement Web Fullstack: Capacité à développer et maintenir un Back-office fonctionnel en environnement PHP (Symfony) ou Javascript (Node.js/React/Vue), pour s'interfacer avec l'existant. - Frameworks d'Orchestration IA : Maîtrise de frameworks spécifiques tels que LangChain ou LlamaIndex pour gérer les chaînes de traitement. - Évaluation & Qualité (LLM Ops) : Expérience dans la mise en place de métriques pour mesurer la qualité des réponses (frameworks comme RAGAS, DeepEval, ou méthodologie de "LLM-as-a-judge"). - Conteneurisation : Autonomie sur l'usage de Docker - Architecture RAG : Connaissance des principes de Retrieval Augmented Generation (bases de données vectorielles type Qdrant, Chroma, Pgvector) - Nécessité d'avoir collaboré pour des sites médias à forte volumétrie C ompétences souhaitées : Infrastructure as Code : Capacité à lire et comprendre des scripts Terraform existants pour dialoguer efficacement avec l'équipe Ops. Conteneurisation : Connaissance de l'environnement d'exécution Kubernetes (savoir lire un fichier de déploiement, logs, exec, ). Travail en environnement agile (scrum)
Mission freelance
Product Owner CMS / AEM (F/H)
Publiée le
Adobe Experience Manager (AEM)
CMS
12 mois
550-650 €
Paris, France
Télétravail partiel
Pour soutenir la croissance de nos besoins en contenu et l'évolution de nos exigences techniques, nous recherchons un Product Owner Senior CMS - expert d'AEM Cloud - pour rejoindre l'équipe et prendre en charge l'optimisation et l'évolution fonctionnelle de notre plateforme AEM. Ce rôle est essentiel pour garantir une expérience de contribution fluide et performante pour nos équipes métiers et un support technique robuste pour nos équipes de développement. Missions principales 1/ Définition et Pilotage de la Stratégie Produit AEM • Recueillir, analyser et formaliser les besoins des contributeurs et des équipes internes (Marketing, Communication, IT) pour traduire les enjeux métier en exigences fonctionnelles claires et priorisées. • Identifier les opportunités d'amélioration et d'innovation en réalisant une veille technologique active sur AEM et les pratiques CMS, ainsi qu'en analysant les retours utilisateurs et les performances. • Établir la roadmap pour l'évolution d'AEM en tant que plateforme de contenu stratégique, en alignement avec les objectifs de la Tribe Attract et les besoins des contributeurs. • Définir et suivre les KPIs pour mesurer la performance d'AEM, l'efficacité de la contribution et l'impact sur les performances commerciales. 2/ Optimisation Technique et Fonctionnelle d'AEM Cloud • Performance et Scalabilité : Définir et piloter des projets d'optimisation technique d'AEM, incluant : - L'amélioration des stratégies de caching (Dispatcher, CDN) pour une meilleure performance des pages. - L'optimisation des processus d'archivage des pages et de gestion du cycle de vie du contenu. - La mise en place de solutions robustes pour la gestion des redirections et des URLs. • Facilitation de la Contribution : Mener des initiatives pour simplifier et enrichir l'expérience des contributeurs : - Faciliter le paramétrage et la gestion des Points de Vente (POS) au sein d'AEM pour une plus grande autonomie des équipes. - Optimiser les interfaces d'édition et les workflows pour réduire les frictions et améliorer la productivité des utilisateurs AEM. • Intégrations et Écosystème AEM Cloud : - Cadrer et piloter l'intégration de connecteurs externes pour enrichir AEM avec de nouvelles fonctionnalités et services (ex: outils de personnalisation, de traduction…) - Optimiser le couplage et les flux de données entre AEM et d'autres systèmes (Media Portal, DAM) pour une gestion fluide des assets et des médias. - Travailler en étroite collaboration avec le PO Core AEM pour s'assurer de la cohérence et de l'applicabilité des best practices et du Core model. 3/ Delivery et Collaboration Agile • Animer et faire monter en puissance la squad CMS qui sera construite au fil de l'eau, en jouant un rôle clé dans sa structuration, la définition de ses objectifs et la synergie avec les autres équipes de développement. • Participer activement à toutes les cérémonies Agiles (Daily, Refinement, Sprint Planning, Review, Rétro). • Rédiger des User Stories détaillées avec des critères d'acceptation précis, en tenant compte des aspects fonctionnels et techniques d'AEM. • Assurer le découpage fonctionnel du besoin (feature - epic - US), le prioriser et coconstruire les items du backlog avec l'équipe de développement. • Animer des ateliers "3 amigos" et autres sessions de travail avec les équipes techniques pour assurer une compréhension commune des solutions. • Définir un objectif de sprint orienté impact et valeur, et valider les développements. • Rédiger et maintenir la documentation fonctionnelle et technique nécessaire (Confluence, Jira). • Garantir la cohérence fonctionnelle et technique d'AEM avec les autres squads Attract et Ecommerce global, en collaborant étroitement avec les autres POs. Compétences recherchées Techniques • Maîtrise avancée d’AEM Cloud: Expertise solide de l’architecture AEM Cloud et des fonctionnalités clés (édition de contenu, gestion des assets, workflows). Bonne compréhension de ses concepts fondamentaux (composants, templates, gestion multilangues/multi-sites) et de ses capacités d'intégration. • Aisance technique / Background Technophile : Capacité à dialoguer efficacement avec les équipes techniques. Bonne compréhension des enjeux liés au développement web (notions de HTML, CSS, JavaScript, APIs, architecture client-serveur, bases de données). • Connaissance des principes d'intégration : Compréhension des mécanismes d'intégration de systèmes tiers via des APIs et des connecteurs. Capacité à spécifier et à suivre ces développements. • Sensibilité aux enjeux de performance web : Connaissance des bonnes pratiques pour l'optimisation des temps de chargement et l'expérience utilisateur web (caching, CDN, optimisation d'images). Produit / Fonctionnel • Mindset produit, fortement orienté utilisateur (contributeur interne) et ROI. • Expertise dans le cadrage de projets complexes et de nouvelles features. • Capacité à découper des besoins en user stories, à les prioriser et à élaborer des roadmaps. • Maîtrise du framework Scrum et des outils JIRA, Confluence. Soft skills • Leadership naturel, capacité à fédérer et à influencer, et esprit collaboratif. • Expérience significative sur des projets transverses complexes, avec de multiples parties prenantes. • Organisation, rigueur, autonomie et proactivité. • Excellentes compétences en communication, pédagogie et vulgarisation technique. • Esprit de synthèse, capacité à prioriser et à prendre des décisions éclairées.
Mission freelance
Consultant minimum 8 ans d'expérience production des reporting prudentiels
Publiée le
Gestion de projet
6 mois
750-780 €
Paris, France
Télétravail partiel
Consultant minimum 8 ans d'expérience production des reporting prudentiels (finance de marché : SA, SA-CCR, CVA) Thématique : Solvabilité, en particulier sur les thématiques risque de marché (approche standard), risque de contrepartie (SA-CCR), CVA Compétences recherchées : Production des RWA et ratios Solvabilité Contrôles de cohérence métier Analyse des variations trimestrielles / annuelles Production des rapports COREP (templates MKR/CCR/CVA) Production de synthèses à destination des comités de validation Solvabilité Restitutions aux lignes métiers, aux lignes de contrôle, etc. Contribution aux projets d'évolution de la chaine prudentielle (hors périodes d'arrêté)
Mission freelance
Responsable d’application ADOBE Campaign
Publiée le
Adobe
Adobe Campaign
12 mois
550-600 €
Paris, France
Télétravail partiel
Vous serez responsable de projets et des activités courantes liés à l’évolutivité autour de notre outil de gestion de campagne ADOBE et des flux associés. Principales missions : Gestion de backlog : maîtrise, organisation et ordonnancement du backlog de ses sujets / projets Escalades métiers, tickets de bugs et évolutions TMA, projets Qualité du backlog : complétude et état des tickets, ... Phases amont (roadmap, recueil des besoins, cadrage et macro impact/chiffrage) amenant à la rédaction des SFD et la compréhension de celles-ci par l’équipe Réalisation de la stratégie de recette et exécution de la recette Communication auprès des différents interlocuteurs IT et / ou métiers : coordination des différents interlocuteurs lors des différentes phases projet en accompagnement du chef de projet et/ou de la Responsable de Domaine Réalisation de la stratégie de déploiement et évaluation des impacts Gestion des adhérences : cohérence technico-fonctionnelle de son backlog et des adhérences de celui-ci avec les autres équipes Passation des informations aux équipes d’exploitation à la suite de changement ou mise en production Production de la documentation fonctionnelle et de la capitalisation de cette documentation Synchronisation technico-fonctionnelle avec les autres équipes et les partenaires externes le cas échéant Amélioration continue Priorisation de ses sujets entre le RUN et les différents projets BUILD en fonction des impacts et priorités annoncées. Environnement technologique : ADOBE Cloud : GCP APIs JIRA Postman Talend Informatica Vous intervenez sur des projets variés liés aux domaines clients et en serez le référent. Votre rôle est d’assurer une continuité de service et délivrer les nouveaux projets inscrits à la roadmap tout en vous coordonnant avec les autres domaines (E-commerce, CRM, Fidélité, DATA, ...) Si vous avez une expertise technico-fonctionnelle sur ce sujet, on vous veut !! Profil recherché : Expérience dans le secteur de du retail et idéalement dans la grande distribution Minimum Bac+5 en école d’ingénieur ou master Minimum 3/4 ans d’expérience sur un poste similaire Expérience forte sur l’applicatif ADOBE, et une expérience dans le domaine du retail et/ou du e-commerce Maitrise de Jira Expérience dans un environnement multipartenaire : aisance à travailler avec une direction métier comme avec un développeur
Offre d'emploi
Développeur Big Data Scala / Java (Migration DataHub)
Publiée le
Apache Kafka
AWS Cloud
Big Data
12 mois
45k-56k €
500-530 €
Montreuil, Île-de-France
Télétravail partiel
Contexte / Objectif : Renfort d’une équipe technique en charge de la migration du DataHub vers sa version 2. L’objectif est d’assurer le développement et l’industrialisation de traitements Big Data dans un environnement distribué à forte volumétrie, depuis la conception jusqu’au maintien en production. Missions principales : Étude et conception technique des batchs et pipelines data. Développement Spark/Scala pour traitements batch et streaming. Récupération, transformation, enrichissement et restitution des données (ETL/ELT). Création et publication de batchs Kafka (topics / événements). Participation à l’industrialisation : CI/CD, tests, déploiement et monitoring. Collaboration étroite avec les Business Analysts pour garantir la qualité et la lisibilité des libellés. Gestion autonome de sujets transverses (reporting, suivi, coordination, support niveau 2/3). Stack technique (obligatoire / souhaité) : Obligatoire : Apache Spark (maîtrise), Scala (langage principal), SQL (avancé). Souhaité : Java (notions confirmées), Kafka (bonnes bases), Apache Airflow (expérience appréciée), HDFS/Hive/YARN (bonnes bases), expérience Cloud (GCP ou AWS valorisée), CI/CD (Jenkins, Gitflow), notions DevOps. Méthodologie & environnement : Travail en mode Agile (backlog, rituels, communication proactive). Interaction régulière avec équipes Data, BI, infra et métiers.
Mission freelance
POT8794 - Un développeur Python /devops sur Orléans
Publiée le
Python
6 mois
Orléans, Centre-Val de Loire
Télétravail partiel
Almatek recherche pour l'un de ses clients, un développeur Python/Devops sur Orléans. Mission: participer à divers projets de transformation technique, notamment sur les sujets CICD et AZU. La connaissance du cloud, en particulier AZURE, est indispensable, et la maîtrise d'autres environnements cloud serait un atout Almatek recherche pour l'un de ses clients, un développeur Python/Devops sur Orléans. Mission: participer à divers projets de transformation technique, notamment sur les sujets CICD et AZU. La connaissance du cloud, en particulier AZURE, est indispensable, et la maîtrise d'autres environnements cloud serait un atout
Mission freelance
Intermediate Data Engineer
Publiée le
API
AWS Cloud
Big Data
12 mois
Paris, France
Contexte du projet Notre client dans le secteur de l'energie, dans sa stratégie de transformation data-driven , souhaite exploiter pleinement ses données pour : proposer de nouvelles offres, réduire les risques opérationnels, accroître l’efficacité des équipes. Le projet One Pulse vise à centraliser et harmoniser les indicateurs clés liés aux activités d’approvisionnement dans différents pays. Objectif : mettre en place une plateforme Big Data robuste et scalable permettant de collecter, traiter et diffuser les données de manière cohérente et sécurisée à travers le groupe. Objectif de la mission Développer une plateforme basée sur des technologies Big Data et Cloud (AWS) pour : capturer et traiter des volumes importants de données, normaliser et exposer des indicateurs multi-pays, garantir la conformité avec les guidelines techniques et d’architecture, améliorer les frameworks communs (CI/CD, tests, monitoring, performance, qualité de code, etc.). Activités principales Collecter et challenger les besoins métiers. Concevoir des solutions conformes aux guidelines d’architecture. Participer au développement et à la maintenance du code (Python, API, Big Data). Optimiser la performance, la qualité et la robustesse des solutions. Rédiger la documentation technique en anglais. Mettre en place des outils de monitoring et d’alerting. Contribuer à la phase de production et à l’amélioration continue. Compétences attendues Techniques (2 à 3 compétences maîtrisées minimum) : CompétenceNiveau attendu: Python / API (Software engineering)Big Data ingestion (S3, Medaillon architecture)Big Data patterns (lambda, partitioning, bucketing…)AWS Fonctionnelles : Proactivité et autonomie, Leadership technique (capacité à guider d’autres devs), Sens de la qualité et du delivery, Rigueur, communication claire, Anglais courant. Livrables attendus Conception, développement et documentation technique, Rapports d’avancement et dashboards de suivi, Plan de monitoring et correction d’anomalies, Code source, spécifications techniques et fonctionnelles, Plan de réversibilité et continuité de service. Profil recherché Un Data Engineer expérimenté (3 à 6 ans d’expérience) capable d’évoluer dans un environnement Big Data international et complexe, avec une bonne culture logicielle et une maîtrise de Python et des architectures data sur cloud (idéalement AWS).
Mission freelance
Architecte Data
Publiée le
Architecture
Azure
4 mois
650-680 €
Rennes, Bretagne
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un Architecte Data(H/F) , pour le compte de l'un de ses clients qui opère dans le domaine de l'industrie. Description 🎯 Contexte de la mission Dans le cadre d’un projet stratégique à forte visibilité, une nouvelle Data Platform doit être conçue sur une infrastructure Kubernetes récemment livrée. 🧩 Missions principales & Rôle Le Data Architecte interviendra sur les activités suivantes : 🏗️ Définition de l’architecture cible de la Data Platform 🗂️ Segmentation et ségrégation des stockages (temps réel, analytique, applicatif) 🐳 Déploiement et orchestration de conteneurs dans un environnement Kubernetes 🔒 Mise en place du socle Data incluant : sécurité, qualité, monitoring, CI/CD Data 🧪 Accompagnement sur les choix technologiques , avec priorité aux solutions open source 🤝 Co-construction avec les équipes métiers , utilisateurs d’outils no-code / low-code 🔍 Participation à la définition des patterns d’architecture et bonnes pratiques 🎯 Objectifs de la mission Mettre en place une architecture Data scalable et sécurisée Assurer la cohérence technologique entre l’infra Kubernetes, les composants Data et les besoins métiers Définir les patterns, standards et bonnes pratiques de la future plateforme Préparer l’intégration des premiers pipelines et cas d’usage métiers
Offre d'emploi
Developpeur Java (+3 ans d'xp)
Publiée le
API REST
Java
Springboot
3 mois
40k-45k €
400-440 €
Brest, Bretagne
Télétravail partiel
🧩 Description du poste Au sein d’une équipe agile et en étroite collaboration avec la MOA, tu participes à l’évolution d’une plateforme à forts enjeux métiers et techniques, dans le cadre d’une mission longue durée (jusqu’à 4 ans) . Tes missions principales : Collaborer étroitement avec la MOA sur les besoins fonctionnels Être force de proposition sur les améliorations techniques et fonctionnelles Participer à la conception et aux choix techniques en lien avec les architectes du domaine Développer des API REST robustes et performantes en Java / Spring Boot Concevoir et maintenir les couches backend (services, règles métier, accès aux données) Réaliser les tests unitaires et d’intégration Garantir la qualité, la performance et la sécurité des livrables Assurer l’accompagnement lors des mises en production et le support aux utilisateurs Maintenir l’application en condition opérationnelle (MCO) Partager tes savoir-faire et contribuer activement au collectif Assurer le reporting auprès du manager (avancement, alertes, risques)
Mission freelance
Lead Développeur Backend Python / Java – Agents IA & Google Cloud Platform – Anglais requis (F/H)
Publiée le
API REST
Design pattern
FastAPI
12 mois
450-550 €
Boulogne-Billancourt, Île-de-France
Télétravail partiel
Envie d’un nouveau challenge... CELAD vous attend ! 🚀 Nous poursuivons notre développement et recherchons actuellement un.e Lead Développeur Backend Python / Java – Agents IA & Google Cloud Platform pour client dans le secteur automobile. 💻💼 Voici un aperçu détaillé de vos missions 🎯 : - Mettre en place, maintenir et faire évoluer des agents IA : · Garantir la couverture fonctionnelle et la spécialisation des agents · Assurer la collaboration des agents entre eux et l’utilisation de standards · Gérer la sécurité, les ACLs, le monitoring et le reporting · Optimiser performance et coûts, intégrer l’évaluation de la qualité et le passage à l’échelle - Garantir la stabilité et la scalabilité de la plateforme avec les DevOps - Assurer la remise en marche du SI dans les délais projet et communiquer l’état des services - Challenger et contribuer à la vision produit , piloter conception, développement et opérations tout en garantissant le SLA - Collaborer avec les Solution Architects pour étudier les évolutions demandées - Identifier et prioriser les services pour répondre aux besoins métiers et à la stratégie du groupe - Sécuriser l’ alignement organisationnel et gérer les dépendances techniques - Assurer une veille technologique pour pérenniser les solutions - Garantir la cohérence fonctionnelle et la qualité des composants communs - Appliquer et diffuser les bonnes pratiques au sein des équipes en mode agile
Mission freelance
H/F - Product Owner CRM & Data Client
Publiée le
Backlog management
Rédaction des spécifications fonctionnelles
Salesforce Sales Cloud
3 mois
Paris, France
Télétravail partiel
Niveau : Confirmé (+8 ans d’expérience) Au sein de la DSI, vous rejoignez l’équipe produit responsable du référentiel client et des processus de prospection associés. Votre mission consiste à définir la vision produit, piloter les évolutions fonctionnelles et assurer la cohérence globale de la solution CRM orientée Data. Acteur central de l’organisation agile, vous êtes garant de la valeur métier, de la priorisation du backlog et de la qualité des livrables. Vous travaillez en coordination avec les équipes techniques, data et commerciales afin d’assurer un delivery performant et une adoption optimale des fonctionnalités. Missions principales • Définir et piloter la vision produit et la roadmap. • Recueillir, analyser et formaliser les besoins métiers. • Rédiger les spécifications fonctionnelles et critères d'acceptation. • Prioriser et maintenir le backlog produit. • Coordonner les équipes techniques et assurer la qualité du delivery. • Garantir la cohérence du SI avec les autres produits et services. • Accompagner le déploiement, la conduite du changement et l’adoption des nouvelles fonctionnalités. • Assurer la valeur délivrée à chaque itération.
Mission freelance
Développeur Python /devops - Paris ou Orleans
Publiée le
Python
6 mois
400-420 £GB
Orléans, Centre-Val de Loire
Télétravail partiel
Développeur Python /devops ayant une double compétence en Python et DevOps pour participer à divers projets de transformation technique, notamment sur les sujets CICD et AZURE. Nous recherchons des candidats avec au moins cinq ans d'expérience en développement Python et en CI/CD. La connaissance du cloud, en particulier AZURE, est indispensable, et la maîtrise d'autres environnements cloud serait un atout. Nous avons besoin de personnes autonomes et passionnées par la technologie, car le client accorde une grande importance à cet aspect. L'équipe est très technique et dynamique. La mission est basée à Paris ou Orléans, avec la possibilité de télétravail trois jours par semaine
Mission freelance
Expert Senior LGD IRB (10+ ans d'expérience)
Publiée le
Audit
2 mois
750-780 €
Paris, France
Télétravail partiel
Dans le cadre d’un programme de développement de modèles IRB pour un acteur majeur européen du financement automobile, nous, cabinet de conseil en stratégie, recherchons un expert senior pour le développement d’un modèle de LGD IRB sur des portefeuilles Retail de crédit et de leasing automobile. Contexte & périmètre Acteur du financement automobile : crédits et leasing (retail & petites entreprises) Projet de développement / recalibrage de modèles LGD IRB sur portefeuilles retail Direction sponsor : Risk Retail & Modélisation, en lien étroit avec les équipes Finance / Capital Management Collaboration avec un modélisateur interne dédié au projet Profil recherché : expérience significative (10 ans et +) en modélisation de paramètres LGD IRB dans un établissement bancaire ou une captive de financement Maîtrise des attentes IRB / ECB : définition downturn, segmentation LGD, traitement des récupérations, secured/unsecured, discounting, calibration long‑run Solide expérience de projets sur portefeuilles retail collatéralisés Expérience des interactions avec fonctions de validation indépendante, audit interne / externe et, idéalement, régulateur Capacité à cadrer une méthodologie, à challenger la donnée et à encadrer des équipes de modélisation internes Excellente maîtrise de PowerPoint / Excel ; capacité à produire des livrables de haut niveau à destination du management Rôle & responsabilités Cadrer la méthodologie LGD IRB : périmètre, segmentation, choix des horizons, traitement des cash-flows de recouvrement et de la valeur du collatéral (incl. valeur résiduelle des véhicules) Piloter le développement du modèle : spécifications, choix des approches de modélisation, calibration et backtesting Challenger la qualité des données (historique recouvrement, coûts, collatéral) et proposer les remédiations nécessaires Encadrer et coacher le modélisateur interne en charge des travaux opérationnels (data prep, estimation, tests) Préparer et structurer la documentation IRB complète (note méthodologique, analyses quantitatives, limites, use test) Contribuer aux analyses d’impact capital (RWA, EL, provisions) et aux revues avec les stakeholders clés (Risk, Finance, Validation, Audit) Préparer et présenter les éléments aux instances internes (Comité Risques, SteerCo IRB) et, le cas échéant, en vue de discussions avec le superviseur
Mission freelance
Ingénieur DevOps Cloud Azure & Data - Confirmé 5 ans xp
Publiée le
Azure
Cloud
Databricks
1 an
Île-de-France, France
Télétravail partiel
Description du contexte Au sein de la Direction Digital et Data, le consultant intégrera le Data Lab , en charge de l’ensemble des projets BI et Data du groupement. La plateforme cible est le Cloud Microsoft Azure . Dans le cadre des projets de transformation, l’Ingénieur DevOps participera au déploiement et à l’industrialisation des solutions data. Polyvalent et à l’aise dans la communication avec les équipes techniques, il devra également contribuer aux sujets de sécurité, aux ateliers, et au suivi des recommandations issues des audits. L’environnement est Agile , et l’équipe composée d’une dizaine de collaborateurs. Missions principales Construire des infrastructures Cloud Public (principalement Azure) Industrialiser les architectures cibles & configurer les équipements (CI/CD) Mettre en place outils & procédures de supervision garantissant la haute disponibilité Participer aux phases de validation technique (mise en production & évolutions) Collaborer étroitement avec les équipes Développement, Sécurité et Projets
Mission freelance
POT8784 - Un Data Analyste énergie Sur Saint Denis
Publiée le
SQL
6 mois
Saint-Denis, Île-de-France
Télétravail partiel
Almatek recherche pour l'un de ses clients, Un Data Analyste énergie Sur Saint Denis. Objectif de la mission: Assurer la mise en qualité de la donnée énergétique et mettre en place les flux de data entre les outils internes de gestion de l’énergie (ConsoNG, eVision, Portail de Management de l’Énergie…). Périmètre opérationnel Le consultant interviendra sur : Définition et documentation des nomenclatures de compteurs et sous-compteurs Intégration de nouveaux objets énergétiques dans ConsoNG : ? sous-compteurs, panneaux photovoltaïques, IRVE Participation aux programmes Linky et Gaspar ? fiabilisation des données et échanges avec les distributeurs Mise en place et contrôle des flux inter-outils data Rédaction des expressions de besoins fonctionnels pour la DSI Mise en œuvre de règles de : contrôle d’accès aux données validation des données supervision du cycle de vie des données gestion des versions et historisation Livrables attendus Flux data inter-outils opérationnels Données énergétiques affichées de manière cohérente dans le Portail de Management de l’Énergie Documents fonctionnels et règles de qualité / gouvernance data Profil recherché Data Analyst expérimenté, idéalement avec expérience dans : la qualité et fiabilisation des données, les flux ETL/ELT ou intégrations multi-sources, le domaine énergie (,compteurs, data énergie bâtimentaire) serait un plus, rédaction d’expressions de besoins, interactions avec DSI, compréhension architectures data. Compétences clés : SQL, ETL/ELT, gouvernance data, structuration et documentation des données, contrôle qualité, architecture fonctionnelle simple.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Calcul de l'indemnité de la rupture conventionnelle
- Service de comptabilité en ligne fiable et réactif pour une succursale de SASU
- Compte dédié micro-entreprise
- Utiliser Qonto pour créer la microentreprise
- Gestion d’entreprise : astuces pour freelances IT
- Freelance : peu de retours sur mes candidatures – vos stratégies ?
2751 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois