L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 5 858 résultats.
Mission freelance
Expert(e) SEO & GEO – Secteur Luxe
Mon Consultant Indépendant
Publiée le
IA
SEO
12 mois
660-700 €
Paris, France
Consultant(e) Expert SEO & GEO – Secteur Luxe (H/F) Localisation : Paris Expérience : 8 ans minimum Langues : Anglais courant (animer des réunions, etc.) Le Contexte : Pour accompagner l'un de nos clients prestigieux dans l'univers du luxe, nous recherchons un(e) Consultant(e) SEO Senior doté(e) d'une vision avant-gardiste du Search. Dans un écosystème où l'IA transforme la recherche utilisateur, nous ne cherchons pas seulement un expert de Google, mais un(e) stratège capable de maîtriser l' optimisation pour les moteurs de réponse (GEO) afin de garantir la visibilité de la marque sur les nouveaux usages (Perplexity, ChatGPT, Gemini, Search Generative Experience). Vos Missions : Directement rattaché(e) au Top Management , vous intervenez sur un périmètre international : Stratégie SEO & GEO : Pilotage de la visibilité organique globale avec une approche hybride (moteurs classiques + IA conversationnelle). Expertise Luxe : Adaptation de la stratégie aux codes de l'exclusivité (maîtrise du sémantique "haute couture", gestion de l'image de marque et de la rareté). Roadmap Internationale : Coordination et déploiement des optimisations sur des marchés clés (US, EMEA, ASIA). Reporting Exécutif : Analyse de la performance et présentation des résultats auprès de la direction générale. Votre Profil : Expérience : Vous justifiez de plus de 8 ans d'expérience en SEO, avec une expérience significative dans le secteur du luxe ou du haut de gamme. GEO Ready : Vous comprenez les mécanismes des LLMs et savez comment positionner une marque dans les réponses générées par l'IA. Anglais Courant : Vous évoluez dans un environnement international ; l'anglais est votre langue de travail quotidienne. Posture Senior : Vous avez l'habitude de challenger et de conseiller des profils de niveau C-Level avec clarté et diplomatie. Pourquoi nous rejoindre ? Projet à haute visibilité pour une Maison de renommée mondiale. Enjeux techniques et stratégiques de pointe (Early adopter GEO). Collaboration directe avec les décideurs.
Offre d'emploi
Data Engineer
CAT-AMANIA
Publiée le
Ansible
Apache Airflow
Apache Kafka
Île-de-France, France
ntégration au sein de l'équipe Data event Management qui gère les trois offres de services suivantes : - Offre Infra. Kafka sur ITCloud OnPremise - Offre Infra. Kafka sur IBMCloud/dMZR. Activités principales - Construction/Déploiement/Support/MCO des offres autour de la technologie de messaging kafka Méthodologie de Travail - ITIL - Agile/Scrum à l'échelle - Product Based Projets principaux en cours - Transition vers un Nouvel Orchestrateur sur l'Offre Infra Kafka IBMCloud/dMZR basé sur Python et Airflow, Terraform - Extension de l'offre Kafka sur IBMCloud/dMZR avec l'intégration du produit Lenses - Migration du monitoring de l'infrastructure OnPremise de Splunk vers une solution Dynatrace combinée avec ELK. Technologies Utilisées - Outils administratifs: ServiceNow, Jira, Confluence - Infrastructure as Code: Ansible, Terraform - Langages: Bash, java (spring/jhipster), python - Repository: Artifactory - Database: SQL Server, PostgreSQL - Contenairsation: Docker/Kubernetes - Provider Cloud: ITCloud, IBMCloud - Orchestration: Airflow, Autosys, BPM - Versionning: Git - Messaging: kafka - CI/CD: GitLab CI - Operating system: Redhat - Monitoring: ELK, Dynatrace, LogDNA, Sysdig - Sécurité: HashiCorp Vault, Cyberarc
Mission freelance
DATA ANALYST - Expert (>10 ans) F/H
SMARTPOINT
Publiée le
Apache Spark
Databricks
DataGalaxy
24 mois
550-580 €
Île-de-France, France
Dans le cadre du renforcement du DataLab, nous recherchons un Data Analyst Lead en prestation, rattaché à l’équipe Gouvernance des données. La mission s’inscrit dans un environnement Grande Distribution, multienseignes et multimétiers, avec de forts enjeux de pilotage de la performance, qualité des données, modélisation et usages analytiques à grande échelle. La connaissance du domaine de la Grande Distribution est un critère essentiel. Objectifs de la mission Apporter une expertise en data analyse et en conception de solutions informatiques orientées données. Contribuer à la montée en compétence des Data Analysts du DataLab. Accompagner les équipes produits et projets sur des sujets analytiques et techniques avancés. Animer la communauté des Data Analystes. Coanimer la Data Authority et les ateliers associés, en lien avec l’équipe Gouvernance des données. Principales missions Expertise en data analyse et conception de solutions data. Support avancé aux équipes produits / projets (indicateurs complexes, modélisation, cohérence des solutions). Contribution à la structuration et à l’alignement des KPI métiers. Animation de la communauté des data analystes (ateliers, bonnes pratiques, retours d’expérience). Contribution à la modélisation des données, notamment en faisant vivre le modèle de données communes. Coanimation de la Data Authority et des ateliers associés. Compétences clés attendues Expertise confirmée en data analyse. Capacité à concevoir et challenger des solutions data. Pratique avérée de la modélisation des données. Connaissance significative et opérationnelle de la Grande Distribution (critère indispensable) : enjeux business, indicateurs clés (vente, marge, stock, approvisionnement, performance magasin), compréhension des usages métiers de la donnée. Capacité à accompagner et faire monter en compétence des Data Analysts. Aisance dans l’animation de communautés et d’ateliers transverses. Contexte technique Technologies Big Data : SQL, Databricks, Scala, Python BI / Reporting : Power BI, MicroStrategy Modélisation des données : PowerDesigner Gouvernance des données : DataGalaxy Qualité des données / Data Observability : SODA Méthodologie projet : SAFE (Agilité à l’échelle) Outils Agile : Jira Environnements Big Data : Microsoft Azure & DataBricks Définit, développe, met en place et maintient les outils nécessaires à l'analyse des données par les équipes Data Conçoit les modèles de données et les contrats d'interfaces Est responsable de créer des solutions permettant le traitement de volumes importants de données tout en garantissant leur sécurité MISE EN PRODUCTION Prépare les documents requis pour les Mises En Production (MEP) et pour le Run (document d'exploitation, supervision, ?) Participe à la mise en place des processus et outils de supervision de son produit et des traitements associés Participe au transfert de compétences vers l'équipe en charge du RUN Respecte les bonnes pratiques de développement (optimisation, sécurisation, documentation, etc.) Participe aux différentes cérémonies agiles VEILLE ET SUIVI Assure une veille active sur les technologies et langages utilisés et leurs évolutions afin d'améliorer les compétences des équipes Participe à la résolution d'incidents sur le produit en collaboration avec les parties prenantes
Offre d'emploi
Ingénieur Infrastructure Middleware Websphere
OBJECTWARE
Publiée le
Ansible
Internet Information Services (IIS)
WebSphere
3 ans
40k-52k €
380-410 €
Île-de-France, France
Contexte : Au sein de notre client bancaire, l'équipe Middleware est responsable du Niveau 3 Websphere et IIS. Nous parlons d'une équipe de 14 personnes. L'intervenant doit assurer les activités Websphere et IIS Missions : - Maintenir au meilleur niveau l’exploitabilité des produits dont l’équipe assure le support. - Participer activement à l’élaboration de la stratégie autour des produits supportés et services proposés par l’équipe selon les orientations fixées par le service line leader. - Animer les projets de validations produits et d’amélioration de l’outillage associé et respectant les charges et délais. - Proposer des axes d'améliorations et des solutions en vue d'améliorer les process, procédures et automatisme de livraison de package et d'upgrade. - Etre garant de l’intégration avec les OS supportés et les outils associés ainsi que des mises à jour de la roadmap, du palier technique et du catalogue des produits et solutions. - Contribuer au développement des automates de livraison de package d'install upgrade et outils de déploiement d'application. - S’assurer de la capacité des équipes à déployer, mettre à jour, surveiller de manière optimum. - S’assurer que les nouvelles fonctionnalités des versions sont étudiées et que l’outillage d’exploitation y est adapté. Superviser la validation des versions mineures des produits et des fixes de sécurité."
Offre d'emploi
Data Engineer Senior – DBT
adbi
Publiée le
DBT
1 an
45k-55k €
550-600 €
Île-de-France, France
Data Engineer Senior – Spécialiste DBT 📍 Localisation : Vélizy (3 jours minimum sur site) 🌍 Anglais courant requis Contexte Dans le cadre de la modernisation et de la standardisation des processus de transformation de données au sein du Groupe, nous recherchons un(e) Data Engineer expérimenté(e) spécialisé(e) DBT (data build tool) . Le/la consultant(e) interviendra sur la mise en place et l’industrialisation d’une plateforme DBT, avec pour objectif de garantir des pipelines de données robustes, scalables et alignés avec les meilleures pratiques ELT. Missions principales 🔹 Définition des standards et gouvernance Définir et formaliser les bonnes pratiques DBT (développement, déploiement, RUN). Mettre en place les standards et guidelines en collaboration avec le Tech Lead ELT. Définir les prérequis techniques et templates associés. Participer à la stratégie d’intégration et à la gouvernance des données. Co-définir la stratégie de logging et la gestion des événements. 🔹 Architecture & Stratégie Co-définir l’architecture cible, la stratégie et les patterns ELT avec les experts techniques. Étudier les analyses d’écarts (gap analysis) dans le cadre de migrations vers DBT. 🔹 Conception & Développement Recueillir et analyser les besoins. Évaluer la faisabilité technique et la charge associée. Concevoir les connecteurs et jobs avec le Tech Lead DBT. Développer les jobs DBT. Assurer le déploiement, les tests d’acceptance et la documentation. Réaliser des audits de jobs existants. 🔹 Support & Optimisation Accompagner les projets dans la qualification et la transformation des données. Optimiser et configurer l’outil DBT. Garantir le maintien en conditions opérationnelles optimales. Fournir un support technique avancé. 🔹 Documentation & Communication Rédiger les spécifications techniques. Produire la documentation de développement. Élaborer un guide des bonnes pratiques. Préparer et animer des sessions de formation / transfert de compétences. Participer aux communications (présentations, communauté ELT WW).
Mission freelance
Data Steward / Référent Gouvernance de la Donnée
ESENCA
Publiée le
Data governance
Data quality
Google Cloud Platform (GCP)
1 an
Lille, Hauts-de-France
🎯 Objectif global Accompagner les équipes produits dans l’exposition, la qualité et la gouvernance de leurs données , afin de garantir des données fiables, cohérentes et conformes aux standards définis. 🧩 Contexte et contraintes Enjeux forts de gouvernance et de qualité des données Nécessité d’une modélisation rigoureuse des données Collaboration transverse avec des équipes data et produits digitaux 📦 Livrables attendus Données exposées conformément aux règles de gouvernance définies Règles de qualité des données déployées et opérationnelles Évaluations régulières du respect des règles de gouvernance de la donnée 🛠️ Description de la mission Au sein d’une équipe data transverse, le Data Steward joue un rôle clé dans l’accompagnement des équipes produits digitaux afin d’assurer une gestion structurée, maîtrisée et cohérente des données tout au long de leur cycle de vie. 🎯 Missions principales Accompagner les équipes produits dans l’exposition de leurs données, en garantissant le respect des règles de gouvernance de données établies Contribuer à la définition, à la formalisation et au déploiement des règles de qualité des données Garantir la certification des données exposées , selon les standards et référentiels en vigueur Évaluer le niveau de conformité des données aux règles de gouvernance Participer à l’amélioration continue des pratiques de gouvernance de la donnée, en coordination avec les autres référents data Sensibiliser et acculturer les équipes aux enjeux de qualité, traçabilité et fiabilité des données 🧠 Compétences techniques requises Confirmé – Impératif Gouvernance de données Qualité des données Confirmé – Important Modélisation de données Confirmé – Souhaitable Environnements Cloud (GCP) Outils de visualisation et reporting (Power BI) 🌍 Compétences linguistiques Français courant – Impératif Anglais professionnel – Secondaire 🤝 Compétences transverses Capacité d’accompagnement et de pédagogie Sens de la rigueur et de la qualité Esprit de collaboration et travail transverse Capacité d’analyse et de synthèse Orientation amélioration continue
Mission freelance
Architecte logiciel
Codezys
Publiée le
Angular
Eclipse
Full stack
12 mois
Bordeaux, Nouvelle-Aquitaine
La mission se déroule au sein de la direction Technique Informatique . L'équipe concernée est composée de sept architectes logiciels , répartis sur l'ensemble des sites d'une organisation nationale. Ces architectes logiciels exercent une fonction transverse, intervenant sur l'ensemble des applications du système d'information (SI) de cette organisation. Toutefois, ils disposent d'un portefeuille applicatif qui leur est spécifiquement assigné. Dans le but de répondre aux enjeux des chantiers prévus pour la période 2023-2026, puis 2027-2030, l'équipe doit renforcer son pôle d' Architecture Logicielle en intégrant un Architecte logiciel expérimenté spécialisé dans les technologies suivantes : Java / J2EE, Spring, Spring Batch, Spring Boot, JPA/Hibernate, Angular, et JBoss. L'architecte logiciel accompagnera étroitement les projets menés sur le site principal, notamment : La gestion administrative des allocataires Le référentiel des dossiers retraite Le référentiel de Gestion des Droits Il/elle soutiendra également les équipes de développement dans le cadre des migrations vers le nouveau socle logiciel de l'organisation, notamment : Migration de Java 8 à Java 17 Transition vers Spring Boot Conteneurisation des applications Objectifs et livrables Concevoir l’architecture logicielle des nouvelles applications du SI, en conformité avec le cadre d’architecture ainsi qu’avec les exigences de performance, de sécurité et d’exploitabilité. Superviser et accompagner la conception de l’architecture logicielle, notamment lorsque celle-ci est assurée par les équipes projets, et en assurer la validation. Orienter et suivre les équipes de développement dans l’utilisation des frameworks et lors des migrations vers le nouveau socle technique. Organiser des revues de code et de conception technique afin de garantir la conformité à l’architecture, la bonne utilisation des frameworks, ainsi que le respect des normes et standards. Diffuser les bonnes pratiques au sein de l’entreprise, telles que la modularité et la gestion des dépendances. Assister les équipes de développement dans la résolution des problématiques techniques complexes nécessitant une expertise approfondie. Définir et mettre en œuvre une démarche de contrôle continu de la qualité logicielle.
Mission freelance
Manager des opérations
Trait d'Union
Publiée le
IA
1 an
500-550 €
Île-de-France, France
Dans le cadre de la transformation d’un modèle de Digital Care à l’échelle internationale, nous recherchons un(e) Workforce Experience Lead pour repenser et piloter l’expérience de travail des équipes opérationnelles, en particulier les centres de contact. Le poste vise à dépasser une approche historiquement centrée sur les outils et les solutions techniques, afin de construire un modèle opérationnel orienté performance, expérience collaborateur et augmentation par l’IA . Le/la consultant(e) intervient à la fois comme référent stratégique et acteur opérationnel , capable d’analyser l’existant, de définir une vision cible du digital workplace, de structurer la gouvernance associée et de déployer une feuille de route pragmatique, avec des premiers cas d’usage à impact mesurable. Les principales missions sont les suivantes : Analyser l’expérience actuelle des équipes (agents, équipes opérationnelles, formation, support). Cartographier les rôles, parcours utilisateurs, outils et points de friction. Définir des indicateurs de performance et d’expérience (KPI) de référence. Concevoir la vision cible de l’expérience digitale des équipes, incluant l’intégration de leviers d’IA. Faire évoluer les modes de travail vers un modèle orienté expérience, efficacité opérationnelle et performance. Mettre en place la gouvernance, les rituels et les modes de pilotage au sein du modèle Digital Care global. Construire une feuille de route priorisée et piloter les premières améliorations avec des résultats concrets et mesurables.
Mission freelance
Product Owner Sharepoint
Intuition IT Solutions Ltd.
Publiée le
IA
SharePoint
6 mois
400-550 €
Paris, France
Gouvernez et gérez la plateforme ShareAI (SharePoint), en veillant à ce que tout le contenu — descriptions d'actifs, supports de formation, contenu promotionnel, cas d'usage, dépôts de code partagés — soit exact, complet et facilement accessible Définir et mettre en œuvre la stratégie de contenu et la feuille de route de la plateforme pour soutenir la communauté et les initiatives IA du client Collaborez avec des équipes mondiales et locales pour co-créer, mettre à jour et améliorer les ressources et ressources d'IA au sein de ShareAI Favoriser une communauté dynamique d'utilisateurs de plateformes en promouvant les meilleures pratiques, en facilitant le partage des connaissances et en encourageant la participation active Assurer une intégration fluide de ShareAI avec d'autres paysages informatiques et processus métier, soutenant ainsi les objectifs de transformation de l'IA de l'organisation Expertise Solide expertise en SharePoint ou en plateformes de gestion de contenu similaires Compréhension des principes, des actifs et des dépôts de l'IA / génération IA Expertise en gestion de communauté, gouvernance de contenu et administration de plateforme Compétences de base en gestion de projet et gestion du changement Expertise en outils de collaboration, contrôle de versions et normes de documentation Expertise éprouvée dans la gestion de plateformes de contenu, l'engagement communautaire ou la gestion des connaissances dans un environnement technologique ou IA Un parcours éprouvé dans la curation et la gestion de dépôts de contenu complets et de haute qualité Expertise dans l'organisation de formations, d'intégration ou de campagnes promotionnelles pour les communautés techniques
Offre d'emploi
Développeur Java Spring / Data / Greenplum / Vtom - Niort
HR DNA
Publiée le
Greenplum
Java
Spring
2 ans
40k-55k €
400-510 €
Niort, Nouvelle-Aquitaine
Nous recherchons actuellement, pour un client du secteur de l'assurance basé à Niort, un développeur Java Spring avec : - des connaissances Data - de l'expérience sur Greenplum - des connaissances en accès API - de l'expérience sur un orchestrateur comme Vtom par exemple 2 jours sur site à Niort par semaine obligatoire. Si vous êtes intéressé, envoyez-moi votre CV par mail Nous recherchons actuellement, pour un client du secteur de l'assurance basé à Niort, un développeur Java Spring avec : - des connaissances Data - de l'expérience sur Greenplum - des connaissances en accès API - de l'expérience sur un orchestrateur comme Vtom par exemple 2 jours sur site à Niort par semaine obligatoire. Si vous êtes intéressé, envoyez-moi votre CV par mail
Mission freelance
Lead Data migration SIRH
MSI Experts
Publiée le
Workday
1 an
550-600 €
La Défense, Île-de-France
Cadrage du chantier data migration Responsable de l’équipe et de son animation Responsable du planning Responsable du pilotage et statut d’avancement Consolidation des référentiels Consolidation et contrôle sur les données employés pour tous les pays Responsable des règles de transformation Responsable de la mise à disposition des données aux intégrateurs Point de contact avec les pays Défini la stratégie de reprise de donnée et de data catch up Pilote l’exécution de la reprise de donnée et du data catch up Contribue aux décommissionnements du legacy
Offre d'emploi
DEVELOPPEUR BACK SENIOR 7 à 10 ans
WINSIDE Technology
Publiée le
AWS Cloud
Docker
Git
1 an
40k-45k €
400-480 €
Lille, Hauts-de-France
Le besoin concerne un renfort Back‑End sénior pour retravailler l’affichage des services mis à disposition des EF. Les services seront reçus en mode push, automatiquement, en fonction de l’étape du processus dans laquelle se trouve l’EF. L'équipe existante est composée de 2 dev BO dont un lead dev et un dev FO. L'objectif est d'arriver à une équipe de 4 dev BO et 2 dev FO. Description Le prestataire interviendra pour : - Développer et adapter les évolutions nécessaires côté Back‑End - Contribuer à la qualité, à la sécurité et aux performances du code - Participer aux rituels et échanges techniques avec l’équipe interne - Intégrer les tests automatisés dans les pipelines existants - Documenter les évolutions réalisées - Faire preuve d’une très grande adaptabilité et être opérationnel très rapidement Livrables • Développer des solutions backend de qualité : Conception, développement et maintenance des fonctionnalités backend. Contribution à la vie de l’équipe travaillant dans un cadre Agile. • Participation, dans le cadre des principes DEVOPS, au déploiement et au suivi de votre application. • Au sein d'un écosystème de projets variés, être force de proposition et au cœur de l'amélioration continue. Compétences 1/ Architecture IT Connaissance des composants : serveurs, applications, bases de données, réseau, services cloud Compréhension des interactions entre composants Maîtrise des standards techniques, choix technologiques, niveaux de sécurité, performances et évolutivité 2/ Capacité d’analyse et de synthèse Compréhension rapide de l’existant Identification des données essentielles Détection des impacts potentiels Production d’analyses claires et structurées Capacité à aller directement à l’essentiel 3/ CI/CD Maîtrise des pipelines CI/CD Pratique avancée de Git, automatisation et contrôle qualité Intégration des tests automatisés dans les pipelines 4/ Développement logiciel (stack requise) Langages & frameworks : Java 21+ ; Spring Boot 3 Outils : Git ; Maven ; Docker Cloud & intégrations : AWS SDK ; LocalStack (mock AWS S3) Tests & qualité : JUnit 5 ; OpenAPI Base de données & persistance : PostgreSQL ; Liquibase ; Redis ; Lombok Autres : ClamAV 5/ Méthodologie et pratiques de tests Connaissance des méthodologies agiles (Scrum) Estimation de charges Rédaction de documentation technique Maîtrise des frameworks de tests et automatisation Préparation/gestion des jeux de données Lecture et optimisation de code existant 6/ Collaboration Communication claire, écoute active, posture constructive Travail en équipe ; partage d’information ; coordination Très grande adaptabilité, sens des responsabilités, autonomie 7/ Software Design Structuration de modules, API et services Approche modulaire et découplée Réutilisabilité du code ; simplicité et cohérence Scalabilité technique et fonctionnelle 8/ Supervision IT Mise en place et amélioration des logs Contribution à la supervision existante Diagnostic rapide d’incidents ou anomalies
Mission freelance
Release Manager IT
Byrongroup
Publiée le
Agent IA
Confluence
JIRA
1 an
400-600 €
Île-de-France, France
Missions • Piloter la mise à disposition des environnements de test et de validation : définir le planning de provisioning/duplication, cadrer les demandes (estimation, priorisation), garantir la cohérence des dépendances techniques, animer le point hebdomadaire avec les équipes infra et applicatives • Définir et exécuter la stratégie de transition vers la production : organiser/animer les workshops cutover, formaliser et faire valider la stratégie, construire un plan détaillé (rollbacks, escalades), exécuter des dress rehearsals, coordonner les Go Live techniques et business, sécuriser l’hypercare et les dry-runs en production • Structurer et suivre les déploiements sur l’ensemble du cycle de vie des releases : construire la matrice dépendances “fonctionnalités → systèmes”, consolider le planning global, mettre en place la gouvernance et les instances de suivi, définir les critères d’acceptation (versioning, change, release notes), vérifier la cohérence déploiements vs tests, mettre en place un tracking synchronisé • Contribuer aux activités transverses : comptes rendus, KPIs et dashboard de suivi, gestion des risques et plans de mitigation, participation aux instances de gouvernance, mise en place d’un espace collaboratif (Jira/Confluence)
Offre d'emploi
Data ingénieur
Gentis Recruitment SAS
Publiée le
ETL (Extract-transform-load)
microsoft
Nosql
6 mois
Luxembourg
Dans le cadre de la création de l’équipe data, nous recherchons un(e) Data Engineer orienté gestion de la donnée , capable de prendre en charge la donnée de bout en bout : de son arrivée jusqu’à son exploitation, en garantissant sa qualité, sa cohérence et sa performance. Le poste s’inscrit dans un environnement majoritairement Microsoft , avec des enjeux forts autour de la structuration, de l’analyse et de la modélisation des données . Missions principales Gérer la donnée tout au long de son cycle de vie (ingestion, transformation, stockage, exploitation). Concevoir, maintenir et optimiser des data pipelines fiables et performants. Organiser et structurer les données via des modèles de données clairs et adaptés aux usages métier. Participer à des activités de data analysis pour assurer la qualité et la cohérence des données. Automatiser les traitements et flux de données via du scripting Python . Collaborer étroitement avec les équipes techniques et métiers , dans une logique transverse, afin de comprendre et répondre aux besoins liés à la donnée. Veiller aux bonnes pratiques de gouvernance, de sécurité et de performance des données. Environnement technique Écosystème Microsoft (bases de données, outils data, cloud) Python (scripting, automatisation, traitement de données) Data pipelines / ETL – ELT Modélisation de données SQL Profil recherché Formation en informatique, data ou équivalent Expérience confirmée en tant que Data Engineer / DBA orienté data Solide compréhension de la gestion et de l’organisation des données Capacité à travailler en toute autonomie , tout en sachant évoluer efficacement dans un environnement transverse et collaboratif À l’aise dans des environnements techniques complexes Autonome, rigoureux(se), avec un bon esprit d’analyse Anglais professionnel obligatoire Une connaissance de l’industrie des fonds / de la gestion d’actifs constitue un réel avantage.
Mission freelance
Data Migration Expert H/F
Comet
Publiée le
SAP ECC6
SAP FICO
SAP S/4HANA
182 jours
400-700 €
Saint-Ouen, Hauts-de-France
Dans le cadre d’un nouveau programme de transformation SAP (NEO AFI) , nous recherchons un(e) Data Migration Expert pour piloter et sécuriser les activités de migration de données liées à une transition vers SAP S/4 HANA . Le consultant interviendra au cœur du programme et accompagnera les entités locales depuis la définition de l’approche de migration jusqu’à la validation métier des données en production. 🎯 Objectifs de la mission : Accompagner les équipes locales de la définition de la stratégie de migration jusqu’à la validation métier des données Piloter le planning d’exécution des objets de migration Gérer les cycles : MOCK1 MOCK UAT Production Load Assurer le rôle de premier niveau d’analyse des défauts Supporter les application owners sur les problématiques de propagation de données
Offre d'emploi
DATA MANAGER EXPERT SNOWFLAKE
BEEZEN
Publiée le
Snowflake
3 mois
40k-76k €
510-600 €
Île-de-France, France
SQL & data analysis (expert) Data quality rules, controls & reconciliation (expert) Snowflake (expert) Technical data documentation & lineage (expert) 1) Cadrage & design des Data Products (Customer) Contribuer au cadrage et à la conception des data products alignés aux besoins métiers. Apporter une compréhension fonctionnelle des processus Customer . Challenger les choix de modélisation (complexité, faisabilité, impacts cross-domain). Assurer l’alignement avec la target data architecture et les standards dès la phase de design. 2) Standards & gouvernance Data Définir / maintenir / promouvoir les standards de data management (modélisation, conventions, documentation). Produire et faire appliquer des guidelines/patterns réutilisables. Garantir l’adoption des standards sur le domaine Customer . Être garant(e) de la qualité de la documentation et des pratiques de gouvernance. 3) Urbanisation transverse & qualité long terme Assurer la cohérence et l’ interopérabilité entre domaines data. Identifier et réduire doublons / recouvrements / fragmentation autour des concepts Customer. Proposer des recommandations transverses favorisant harmonisation, réutilisation et robustesse.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Facturation électronique 07 : Attentions aux AMENDES !
- Cumul TNS & CDI - Droits chomage
- Demande d’avis – majoration CFE après cessation d’activité
- Mini-série : Les coulisses du portage salarial (épisode 3/9)
- Frais de pressing et réparation chaussure - charge déductible ?
- Je galère à trouver une mission CDP sénior
5858 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois