Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 1 719 résultats.
Mission freelance
SAP S/4 Solution Architect Data – Programme Greenfield (H/F)
Signe +
Publiée le
Master Data Management (MDM)
SAP S/4HANA
1 an
700-890 €
Toulouse, Occitanie
Dans le cadre d’un programme stratégique de transformation en environnement greenfield sous SAP S/4HANA , nous recherchons un(e) SAP S/4 Solution Architect Data . Ce programme structurant vise la mise en place d’un Core Model S/4HANA avec une forte exigence sur la gouvernance, la qualité et la structuration des données. Vous interviendrez dans un environnement complexe, international et à forts enjeux métiers. 🎯 Missions🔹 Architecture & Stratégie Data Définir l’architecture Data dans le cadre du programme S/4HANA greenfield Concevoir le modèle cible de gouvernance des données Garantir la cohérence entre Core Model, déploiements et exigences métiers Définir les principes de gestion des données de référence 🔹 Expertise MDG Apporter une expertise avancée sur SAP S/4 MDG Définir et structurer les processus de Master Data Governance Participer au design et à l’intégration de MDG dans l’écosystème S/4 Challenger les choix de conception et proposer des solutions robustes 🔹 Coordination & Transversalité Travailler en étroite collaboration avec les architectes fonctionnels et techniques Accompagner les équipes métiers sur les enjeux Data Assurer l’alignement entre architecture, build et déploiement Sécuriser la qualité et la conformité des données Démarrage : Mars/Avril 2026 Durée : 1 an minimum TJM : Selon profil Localisation : Toulouse (très favorable au remote)
Mission freelance
Senior Data Engineer AWS
SILAMIR
Publiée le
AWS Cloud
12 mois
Paris, France
Nous recherchons un Data Engineer expérimenté afin de contribuer à la fiabilité, l’automatisation et la scalabilité d’un Lakehouse data. Vous interviendrez sur la conception et l’orchestration de pipelines, l’optimisation des traitements et l’évolution de l’architecture data dans un environnement moderne basé sur AWS. Vos missions : Conception & orchestration Concevoir, développer et maintenir des pipelines Airflow pour l’ingestion et la transformation des données Mettre en place des frameworks et mécanismes d’automatisation Garantir la robustesse, la modularité et la résilience des workflows Traitement & gestion des flux Développer des composants pour le traitement de fichiers plats (CSV, JSON, Parquet…) et leur exposition via API Consommer et transformer des flux Kafka avec Spark Optimiser la performance et le partitionnement des traitements sur de gros volumes Collaboration analytique Collaborer avec les Data Analysts pour concevoir des agrégats métiers Créer et maintenir des vues Athena utilisées dans Tableau Garantir la cohérence, la fraîcheur et la traçabilité des données Évolution du Lakehouse Participer à la conception et à l’amélioration continue de l’architecture Créer et maintenir des tables de référentiel (clients, contacts, événements, interactions…) Implémenter ces référentiels avec Iceberg / Hudi Supervision & DataOps Assurer la supervision quotidienne des pipelines Mettre en place alerting et monitoring Produire et maintenir la documentation technique
Offre d'emploi
Data Scientist / Expert IA (H/F) expérimenté – Paris – PhD
Cogniwave dynamics
Publiée le
Agent IA
Artificial neural network (ANN)
AWS Cloud
5 ans
Paris, France
Nous recherchons un(e) Data Scientist / Expert IA disposant d’un doctorat (PhD) en Machine Learning / NLP ou domaine proche, pour rejoindre nos équipes à Paris au sein de projets à forte valeur ajoutée en intelligence artificielle appliquée. Profil PHD EXPERIMENTE ayant plusieurs expériences profesionnelles concrètes CDI de préférence (ouvert aux freelance pour certaines missions) Projets sur Paris, luxembourg ou Belgique Votre rôle Concevoir, développer et industrialiser des solutions d’IA (NLP, LLM, IA générative) au service de cas d’usage métiers concrets. Participer à la définition des architectures data/IA et aux choix technologiques associés (cloud, outils, librairies). Contribuer à la mise en production des modèles (qualité, performance, robustesse) en lien étroit avec les équipes produit et métier. Intervenir sur tout le cycle de vie des projets : cadrage, POC, expérimentation, déploiement, suivi et amélioration continue. Ce que nous offrons Des projets IA de pointe, avec un fort niveau d’autonomie et de responsabilité. Un environnement stimulant, à l’interface entre R&D, innovation et enjeux business. Un cadre parisien dynamique, au sein d’équipes passionnées par l’intelligence artificielle et son impact concret. 🗼
Mission freelance
PMO Ressources – Sécurité Opérationnelle
Atlas Connect
Publiée le
Agile Scrum
Cybersécurité
Data management
3 ans
400-470 €
Issy-les-Moulineaux, Île-de-France
La DMRSO (Direction Maîtrise des Risques et Sécurité Opérationnelle) intervient sur les missions suivantes : Maîtrise des risques liés au Système d’Information Sécurité opérationnelle assurée par le Centre de Sécurité Opérationnelle (CSO) La mission du Centre de Sécurité Opérationnelle est notamment de : Déployer et configurer les mesures techniques de prévention et de protection Construire et piloter le cockpit sécurité (mise sous surveillance continue des assets) Réaliser le transfert de la sécurité opérationnelle gérée par la Banque vers la BGPN Faire face à un contexte d’augmentation significative des attaques cyber (volume, intensité, complexité) Dans ce cadre, la prestation s’inscrit dans l’animation et la gestion des ressources de la DMRSO . Objectif de la mission Le PMO Ressources contribue au bon fonctionnement des équipes et à la bonne exécution des prestations externes, dans un contexte de suivi des actions d’amélioration continue en mode Agile . Les principaux enjeux sont : Maintenir un suivi rigoureux des entrées et sorties des ressources Mettre en place un suivi des outils et des transferts de connaissance Déployer un reporting de pilotage des ressources sous Excel / Power BI Missions principalesPilotage des ressources Suivi des ressources externes principalement Gestion des entrées et sorties des ressources dans les outils internes Accompagnement des nouveaux arrivants sur : outils espaces collaboratifs documentation processus Suivi administratif et financier Suivi des ressources en interface avec le PMO Finance : TJM dates d’arrivée suivi des prestations Préparation des demandes d’achat Émission des demandes vers la DPT Suivi du cycle de commande de bout en bout Suivi du réceptionné Projection des dépenses et gestion des alertes Contribution au pilotage financier de la DMRSO Reporting et suivi opérationnel Diffusion mensuelle du tableau de suivi des ressources externes : date de début de mission date de fin de mission alertes sur les fins de mission Mise en place et suivi du reporting ressources sous Excel / Power BI Maintien à jour de la documentation de prestation sous Confluence Conduite du changement Accompagnement des équipes dans l’ adoption des nouveaux outils et processus Contribution aux actions de transformation et d’amélioration continue Animation Agile Contribution active à l’animation Agile de la DMRSO : Participation aux PI Planning trimestriels Participation aux instances Agile Prise en compte des OKR Création et gestion des User Stories dans JIRA Suivi du delivery selon la planification Mise à jour régulière des tickets JIRA
Offre d'emploi
Développeur Data & IA (Python & Dataviz) - Lyon
STHREE SAS pour COMPUTER FUTURES
Publiée le
API
Confluence
DevOps
6 mois
36k-40k €
360-390 €
Lyon, Auvergne-Rhône-Alpes
Renforcer le groupe en assurant la conception, le développement et l’industrialisation de solutions Data, IA et Dataviz destinées aux équipes de développement et DevSecOps. Le consultant contribuera également à : l’intégration d’usages IA dans les outils du développeur augmenté , l'accompagnement et la montée en compétences des équipes internes Responsabilités principales 1. Développement & Industrialisation Data / IA (activité dominante) Développer des composants logiciels Python : scripts, services, APIs, traitements batch. Construire et optimiser des chaînes de traitement de données (ingestion, qualité, traçabilité, performance). Concevoir, industrialiser et maintenir des solutions Data & IA au service des équipes de développement Contribuer à l’intégration d’usages IA dans l’outillage du développeur augmenté (assistants de code, automatisation, observabilité, analyse). 2. Dataviz & reporting décisionnel Concevoir des tableaux de bord Power BI et autres outils de visualisation. Produire des visualisations destinées au pilotage, à l’observabilité et à l’aide à la décision. 3. Documentation, capitalisation & qualité Rédiger et maintenir la documentation technique. Alimenter les référentiels de connaissances (Confluence). Contribuer à la capitalisation des bonnes pratiques Data/IA. 4. Accompagnement & formation des équipes internes Appuyer les équipes internes lors de la prise en main des solutions développées. Animer des formations, démonstrations et sessions d’acculturation (ex. : GitHub Copilot). Participer au transfert de compétences et à la montée en maturité Data/IA. 5. Pilotage & coordination opérationnelle Suivre le backlog et collaborer avec les équipes projets, produits et outillage. Produire un reporting régulier d’avancement, d’activité et de difficultés éventuelles.
Mission freelance
POT8928 - Deux Data Steward (Confirmé et Sénior) sur Tours
Almatek
Publiée le
SharePoint
6 mois
220-400 €
Tours, Centre-Val de Loire
Almatek recherche pour l'un de ses clients Deux Data Steward (Confirmé et Sénior) sur Tours. *** Profil confirmé (4 à 5 ans) *** Analyse des politiques de catalogage -Alignement entre politiques -Rapports de cohérence et suivi des écarts Appui aux data owners -Identification des datasets manquants -Définition des métadonnées -Animation de très nombreux ateliers -Mise à jour de l’outil de catalogage (manuel + injections de masse) Qualité du catalogage -Définition d’indicateurs qualité -Détection et résorption des écarts -Développement de code (outillage qualité) Gestion de l’outil de catalogage -Améliorations, habilitations, recettes -Outils complémentaires Conduite du changement & formation -Documentation, supports -Sessions de formation et d’acculturation *** Profil Sénior(> à 7 ans) *** Analyse des politiques et écarts qualité -Notes d’analyse -Roadmap annuelle des chantiers qualité -Mise en place d’un processus d’analyse de risques hebdomadaire Définition des règles qualité -Ateliers avec data owners -Reformulation des règles dans les documents métiers -Capitalisation dans les outils Implémentation des contrôles qualité -Définition et suivi des contrôles -Tableaux de bord qualité -Synthèses adaptées aux publics cibles Outillage -Amélioration des outils existants -Développement d’outils complémentaires (dont analyse de risque) Conduite du changement -Formation, supports, acculturation Environnement technique : Sharepoint 2016 - Windows 11 - Office 365 - PowerBI online – Chrome Localisation : TOURS + 3jrs TT/ semaine
Mission freelance
Développeur Data & IA Python & Dataviz
QUALIS ESN
Publiée le
Confluence
Github
JIRA
6 mois
400 €
Lyon, Auvergne-Rhône-Alpes
Mission générale : Renforcer le groupe en assurant la conception, le développement et l’industrialisation de solutions Data, IA et Dataviz, au service des équipes de développement et DevSecOps. Le consultant contribue également à l’intégration d’usages IA dans les outils du développeur augmenté, ainsi qu’à l’accompagnement des équipes internes. Responsabilités principales 1. Développement & industrialisation Data / IA (activité dominante) Concevoir et développer des composants logiciels Python : scripts, services, APIs, traitements batch. Mettre en œuvre des chaînes de traitement de données (ingestion, qualité, traçabilité, performance). Développer et industrialiser des solutions Data et IA destinées aux équipes de développement Enedis. Contribuer à l’intégration des usages IA dans l’outillage du développeur augmenté (assistants de code, automatisation, analyse, observabilité). 2. Dataviz & reporting décisionnel Concevoir des tableaux de bord Power BI et autres outils de visualisation. Produire des visualisations utiles au pilotage, à l’observabilité et à l’aide à la décision. 3. Documentation, capitalisation et qualité Structurer et maintenir la documentation technique. Contribuer aux référentiels de connaissances (Confluence). Participer à la capitalisation des bonnes pratiques Data/IA. 4. Accompagnement et formation des équipes internes Appuyer les équipes dans la prise en main des solutions. Animer des sessions de formation ou démonstrations (ex : GitHub Copilot). Participer au transfert de compétences et à la montée en maturité des équipes Enedis. 5. Pilotage et coordination opérationnelle Suivre le backlog, collaborer avec les équipes projets / produits / outillage. Produire un reporting régulier d’avancement et d’activité.
Offre d'emploi
Développeur/Data Engineer Python & Lambda AWS
OBJECTWARE
Publiée le
Python
3 ans
40k-50k €
260-400 €
Île-de-France, France
Mission En qualité de développeur python / Data Engineer, votre rôle et vos missions consistent à : * Participer à la conception/développement sur le projet Portfolio Clarity pour NIM (python sur lambdas AWS) * Réaliser les tests unitaires et d'intégration * Revue du code et amélioration de l'architecture applicative existante * Documenter les réalisations * Intégrer les développements à la chaine de CI/CD La bonne réalisation de la prestation exige les compétences suivantes : * Maitrise des développements et lntégration python * Connaissance et utilisation des outils de développements (Visual Studio Code ou autre IDE) * Connaissance et utilisation des outils d'intégration et de tests continus (Bitucket/git, Jenkins, junit, XLDeploy, XLRelease) * Connaissance et utilisation des outils collaboratifs (Confluence, Jira) Compétences personnelles : • Appétence technique • Structuré, bon esprit d’équipe, autonomie, curiosité • Capacité d’écoute, de synthèse. * Anglais professionnel
Mission freelance
Expert Master Data Management (MDM)
ANDEMA
Publiée le
Master Data Management (MDM)
3 mois
Nord, France
Contexte de la mission : Dans le cadre de la structuration de son patrimoine data, notre client recherche un consultant expérimenté en gouvernance des données pour intervenir en appui stratégique de la DSI. La mission vise à mettre en place une démarche MDM pérenne tout en accompagnant la montée en compétences d’une ressource interne. Description de la mission : Vous interviendrez en tant que référent Data / MDM avec un rôle de conseil, de structuration et de transmission. Vous serez impliqué à la fois sur la définition de la stratégie de gestion des données de référence et sur l’accompagnement opérationnel des équipes internes. Vos responsabilités : Définir et formaliser une stratégie MDM adaptée aux enjeux métiers Concevoir le modèle de données de référence sur les domaines clés (produits, clients, fournisseurs, actifs) Accompagner les choix d’architecture et d’outillage MDM, en assurant leur intégration avec les systèmes existants (MES, ERP, etc.) Mettre en place les processus de gouvernance des données (cycle de vie, qualité, gestion des référentiels) Définir et implémenter des workflows d’approbation et de remédiation Assurer un rôle de mentor auprès d’un Data Steward (formation, accompagnement, transfert de compétences) Faciliter la compréhension et l’appropriation des enjeux data par les équipes métiers Environnement technique et fonctionnel : Écosystème SI industriel (ERP, MES, outils data) Outils MDM du marché Bases de données relationnelles (SQL) Données complexes liées à des environnements industriels Modalités : Mission à temps partiel (mi-temps) Organisation alignée avec la disponibilité d’une ressource interne (planning alterné sur la semaine)
Mission freelance
chef de projet DATA ETL - Checy/su
WorldWide People
Publiée le
ETL (Extract-transform-load)
Pilotage
12 mois
370-400 €
Chécy, Centre-Val de Loire
chef de projet DATA ETL Checy Localisation : Chécy, 2 jours de TT apres 3 mois de full présentiel. Profil recherché : Consultant confirmé en gestion de projets et maintenance applicative. Expérience significative dans les activités décisionnelles (alimentation et restitution d'informations). Connaissance des fonctionnalités ETL (idéalement XDI, ODI, Talend/Sas/Azure/Snowflake). La maitrise d’un outil de gestion de projet (Clarity), de ticketing (Jira) est nécessaire. La maitrise d’un outil de recette (Squash) serait un plus. Très bon communiquant, grande rigueur, méthodologie et bon relationnel seront les atouts du candidat. Ci joint le descriptif de mission : La mission consiste à gérer les projets et la maintenance sur le périmètre métier «Décisionnel» en délégation du pilote de projets référent du domaine. Il interviendra en tant qu’interlocuteur privilégié de l’AMOA Décisionnel pour l’exécution des projets et de la maintenance applicative du domaine. Le chef de projet participera à toutes les phases, du cadrage à la préparation de la mise en production. Il prendra en charge la mise à jour hebdomadaire du planning, le suivi des charges et le reporting associé. Il assurera la préparation et le passage en Comité d’architecture en collaboration avec l’équipe d’architectes Thélem. Il assurera également le pilotage quotidien de l’avancement auprès des équipes de réalisation et de recette, préparera et animera les ateliers et instances de pilotage (COMOP, daily, …). Profil recherché : Consultant confirmé en gestion de projets et maintenance applicative. Expérience significative dans les activités décisionnelles (alimentation et restitution d'informations). Connaissance des fonctionnalités ETL (idéalement XDI, ODI, Talend/Sas/Azure/Snowflake). La maitrise d’un outil de gestion de projet (Clarity), de ticketing (Jira) est nécessaire. La maitrise d’un outil de recette (Squash) serait un plus. Très bon communiquant, grande rigueur, méthodologie et bon relationnel seront les atouts du candidat. Début de mission : Début mars 2026
Mission freelance
Product Owner CRM – Data Client BtoB & Prospection
SKILLWISE
Publiée le
CRM
Salesforce
1 mois
400-550 €
Paris, France
Notre client, un acteur majeur du secteur des médias et de la publicité, recherche un(e) Product Owner CRM – Data Client BtoB & Prospection pour rejoindre sa Direction des Technologies. Cette direction opère et transforme les systèmes IT et techniques du groupe, en interface avec l’ensemble des métiers (commercial, production, diffusion, etc.). Au sein du Pôle Produits Publicitaires, vous contribuerez à la conception, au développement et à la maintenance d’outils stratégiques, notamment autour de la gestion de la relation client (CRM), de la data BtoB et des processus de prospection. Votre mission : piloter la transformation digitale du référentiel client et des outils de prospection dans un environnement Salesforce. En tant que Product Owner, vous serez responsable de : Définir et piloter la roadmap produit : Construire la vision, prioriser le backlog et garantir la cohérence du système d’information. Recueillir et formaliser les besoins métier : Rédiger les spécifications fonctionnelles et accompagner les équipes commerciales dans l’adoption des solutions. Coordonner les équipes techniques : Assurer le delivery et la qualité des livrables en mode agile. Garantir l’adoption des nouvelles fonctionnalités : Former et mobiliser les utilisateurs pour maximiser l’impact business.
Offre d'emploi
Chef de projet Data (Expert Power BI)
AVALIANCE
Publiée le
Agile Scrum
Alteryx
DAX
Nanterre, Île-de-France
Description de la mission : Globalement votre mission pourra être de plusieurs niveaux : - Participer aux différents sujets ayant traits à Power BI - Accompagner les métiers dans l’assistance, avec animation formation au besoin, sur Power BI - Organiser des ateliers de best practices avec les métiers sur Power BI - Contribuer à enrichir et consolider le socle Power BI Et plus précisément : - Maîtrise et pratique de SQL sous Oracle indispensable - Participer et réaliser les développements sur Power BI (où vous serez également force de proposition) - Développement des Datasets sous Power BI - Modélisation des tables de faits/Dimensions et optimisation de scripts et modèles de données - Utilisation du langage DAX pour l’ajout des champs calculés et le calcul des mesures (KPI) - Gestion des sécurités et des habilitations dans Power BI - Collaborer au quotidien avec les autres développeurs de notre équipe - Rédaction des documents des spécifications techniques et livrables - Assister les utilisateurs internes pour gérer leurs demandes (analyse et traitement de données, rapports…) Compétences en Chefferie de Projet & Gouvernance DATA : - Proposer et Harmoniser un cycle de vie des développements sur power BI - Coordonner et animer réunions, ateliers et comités liés à la DATA - Concevoir des supports (présentations, synthèses, reportings) - Gérer l’organisation complète des réunions et le suivi d’actions - Faire preuve d’autonomie et être force de proposition - Participer activement à la gouvernance DATA et promouvoir les bonnes pratiques
Mission freelance
Consultant 6-8 ans Asset management référentiel data / MOA
Mon Consultant Indépendant
Publiée le
MOA
6 mois
520-550 €
Paris, France
Pour le compte de l’un de nos clients dans le secteur de l’ Asset Management , nous recherchons un Consultant MOA spécialisé en référentiel data , disposant de 6 à 8 ans d’expérience . Le consultant interviendra sur la gestion et l’optimisation des référentiels (instruments financiers, tiers, données de marché), la formalisation des besoins métiers, la rédaction des spécifications fonctionnelles et le suivi des évolutions en lien avec les équipes IT. Le poste requiert une solide connaissance des environnements Asset Management, une expertise en data management et une forte capacité de coordination transverse.
Mission freelance
consultant confirmé Google Workspace, Data & IA - 1303
ISUPPLIER
Publiée le
10 mois
350-435 €
Niort, Nouvelle-Aquitaine
Contexte de la mission Dans le cadre de sa transformation digitale, notre client recherche un Expert Senior capable d'assurer l'interface entre l'expertise technique et les enjeux métiers sur l'ensemble de l'écosystème Google Workspace et ses extensions Data & IA. Le profil recherché est un consultant hybride à haute valeur ajoutée, capable d'administrer l'environnement collaboratif, d'analyser la donnée d'usage (BigQuery/Looker), de développer des solutions d'automatisation (AppSheet) et de porter la vision fonctionnelle (RSE, Adoption, IA) auprès des directions métiers. Objectifs et livrables Profil et Compétences Clés Volet Data & Analytics (Expertise Looker & BigQuery) Business Intelligence (Looker) : Conception et maintenance de modèles LookML complexes. Élaboration de dashboards de pilotage stratégique pour mesurer l'adoption des outils et la performance des processus métiers. Data Analysis (BigQuery) : Exploitation avancée des données (logs d'audit GWS, données métiers) via requêtage SQL optimisé. Structuration des tables et gestion des coûts de stockage/calcul. Pilotage RSE & Usages : Définition et mise en place d'indicateurs de suivi sur l'infobésité et l'hyperconnexion, en support de la politique de Qualité de Vie au Travail (QVT) et de Sobriété Numérique. Volet IA Générative (Gemini) & Innovation Centre d'Expertise IA : Contribution majeure à la structuration du Centre d'Expertise. Rôle de référent technique et fonctionnel sur la solution Gemini. Acculturation & Animation : Pilotage de la communauté d'ambassadeurs IA. Organisation de webinars, rédaction de guides de bonnes pratiques et identification de cas d'usage à forte valeur ajoutée. Intégration Métier : Déploiement opérationnel de solutions IA (assistance rédactionnelle, synthèse documentaire, assistants virtuels) adaptées aux besoins spécifiques des métiers. Volet Google Workspace : Technique & Fonctionnel Expertise Admin & Sécurité : Administration avancée de la console Google Workspace. Audit et optimisation des configurations de sécurité (DLP, Context-Aware Access) en collaboration avec les équipes Cyber. Automatisation des Processus : Développement d'applications métiers via AppSheet (Low-code) et Google Apps Script pour la digitalisation des tâches manuelles et le remplacement de fichiers Excel complexes. Transition Office vers Google : Accompagnement technique et méthodologique pour la migration des utilisateurs et de leurs outils (Excel/VBA) vers l'écosystème Google (Sheets/Apps Script/BigQuery). Posture AMOA/PO : Assistance au Product Owner dans la définition de la roadmap produit, la rédaction de User Stories et la conduite du changement. Profil et Compétences Clés Ce poste requiert une double compétence confirmée : une maîtrise technique avancée de l'écosystème Google et une vision fonctionnelle stratégique orientée métier. Compétences Techniques (Hard Skills) Google Workspace : Expertise éprouvée en Administration, Sécurité et Usages avancés. Data Stack : Maîtrise experte de Looker (développement LookML indispensable) et BigQuery (SQL avancé). Développement : Solides compétences en Google Apps Script et maîtrise de la plateforme AppSheet. IA Générative : Expertise technique sur Gemini (Prompt Engineering, configuration et intégration). Compétences Fonctionnelles & Soft Skills Analyse Métier : Capacité à traduire des besoins métiers complexes en solutions techniques performantes et pérennes. Pédagogie & Communication : Aptitude à vulgariser les concepts IA/Data auprès d'interlocuteurs non-techniques et à fédérer des communautés. Sensibilité RSE : Forte implication sur les sujets de responsabilité numérique (sobriété, droit à la déconnexion). Leadership Technique : Force de proposition pour challenger l'existant et impulser l'innovation. Livrables attendus Pilotage et Reporting : Dashboards Looker (Adoption, RSE, Performance o pérationnelle). Solutions Applicatives : Applications AppSheet et scripts d'automatisation déployés, documentés et maintenables. Dispositif IA : Supports de formation Gemini, référentiel de Prompts, roadmap d'animation du réseau ambassadeurs. Transformation Numérique : Stratégie et outils de migration des macros Excel critiques vers GWS. Documentation : Spécifications fonctionnelles, guides utilisateurs, procédures d'administration et d'exploitation.
Mission freelance
Data Engineer Senior – Azure Databricks (Python) (H/F)
HOXTON PARTNERS
Publiée le
Azure
Databricks
Python
6 mois
Paris, France
Dans le cadre d’un projet Data sous environnement Microsoft Azure, nous recherchons un Data Engineer disposant d’une expérience significative sur Azure Databricks (Python). Le consultant interviendra sur la conception, le développement et l’optimisation de traitements data au sein d’une plateforme moderne. Il participera à la mise en place de pipelines de transformation et à l’intégration des flux dans l’écosystème Azure. Les principales responsabilités incluent: Développement de notebooks Azure Databricks en Python / PySpark Conception et optimisation de pipelines de transformation Intégration avec Azure Data Factory Contribution aux sujets de gouvernance via Unity Catalog Participation aux déploiements et bonnes pratiques d’industrialisation (Terraform)
Offre d'emploi
BA DATA sur profil (CDI uniquement) - Préavis 1-3 mois
OBJECTWARE
Publiée le
ETL (Extract-transform-load)
Oracle
PL/SQL
Nanterre, Île-de-France
GREAT PLACE TO WORK depuis 2019 et BEST WORKPLACE FRANCE 2023-2024 & 2025 Depuis 24 ans, le Groupe Objectware développe ses expertises et practices pour accompagner ses clients dans l’optimisation de leurs performances et leurs enjeux de transformation. Notre expertise en Management de projets, Développement applicatif, Infrastructure, Opération et Sécurité nous permet d’avoir une couverture totale sur le cycle de vie des projets de nos clients. BA DATA - Oracle, SQL, PL-SQL (très présent) -Clarity (pas obligatoire) Controle M / ETL / UNIX .. Rémunération selon le profil, début de mission en JUIN donc préavis de 1 à 3 mois accepté. CDI Uniquement Contexte de la mission : La Squad Core Data (équipe opérationnelle ~20 personnes) de la Tribe Data France est composée de 5 applications de type "batch" : Les Bases Commerciales (BCA-BCB-BCC) Interfaces Délégataires Préparation éditique Cette Squad dont l'organisation est full agile (sprints, daily, jira …) et avec l'aide de notre TMA a vocation à : Maintenir et sécuriser au quotidien ces applications Mettre en œuvre sur ce périmètre les évolutions (réglementaire, métier, technique …) ~20-30 projets/an Domaine / Environnement technique : Culture "bach" : perf/volumétrie, gestion de différent type de fichiers (séparateurs, formats fixes, xml …), rejets, manipulation des données, règles/calculs sur les données … Détails de la prestation : Contribution au projet « IRF » ( I mprimé R èglementaire et F iscal) : Le projet IRF à vocation envoyer chaque année aux clients concernés les courriers IA, IFU et IFI. Sur notre application « Préparation Editique » : qui est le pôle d’échange centralisé d’agrégation et transformation des données avant envoi à l’application d’édition des courriers (Optima) Sur notre périmètre (Préparation éditique) : - Gestion de projet : planification (Clarity), estimation des charges, gestion du budget, reporting, suivi des travaux, coordination, participation au COPROJ, suivi des alertes/risques/problèmes - Participation active (avec le métier) à la compréhension et transposition des besoins et règles métiers en solution IT - Recueil des besoins, définition de la solution, contribution aux aspects architecture et sécurité, rédaction des spécifications fonctionnelle / exigences, expertise applicative - Commande et pilotage des travaux de développement (Réception et validation des développements via une phase de vérification applicative), - Participation à la stratégie de tests, - Participation à la phase de recette en relation avec le centre de test Cardif, - Préparation, organisation du déploiement et mise en production, - Suivi et coaching des ressources techniques (forfaits, équipes transverses ...) Compétences techniques : - Oracle, SQL, PL-SQL (très présent) - UNIX - Ordonnanceur Control-M - CFT - Informatica Powercenter (très limité sur l’IRF -> donc optionnel mais toujours apprécié si jamais …) - GIT (Toolchain) Culture "bach" : perf/volumétrie, gestion de différent type de fichiers (séparateurs, formats fixes, xml …), rejets, manipulation des données, règles/calculs sur les données … Une forte appétence technique est nécessaire afin de pouvoir discuter, être en support et challenger nos différents acteurs : architectes, développeurs, experts, centre de test, exploitant … Ce qui fera la différence : Les Soft Skills de la personne 👍 Compétences Outils : Clarity serait apprécié Compétences méthodologiques : Agile (at Scale)
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
1719 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois