Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 1 785 résultats.
Offre d'emploi
BA & Développeur Data - Tours
Argain Consulting Innovation
Publiée le
Dataiku
Tableau software
6 mois
33k-37k €
410-440 €
Tours, Centre-Val de Loire
Nous recherchons un renfort au sein de notre équipe domaine projets pour prendre le lead sur différents sujets : Objectifs de la mission : Représenter D&A dans les instances projets (COPRO / Atelier) Être en capacité de jongler sur différents projets Synthétiser les échanges (atelier/COPRO) pour partager les sujets, proposer des solutions, chiffrer et planifier Faire le suivi des sujets à travers JIRA Être en capacité de faire des développements ( DSS - Dataiku en SQL ou recipe visuel) ou d'accompagner un collègue sur des développements à faire Restituer les infos projets dans les instances d'équipes
Mission freelance
SAP S/4 Solution Architect Data – Programme Greenfield (H/F)
Signe +
Publiée le
Master Data Management (MDM)
SAP S/4HANA
1 an
700-890 €
Toulouse, Occitanie
Dans le cadre d’un programme stratégique de transformation en environnement greenfield sous SAP S/4HANA , nous recherchons un(e) SAP S/4 Solution Architect Data . Ce programme structurant vise la mise en place d’un Core Model S/4HANA avec une forte exigence sur la gouvernance, la qualité et la structuration des données. Vous interviendrez dans un environnement complexe, international et à forts enjeux métiers. 🎯 Missions🔹 Architecture & Stratégie Data Définir l’architecture Data dans le cadre du programme S/4HANA greenfield Concevoir le modèle cible de gouvernance des données Garantir la cohérence entre Core Model, déploiements et exigences métiers Définir les principes de gestion des données de référence 🔹 Expertise MDG Apporter une expertise avancée sur SAP S/4 MDG Définir et structurer les processus de Master Data Governance Participer au design et à l’intégration de MDG dans l’écosystème S/4 Challenger les choix de conception et proposer des solutions robustes 🔹 Coordination & Transversalité Travailler en étroite collaboration avec les architectes fonctionnels et techniques Accompagner les équipes métiers sur les enjeux Data Assurer l’alignement entre architecture, build et déploiement Sécuriser la qualité et la conformité des données Démarrage : Mars/Avril 2026 Durée : 1 an minimum TJM : Selon profil Localisation : Toulouse (très favorable au remote)
Mission freelance
Product Owner CRM – Data Client BtoB & Prospection
SKILLWISE
Publiée le
CRM
Salesforce
1 mois
400-550 €
Paris, France
Notre client, un acteur majeur du secteur des médias et de la publicité, recherche un(e) Product Owner CRM – Data Client BtoB & Prospection pour rejoindre sa Direction des Technologies. Cette direction opère et transforme les systèmes IT et techniques du groupe, en interface avec l’ensemble des métiers (commercial, production, diffusion, etc.). Au sein du Pôle Produits Publicitaires, vous contribuerez à la conception, au développement et à la maintenance d’outils stratégiques, notamment autour de la gestion de la relation client (CRM), de la data BtoB et des processus de prospection. Votre mission : piloter la transformation digitale du référentiel client et des outils de prospection dans un environnement Salesforce. En tant que Product Owner, vous serez responsable de : Définir et piloter la roadmap produit : Construire la vision, prioriser le backlog et garantir la cohérence du système d’information. Recueillir et formaliser les besoins métier : Rédiger les spécifications fonctionnelles et accompagner les équipes commerciales dans l’adoption des solutions. Coordonner les équipes techniques : Assurer le delivery et la qualité des livrables en mode agile. Garantir l’adoption des nouvelles fonctionnalités : Former et mobiliser les utilisateurs pour maximiser l’impact business.
Mission freelance
Développeur React Native / Data Engineer F/H
SMARTPOINT
Publiée le
Databricks
React Native
Spark Streaming
12 mois
100-450 €
Île-de-France, France
Dans le cadre de notre besoin, nous recherchons un profil hybride associant : Une expertise confirmée en développement mobile React Native, et une compétence en Data Engineering sur Azure / Databricks. La mission repose principalement sur la maintenance évolutive et corrective d’une application mobile développée en React Native. En fonction de la charge de travail sur la partie front, le consultant pourra également intervenir sur les traitements back/data, notamment sur les pipelines et notebooks Databricks sur le cloud Azure. Informations complémentaires : - Démarrage souhaité : ASAP - Conscients que ce type de profil hybride est rare, nous vous remercions de ne proposer que des candidats répondant strictement aux critères décrits dans la fiche de mission. - 3 jours obligatoire sur site ANALYSE : Participe à l'analyse fonctionnelle détaillée des besoins utilisateurs et peut être sollicité pour des ateliers de définition des spécifications générales Étudie les opportunités et la faisabilité technologique de l'application, réalise l'analyse technique, l'étude détaillée et contribue à l'estimation des charges CONCEPTION ET DÉVELOPPEMENT : Contribue au design du logiciel et des frameworks utilisés dans le cadre du projet Adapte et applique les paramètres techniques des progiciels ou des middlewares Réalise le prototypage Analyse et développe les composants en utilisant les langages appropriés Participe à la structuration des Bases de Données Participe à la revue croisée des développements de ses pairs Initialise le dossier d'exploitation Assemble les composants unitaires dans un package applicatif cohérent destiné au déploiement de la solution et l'intègre à la gestion de configuration Documente les applications pour les développements ultérieurs et la Mise en Production (MEP) Harmonise et industrialise l'ensemble des composants et applications Utilise les composants logiciels réutilisables et met à jour la nomenclature RECETTE UNITAIRE ET TESTS D'INTÉGRATION : Responsable des tests unitaires : élaboration des jeux d'essais et réalisation Teste, identifie et traite les dysfonctionnements éventuels du logiciel développé Vérifie la conformité de l'ouvrage avec la demande formulée Contribue à la préparation et à la réalisation des tests d'intégration Analyse les résultats et rédige le rapport de tests MAINTENANCE : Réalise les développements nécessaires à la maintenance corrective et évolutive Participe à l'analyse et à la résolution des incidents de production Compétences techniques : React Native - Expert - Impératif Databricks - Confirmé - Impératif Spark - Confirmé - Impératif SQL - Confirmé - Impératif
Mission freelance
Data Analyst Expert
Codezys
Publiée le
6 mois
300-450 €
Lyon, Auvergne-Rhône-Alpes
Analyser, structurer et valoriser les données prescriptives du SIP afin de transformer des données issues de documents en référentiels exploitables, au service de la performance et de la décision métier. Objectifs et livrables Responsabilités clés Mettre en qualité et transformer les données prescriptives Réaliser des analyses statistiques descriptives Identifier et structurer les référentiels métier Produire des tableaux de bord et visualisations (Power BI) Restituer les résultats aux commanditaires métiers Travailler en collaboration étroite avec les équipes produit et data Environnement technique Google Cloud Platform (GCP) Outils data et BI Power BI Conformité aux principes data et SI Vision 2035 Compétences attendues Solide expérience en analyse de données Capacité à passer du document à la donnée structurée Bonne compréhension des enjeux métiers Capacité de restitution et de pédagogie Orientation valeur et usage
Mission freelance
PMO Ressources – Sécurité Opérationnelle
Atlas Connect
Publiée le
Agile Scrum
Cybersécurité
Data management
3 ans
400-470 €
Issy-les-Moulineaux, Île-de-France
La DMRSO (Direction Maîtrise des Risques et Sécurité Opérationnelle) intervient sur les missions suivantes : Maîtrise des risques liés au Système d’Information Sécurité opérationnelle assurée par le Centre de Sécurité Opérationnelle (CSO) La mission du Centre de Sécurité Opérationnelle est notamment de : Déployer et configurer les mesures techniques de prévention et de protection Construire et piloter le cockpit sécurité (mise sous surveillance continue des assets) Réaliser le transfert de la sécurité opérationnelle gérée par la Banque vers la BGPN Faire face à un contexte d’augmentation significative des attaques cyber (volume, intensité, complexité) Dans ce cadre, la prestation s’inscrit dans l’animation et la gestion des ressources de la DMRSO . Objectif de la mission Le PMO Ressources contribue au bon fonctionnement des équipes et à la bonne exécution des prestations externes, dans un contexte de suivi des actions d’amélioration continue en mode Agile . Les principaux enjeux sont : Maintenir un suivi rigoureux des entrées et sorties des ressources Mettre en place un suivi des outils et des transferts de connaissance Déployer un reporting de pilotage des ressources sous Excel / Power BI Missions principalesPilotage des ressources Suivi des ressources externes principalement Gestion des entrées et sorties des ressources dans les outils internes Accompagnement des nouveaux arrivants sur : outils espaces collaboratifs documentation processus Suivi administratif et financier Suivi des ressources en interface avec le PMO Finance : TJM dates d’arrivée suivi des prestations Préparation des demandes d’achat Émission des demandes vers la DPT Suivi du cycle de commande de bout en bout Suivi du réceptionné Projection des dépenses et gestion des alertes Contribution au pilotage financier de la DMRSO Reporting et suivi opérationnel Diffusion mensuelle du tableau de suivi des ressources externes : date de début de mission date de fin de mission alertes sur les fins de mission Mise en place et suivi du reporting ressources sous Excel / Power BI Maintien à jour de la documentation de prestation sous Confluence Conduite du changement Accompagnement des équipes dans l’ adoption des nouveaux outils et processus Contribution aux actions de transformation et d’amélioration continue Animation Agile Contribution active à l’animation Agile de la DMRSO : Participation aux PI Planning trimestriels Participation aux instances Agile Prise en compte des OKR Création et gestion des User Stories dans JIRA Suivi du delivery selon la planification Mise à jour régulière des tickets JIRA
Mission freelance
Data Quality Manager
CAT-AMANIA
Publiée le
Databricks
PySpark
Tableau software
1 an
100-500 €
Lille, Hauts-de-France
VOS RESPONSABILITÉS PRINCIPALES Recueillir et évaluer les besoins en matière de qualité des données Accompagner et organiser des ateliers avec les data owners pour comprendre le cycle de vie des données et collecter les exigences en matière de qualité des données (règles, impacts de la non-qualité, parties prenantes, etc.) Interagir et se coordonner avec les autres parties prenantes du projet (Data Steward, Data Engineer, Data Manager…) pour s’aligner sur les contrôles Vérifier et valider la pertinence des règles de qualité des données et leur faisabilité Documenter les règles de qualité dans le catalogue de données (Collibra) Mettre en oeuvre les normes et politique de qualité des données sur votre périmètre pour garantir l'opérabilité des données tout au long de leur cycle de vie dans l'entreprise Concevoir et mettre en œuvre des outils de contrôles et de visualisations de la qualité des données, y compris des alertes pour détecter les erreurs et les incohérences Mettre en œuvre et animer les processus de remédiation afin d’assurer l’amélioration continue du dispositif de qualité des données Implémenter des outils pour automatiser les tâches de contrôle et de correction des données. Etre force de proposition auprès de la Stream Leader Data pour permettre la mise à l’échelle des futurs déploiements Contribuer et participer activement à la communauté des Data Quality Manager
Offre d'emploi
Développeur/Data Engineer Python & Lambda AWS
OBJECTWARE
Publiée le
Python
3 ans
40k-50k €
260-400 €
Île-de-France, France
Mission En qualité de développeur python / Data Engineer, votre rôle et vos missions consistent à : * Participer à la conception/développement sur le projet Portfolio Clarity pour NIM (python sur lambdas AWS) * Réaliser les tests unitaires et d'intégration * Revue du code et amélioration de l'architecture applicative existante * Documenter les réalisations * Intégrer les développements à la chaine de CI/CD La bonne réalisation de la prestation exige les compétences suivantes : * Maitrise des développements et lntégration python * Connaissance et utilisation des outils de développements (Visual Studio Code ou autre IDE) * Connaissance et utilisation des outils d'intégration et de tests continus (Bitucket/git, Jenkins, junit, XLDeploy, XLRelease) * Connaissance et utilisation des outils collaboratifs (Confluence, Jira) Compétences personnelles : • Appétence technique • Structuré, bon esprit d’équipe, autonomie, curiosité • Capacité d’écoute, de synthèse. * Anglais professionnel
Mission freelance
Data engineer
Deodis
Publiée le
Ansible
Apache Airflow
Apache Kafka
1 an
320-330 €
Île-de-France, France
Vous intégrerez l’équipe Data Event Management en charge des offres d’infrastructure de messaging Kafka sur ITCloud OnPremise et IBMCloud/dMZR , avec pour mission de construire, déployer, exploiter et maintenir en conditions opérationnelles les plateformes Kafka du groupe. Vous interviendrez sur des projets structurants incluant la transition vers un nouvel orchestrateur basé sur Python/Airflow/Terraform , l’extension de l’offre Kafka IBMCloud/dMZR avec l’intégration de Lenses , ainsi que la migration du monitoring OnPremise vers une solution hybride Dynatrace + ELK . La prestation s’inscrit dans un cadre ITIL , Agile à l’échelle et Product-Based , au sein d’un environnement moderne mobilisant Kubernetes, Terraform, Git, SQL, Docker, CI/CD GitLab, monitoring (ELK, Dynatrace, Sysdig), sécurité HashiCorp Vault et ITCloud/IBMCloud.
Offre d'emploi
Lead Data Scientist / ML & AI Engineer F/H - Système, réseaux, données (H/F)
█ █ █ █ █ █ █
Publiée le
Ocaml
Python
Pytorch
Paris, France
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Offre d'emploi
Data Steward
VISIAN
Publiée le
Data analysis
Gouvernance
1 an
40k-45k €
120-490 €
Paris, France
Contexte Une filiale d'un groupe bancaire majeur spécialisée dans le financement de biens d'équipement ou de biens immobiliers à destination des entreprises. Son activité est répartie sur plusieurs pays, et sur plusieurs types de financement : crédit, crédit-bail mobilier et immobilier, location, wholesale, LLD avec gestion de parc, revolving, …. Le projet STELLAR a pour objectif de mettre la data science et les outils d'IA au service de use cases Métier, en assurant la mise en oeuvre de ces use case de la phase exploratoire jusqu'à la phase d'industrialisation. Par exemple sur le use case AVE de refonte de l'application de valorisation avancée de matériels que nous finançons. Dans le cadre de la mise en œuvre de ce chantier, l'équipe Stellar recherche un data steward pour produire la documentation associée à la data gouvernance: Data Model (Business et IT), Data Dictionnary et classification des données sensibles (Data Asset Confidentiality Card). Analyse et alignement du périmètre métier En lien avec les référents métiers : Analyse approfondie des besoins métiers liés à la donnée, à l'analytique, à l'IA et au reporting. Compréhension des processus et enjeux fonctionnels pour identifier précisément les informations nécessaires à chaque cas d'usage. Cartographie des objets métier à définir Identification des données métier Construction du modèle de données et documentation Classification en concepts et sous concepts Classification du niveau de confidentialité Documentation des données : définitions, attributs, relations, règles de gestion métier. Production des modèles de données métier et IT Collaboration étroite avec le Data Office pour valider les jeux de données existants, identifier les manques, assurer l'alignement avec les standards de gouvernance, traçabilité et qualité. Contribution à la modélisation des données non encore prises en charge par la data platform Gouvernance des données Animation des ateliers avec les référents métiers et les IT pour valider les définitions. Assurer la traçabilité entre modèles métier et technique.
Mission freelance
POT8928 - Deux Data Steward (Confirmé et Sénior) sur Tours
Almatek
Publiée le
SharePoint
6 mois
220-400 €
Tours, Centre-Val de Loire
Almatek recherche pour l'un de ses clients Deux Data Steward (Confirmé et Sénior) sur Tours. *** Profil confirmé (4 à 5 ans) *** Analyse des politiques de catalogage -Alignement entre politiques -Rapports de cohérence et suivi des écarts Appui aux data owners -Identification des datasets manquants -Définition des métadonnées -Animation de très nombreux ateliers -Mise à jour de l’outil de catalogage (manuel + injections de masse) Qualité du catalogage -Définition d’indicateurs qualité -Détection et résorption des écarts -Développement de code (outillage qualité) Gestion de l’outil de catalogage -Améliorations, habilitations, recettes -Outils complémentaires Conduite du changement & formation -Documentation, supports -Sessions de formation et d’acculturation *** Profil Sénior(> à 7 ans) *** Analyse des politiques et écarts qualité -Notes d’analyse -Roadmap annuelle des chantiers qualité -Mise en place d’un processus d’analyse de risques hebdomadaire Définition des règles qualité -Ateliers avec data owners -Reformulation des règles dans les documents métiers -Capitalisation dans les outils Implémentation des contrôles qualité -Définition et suivi des contrôles -Tableaux de bord qualité -Synthèses adaptées aux publics cibles Outillage -Amélioration des outils existants -Développement d’outils complémentaires (dont analyse de risque) Conduite du changement -Formation, supports, acculturation Environnement technique : Sharepoint 2016 - Windows 11 - Office 365 - PowerBI online – Chrome Localisation : TOURS + 3jrs TT/ semaine
Offre d'emploi
Développeur Data & IA (Python & Dataviz) - Lyon
STHREE SAS pour COMPUTER FUTURES
Publiée le
API
Confluence
DevOps
6 mois
36k-40k €
360-390 €
Lyon, Auvergne-Rhône-Alpes
Renforcer le groupe en assurant la conception, le développement et l’industrialisation de solutions Data, IA et Dataviz destinées aux équipes de développement et DevSecOps. Le consultant contribuera également à : l’intégration d’usages IA dans les outils du développeur augmenté , l'accompagnement et la montée en compétences des équipes internes Responsabilités principales 1. Développement & Industrialisation Data / IA (activité dominante) Développer des composants logiciels Python : scripts, services, APIs, traitements batch. Construire et optimiser des chaînes de traitement de données (ingestion, qualité, traçabilité, performance). Concevoir, industrialiser et maintenir des solutions Data & IA au service des équipes de développement Contribuer à l’intégration d’usages IA dans l’outillage du développeur augmenté (assistants de code, automatisation, observabilité, analyse). 2. Dataviz & reporting décisionnel Concevoir des tableaux de bord Power BI et autres outils de visualisation. Produire des visualisations destinées au pilotage, à l’observabilité et à l’aide à la décision. 3. Documentation, capitalisation & qualité Rédiger et maintenir la documentation technique. Alimenter les référentiels de connaissances (Confluence). Contribuer à la capitalisation des bonnes pratiques Data/IA. 4. Accompagnement & formation des équipes internes Appuyer les équipes internes lors de la prise en main des solutions développées. Animer des formations, démonstrations et sessions d’acculturation (ex. : GitHub Copilot). Participer au transfert de compétences et à la montée en maturité Data/IA. 5. Pilotage & coordination opérationnelle Suivre le backlog et collaborer avec les équipes projets, produits et outillage. Produire un reporting régulier d’avancement, d’activité et de difficultés éventuelles.
Mission freelance
Senior Data Engineer AWS
SILAMIR
Publiée le
AWS Cloud
12 mois
Paris, France
Nous recherchons un Data Engineer expérimenté afin de contribuer à la fiabilité, l’automatisation et la scalabilité d’un Lakehouse data. Vous interviendrez sur la conception et l’orchestration de pipelines, l’optimisation des traitements et l’évolution de l’architecture data dans un environnement moderne basé sur AWS. Vos missions : Conception & orchestration Concevoir, développer et maintenir des pipelines Airflow pour l’ingestion et la transformation des données Mettre en place des frameworks et mécanismes d’automatisation Garantir la robustesse, la modularité et la résilience des workflows Traitement & gestion des flux Développer des composants pour le traitement de fichiers plats (CSV, JSON, Parquet…) et leur exposition via API Consommer et transformer des flux Kafka avec Spark Optimiser la performance et le partitionnement des traitements sur de gros volumes Collaboration analytique Collaborer avec les Data Analysts pour concevoir des agrégats métiers Créer et maintenir des vues Athena utilisées dans Tableau Garantir la cohérence, la fraîcheur et la traçabilité des données Évolution du Lakehouse Participer à la conception et à l’amélioration continue de l’architecture Créer et maintenir des tables de référentiel (clients, contacts, événements, interactions…) Implémenter ces référentiels avec Iceberg / Hudi Supervision & DataOps Assurer la supervision quotidienne des pipelines Mettre en place alerting et monitoring Produire et maintenir la documentation technique
Mission freelance
Chef de projet BI Data / Finance - ANAPLAN / TAGETIK (F/H)
CELAD
Publiée le
1 an
500-600 €
Paris, France
Envie d’un nouveau challenge… CELAD vous attend ! Nous poursuivons notre développement et recherchons actuellement un.e Chef de projet BI / Data – Finance pour intervenir chez un de nos clients dans le secteur bancaire. Vous interviendrez au sein du produit Finance sur un projet structurant de consolidation de sources de données destiné au reporting groupe et à la simulation de modèles pour le contrôle de gestion. Voici un aperçu détaillé de vos missions : - Cadrer le périmètre du projet et accompagner les métiers du contrôle de gestion dans l’expression des besoins - Piloter les choix IT et proposer des solutions d’architecture décisionnelle adaptées Superviser la modélisation des données et la construction de sources transactionnelles et décisionnelles - Construire l’architecture solution et contribuer à l’architecture technique globale - Coordonner les équipes métiers, IT et data, animer les instances projet et assurer le reporting - Définir et piloter la stratégie de recette, son exécution et le déploiement - Apporter votre expertise BI pour orienter les choix de solutions et sécuriser les livrables
Mission freelance
Développeur Data & IA Python & Dataviz
QUALIS ESN
Publiée le
Confluence
Github
JIRA
6 mois
400 €
Lyon, Auvergne-Rhône-Alpes
Mission générale : Renforcer le groupe en assurant la conception, le développement et l’industrialisation de solutions Data, IA et Dataviz, au service des équipes de développement et DevSecOps. Le consultant contribue également à l’intégration d’usages IA dans les outils du développeur augmenté, ainsi qu’à l’accompagnement des équipes internes. Responsabilités principales 1. Développement & industrialisation Data / IA (activité dominante) Concevoir et développer des composants logiciels Python : scripts, services, APIs, traitements batch. Mettre en œuvre des chaînes de traitement de données (ingestion, qualité, traçabilité, performance). Développer et industrialiser des solutions Data et IA destinées aux équipes de développement Enedis. Contribuer à l’intégration des usages IA dans l’outillage du développeur augmenté (assistants de code, automatisation, analyse, observabilité). 2. Dataviz & reporting décisionnel Concevoir des tableaux de bord Power BI et autres outils de visualisation. Produire des visualisations utiles au pilotage, à l’observabilité et à l’aide à la décision. 3. Documentation, capitalisation et qualité Structurer et maintenir la documentation technique. Contribuer aux référentiels de connaissances (Confluence). Participer à la capitalisation des bonnes pratiques Data/IA. 4. Accompagnement et formation des équipes internes Appuyer les équipes dans la prise en main des solutions. Animer des sessions de formation ou démonstrations (ex : GitHub Copilot). Participer au transfert de compétences et à la montée en maturité des équipes Enedis. 5. Pilotage et coordination opérationnelle Suivre le backlog, collaborer avec les équipes projets / produits / outillage. Produire un reporting régulier d’avancement et d’activité.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
1785 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois