Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 3 278 résultats.
CDI

Offre d'emploi
Consultant Data Scientist F/H - Système, réseaux, données (H/F)

█ █ █ █ █ █ █
Publiée le
Python
SQL

69007, Lyon, Auvergne-Rhône-Alpes

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDI

Offre d'emploi
Architecte Master Data Management F/H

COEXYA
Publiée le

50k-60k €
Saint-Didier-au-Mont-d'Or, Auvergne-Rhône-Alpes
CONTEXTE Dans le cadre de nos activités, nous développons pour nos clients des solutions dédiées à la gestion de la donnée cliente : améliorer la qualité de la donnée client à travers sa fiabilisation, son dédoublonnage et sa diffusion à travers un référentiel unifié. Pour accompagner la croissance de notre entité spécialisée dans la transformation digitale, nous recherchons notre futur Architecte MDM (Master Data Management) F/H. CE QUE L'ON VOUS PROPOSE Vous participez à la construction de l'offre MDM, en particulier sur les aspects techniques et technologiques. Vous intervenez sur les phases clés associées à la construction d'un projet de MDM, depuis l'avant-vente jusqu'à l'accompagnement des équipes de réalisation (4 à 6 consultants en moyenne selon projet) : - Vous concevez et préconisez les solutions techniques, - Vous menez des ateliers techniques avec les clients, - Vous intervenez sur différentes phases du projet depuis l'avant-vente jusqu'à leur utilisation en production - Vous encadrez les équipes techniques (accompagnement, transfert de compétences, audit des réalisations).
Freelance

Mission freelance
Consultant expérimenté sur Sage X3

Mon Consultant Indépendant
Publiée le
Sage x3

6 mois
600-640 €
Nantes, Pays de la Loire
Pour le compte de l’un de nos clients, nous recherchons un Consultant expérimenté sur la solution SAGE X3 pour une mission basée à Nantes . Le consultant interviendra sur l’analyse des besoins, le paramétrage, l’accompagnement des utilisateurs et le suivi des évolutions de la solution. Il participera également à l’optimisation des processus et au support fonctionnel. Une bonne maîtrise de l’environnement SAGE X3 est indispensable. Des compétences sur Talend constitueraient un atout supplémentaire dans le cadre des flux et interfaces de données.
Offre premium
Freelance

Mission freelance
Ingénieur Cloud AWS - Data & IA

TEOLIA CONSULTING
Publiée le
AWS Cloud
Large Language Model (LLM)
Pandas

36 mois
410-590 €
La Défense, Île-de-France
Nous recherchons pour l'un de nos clients un Ingénieur Fullstack Data & IA pour intervenir sur la conception et le développement de solutions innovantes autour de la data, du cloud AWS et de l’intelligence artificielle. Missions Contribuer aux phases d’idéation et à l’évaluation de la faisabilité technique de concepts innovants Concevoir et développer des POC et prototypes orientés data / IA Participer aux choix d’architectures et de technologies Évaluer des solutions technologiques externes (open innovation, startups) Assurer l’industrialisation des prototypes et leur transfert vers les équipes DSI Garantir le respect des standards techniques et sécurité du SI Produire la documentation technique et animer les ateliers de passation Réaliser une veille technologique sur les solutions data, cloud et IA Contribuer à l’amélioration des méthodes et processus du Lab Compétences techniques Développement backend Python et APIs REST Environnements cloud AWS (S3, Lambda, API Gateway, IAM…) Infrastructure as Code (Terraform) Data processing / data engineering (Pandas, PySpark, traitements batch) Bases de données SQL et NoSQL Environnements Linux Gestion de versions Git Architectures data / microservices Connaissances ML / NLP / LLM (type AWS Bedrock) appréciées
Freelance

Mission freelance
Governance & Data Management Lead

ALLEGIS GROUP
Publiée le
Data management
Gouvernance
Méthode Agile

1 an
Paris, France
Nous recherchons un Governance & Data Management Lead pour structurer, coordonner et piloter l’ensemble des processus de collecte, gestion et reporting des données de sécurité et des use cases IA au niveau Groupe. Ce rôle stratégique combine gouvernance, coordination transverse, travail avec équipes off‑shores et animation de communautés Data & AI. Votre mission principale Piloter et coordonner la collecte, gestion et consolidation des données de sécurité et des use cases IA à travers les entités du Groupe, en garantissant : la conformité, l’engagement des parties prenantes, une gouvernance solide, et une vision unifiée au niveau Group Security.
Freelance

Mission freelance
Product Owner CRM – Data Client BtoB & Prospection

SKILLWISE
Publiée le
CRM
Salesforce

1 mois
400-550 €
Paris, France
Notre client, un acteur majeur du secteur des médias et de la publicité, recherche un(e) Product Owner CRM – Data Client BtoB & Prospection pour rejoindre sa Direction des Technologies. Cette direction opère et transforme les systèmes IT et techniques du groupe, en interface avec l’ensemble des métiers (commercial, production, diffusion, etc.). Au sein du Pôle Produits Publicitaires, vous contribuerez à la conception, au développement et à la maintenance d’outils stratégiques, notamment autour de la gestion de la relation client (CRM), de la data BtoB et des processus de prospection. Votre mission : piloter la transformation digitale du référentiel client et des outils de prospection dans un environnement Salesforce. En tant que Product Owner, vous serez responsable de : Définir et piloter la roadmap produit : Construire la vision, prioriser le backlog et garantir la cohérence du système d’information. Recueillir et formaliser les besoins métier : Rédiger les spécifications fonctionnelles et accompagner les équipes commerciales dans l’adoption des solutions. Coordonner les équipes techniques : Assurer le delivery et la qualité des livrables en mode agile. Garantir l’adoption des nouvelles fonctionnalités : Former et mobiliser les utilisateurs pour maximiser l’impact business.
Freelance
CDI

Offre d'emploi
CHEF DE PROJET DATA

UCASE CONSULTING
Publiée le
Git

3 ans
40k-60k €
400-560 €
Paris, France
Fiche de poste – Chef de Projet Data Senior Contexte Dans le cadre du renforcement consultant, nous recherchons un Chef de Projet Data Senior pour piloter des portefeuilles projets à forte visibilité stratégique. L’équipe intervient sur des projets de traitements data complexes, réalisés par des équipes pluridisciplinaires composées de Data Engineers, Data Scientists, architectes et équipes d’exploitation. La mission s’inscrit dans un environnement structuré, avec une forte culture projet et des enjeux qualité/coûts/délais. Objectifs de la mission Piloter des projets Data de bout en bout (étude, chiffrage, réalisation, exploitation) Garantir la livraison des projets dans le respect des engagements (qualité, coûts, délais) Assurer la coordination entre les différentes parties prenantes Intervenir potentiellement sur plusieurs projets en parallèle Missions principales Pilotage projet Construire et piloter le planning projet Participer et animer les instances de gouvernance (COPROJ hebdomadaire, COPIL trimestriel) Assurer le pilotage financier et le suivi budgétaire Garantir la qualité des livrables (pertinence et exhaustivité des tests) Valider les spécifications fonctionnelles avant présentation aux équipes de développement Organisation & Méthodologie Environnement majoritairement Agile (Scrum) Gestion des sprints (2 semaines) basés sur des User Stories Description des spécifications fonctionnelles sous Confluence Suivi et pilotage du backlog sous JIRA Coordination des backlog refinements Coordination & Exploitation Pilotage opérationnel des équipes projet Supervision des déploiements et mise en place des flux Gestion des habilitations et environnements Interlocuteur principal du support applicatif niveau 3 Contribution aux activités d’exploitation Compétences requises Compétences techniques Conteneurisation : Kubernetes Développement : Python Base de données : PostgreSQL Outils CI/CD : GitLab, Jenkins Outils de gestion : JIRA, Confluence Compétences appréciées Outils de supervision : Datadog, Connaissance d’un progiciel de détection fraude / data Bonnes pratiques ITIL Certification Professional Scrum Master I
Freelance
CDI

Offre d'emploi
SENIOR DATA AND AI ENGINEER

ANDEMA
Publiée le
Azure
Databricks

36 mois
Lille, Hauts-de-France
Projet : Dans un contexte de transformation et d’accélération, la Data de la DSI opère la plateforme internationale Data et IA, reposant sur une architecture Cloud AZURE / Lakehouse et animée en agilité, se renforce en expertise de Data Engineers. L’équipe est en charge de : • La collecte et l’intégration des données • La structuration et la modélisation • La qualité et la performance des traitements • La préparation des datasets pour les usages métiers, analytiques et IA Votre mission : En tant que Senior Data and AI Engineer, vous travaillerez en collaboration étroite avec les métiers. Vous aurez la responsabilité de vérifier et d'améliorer les pratiques de développement ainsi que la mise en œuvre et l’amélioration de la plateforme Data en réponse aux besoins des différents projets. Localisation : métropole lilloise (3j de présentiel par semaine) Durée : mission longue
Freelance

Mission freelance
Chef de projet / Lead Sécurité Data & Cloud (GCP)

Inventiv IT
Publiée le
BigQuery
Data governance
DBT

6 mois
600-700 €
Niort, Nouvelle-Aquitaine
Suite à un audit interne (septembre 2024), le Data Office doit : • Structurer une roadmap sécurité Data • Renforcer la protection des données • Améliorer le maintien en condition opérationnelle (PRA/PRI) • Sécuriser la trajectoire de migration Cloud (GCP) • Aligner les pratiques avec les exigences RSSI / PSSI / RGPD Environnement hybride : On Prem + GCP. Objectifs de la mission 1. Structurer et piloter la sécurisation du patrimoine Data 2. Mettre en œuvre les exigences PCI / PRI Data 3. Revoir et fiabiliser les habilitations On Prem & Cloud 4. Renforcer la gouvernance des données sensibles 5. Sécuriser les outils Data / BI / Data Science 6. Contribuer aux exigences RSSI (vulnérabilités, audits, recommandations) Expérience • 8 à 15+ ans en sécurité SI / sécurité Data • Expérience environnement Cloud GCP impérative • Expérience PRA/PCA Data • Expérience gouvernance Data / RGPD • Capacité de pilotage transverse Compétences clés • Architecture sécurité Cloud (GCP) • BigQuery security & Data masking • IAM avancé • PRA / PRI • Data Governance • Sécurité applicative Data • Environnements Hadoop / Oracle Soft skills • Leadership transverse • Capacité à dialoguer avec RSSI & CoDir • Structuration roadmap • Vision stratégique + opérationnelle
Freelance
CDI

Offre d'emploi
Chef de projet Data (H/F)

CGI
Publiée le
GraphQL
Large Language Model (LLM)
Neo4j

1 an
Lyon, Auvergne-Rhône-Alpes
Dans le cadre de projets innovants autour de la valorisation de la donnée, nous recherchons un Chef de Projet Data capable de piloter des initiatives basées sur des modèles de données orientés graph (Graph Data Model) , intégrant des technologies comme Neo4j , et potentiellement des briques IA / LLM . L’objectif est de structurer, piloter et sécuriser la delivery de projets data à forte valeur métier. Piloter des projets Data autour de modèles Graph Coordonner les équipes Data (Data Engineers, Data Scientists, Architectes, Dev) Superviser la conception de modèles de données orientés graph Accompagner l’implémentation de solutions type Neo4j Encadrer les phases de cadrage, POC, industrialisation et mise en production Piloter l’intégration éventuelle de briques IA / LLM Assurer la gouvernance des données (qualité, sécurité, conformité) Suivre planning, budget, risques et reporting
Freelance

Mission freelance
Expertise DataViz et DataScience

Codezys
Publiée le
Azure
CI/CD
Data science

12 mois
Paris, France
La Data & IA Factory (DIAF) de la Direction Data & IA a pour mission : Opérationnaliser les offres de services Servir de centre d’expertise pour outils, méthodes et technologies Concevoir et maintenir (Build & Run) des solutions Data & IA (ex : OneDataLake, InfoCentres, Polaris) Optimiser le cycle de vie des données, processus et outils Définir l’architecture Data Administrer l’environnement technique BGPN sur site et cloud Objectif principal : concevoir, industrialiser et exploiter des solutions Data & IA performantes, sécurisées et résilientes, adaptées aux usages et à la migration vers le cloud. Expertises opérationnelles : Gestion technique des livrables logiciels Leadership, suivi d’activités, satisfaction client Respect des standards de maintenabilité, exploitabilité et sécurité Communication claire sur l’avancement, risques et difficultés Expertises techniques : Architecture Data : Médaillon, Data Mesh Outils de dashboarding : Tableau, PowerBI Plateformes : Dataiku, Azure, DataBricks, Microsoft Fabric Gestion de la QoS : disponibilité, scalabilité, SLA, monitoring Architecture orientée services, automatisation via CI/CD Méthodologies Agile, SAFe, SCRUM Objectifs et livrables Industrialisation des solutions Data & IA Concevoir, construire et exploiter des solutions robustes et performantes sur le long terme. Opérationnalisation de l’offre Data & IA Transformer en services et produits facilement déployables, réutilisables par différents métiers. Expertise technologique : Encadrer en définissant standards, outils et méthodes Data & IA. Architecture et socles Data : Définir une architecture cohérente, évolutive et pérenne pour plateformes et flux de données. Gestion du cycle de vie des données : Assurer ingestion, qualité, traçabilité et exploitation optimale des données. Exploitation technique : Administrer et faire évoluer les environnements Data & IA, garantissant disponibilité, sécurité et performance. La DIAF souhaite renforcer ses compétences en data visualisation et data science, notamment avec PowerBI, Tableau, Dataiku, DataBricks et Azure, pour définir et industrialiser l’offre Self Service et soutenir le déploiement de la Plateforme DataCloud, tout en améliorant la qualité en environnement on-premise. Une expérience minimale de 10 ans dans des missions similaires est requise pour accompagner l’équipe dans la conception, le développement, le test, la documentation, le support et la communication liés à cette offre Self Service.
CDI

Offre d'emploi
Data Engineer H/F

HN SERVICES
Publiée le
BigQuery
Google Cloud Platform (GCP)
Microsoft Power BI

45k-55k €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
HN Services recrute un.e Data Engineer expérimenté à sénior pour intervenir sur un projet Data pour l’un de nos clients situé à Aix-en-Provence. Contexte et mission : Dans le cadre du renforcement de l’équipe Data, vous serez intégré.e à une squad dédiée à la création d’une infrastructure robuste pour le produit DATA. Vous participerez à la conception et au développement de processus d’ingestion, de transformation et d’exposition des données sur la plateforme Google Cloud Platform (GCP). Vous collaborerez étroitement avec d’autres équipes pour : Mettre en place les jobs d’ingestion et de préparation des données. Développer des pipelines de données performants et maintenables. Exploiter les outils de l’écosystème cloud : Composer, dbt, BigQuery. Contribuer à l’amélioration continue des capacités de livraison du produit DATA. Environnement technique : GCP BigQuery, Linux, Python, SQL, dbt, Composer.
Freelance

Mission freelance
Expert Data Privacy (RGPD)

Codezys
Publiée le
Audit
Data privacy
RGPD

12 mois
Lyon, Auvergne-Rhône-Alpes
Objet de la recherche Recrutement d’un expert (+15 ans d’expérience) pour un audit interne sur la gestion des données dans le traitement des réclamations techniques (niveaux 2 & 3). Contextes et enjeux Problème identifié : Perte de contrôle sur les données entre les applications, due à l’absence d’un processus cohérent de suppression et gestion des données personnelles (VILINK, SAP, CRM 360, Coltshare, etc.). Objectifs : Améliorer la gouvernance Data Privacy, la sécurité, la traçabilité, et assurer la conformité réglementaire (ex. HDS, C5). Rôle et responsabilités du prestataire Diagnostic & consolidation des flux de données : cartographie, identification des zones de superflu, stockage et réplication non souhaités. Définition et déploiement des mesures correctives : création d’un SOP pour la suppression cohérente, nettoyage des données existantes, définition des rétentions conformes. Coordination interéquipes : liaison avec IT, Data Privacy, opérations commerciales, BDR, GCS, suivi du plan de remédiation, cohérence dans les contributions. Contribution transversale : supervision du DPIA, déploiement de mesures de sécurité, gestion des risques, support méthodologique en Data Privacy. Livrables attendus Procédure de “Data Deletion Consistent Process Across Applications”. Cartographie validée des flux de données patient. Plan de remédiation consolidé, mis à jour et exécuté. Reporting hebdomadaire et suivi pour les managers GCS. Documents pour révision DPIA et gouvernance post-projet. Tous les livrables mentionnés dans le rapport d’audit partagé au démarrage.
Freelance
CDI
CDD

Offre d'emploi
Expert Data Gouvernance

KEONI CONSULTING
Publiée le
Hadoop
IBM DataStage
PostgreSQL

18 mois
20k-60k €
100-550 €
Paris, France
"Contexte du besoin Dans le cadre de ses missions de définition des politiques de gestion des données et du suivi de leur mise en œuvre, l'activité Gouvernance de la Donnée souhaite renforcer son équipe d'un profil confirmé en la matière. Un accompagnement assorti d'un regard éclairé dans l'exécution des différents pans des missions est demandé MISSIONS · définition des politiques de gestion des données (rôles et responsabilités; · mise en place/alimentation d'un Glossaire métier et d'un Dictionnaire des données; · modalités de suivi de la qualité des données; · modalités permettant d'assurer la sécurité et la conformité réglementaire de l'accès aux données; · articulation avec les capacités de la plate-forme Data choisie par l'entreprise); · mise en oeuvre et suivi de ces politiques, en lien avec les contributeurs nécessaires; acculturation des différentes populations de l'entreprise aux exigences et apports en lien avec la gouvernance des données; · etc.... • Participation le cas échéant au choix des outils de gouvernance des données (rencontres fournisseurs initiées; échanges en cours) • Catalogage / connaissance des données : Définir les standards et bonnes pratiques et en vérifier la bonne application en mobilisant les acteurs requis (SI, métier), assurer l’acculturation nécessaire; • Cartographie des Données : Approfondir la cartographie des données qui aura été initiée (avec les acteurs métier, SI, urbanistes) et être capable de la présenter, la faire adopter et de l’utiliser à des fins de gouvernance des données… • Conformité règlementaire : Garantir que toutes les données respectent les normes internes et externes, en particulier en matière de RGPD et de conformité légale. • Gestion des rôles et animation de la communauté Data : Identifier les relais de la gouvernance dans un contexte de responsabilités fédérées. Mobiliser les acteurs (animation de séminaires, communication…). • Gestion des habilitations : Définir la granularité des habilitations des rôles et utilisateurs identifiés. • Accompagnement de la montée en compétence des autres membres de l'équipe sur des sujets structurants devant être maîtrisés pour mener à bien les missions de l'activité" Livrables attendus "Chapitres thématiques de la politique de Gouvernance des données (rôles et responsabilités; gestion Glossaire/Dictionnaire ; gestion du Data Lineage; sécurité et droits d'accès, dont conformité juridique; Suivi de la qualité des données; process permettant l'évolution de la plate-forme Data" Environnement technique - technologique • couche stockage : TERADATA; HADOOP Cloudera; Postgre • Transformation : DataStage / Spark • BI : Power BI; SAS"
Freelance

Mission freelance
Expert Marketplace / Product Data

Okara
Publiée le
Audit
E-commerce
Gestion des risques

3 mois
400-850 €
Lille, Hauts-de-France
Le contexte : Notre client, acteur de référence de l’équipement de la maison, transforme sa Marketplace en un environnement nativement sécurisé. L'enjeu est de taille : passer d'une vigilance artisanale à une conformité industrielle. Nous recherchons un consultant senior pour piloter ce passage au "Safety by Design" . Les enjeux opérationnels : Face à la volumétrie des inventaires, la modération manuelle a atteint ses limites. Vous intervenez pour structurer des mécanismes de blocage natifs dès le référencement. Le projet s’articule autour de la cohérence des catalogues (Modèle Commun) et l’intégrité des données réglementaires avant toute mise en ligne. Votre périmètre d'intervention : Directement rattaché à la direction Marketplace, vous agissez comme un véritable partenaire stratégique pour : Audit & Challenge : Analyser la robustesse des processus actuels et arbitrer le curseur entre fluidité business et "Business Stoppers". Feuille de route : Challenger les choix de blocage (gel des offres vs blocage catalogue) au regard des réalités du marché. Sourcing technologique : Identifier et recommander les solutions de filtrage automatisé (IA, reconnaissance d’images, API de conformité) les plus pertinentes.
Freelance

Mission freelance
Data Modeler PROGRAMME DE TRANSFORMATION DATA B2B sur Paris

EterniTech
Publiée le
BigQuery
Google Cloud Platform (GCP)
Modélisation

6 mois
Paris, France
Mission : Data Modeler – Transformation Data B2B sur Paris Projet : Senior Data Analyst / Data Modeler (B2B) Contexte : Programme de transformation Data B2B, création d’un nouvel espace de données sur Google Cloud Platform / BigQuery . Approche : Greenfield – reconstruction des produits de données depuis le SI legacy B2B vers GCP (BigQuery/Vertex AI). Équipe : Intégré à la “Core Team” pour bâtir le socle technique et les données de référence utilisées par les Squads Métiers. Démarrage : ASAP / URGENT Objectif de la prestation : Le prestataire sera Référent Modélisation & Connaissance de la Donnée , faisant le lien entre Experts Métiers et Lead Data Engineer Agile. Responsabilités principales : Conception du Core Model : Modéliser les objets métiers structurants (RCU, Contrats, Parc, Facture) sur BigQuery (Star Schema / Data Vault). Règles de Gestion RCU : Définir/prototyper en SQL les règles de rapprochement entre données techniques et légales (SIREN/SIRET). Archéologie de la Donnée : Analyser les sources legacy (Oracle), identifier règles implicites et écarts avec la cible. Gouvernance & Dictionnaire : Documenter les métadonnées dans AIDA et ODG. Support aux Squads : Préparer des datasets certifiés pour Data Scientists et Analystes. Livrables attendus : Modélisation cible : Modèles Logiques de Données validés par Tech Lead. Mapping Source-to-Target. RCU / Vision 360 : Spécifications SQL des règles d’unicité, matrice de cas particuliers. Gouvernance : Dictionnaire de données intégré dans AIDA et ODG. Qualité des données : Définition des règles DQ pour chaque objet métier. Prototypage / exploration : Requêtes SQL et datasets de test pour validation métier. Planning clé : 1er draft RCU : mi-mars 2026 MVP RCU : fin mars 2026 Gouvernance et qualité : continu Prototypage : à la demande
3278 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous