Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 5 926 résultats.
Freelance

Mission freelance
Data Product Owner (h/f)

emagine Consulting SARL
Publiée le

1 mois
111 €
92000, Nanterre, Île-de-France
emagine recherche pour un de ses clients un Data Product Owner . Vos missions : Contribuer à la définition de la vision produit Décliner cette vision en roadmap priorisée et alignée avec les enjeux business. Pilotage de la performance produit. Gestion des stakeholders. Amélioration continue et cadre Data. Participer aux rituels agiles (refinement, sprint planning, review, rétro). Favoriser une culture produit orientée valeur et impact. Votre profil: Expérience confirmée (minimum 5 ans) en tant que Product Owner. Anglais courant Connaissance de Tableau software. Environnement data, BI ou intelligence artificielle, idéalement en contexte agile. Bonne compréhension des enjeux data en environnement complexe : modélisation, qualité des données (accuracy, completeness, etc.), usages et valorisation. Maîtrise des méthodologies agiles, notamment SCRUM. Certification de Product Owner Détails supplémentaires: Ce poste offre l'opportunité de travailler dans un environnement dynamique, orienté données, convenant aux candidats passionnés par la gestion de produit en contexte agile.
Freelance
CDI

Offre d'emploi
Mission – Développeur Python

OMICRONE
Publiée le
Azure
Big Data
Python

3 ans
40k-45k €
400-500 €
Île-de-France, France
📢 Mission – Développeur Python Confirmé (H/F) Dans le cadre d’un échange avec l’un de nos clients, nous recherchons un développeur Python confirmé pour intervenir sur des projets à forte valeur ajoutée. 🔹 Missions Développement et évolution d’applications data / backend Python Participation à des projets de bout en bout (design → production) Collaboration étroite avec les équipes business, infra et sécurité Contribution à des environnements cloud Azure 🔹 Profil recherché Développeur Python confirmé (5+ ans) Expérience en environnement Azure / data / APIs Capacité à intervenir en autonomie sur des sujets end-to-end Bonne compréhension des enjeux métier Anglais professionnel requis 🔹 Conditions 📍 Localisation : paris 💼 Mission long terme (pas de mission courte) 🚫 Non ouvert à la sous-traitance
Freelance
CDI

Offre d'emploi
Expert Data Engineer / DevOps

R&S TELECOM
Publiée le
Apache Kafka
Java
Kubernetes

6 mois
40k-45k €
400-500 €
Bordeaux, Nouvelle-Aquitaine
Contexte de la mission Dans le cadre d’un programme structurant de modernisation du système d’information , nous recherchons un profil Data Engineer / DevOps senior pour renforcer une équipe existante. La mission s’inscrit au cœur du SI cible , au service de plusieurs applications critiques orientées data, intégration et services temps réel. Le poste vise à industrialiser les chaînes DevOps et à structurer les flux Data Lake dans un environnement cloud native, fortement automatisé et orienté open source . Démarrage souhaité : mai / juin Localisation : Rive gauche bordeaux, nécessite un véhicule Objectifs de la mission Le rôle est double : DevOps / Plateforme Industrialisation et sécurisation des chaînes d’intégration et de déploiement Standardisation des pratiques GitOps sur un socle Kubernetes multi‑environnements Renforcement de l’automatisation et de l’observabilité des plateformes applicatives et data Data / Streaming Accompagnement à la conception et à la standardisation des flux data temps réel Structuration d’un Data Lake orienté streaming et lakehouse Garantie de la performance, de la résilience et de la maintenabilité des flux Domaines d’intervention & compétences clés Socle Kubernetes & DevOps Orchestration : Kubernetes (Namespaces, Ingress, RBAC) GitOps : GitLab CI, Helm, ArgoCD Observabilité : Grafana, Prometheus, Loki, Tempo Sécurité CI/CD : SAST, DAST, Trivy Environnements : OpenStack Écosystème Data & Data Lake Streaming & CDC : Kafka, Debezium Processing : Spark SQL, Airflow Lakehouse : Apache Iceberg Query Engine : Trino (PrestoSQL) Stockage objet : Ceph (ou équivalent) Micro‑services & APIs Runtimes : Java / Quarkus, Python API Management : Kong Protocoles : MQTT (atout) Optimisation des performances applicatives et data Livrables attendus (exemples) Socle & automatisation Mise en place d’architectures ArgoCD (Application of Applications) Catalogue de Charts Helm industrialisés Bibliothèque de pipelines GitLab CI/CD standardisés et sécurisés Data & Streaming Provisionnement automatisé des clusters Kafka et connecteurs Debezium Configuration optimisée de Trino sur stockage objet Mise en place des DAGs Airflow pour l’orchestration des traitements Documentation & MCO Dashboards de supervision avancés Rédaction du Dossier d’Architecture Technique (DAT) Rédaction de Runbooks MCO / PRA Définition de standards techniques et bonnes pratiques cloud native Profil recherché Expérience confirmée (5 à 8 ans minimum) en DevOps, Data Engineer ou Platform Engineer Très bonne maîtrise de Kubernetes et des pratiques GitOps Expérience concrète sur des plateformes Kafka et Data Lake À l’aise dans des contextes SI complexes et structurants Capacité à travailler en collaboration étroite avec équipes de développement, architectes et chefs de projet Autonomie, rigueur, sens de l’industrialisation
Freelance
CDI

Offre d'emploi
Développeur CONFIRME Big Data Hadoop/PySpark/Python - 3 à 6 ans

Digistrat consulting
Publiée le
Apache Hive
Apache Spark
Hadoop

3 ans
38k-43k €
300-400 €
Paris, France
🏭 Secteurs stratégiques : Banque d’investissement PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Le département a lancé un programme stratégique, qui comporte plusieurs projets d'harmonisation des processus et outils. L'un de ces streams a pour vocation de constituer un datalake sur une stack Hadoop, afin de servir les besoins en data et reporting. Ce datalake a également pour vocation de devenir la brique centrale de l'architecture du SI . Nous recherchons un profil Hadoop / PySpark qui sera en charge, en lien avec l'équipe de production applicative / devops, de mettre en œuvre techniquement les évolutions du datalake. Passionné par les données, capable de s’adapter à un environnement dynamique et en constante évolution, le prestataire doit faire preuve d'autonomie, d'initiative et d'une forte capacité d'analyse pour résoudre des problèmes complexes. 🤝Principales missions : Les tâches suivantes seront confiés au consultant : • Mettre en œuvre de nouvelles ingestions de données, data prep/transformation • Maintenir et faire évoluer nos outils de gestion des pipeline de données (Pyspark + shell scripting) • Adresser à l'équipe devops les demandes relatives aux évolutions de la plateforme • Eventuellement mettre en œuvre une couche d'APIs afin d'exposer nos données
Freelance
CDI

Offre d'emploi
Data Modelisation sur Paris

EterniTech
Publiée le
BigQuery
Merise

3 mois
Paris, France
e cherche pour un de mes clients un Data Modelisation Description du besoin : OBJET DE LA PRESTATION : DATA MODELER - PROGRAMME DE TRANSFORMATION DATA B2B NOM DU PROJET : TRANSFORMATION DATA B2B Senior Data Analyst / Data Modeler (B2B) Cadre et environnement (Contexte général du projet) Dans le cadre du programme de transformation de la Data B2B (Agite Data), le client construit son nouvel espace de données sur la plateforme Groupe AIDA (Google Cloud Platform/BigQuery). La stratégie adoptée est une approche "Greenfield" : reconstruction des produits de données (et non migration "Lift & Shift") depuis le SI legacy B2B vers GCP (BigQuery/Vertex AI). La prestation s'intègre au sein de la "Core Team", l'équipe transverse chargée de bâtir, en mode agile, le socle technique et les données de référence (RCU, Pivots) qui serviront ensuite aux Squads Métiers pour bâtir leurs cas d'usages Définition de la prestation (Objet & Périmètre de la prestation) Le Prestataire agira en tant que Référent Modélisation & Connaissance de la Donnée. Il fera le lien entre les Experts Métiers et le Lead data engineer agile. 1) Conception du "Core Model" : Modéliser les objets métiers structurants (RCU, Contrats, Parc, Facture) en cible sur BigQuery (Modèles en étoile / Data Vault). 2) Règles de Gestion RCU : Définir et prototyper (en SQL) les règles de rapprochement (Matching/Merging) permettant de lier les données techniques (ex: ND) aux données légales (SIREN/SIRET). 3) Archéologie de la Donnée : Analyser les sources Legacy (Oracle) pour identifier les règles implicites et cartographier les écarts avec la cible. 4) Gouvernance & Dictionnaire : Rédiger les définitions fonctionnelles directement dans le Data Catalog d'AIDA (Métadonnées BigQuery) et le Data Catalog Métier (ODG = Open Data Guide) pour garantir l'autonomie des futures Squads. 5) Support aux Squads : Préparer des "Data Sets" certifiés pour faciliter le travail des Data Scientists et Analystes des Squads Métiers. Activités / Lots Résultats attendus / Livrables associés Planning / Date de livrables Modélisation Cible Modèles Logiques de Données (MLD) validés par le Tech Lead. Mapping Source-to-Target détaillé. Itératif : 1er Draft RCU mi-Mars 2026 Définition du RCU (Vision 360) Spécification SQL des règles d'unicité client (Clés de réconciliation). Matrice de gestion des cas particuliers (Multi-comptes, Flottes). MVP RCU : Fin Mars 2026 Gouvernance des Données Dictionnaire de données (Business Glossary) intégré dans AIDA et ODG Règles de Qualité (DQ Rules) définies pour chaque objet métier Continu Exploration & Prototypage Requêtes SQL d'analyse d'impact. Datasets de test pour validation métier. A la demande Domaines de compétences et savoir faire de la société prestataire, nécessaires à la bonne réalisation de la prestation : Indispensable : Modélisation de Données Expert : Maîtrise des concepts théoriques (Merise, 3NF) et dimensionnels (Star Schema, Kimball). Capacité à simplifier des modèles complexes. SQL Avancé : Capacité à manipuler la donnée (Requetage complexe, Window Functions) pour valider ses propres modèles (pas de spécifications "papier" uniquement). Analyse Fonctionnelle : Capacité à dialoguer avec le Métier (Marketing, Finance) pour extraire les règles de gestion. Expérience avérée dans un cadre de travail Agile / Scrum. Connaissance su secteur B2B/ TELECOM : Compréhension des notions de Hiérarchie de comptes, Parcellaire, SIRET/SIREN. Connaissance de l’environnement BIGQUERY Savoir-être : Esprit de synthèse. Force de proposition (ne pas attendre que le métier dicte le modèle). Pragmatisme (livrer de la valeur incrémentale).
Freelance

Mission freelance
Développeur confirmé DATABRICKS (Lyon)

SQLI
Publiée le
Azure Data Factory
Java

1 an
450-560 €
Lyon, Auvergne-Rhône-Alpes
Hello, Pour le compte de l'un de mes clients Lyonnais, je suis à la recherche d'un développeur confirmé Databricks. QUALITES RECHERCHEES : • Connaissances avancées fonctionnelles des technologies suivantes : Postgres, PowerBI, Databreaks, Angular/React en mode Cloud et On Primise au possible • Pilotage / Supervision technique haut niveau de l’équipe en fonction des besoins • Expérience significative dans la mise en oeuvre de besoin impliquant plusieurs SI • Force de proposition sur l’amélioration de la surveillance de l’application et sur les évolutions techniques de l’application • Capacité à prendre du recul et à avoir une vision globale sur les technologies utilisées • Capacité à gérer les contraintes de délai et les périodes de stress inhérentes au projet • Expérience dans l’analyse des besoins techniques et dans l’animation d’ateliers techniques • Bonne communication et bonne capacité à s’adapter à ses interlocuteurs • Une expérience dans l'énergie serait un plus
Freelance

Mission freelance
Product Owner Data (H/F)

Freelance.com
Publiée le
Business Object
Gherkin
Google Cloud Platform (GCP)

3 ans
400-590 €
Maisons-Alfort, Île-de-France
Dans le cadre d’une équipe Data / BI dédiée aux besoins de reporting, infocentres et valorisation de la donnée, nous recherchons un Product Owner Data expérimenté . Le poste s’inscrit dans un environnement Agile à l’échelle, avec une forte interaction entre les équipes métier, data et IT. Le Product Owner sera responsable du pilotage fonctionnel et de la priorisation des besoins produits autour de la donnée , avec pour principales missions : porter la vision produit et contribuer à son exécution ; participer à l’ exploration continue des besoins ; définir, rédiger et prioriser les features et user stories ; gérer et animer le backlog produit ; contribuer à la stratégie de tests, recette et validation fonctionnelle ; accompagner les utilisateurs dans la conduite du changement ; assurer un reporting régulier auprès des parties prenantes ; participer à la gestion des incidents de production ; collaborer étroitement avec les équipes techniques, architectes, Scrum Master et responsables de train Agile. Le poste couvre l’ensemble du cycle projet : cadrage fonctionnel ; conception ; recette ; automatisation des tests ; déploiement ; support utilisateur ; amélioration continue.
Freelance
CDI

Offre d'emploi
Data Engineer

TEOLIA CONSULTING
Publiée le
Google Cloud Platform (GCP)
PL/SQL

12 mois
45k-50k €
400-430 €
Lille, Hauts-de-France
Dans le cadre de sa transformation digitale, notre client, grand acteur du retail, cherche à renforcer son équipe produit Data pour faire évoluer une plateforme stratégique de gestion et d’optimisation des approvisionnements. Cette plateforme traite des volumétries importantes de données et joue un rôle clé dans la prise de décision métier . 🎯 Vos missions Intégré(e) à une équipe produit agile, vous intervenez sur : 🔧 Data Engineering (GCP) Conception et développement de pipelines ETL/ELT Traitement et intégration de données (APIs, fichiers, bases) Optimisation des performances sur BigQuery Orchestration des flux (Airflow / Composer) 🛠️ Run & support Analyse et résolution d’incidents (N2/N3) Écriture de scripts Bash pour automatisation Requêtes SQL complexes pour diagnostic et exploitation 📊 Data & monitoring Garantie de la qualité et cohérence des données Mise en place de monitoring et alerting (Grafana, outils GCP) Création de dashboards de suivi ☁️ Infrastructure & industrialisation Participation à l’IaC (Terraform) Contribution à la CI/CD (GitLab CI) Amélioration continue des pipelines et process 🧰 Environnement technique Cloud : GCP (BigQuery, Dataflow, Pub/Sub, Composer) Data : SQL avancé, ETL/ELT Scripting : Bash CI/CD & IaC : GitLab CI, Terraform Monitoring : Grafana, outils GCP Bases de données : BigQuery, Oracle OS : Linux
Freelance
CDI

Offre d'emploi
Consultant Senior Data & Finance – Étude de Faisabilité SI Finance

VISIAN
Publiée le
Architecture
Data management

3 ans
40k-44k €
450-490 €
Marseille, Provence-Alpes-Côte d'Azur
Contexte Dans le cadre d’un programme stratégique de transformation des systèmes d’information Finance, une organisation internationale souhaite étudier l’intégration de données financières issues de multiples entités opérationnelles vers des datamarts Finance Groupe. L’environnement est caractérisé par : une forte hétérogénéité des systèmes (multi-ERP), des niveaux de maturité variables selon les entités, une gouvernance des données décentralisée. La mission s’inscrit dans une phase de cadrage stratégique, exclusivement orientée analyse et aide à la décision (aucune activité de développement ou de build). Missions Analyser les processus Finance (comptabilité fournisseurs, clients, grand livre) au sein de différentes entités Identifier les besoins métiers liés à l’alimentation de datamarts Finance Évaluer la qualité, la disponibilité et la cohérence des données existantes Étudier les architectures SI et data en place (ERP, flux, stockage) Identifier et comparer différents scénarios d’intégration des données (batch, API, cloud) Analyser les contraintes techniques, organisationnelles et réglementaires Évaluer les modèles de gouvernance et les règles de gestion des données Identifier les risques, dépendances et proposer des plans de mitigation Construire des scénarios de faisabilité (coûts, complexité, scalabilité) Produire une recommandation argumentée pour orienter la décision (Go / No Go) Contribuer aux comités de pilotage et aux reportings d’avancement Livrables attendus Analyse des processus Finance (AP / AR / GL) Cartographie des systèmes (ERP et data) Évaluation de la qualité et de la structure des données Scorecards de faisabilité par périmètre Étude des patterns d’intégration Schémas d’architecture cible (niveau macro) Analyse des risques et contraintes Scénarios comparatifs de mise en œuvre Rapport de faisabilité consolidé avec recommandation Supports de pilotage projet Environnement technique ERP : multi-environnements (type SAP, Sage, IFS, Navision) Data : plateformes data groupe / data cloud Intégration : batch, API, flux inter-systèmes, cloud-to-cloud Gouvernance : standards data et cybersécurité groupe
CDD
CDI
Freelance

Offre d'emploi
Consultant Juriste Confirmé Data Privacy-RGPD 2

KEONI CONSULTING
Publiée le
Architecture
Méthode Agile
Privacy Impact Assessment (PIA)

18 mois
20k-60k €
100-450 €
Toulouse, Occitanie
Contexte Recherche en Droit Numérique MISSIONS - Assister et conseiller les chefs de projets Informatiques dans l'identification des données à caractères personnelles, des traitements associés, documenter les livrables RGPD selon la méthodologie CNIL en lien avec l'expert Sécurité des Systèmes d'Information dans le respect de la méthode Groupe, définir et recetter les exigences, identifier / évaluer les risques en matière de protection des données et proposer des actions de remédiation. - rédiger les AIPD /PIA en lien avec les Métiers et les DPO concernés, les filières Juridiques/Achat, Conformité du Groupe mais également pour - Contribuer à la sensibilisation des collaborateurs au quotidien en matière de Privacy (RGPD, Cookies et Traceurs, usages Data et IA...) des systèmes d'information. - Effectuer une veille en matière de Protection des données - Assurer le support en cas de violations de données, demandes de la CNIL et d'exercices de droits et en assurer le support auprès des plateformes Métiers et en lien avec la Direction Protection des Données du Groupe Vous êtes autonome rigoureux, pédagogue, communicant, dynamique et proactif. Expertises spécifiques : Compétences Juridiques Requises / Certification DPO CNIL indispensable Compétences informatiques : MOOC ANSSI, Architecture des SI, Iso 27001/27005/27701 Connaissances des métiers Banque et Assurances requises Connaissances Méthode Projet Agile
Freelance
CDI

Offre d'emploi
Data Engineer GCP

CAT-AMANIA
Publiée le
Apache Airflow
BigQuery
Data Engineering

1 an
40k-50k €
350-400 €
Lille, Hauts-de-France
Vous serez intégré dans une équipe pluridisciplinaire (Data Engineer, DevSecFinOps) Vous travaillerez sur un use case dédié en collaboration avec les équipes Data (tech lead, gouvernance et architectes). Vous devrez avoir une approche FINOPS (Maîtrise et diminution des coûts) BUILD - Interlocuteur lors de la contribution à des projets dans le domaine de la Supply - Conception de solutions en respectant les normes et framework data - Développement, Modélisation sous la gouvernance de l'architecture data - Contribution au développement d'appli - Tests - Reporting RUN : - Maintien en condition opérationnelle de notre périmètre de responsabilité (4 référentiels de données opérationnels (RDO) multi sourceurs, 6 applications) - gestion des incidents - mise en production (via Git) - suivi de flux EXPERTISE : - Montée en compétence sur notre SI et notre domaine de responsabilité
Freelance

Mission freelance
Data Architecte

ROCKET TALENTS
Publiée le
Apache Kafka
Architecture
Cloud

1 an
500-600 €
Nantes, Pays de la Loire
Description Prestation d'Architecture au sein d'une nouvelle plateforme Data IA chez notre client. La mission consiste : - de par son expertise à accompagner le client dans cette transition technologique - à conseiller sur la nouvelle nouvelle architecture cloud-native et orienté self-service en intégrant des solutions modernes telles que Kafka, Iceberg, Trino et S3. - à accompagner l'équipe en charge du socle service data pour challenger les choix d'architecture autour des solutions d'observabilité offertes par OpenMetadata, SODA et/ou Great Expectations par exemple. - à participer à la conception d'architectures robustes et évolutives, tout en garantissant la conformité RGPD et la sécurité des données. - à travailler en étroite collaboration avec les Product Owners, Tech Lead, Data Stewards et DevOps pour assurer l'intégration harmonieuse des nouveaux produits. Qualifications demandées : Apache Kafka,Cloud Architecture.
CDI

Offre d'emploi
Data engineer informatica expérimenté H/F

TOHTEM IT
Publiée le

40k-45k €
Toulouse, Occitanie
Pour un client, nous recherchons un·e Data Engineer Informatica expérimenté·e . Tu interviens sur un environnement data structurant avec un objectif clair : challenger les modèles de données et les flux existants, les optimiser et les rendre plus robustes . Le contexte technique évolue vers Informatica Cloud : tu seras donc amené·e, au fil des sujets, à manipuler de plus en plus IICS en complément de PowerCenter. Tes missions Analyser et challenger les modèles de données Revoir les flux ETL Informatica pour : améliorer les performances simplifier les traitements renforcer la qualité des données Concevoir des solutions pérennes et industrialisées Intervenir sur des problématiques complexes de production Travailler avec les équipes métier, architecture et data Être force de proposition sur les choix techniques ➡ Dans le cadre de la mission, tu toucheras progressivement à : Informatica Cloud (IICS) nouveaux patterns d’intégration architectures data plus modernes
CDI
Freelance

Offre d'emploi
Architecte Fonctionnel

WE +
Publiée le
AMOA
Architecture
Big Data

6 mois
40k-45k €
600-700 €
Île-de-France, France
Architecte Fonctionnel – Île-de-France Localisation : Île-de-France Démarrage : Asap Type : Mission en prestation renouvelable Contexte : Dans le cadre d’un environnement SI Data au cœur d’un écosystème Big Data , nous recherchons un Architecte Fonctionnel / AMOA Data pour intervenir sur des projets allant de la phase de cadrage jusqu’au déploiement en production . Le poste s’inscrit dans un contexte de transformation et de structuration du système d’information décisionnel et opérationnel , avec des enjeux de conception fonctionnelle , urbanisation , modélisation de données , coordination projet et accompagnement métier . Le candidat évoluera au sein d’une équipe dynamique, en interaction étroite avec les urbanistes fonctionnels , chefs de projets , MOA , métiers , ingénieurs Data , éditeurs et experts solutions . Missions : En étroite collaboration avec les urbanistes fonctionnels , les chefs de projets , la MOA et les métiers , vous serez en charge des missions suivantes : Cadrage des besoins Accompagner la MOA et le métier durant les phases de cadrage des besoins Identifier et instruire les demandes d’évolutions et/ou les nouveaux projets S’assurer de la faisabilité de la solution proposée en coordination avec les chefs de projets, les éditeurs, les ingénieurs Data et les experts solutions Conception technico-fonctionnelle Concevoir et porter les solutions technico-fonctionnelles Réaliser la modélisation de données Co-construire les spécifications fonctionnelles avec les ingénieurs Data Accompagner l’équipe sur les aspects fonctionnels tout au long du projet Urbanisation du SI Participer à la tenue à jour de la cartographie applicative du SI décisionnel et opérationnel Participer à la définition de la trajectoire urbanistique du SI décisionnel et opérationnel à court et moyen terme Faire le lien avec les urbanistes Tests et recette Participer à la recette avec la MOA Apporter son expertise fonctionnelle lors de l’élaboration de la stratégie de test Gouvernance et suivi Participer aux comités Communiquer sur les solutions data , les plannings et les chiffrages Contribuer à l’ optimisation des processus Compléter les tableaux de suivi Mettre à jour les informations dans l’outil de suivi des projets et des budgets Communiquer auprès de l’équipe et de son manager l’ état d’avancement des solutions, chiffrages et plannings Remonter les alertes et les opportunités Environnement technique Gestion de projet Gestion de projets Data de la phase de cadrage jusqu’au déploiement en production Périmètre SI / Data SI Data : projets au sein d’un environnement centré sur la Data et le Big Data SI décisionnel : cartographie applicative, trajectoire urbanistique, spécifications fonctionnelles SI opérationnel : suivi des évolutions, cohérence fonctionnelle, accompagnement des projets Données : modélisation de données, contribution à la conception des solutions technico-fonctionnelles Cadre de delivery & pilotage Parties prenantes : urbanistes fonctionnels, chefs de projets, MOA, métiers, ingénieurs Data, éditeurs, experts solutions Pilotage : comités, plannings, chiffrages, suivi des projets et des budgets Qualité : recette, stratégie de test, suivi de l’avancement, remontée des alertes et opportunités Profil recherché Minimum 10 à 15 ans d’expérience sur des sujets Data Expérience confirmée dans des environnements grands comptes Expérience appréciée en mode consulting Bonne compréhension des environnements SI décisionnels et opérationnels Maîtrise de l’ AMOA , de l’ architecture fonctionnelle et de la conception technico-fonctionnelle Capacité à intervenir de la phase de cadrage jusqu’à la mise en production Qualités attendues Rigueur et structuration Bonne communication Esprit d’analyse Capacité de coordination Esprit de synthèse
CDI

Offre d'emploi
Senior Data Engineer F/H

Atecna
Publiée le
Apache Airflow
DBT
ETL (Extract-transform-load)

Lille, Hauts-de-France
Des missions data à fort impact, une communauté en pleine expansion. Tu arrives au bon moment ! Atecna, c'est une agence d'expérience digitale avec une mission claire : intégrer l'innovation technologique de manière responsable pour assurer la compétitivité et la performance de nos clients. Un ensemble d'experts qui couvrent toute la chaîne de valeur du digital : du cadrage à l’adoption. Et derrière tout ça, près de 200 Atecniens répartis sur 6 agences. 👥 Ta future équipe Tu rejoins la communauté Data, animée par Steve et une équipe d'experts passionné·es en pleine structuration. Une équipe qui capitalise sur ses expériences projets et partage activement ses bonnes pratiques et sa veille sur l'écosystème data. Tu es en mission chez nos clients, mais tu contribues aussi à quelque chose de plus grand : faire grandir l'expertise Data d'Atecna de l'intérieur. ⚡ Ton impact au quotidien Grâce à toi, nos clients cessent de subir leurs données et commencent à en faire un vrai levier de décision. Tu conçois et industrialises des pipelines data robustes (ETL/ELT, batch, streaming) Tu orchestres les flux avec les bons outils (Airflow, dbt…) dans des environnements cloud (GCP en priorité) Tu modélises et optimises des bases de données pour des usages métiers concrets Tu contribues à la structuration de la communauté Data Atecna : pratiques, standards, montée en compétences Bonus : tu as déjà monté une plateforme data from scratch ou tu as une appétence pour le mentorat ? Ce serait un vrai atout pour nous.
Freelance
CDI

Offre d'emploi
Data Analyst MSBI

UCASE CONSULTING
Publiée le
Cognos
Microsoft SSIS

12 mois
40k-45k €
400-550 €
Paris, France
Le data Analyst BI a pour mission de consolider les données clients à des fins analytiques et statistiques. Il intervient sur les projets stratégiques : lancement de produit, consolidation financière, étude de risques, suivi d’activité. Dans le cadre de ses missions, il échange avec l’ensemble de l’équipe data et travaille en collaboration étroite avec les experts métiers de la finance, du risque et du marketing pour fournir des données consolidées de qualité. Il sait vulgariser ses travaux pour les partager et comprendre les priorités du métier. Le développement, l’industrialisation et le déploiement de flux de données font partie de ses missions principales. Il est également amené à suivre et à améliorer continuellement la qualité de nos livrables et de notre run. Il travaille dans un contexte agile au sein d’une équipe pluridisciplinaire (Architect, Analyst, Scientist) et d’experts passionnés par la data et les nouveaux usages. Il partage efficacement sur ses travaux en maintenant la documentation de l’équipe à jour et en réalisant des présentations. Enfin il veille en permanence sur les ruptures technologiques et réalise des POC pour mieux les appréhender. Missions : • Challenge, cadrage, chiffrage et priorisation des besoins métiers • Exploration et fouille de données • Industrialisation de traitement • Suivi du RUN • Documentation

Déposez votre CV

  • Fixez vos conditions

    Rémunération, télétravail... Définissez tous les critères importants pour vous.

  • Faites-vous chasser

    Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.

  • 100% gratuit

    Aucune commission prélevée sur votre mission freelance.

5926 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous