Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 221 résultats.
Freelance

Mission freelance
Data Engineer Talend (habilitation requise)

Signe +
Publiée le
Talend

12 mois
400-610 €
Paris, France
Contexte Dans le cadre du développement du DataLab, le Data Office souhaite renforcer ses équipes afin d’accélérer les projets BI, Data Analytics et Data Management et soutenir les initiatives de valorisation des données métiers. Besoin consultant Talend pour T… Objectifs de la mission Concevoir et développer des pipelines de données performants et évolutifs Participer à l’industrialisation et à l’optimisation des flux data Contribuer à la qualité, la fiabilité et la valorisation des données Responsabilités principales Concevoir, développer et optimiser des flux de données sous Talend Collaborer avec les équipes métiers, Data Analysts et Data Architects pour traduire les besoins fonctionnels en solutions techniques Garantir la qualité et la performance des traitements de données Mettre en place des processus de validation, nettoyage et fiabilisation des données Participer aux revues de code et au partage de compétences avec l’équipe Data Engineering Proposer des améliorations continues des outils, méthodes et processus Compétences requises Maîtrise de Talend (développement de pipelines, intégration de données) Bonne compréhension des architectures Data et des bonnes pratiques de traitement des données Expérience en collaboration avec équipes data et métiers Sens de la qualité de données, performance et industrialisation des flux Contraintes spécifiques Mission basée à Vélizy avec déplacements ponctuels Nationalité française requise (accès site)
CDI
Freelance

Offre d'emploi
Proxy Product Manager

Ela Technology
Publiée le
JIRA
Trello

6 mois
40k-45k €
400-460 €
Auberville, Normandie
Rejoignez une équipe innovante et prenez part au déploiement mondial d’une solution digitale stratégique , utilisée par plus de 3000 utilisateurs dans 550 sites à travers le monde . En tant que Proxy Product Manager , vous jouerez un rôle clé entre les besoins métiers internationaux et les équipes de développement, pour maximiser la valeur d’un produit digital à fort impact opérationnel. Vous contribuez à l’évolution, à la performance et à l’adoption d’un produit digital majeur. Votre rôle s’articule autour de 4 axes principaux : 🚀 1. Stratégie & Backlog (BUILD) Collecte des besoins auprès des Key Users internationaux Priorisation du backlog en fonction de la valeur métier et du ROI Définition des User Journeys et transformation en Epics/fonctionnalités Suivi du développement via JIRA Coordination UI/UX via Trello Gestion des synergies avec les autres outils de l’écosystème digital 📊 2. Pilotage de la valeur & KPIs Suivi des KPIs d’usage et de performance Analyse des données d’utilisation pour améliorer continuellement le produit Communication régulière des résultats aux parties prenantes 🤝 3. Animation & rituels agiles Préparation/participation aux ComOp Animation des Revues de Sprint Coordination mensuelle avec les Key Users internationaux Suivi opérationnel via Smartsheet 🔐 4. Support, Cybersécurité & Documentation (RUN) Supervision des tickets Level 2 & 3 via ServiceNow Contribution aux remédiations cybersécurité Rédaction/mise à jour de la documentation technique et utilisateur Mise à jour régulière des release notes 🎓 5. Formation & Dashboarding Participation aux sessions de formation utilisateurs Mise en place de dashboards DataStudio avec le Data Engineer/Analyst 👥 Écosystème avec lequel vous collaborerez UX/UI Data Engineer / Analyst Product Sales & Communication Manager Product Owner Développeurs Experts métiers & Key Users internationaux Équipes cybersécurité, service management, data, communication
Freelance

Mission freelance
Business analyst dynamics(H/F)

Freelance.com
Publiée le
Microsoft Dynamics

3 ans
400-600 €
Île-de-France, France
Nous recherchons un Business Analyst technique spécialisé Dynamics pour intervenir au sein d’une équipe CRM. Véritable bras droit du Product Owner , vous jouerez un rôle clé dans la définition, la conception et la mise en œuvre des solutions techniques. Vous serez l’interface entre les équipes IT et les parties prenantes métiers afin de garantir la cohérence fonctionnelle, la faisabilité technique et la qualité des livrables. 🧩 Missions principales📌 Spécification & gestion du backlog Rédaction des User Stories et des tests d’acceptation Accompagnement du PO dans le suivi des US technico-fonctionnelles (TOPIC, API, mapping, alignement…) Participation aux rituels Agile Collaboration avec les équipes techniques pour concevoir des solutions adaptées aux besoins métiers Rédaction de spécifications détaillées (UML, modèles de données, flux de processus) Analyse de la faisabilité technique en tenant compte des contraintes du SI Coordination avec les applications connexes pour définir les interfaçages et les plans de recette End-to-End Travail transverse avec UX Designer, Data Analyst et équipe Change 🚀 Delivery & Run Pilotage de la recette avec l’équipe de test Définition des plans de test et coordination des phases de validation Organisation et exécution des campagnes de tests End-to-End Tests d’API, analyse de bases de données et lecture de topics (Swagger, Postman, MongoDB…) Support utilisateurs et gestion des incidents (suivi des tickets, respect des SLA) Paramétrage et pilotage des tableaux de bord Dynamics Analyse et traitement des demandes issues des applications connexes 📚 Documentation Maintien et mise à jour de la documentation fonctionnelle Rédaction des contrats d’interfaçage 🛠️ Compétences techniques Excellente capacité d’analyse et de synthèse Maîtrise des environnements techniques : MongoDB, Kafka, Postman… Compréhension des architectures techniques Expérience confirmée en environnement Agile (idéalement SAFe) Expérience en gestion d’incidents et suivi de run Bonne connaissance de Microsoft Dynamics 365 (modules CRM, Sales Accelerator, troubleshooting…) 🤝 Qualités attendues Rigueur et sens du détail Excellent esprit d’équipe Communication claire et efficace Autonomie et proactivité
Freelance

Mission freelance
Data Product Owner

SKILLWISE
Publiée le
Azure
MySQL
Python

3 mois
400-550 €
La Défense, Île-de-France
Nous recherchons pour un de nos clients un Data Product Owner qui sera le responsable de la vision analytique d’un domaine métier. Son rôle est de comprendre en profondeur les besoins des utilisateurs, de transformer ces besoins en produits data concrets et de garantir que les équipes techniques livrent des solutions fiables, utiles et alignées sur les priorités de l’entreprise. Il travaillera au quotidien avec les métiers, les Data Engineers, les Data Analysts et les équipes IT pour créer de la valeur grâce aux données.
CDI

Offre d'emploi
Data Engineer (H/F)

Link Consulting
Publiée le
Big Data
Python
SQL

38k-40k €
Castelnaudary, Occitanie
Notre client, acteur majeur du secteur de la grande distribution, recherche son futur Data Engineer (H/F) pour son site basé dans l'Aude, à 45 minutes de Toulouse, dans le cadre du développement et de l’évolution de ses outils de pilotage. ### Vos missions Intégré à l’équipe informatique du client, vous devrez : * Centraliser et fiabiliser les données issues des outils métiers (logistique, commerce, marketing, qualité, finance). * Concevoir et déployer des architectures robustes pour collecter, structurer et exploiter des volumes importants de données. * Développer, automatiser et optimiser les flux et traitements de données, notamment depuis l’environnement SAP BusinessObjects via l’ETL BODS. * Garantir la performance, la disponibilité et la pérennité des infrastructures data. * Collaborer étroitement avec les équipes métiers et les Data Analysts afin de fournir des données fiables et exploitables pour la prise de décision. Les compétences techniques * Maîtrise des langages : Python, C/C++, Java, Perl. * Solide expérience des environnements UNIX, Linux, Solaris. * Bonne connaissance des bases de données et du SQL. * Compréhension globale des enjeux Big Data. * Atouts complémentaires : Access, VBA, Google Cloud Platform (GCP).
Freelance

Mission freelance
Data Engineer - IA Gen

VISIAN
Publiée le
FastAPI
IA Générative
Large Language Model (LLM)

1 an
400-550 €
Paris, France
Afin de mener à bien notre mission l’équipe est composée de Data Engineer, de Data Scientist, de développeurs Python et d’un data analyst. L’équipe se veut jeune dynamique, motivée et très pro-active, l’entraide et la bonne ambiance sont présentes. Le candidat devra donc avoir la personnalité permettant de conserver cette dynamique intacte. Les softs skills sont donc autant essentielles que la technique : bon communiquant, motivé, force de proposition et sociable. La mission : Un programme visant à traiter l’ensemble des uses cases nécessitant l’utilisation d’IA à destination de la Finance a été lancé. Dans le cadre de notre activité nous avons pour mission d’accompagner la phase de cadrage faite par les Product Owner et d’implémenter des solutions adaptées aux besoins exprimés. Pour se faire nous cherchons à renforcer l’équipe actuelle constituée de développeur Full stack (Python\Angular) de data engineer et de data scientist avec un Data Engineer possédant de bonnes compétences en IA générative. La mission principale du profil retenu sera : Concevoir et développer des solutions de traitement de données complexes Implémenter solutions exploitant des modèles d'IA générative Participer à la mise en place de prompts et de RAG Collaborer étroitement avec les Product owner, les autres membres de l’équipe et d’autres DSI afin garantir l'efficacité et la fiabilité des solutions mises en œuvre. Si vous êtes passionné par les défis liés à la manipulation de données non structurées, que vous maîtrisez le Python et que vous avez une solide expérience en Data Engineering et en Ia générative, nous serions ravis de recevoir votre candidature. L’environnement de travail se veut stimulant, il offre des opportunités d'apprentissage continu et des projets innovants au sein d'une équipe dynamique et passionnée par les technologies émergentes. Durant votre intervention vous serez rattaché au responsable de l’équipe de développements tactiques et vous serez supervisé par un membre de l’équipe maitrisant les outils de data science. Vous serez fréquemment au contact du métier, des équipes innovation et d’autres développeurs.
Freelance

Mission freelance
OP / Analytics Engineer (Consultant Data expérimenté)

OUICODING
Publiée le

1 mois
420-500 €
Paris, France
2) Missions principales (responsabilités) Analyse & modélisation - Réaliser des analyses complexes sur les données et produire des insights actionnables via des méthodologies statistiques. - Concevoir/porter des modèles de données métiers (expertise de la modélisation). - Posture "Conseil" & interface métier - Traduire les besoins métier en exigences techniques, tout en les challengeant et en étant force de proposition. Communiquer avec pédagogie auprès d'équipes techniques et métiers ; animer la communauté de data analystes. Delivery BI / dataviz / UX - Concevoir des rapports pertinents à partir des données analysées. - Porter des propositions UX/UI (wireframes, maquettes, personae) et proposer des visualisations avancées (ex. D3.js). Gouvernance & patrimoine data Rédiger/maintenir les bonnes pratiques de modélisation et développement. Maintenir la connaissance du patrimoine de données et des publications de reporting associées. Développer l'offre Streamlit et maintenir un cadre UX/UI Data ; assurer une veille produit Power BI. Expertise / administration / industrialisation - Administrer le service Power BI (et le "parc"), consolider les métriques d'usage et les données catalogue. - Auditer / optimiser du code (Power BI, SQL, Streamlit) et maintenir le CI/CD Power BI. Sécurité S'approprier et intégrer les exigences Cybersécurité dans les pratiques et livrables.
Freelance

Mission freelance
Data Modeler PROGRAMME DE TRANSFORMATION DATA B2B sur Paris

EterniTech
Publiée le
BigQuery
Google Cloud Platform (GCP)
Modélisation

6 mois
Paris, France
Mission : Data Modeler – Transformation Data B2B sur Paris Projet : Senior Data Analyst / Data Modeler (B2B) Contexte : Programme de transformation Data B2B, création d’un nouvel espace de données sur Google Cloud Platform / BigQuery . Approche : Greenfield – reconstruction des produits de données depuis le SI legacy B2B vers GCP (BigQuery/Vertex AI). Équipe : Intégré à la “Core Team” pour bâtir le socle technique et les données de référence utilisées par les Squads Métiers. Démarrage : ASAP / URGENT Objectif de la prestation : Le prestataire sera Référent Modélisation & Connaissance de la Donnée , faisant le lien entre Experts Métiers et Lead Data Engineer Agile. Responsabilités principales : Conception du Core Model : Modéliser les objets métiers structurants (RCU, Contrats, Parc, Facture) sur BigQuery (Star Schema / Data Vault). Règles de Gestion RCU : Définir/prototyper en SQL les règles de rapprochement entre données techniques et légales (SIREN/SIRET). Archéologie de la Donnée : Analyser les sources legacy (Oracle), identifier règles implicites et écarts avec la cible. Gouvernance & Dictionnaire : Documenter les métadonnées dans AIDA et ODG. Support aux Squads : Préparer des datasets certifiés pour Data Scientists et Analystes. Livrables attendus : Modélisation cible : Modèles Logiques de Données validés par Tech Lead. Mapping Source-to-Target. RCU / Vision 360 : Spécifications SQL des règles d’unicité, matrice de cas particuliers. Gouvernance : Dictionnaire de données intégré dans AIDA et ODG. Qualité des données : Définition des règles DQ pour chaque objet métier. Prototypage / exploration : Requêtes SQL et datasets de test pour validation métier. Planning clé : 1er draft RCU : mi-mars 2026 MVP RCU : fin mars 2026 Gouvernance et qualité : continu Prototypage : à la demande
Freelance

Mission freelance
Data Engineer

Codezys
Publiée le
Intelligence artificielle
Python
Snowflake

12 mois
Bordeaux, Nouvelle-Aquitaine
Dans le cadre de notre démarche d'innovation et de renforcement de notre expertise en gestion de données, nous lançons un appel d'offres pour le recrutement d'un(e) Data Engineer intégré(e) à notre Direction des Systèmes d'Information (DSI). Le(a) candidat(e) retenu(e) aura pour mission principale d'apporter son expertise technique sur des sujets récents liés à l'intelligence artificielle (IA) appliquée à la data, en s'appuyant sur une compréhension approfondie des enjeux métiers et techniques. Responsabilités principales : Alimentation de données : Effectuer l'ingestion, la transformation et la mise à jour des flux de données provenant de différentes sources afin d’assurer leur disponibilité et leur cohérence. Collaboration avec un Data Analyst : Travailler en binôme sur des projets liés à l’IA et à la data, en apportant votre expertise technique pour la réalisation d’analyses et la mise en place de solutions innovantes. Développement d’outils IA : Participer à la conception et au déploiement d’agents IA capables de réaliser du requêtage SQL en langage naturel, facilitant ainsi l’accès et l’interprétation des données par les utilisateurs métier. Outils et monitoring : Mettre à disposition des outils d’aide au développement, au monitoring et à la maintenance des plateformes data, afin d’assurer leur fiabilité et leur performance. Veille technologique : Effectuer une veille continue sur les architectures data, en termes de nouvelles tendances, d’outils émergents et de bonnes pratiques, pour faire évoluer nos solutions et répondre efficacement aux besoins métiers. La personne recrutée devra faire preuve de rigueur, d’autonomie et d’un esprit d’innovation, tout en étant à l’écoute des besoins des utilisateurs finaux. La maîtrise des technologies liées à l’IA, aux plateformes data et à la requête en langage naturel sera un réel atout pour la réussite de ce projet. Nous invitons donc les candidats ou organismes intéressés à soumettre leur proposition, en précisant leur approche technique, leur expérience et leur capacité à répondre à ces enjeux stratégiques.
Freelance
CDI

Offre d'emploi
TECH LEAD DATA – PALANTIR / PYSPARK / PYTHON

OCTOGONE
Publiée le
PySpark
Python

6 mois
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Dans le cadre d’un projet stratégique chez l’un de nos clients grands comptes, nous recherchons un Tech Lead Data disposant d’une forte expertise sur l’écosystème data moderne et les technologies Palantir. En tant que référent technique, vous interviendrez sur la conception, l’industrialisation et l’optimisation de pipelines data à forte volumétrie, tout en accompagnant les équipes dans la mise en œuvre des bonnes pratiques de développement et d’architecture. Responsabilités principales • Concevoir et piloter l’architecture des pipelines data • Développer et optimiser des traitements distribués en PySpark • Développer des composants et scripts en Python pour le traitement et l’orchestration des données • Intervenir sur les environnements Palantir (Foundry ou équivalent) • Encadrer techniquement les équipes data (data engineers / analysts) • Garantir la qualité, la performance et la fiabilité des pipelines • Participer aux choix d’architecture et aux décisions techniques • Collaborer avec les équipes métiers et les architectes data Compétences requises • Forte expertise Python et PySpark • Expérience confirmée sur des architectures data distribuées • Expérience sur la plateforme Palantir (Foundry idéalement) • Maîtrise des problématiques d’industrialisation data (ETL, orchestration, performance) • Expérience en rôle de Tech Lead ou référent technique • Bonne compréhension des enjeux data à grande échelle
Freelance

Mission freelance
Directeur de Projet/ Chef de Projet

Codezys
Publiée le
CRM
Gestion de projet

6 mois
450-510 €
Marly, Hauts-de-France
Nous recherchons une expertise en gestion de projets data transversaux au sein de systèmes d'information complexes. Forts de 22 années d'expérience, nous sollicitons un profil disposant d'une compréhension approfondie des enjeux stratégiques liés à la donnée, tels que la gestion des données de référence (MDM), les référentiels consolidés, ainsi que les migrations de bases de données. Une maîtrise avancée des concepts de Data Gouvernance et de Data Mesh est essentielle pour mener à bien ce projet. Nous apprécions particulièrement une vision globale à 360°, intégrant une compréhension claire des enjeux d'architecture data et des interactions entre les équipes techniques et métiers. Le candidat doit également démontrer sa capacité à piloter des équipes multidisciplinaires, incluant des data engineers, des data analysts et des développeurs, tout en ayant une appétence pour les projets de transformation et de convergence des systèmes d'information. Cela concerne notamment la modernisation, la standardisation et l'optimisation des infrastructures data. Objectifs et livrables Nos objectifs principaux sont les suivants : Élaborer et déployer des stratégies efficaces pour la gestion des données de référence (MDM) et des référentiels. Concevoir et réaliser des projets de migration de bases de données et de systèmes d'information. Mettre en œuvre des pratiques de Data Gouvernance solides et déployer le concept de Data Mesh. Coordonner et diriger des équipes pluridisciplinaires afin d'assurer la réussite des projets. Moderniser et standardiser les architectures systèmes pour améliorer leur efficacité et leur performance globale.
Freelance

Mission freelance
Data Architect

Codezys
Publiée le
API
Azure
Azure Data Factory

12 mois
Lyon, Auvergne-Rhône-Alpes
Nous recherchons un Data Architect qui intégrera l'équipe stable dédiée à la Business Intelligence (BI) et à l'Analyse, avec un focus particulier sur le domaine Achats. Objectifs et livrables Ce que vous aurez à réaliser : En tant que Data Architect, vous veillerez à ce que les produits délivrés par votre équipe soient conformes à notre architecture cible globale. Pour soutenir cette fonction, nous cherchons un Data Architect spécialisé dans Azure, possédant une bonne compréhension des services disponibles dans la stack analytique Azure. Vous collaborerez avec le DPO, les Data Analysts, Data Engineers & Data Scientists de l'équipe, ainsi qu'avec la communauté d'architectes, afin de définir une architecture de qualité, apportant une valeur métier pertinente et assurant la maintenabilité à long terme. De plus, vous devrez faire preuve de compétences en leadership pour prendre en charge le rôle de lead technique et participer aux discussions avec les parties prenantes métier et l’architecture d’entreprise. Vous apportez un leadership technique, participez aux efforts de développement et représentez l’ensemble des capacités internes et externes de la plateforme. Vous êtes un membre actif de la guilde des architectes, chargé de superviser le processus de gestion des données et de fournir guidance et orientation aux équipes de développement. Vous êtes responsable de la conception et de la documentation des solutions dans votre domaine. Vous avez une expérience avec Databricks, ADLS Storage, SQL Database, Azure Data Factory (ADF) et Power BI. Vous avez l’expérience de la définition et de la gestion d’une architecture de données évolutive de bout en bout, en tenant compte de l’architecture d’entreprise et des normes du secteur. Vous maîtrisez le développement, la documentation et la maintenance de modèles de données logiques et physiques. Votre futur équipe Dans le cadre du domaine Achats, vous devrez relever de nombreux défis et aborder des sujets passionnants : Mettre en place des Data Products pour soutenir l’approche CAST (produits réutilisables partagés), conformément à notre stratégie. Contribuer à la définition de la feuille de route des initiatives BI & Analytics. Définir le Modèle de Données EDM et le mettre en œuvre en respectant les directives existantes. Participer à l’équipe de maintenance afin d’assurer la continuité des processus métier.
CDI

Offre d'emploi
Data Manager H/F

WINSEARCH
Publiée le

70k-90k €
Laval, Pays de la Loire
Votre mission : Faire de la donnée un levier direct de performance commerciale et de création de valeur métier pour l'ensemble du réseau. Structurer, fiabiliser et interconnecter le patrimoine informationnel de TYLS afin de passer d'une donnée subie à une donnée déclencheuse de business. Architecte du patrimoine Data du réseau Cartographier l'ensemble des flux et sources de données (GI / Facturation / Social / CRM / BI).Définir les standards de structuration, de qualité et de gouvernance.Sécuriser et uniformiser les référentiels.Construire le datalake interne du réseau.Déployer un socle BI robuste (Power BI) pour piloter la performance. 2. Accélérateur de performance commerciale Transformer la donnée en produits data activables : triggers, scoring, segmentation intelligente.Alimenter les équipes commerciales en insights actionnables.Déployer des dashboards réseau orientés business et productivité.Mesurer et piloter la performance par cabinet, par offre, par segment. 3. Chef d'orchestre des briques SI stratégiques Piloter la cohérence et l'interconnexion des outils structurants.Moderniser la brique GI / Facturation, socle de qualité des données internes.Interconnecter le SI Social (SILAE) avec la comptabilité et le CRM.Positionner HubSpot comme référentiel client unique. 4. Bâtisseur d'équipe et leader transverse Créer et structurer la fonction Data au sein du réseau.Recruter et manager un Data Analyst / BI Expert.Définir les priorités, roadmaps et rituels de pilotage.Accompagner le changement auprès des équipes métiers et commerciales. 5. Anticipation des croissances externes Intégrer l'impact des opérations de croissance externe en cours.Anticiper l'augmentation des volumes de flux et la complexification des systèmes.Définir une architecture scalable.Sécuriser les migrations et harmonisations post-acquisition. Responsabilités clés Définition de la roadmap Data & BI du réseau.Construction du datalake et des flux d'interconnexion.Gouvernance et qualité des données.Déploiement des outils BI et indicateurs COMEX.Pilotage des projets transverses SI/Data.Management d'équipe.Reporting direct Direction Générale / COMEX.
CDI
Freelance

Offre d'emploi
Data Engineer

LEVUP
Publiée le
AWS Cloud
Python
Snowflake

12 mois
43k-66k €
460-550 €
Liège, Belgique
Data Engineer (Snowflake / AWS) 📍 Localisation : Liège (Belgique) 📅 Expérience : 3 ans minimum 🎯 Mission principale En tant que Data Engineer , vous contribuez à la conception, au développement et à l’optimisation de plateformes data modernes dans un environnement cloud. Vous intervenez sur l’architecture, l’ingestion, la transformation et la gouvernance des données en utilisant Snowflake, AWS et Databricks , avec une attention particulière à la gestion des métadonnées et à la qualité des données. 🛠️ Responsabilités🔹 Développement Data Concevoir et maintenir des pipelines de données robustes (batch & streaming) Développer des flux ETL/ELT performants Modéliser des entrepôts de données (Data Warehouse / Data Lakehouse) Implémenter des solutions sur Snowflake et Databricks 🔹 Cloud & Infrastructure (AWS) Déployer et gérer des services AWS (S3, Glue, Lambda, EC2, IAM, Redshift…) Automatiser les workflows (CI/CD, Infrastructure as Code – Terraform est un plus) Assurer la sécurité et la performance des environnements cloud 🔹 Metadata & Data Governance Mettre en place des stratégies de gestion des métadonnées Maintenir un data catalog Assurer la traçabilité (data lineage) Participer aux initiatives Data Quality 🔹 Collaboration Travailler avec Data Analysts, Data Scientists et équipes métiers Participer aux choix technologiques et bonnes pratiques Documenter les solutions techniques 🧠 Profil recherché🎓 Formation Master en informatique, data engineering ou équivalent 💡 Expérience Minimum 3 ans d’expérience en data engineering Expérience concrète sur projets cloud data 🔧 Compétences techniques indispensables Snowflake (modélisation, performance tuning) AWS (S3, Glue, Lambda, IAM…) Databricks / Spark (PySpark) SQL avancé Python Gestion des métadonnées & data catalog ➕ Atouts Connaissance de Data Mesh ou Lakehouse Expérience dans environnement réglementé (pharma, industrie) Outils BI (Power BI, Tableau…) CI/CD, Git, DevOps 🌍 Langues Français courant Anglais professionnel (documentation et échanges techniques) 🤝 Soft Skills Esprit analytique Autonomie Sens de la qualité et rigueur Capacité à vulgariser des sujets techniques
Freelance

Mission freelance
DATA SCIENTIST - sénior

Geniem
Publiée le
Data science
Dataiku
Machine Learning

6 mois
Lille, Hauts-de-France
Pour compléter une équipe transverse : Data Engineer, Data Scientist, Data Analyst et MLOps Elle assure également le lien avec la Global Tech & Data Platform . Cette plateforme construit et maintient les produits liés à nos infrastructures et notre transformation vers le Cloud GCP, assurant ainsi l’efficacité opérationnelle sur lesquelles reposent nos plateformes métiers. Votre mission : En lien avec notre philosophie Data In Product, vous êtes responsable de : La création de solutions et applications ML/IA de pointes, pour mise en production, La modélisation et l’industrialisation de modèles produits au service des BUs de la plateforme, L’élaboration d’un cadre de bonnes pratiques au sein de la guilde Data du domaine, L’accompagnement et l’acculturation des métiers sur les bonnes pratiques de l’exploitation de la data. Vous êtes vous-même sensible à l’approche Data Driven de nos produits, L’intégration des applications ML dans nos produits, en lien avec les équipes métiers, La mise en place de modèles statistiques pour résoudre les problématiques identifiées, La collecte de données, la construction de Data Marts et le déploiement de modèles (end-to-end PoC), La connaissance des métriques de base, et les principes d’évaluation de la qualité des modèles obtenus, et leur relation avec les indicateurs de performances Métier, La veille technologique pour orienter et être force de proposition sur l’animation de la backlog du Data Socle COMPÉTENCES REQUISES/ Technique : Python, SQL, GCP (BigQuery, GCS, ...), Pipeline MLOps, Linux, Modélisation de données Méthodologique : Agilité, Github Langues : Français, Anglais
Freelance

Mission freelance
Senior Data Engineer AWS

SILAMIR
Publiée le
AWS Cloud

12 mois
Paris, France
Nous recherchons un Data Engineer expérimenté afin de contribuer à la fiabilité, l’automatisation et la scalabilité d’un Lakehouse data. Vous interviendrez sur la conception et l’orchestration de pipelines, l’optimisation des traitements et l’évolution de l’architecture data dans un environnement moderne basé sur AWS. Vos missions : Conception & orchestration Concevoir, développer et maintenir des pipelines Airflow pour l’ingestion et la transformation des données Mettre en place des frameworks et mécanismes d’automatisation Garantir la robustesse, la modularité et la résilience des workflows Traitement & gestion des flux Développer des composants pour le traitement de fichiers plats (CSV, JSON, Parquet…) et leur exposition via API Consommer et transformer des flux Kafka avec Spark Optimiser la performance et le partitionnement des traitements sur de gros volumes Collaboration analytique Collaborer avec les Data Analysts pour concevoir des agrégats métiers Créer et maintenir des vues Athena utilisées dans Tableau Garantir la cohérence, la fraîcheur et la traçabilité des données Évolution du Lakehouse Participer à la conception et à l’amélioration continue de l’architecture Créer et maintenir des tables de référentiel (clients, contacts, événements, interactions…) Implémenter ces référentiels avec Iceberg / Hudi Supervision & DataOps Assurer la supervision quotidienne des pipelines Mettre en place alerting et monitoring Produire et maintenir la documentation technique
221 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous