Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 121 résultats.
Freelance
CDI

Offre d'emploi
Business Analyst Data & Asset Management H/F

LOMEGARD
Publiée le
Finance

3 ans
40k-63k €
400-540 €
Île-de-France, France

Un nouvel outil de valorisation a récemment été mis en place et sera enrichi prochainement pour couvrir d'autres instruments financiers. Nous recherchons un(e) consultant(e) pour renforcer l'équipe en place. Ce domaine assure également la diffusion de ces données dans l'entrepôt de données, utilisées par : - Les clients internes et certaines sociétés de gestion - Les applications de la DSI (Front, Middle, Risques, Reporting) - Piloter le décommissionnement d'un outil référentiel historique en transférant ses fonctionnalités vers un nouvel outil cible - Comprendre les processus métiers, modéliser les informations en base de données, construire des interfaces utilisateurs et accompagner les équipes vers la nouvelle source - Contribuer à l'amélioration continue de la plateforme : - Enrichir le moteur de valorisation avec de nouveaux produits - Faciliter l'accès aux données via des APIs ou des outils de virtualisation - Intégrer de nouveaux flux (ESG, indicateurs financiers...) - Optimiser les fonctionnalités existantes

Freelance

Mission freelance
Data Engineer (H/F)

Insitoo Freelances
Publiée le
Git
Google Cloud Platform (GCP)

2 ans
100-435 €
Lille, Hauts-de-France

Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Data Engineer (H/F) à Lille, France. Les missions attendues par le Data Engineer (H/F) : En tant qu'Analytic Engineer, votre rôle principal sera d'apporter une expertise technique approfondie sur les données métiers et de garantir leur parfaite adéquation avec les besoins opérationnels. Vous travaillerez en étroite collaboration avec les différents acteurs de l'équipe Data – notamment les Data Analysts, les Techleads GCP et les équipes d'Exposition – sur les domaines suivants : la supply chain, le référencement produit, le B2C, le transport et la logistique. Parallèlement, vous assurerez une veille technologique proactive sur l'intelligence artificielle et les outils Data (par exemple, Tableau, Looker ML) afin de continuellement enrichir notre expertise technique et proposer des solutions innovantes."

Freelance

Mission freelance
Lead Data Engineer Senior

PROPULSE IT
Publiée le

24 mois
450-900 €
Paris, France

PROPULSE IT recherche un Lead Data Ingénieur ayant près de 10 ans d'expérience pour un de ses clients En tant que Lead Data Engineer, vous travaillerez au sein de l'équipe digitale « data et performance », en charge principalement de l'infrastructure data, et du traitement, de l'intégration et de la transformation de la donnée digitale d'Hermès (hermes.com). Vous serez aussi garant·e de sa qualité et sa sécurité et le respect de la vie privée liée à cette donnée. Vous serez rattaché·e au Data Manager et vous animez et pilotez une équipe de 2 Data Engineer au quotidien. Vous travaillerez principalement sur le Cloud de Google (GCP), mais aussi en partie sur le Cloud Amazon (AWS). Le respect de la vie privée étant au cœur de de votre travail, vous devrez être conscient des problématiques liées à la GDPR. Des connaissances sur les problématiques liées à l'e-Commerce sont un plus. Principales Activités : Industrialisation de l'infrastructure de la Data Platform sous GCP - Vous avez pour principale mission d'accompagner l'équipe Data et Performance dans l'industrialisation de sa plateforme data via : - Mise en place d'environnements dédiés et cloisonnés (Dev / Preprod / Production) - L'automatisation du déploiement et la maintenance des environnements via des outils d'infrastructure as code (Terraform) sous GCP - Mise en place de solutions d'observabilités (monitoring, alerting) au sein de GCP Manipulation/Transformation de données (en batch et stream) - Vous accompagnerez aussi l'équipe Data dans ses activités de transformation de données via : - Maintenance pipelines de données en python (batch et stream) - Des pipelines de transformation en SQL/SQLX dans l'outil DataForm (similaire à DBT) - Mise en place et maintenance d'un outil de data quality (ex : great expectations en python) - Aider au développement des workers dans les Cloud AWS pour récupérer la donnée depuis Kafka et l'envoyer vers PubSub dans GCP. - La connaissance de l'outil DataFlow (Apache Beam) est un plus. Collaboration avec les équipes du pole, centrée sur la donnée de qualité - Standardisation de la base de code de l'équipe (linting, CI/CD, divers tests - Maintien et réalisation de schémas d'architectures et documentation des processus internes - Collaboration avec les autres équipes du pôle Data : data analysts, SEO/SEA et emailing - Aider à la mise en place de bonnes pratiques : - Anonymisation et archivage de la donnée dans le respect du RGPD et de la politique interne du traitement de données - Sécurité de l'infra, de la data et du code

Freelance

Mission freelance
Data Engineer Databricks (F/H)

Quick Source
Publiée le
Databricks

1 an
500-550 €
Saint-Denis, Île-de-France

Concevoir et développer des pipelines de traitement de données (ETL/ELT) sur Databricks. Intégrer et transformer des données issues de différentes sources (API, bases SQL/NoSQL, fichiers, data lakes, etc.). Mettre en place des workflows automatisés et orchestrés (via Azure Data Factory, Airflow, ou Databricks Workflows). Optimiser les performances des jobs Spark et la consommation des clusters. Participer à la modélisation des données (Data Lake / Delta Lake / Data Warehouse). Assurer la qualité, la sécurité et la gouvernance des données (contrôles, documentation, catalogage). Collaborer avec les Data Scientists, Analysts et Architectes pour garantir la cohérence et la fiabilité des environnements data. Surveiller et maintenir la plateforme Databricks en production (monitoring, troubleshooting, coûts).

Freelance

Mission freelance
Data analyst  Tracking Specialist -Product analyst

KEONI CONSULTING
Publiée le
Analyse

18 mois
100-400 €
Paris, France

CONTEXTE Experience : 4 ans et plus Métiers Fonctions : WEB Design, Marketing & Communication digitale, Analyst Spécialités technologiques : RGPD Compétences Technologies et Outils Google Analytics Google Tag Manager Nous sommes à la recherche pour un de nos clients d'un profil data analyst avec une expertise sur la mise en place de tag via GTM et le tracking de données via G4. MISSIONS Expertise recherchée : la rédaction des éléments de tracking, la recette de leur bonne implémentation ainsi que l’utilisation avancée de GTM (google tag manager) Le client est un grand groupe composés de différentes entreprises, les sites de certaines de ces entreprises ont subi des refontes nottemment sur des sujets de consentement (bannières RGPD) et les marques ont besoin de tracker de parcours utilisateurs/clients pour voir ce qui est performant ou non. Tâches procipales : - Integration des tags media - demande sur GTM - Création d'elements d e-tracking sur gA4 et contentsquare - Analyse des données

Freelance

Mission freelance
Data Engineer – GCP / BigQuery / DBT

Intuition IT Solutions Ltd.
Publiée le
BigQuery
DBT
Google Cloud Platform (GCP)

12 mois
Toulouse, Occitanie

Contexte de la mission Nous recherchons un Data Engineer expérimenté afin de renforcer l’équipe Data et contribuer à la mise en place, l’optimisation et l’industrialisation de la plateforme de données sur Google Cloud Platform (GCP) . Vous interviendrez sur des problématiques de modélisation, transformation et exploitation de données avec BigQuery et DBT , en collaboration avec les équipes métier et analytics. Vos missions Concevoir, développer et maintenir les pipelines de données dans un environnement GCP. Implémenter et optimiser des modèles de données dans BigQuery . Mettre en place et maintenir les transformations avec DBT (Data Build Tool). Garantir la qualité, la performance et la fiabilité des traitements de données. Participer aux choix techniques et bonnes pratiques (CI/CD, documentation, monitoring). Collaborer avec les équipes Data Analysts / Data Scientists pour assurer la disponibilité et la pertinence des données.

CDI

Offre d'emploi
Expert ServiceNow CMDB. Remise à plat d'un parc IT

UMANTIC
Publiée le

60k-70k €
Paris, Île-de-France

Au sein de la Division Workplace de la DSI d'un grand groupe industriel, le service Gestion de Parc pilote le cycle de vie des équipements utilisateurs (PC, écrans, accessoires). La multiplication de projets a dégradé la qualité du référentiel. Nous recherchons un expert ServiceNow pour remettre à niveau la CMDB et structurer durablement les processus et intégrations associées, en coordination étroite avec le Responsable Gestion de Parc. > Important : il ne s'agit pas d'un poste de data analyst. La mission requiert une maîtrise avancée de ServiceNow (CMDB/Discovery/Intégrations). Missions principales * Assessment & cadrage CMDB * Réaliser un health check de la CMDB (couverture, duplications, obsolescences, conformité au CSDM). * Recommander une cible de modèle et de gouvernance (classes CI, attributs, relations, règles de réconciliation). * Remédiation & fiabilisation des données * Croiser et analyser les sources SCCM/Intune, Nexthink, Active Directory et ServiceNow. * Concevoir les jeux d'import (Import Sets, Transform Maps) et les règles de dédoublonnage/reconciliation. * Produire les fichiers d'injection conformes au template fourni par l'équipe Gestion de Parc. * Discovery & intégrations * Paramétrer/optimiser ServiceNow Discovery (MID Servers, credentials, schedules, patterns) et, selon périmètre, Service Mapping. * Mettre en place/fiabiliser les intégrations avec SCCM/Intune, Nexthink et AD (IntegrationHub, API, plan de charge). * Processus & automatisation * Normaliser les workflows de cycle de vie (onboarding/offboarding, mouvements, retrait) et la gouvernance CMDB. * Mettre en place des rapports & tableaux de bord (KPI qualité de données, taux de découverte, complétude). * Coordination & conduite du changement * Conduire la campagne d'audit auprès des directions/services ciblés (liste fournie) et organiser les relances. * Assurer la restitution (reporting d'avancement, synthèse des écarts, plan de remédiation) et former les référents. Livrables attendus * Rapport d'assessment CMDB (constats, cartographie des sources, CSDM target, gouvernance). * Plan de remédiation détaillé (priorités, quick wins, backlog). * Fichiers d'injection conformes + configuration des Import Sets/Transform Maps et règles de reconciliation. * Paramétrage Discovery documenté (MID, scopes, schedules) et matrice d'intégration avec SCCM/Int

Freelance

Mission freelance
Pilote de projet Data (H/F)

CAT-AMANIA
Publiée le
KPI
Pilotage

36 mois
Mer, Centre-Val de Loire

Dans le cadre du développement de ses activités Data, un centre technique basé à Mer (Loir-et-Cher) recherche un Pilote de projet Data pour renforcer son équipe de pilotage et d’intégration. Votre rôle sera de coordonner les projets Data de bout en bout, en assurant la qualité, la cohérence et la valorisation des données au service des métiers. Piloter les projets Data de A à Z : cadrage, planification, déploiement, suivi Coordonner les acteurs techniques et métiers impliqués (data engineers, analystes, responsables opérationnels) Garantir la qualité, la gouvernance et la fiabilité des données Concevoir et suivre les indicateurs de performance (KPIs) et tableaux de bord Accompagner la mise en place de solutions BI et d’outils de visualisation (Power BI, Tableau, Looker, etc.) Identifier les opportunités d’amélioration et d’automatisation des processus data Assurer la communication et la documentation autour des projets

Freelance
CDI
CDD

Offre d'emploi
Chef de projet SI - Responsable FinOps

Etixway
Publiée le
Cloud
FinOps
Mainframe

3 mois
40k-45k €
400-600 €
Nantes, Pays de la Loire

Client: secteur bancaire. Au sein du Pôle Excellence opérationnelle, vous intégrez l’équipe Activités transverses du Domaine CTO sur l’activité de maîtrise des coûts du run. Vous aurez à piloter une équipe constituée d’un expert en capacité sur leur Mainframe et un Data analyst et à embarquer les 150 produits. En tant que Chef de projet SI - Responsable FinOps , vous intervenez sur l’ensemble des SI gérés du pole SI de la banque et avez pour mission de garantir la bonne maitrise des coûts du Run des ressources matérielles et logicielles nécessaires au fonctionnement des SI. Votre mission s’étend sur le système distribué, Cloud & Mainframe. Vos principales activités sont : · Analyser les sources d'information (Coprice, factures, FinOps Cloud public, licences) · Accompagner et challenger les projets dans la définition des charges de Run des évolutions à développer · Identifier des gisements de coûts à maîtriser / optimiser, définir les plan d’actions d’optimisation & estimer leur ROI · Piloter l’ensemble des travaux proposés et validés en comité de maîtrise des coûts du run · Mettre en place les outils et tableaux de bord nécessaires, ainsi que leur déploiement pour les utilisateurs et dans les instances concernées (ex : Comité Produit One Team) · Gérer et animer la communication auprès des équipes et des différentes instances, la relation sur ce périmètre avec les autres entités internes (La direction financière, l’Architecture, l'usine, les plateformes) · Préparer le bilan annuel de son activité et construire / argumenter ses demandes au PIA A+1 · Préparer / animer / faire le CR du comité de pilotage maîtrise des coûts du run.

CDI

Offre d'emploi
QA Data Engineer (salarié uniquement )

KOUKA
Publiée le
API REST
Postman
QA

Île-de-France, France

Construction du référentiel de tests Détection et remontées des défauts Elaboration PV de recette SQL - Confirmé - Impératif Azure event hub - Confirmé - Important Postman - Confirmé - Important Un profil technico fonctionnel est demandé pour traiter les sujets d'ingestion des données, les tests d'API via Postman, les tests d'intégration 2 à 2 et les tests de bout en bout. Expérience de5 à 10 ans dans un rôle QA, Data Analyst ou Data Engineer orienté qualité Une certification en QA ou Data (ISTQB, Data Management, etc.) est un plus

Freelance

Mission freelance
Data Scientist GCP adtech

Cherry Pick
Publiée le
Data science
Google Cloud Platform (GCP)

3 mois
520-540 €
75000, Paris, Île-de-France

En quelques mots Cherry Pick est à la recherche d'un "Data Scientist" pour un client dans le secteur des medias Description 🎯 Contexte du projet L’équipe BI, Analytics & Data Science (10 personnes : Data Analysts, Data Scientists, ML Engineers) travaille en transverse pour l’ensemble des marques et métiers du groupe (abonnement, vente au numéro, régie publicitaire…). L’activité couvre un spectre large : analyses ad hoc, dashboards, projets data science et IA. La stack technologique est entièrement sur Google Cloud Platform (BigQuery, Airflow, Vertex AI). Face à la montée en charge et à des besoins spécifiques en AdTech (audience, publicité digitale, personnalisation), l’équipe recherche un Data Scientist confirmé pour renforcer ses capacités sur la fin d’année. 🛠️ Missions principales Intervenir sur des projets AdTech : audience, ciblage publicitaire, recommandations de contenu, personnalisation, pricing. Gérer des projets end-to-end : Collecte et préparation des données, Feature engineering et modélisation, Déploiement et mise en production des modèles (Vertex AI, Airflow). Développer et industrialiser des modèles de machine learning prédictif (pas de focus sur l’IA générative). Collaborer avec les équipes Data, BI, régie publicitaire et métiers internes. Produire des analyses et recommandations pour soutenir la stratégie publicitaire et marketing.

Freelance
CDI

Offre d'emploi
Data Engineer GCP DBT LOOKER (H/F)

NSI France
Publiée le
DBT
Google Cloud Platform (GCP)
Looker Studio

3 ans
Paris, France

En tant que Data Engineer, vous intégrerez une feature team pour participer aux différents projets de développement. Pour cela vous aurez en charge : · Compréhension des besoins métiers · Conception des solutions nécessitant l’utilisation de technologies cloud & data pour répondre aux besoins métier · Déploiement, optimisation et industrialisation au quotidien des pipelines de données dans le Cloud · Travaille avec différents profils data du groupe (Data Scientist, data engineer, data architect, data analyst) · Assurer le monitoring des modèles en production · Contribuer au développement et à l’amélioration continue des outils data interne

Freelance

Mission freelance
Administrateur(trice) Dataiku DSS - LUXEMBOURG

FUZYO FRANCE
Publiée le
Dataiku
Python
Scripting

6 mois
400-550 €
Luxembourg

Mission au Luxembourg. Il est impératif et obligatoire de résider proche frontière LUXEMBOURG Nous recherchons un(e) consultant(e) expérimenté(e) pour administrer et faire évoluer une plateforme Dataiku DSS au sein d’une équipe Data Science & AI. Vous contribuerez également à des projets techniques transverses (OpenShift, DevOps, MLOps, LLMOps). Missions : Administration, maintenance et optimisation de la plateforme Dataiku DSS Automatisation des opérations via Python (monitoring, upgrades, gestion utilisateurs) Support aux utilisateurs (data scientists, analystes, métiers) Collaboration avec les équipes infrastructure (OpenShift / Kubernetes) Développement de composants réutilisables (plugins, recettes, indicateurs) Rédaction et mise à jour de la documentation technique Participation à des projets DevOps, MLOps, LLMOps Profil recherché : Bac+3 à Bac+5 en informatique, data engineering ou équivalent Expérience >6 ans en administration de Dataiku DSS en environnement de production Maîtrise de Python, scripting, CI/CD Connaissances en OpenShift, Kubernetes, Big Data (Hadoop, Spark, Kafka) Autonomie, rigueur, esprit analytique Expérience dans le secteur bancaire appréciée

Freelance

Mission freelance
Mission Longue de Consultant Snowflake

SKILLWISE
Publiée le
Architecture
AWS Cloud
Azure

3 mois
180-680 €
Paris, France

Notre client est un media Français ayant une grande culture Tech. Cette mission vous permettra de rejoindre son équipe Architecture & Data Engineering faisant partie de sa Direction DATECH (Data & AdTech). Cette équipe est chargée de la maintenance et de l’évolution de la Data Platform à disposition des équipes Collectes, Analytics, Data Science & IA, CRM, Pub, Audience, Finance... Mission Au quotidien, vous menez les travaux de définition et de revue d’architecture du Data Warehouse / Data Platform, dont les produits Snowflake sur Azure sont les fondations premières. Vos principales missions seront : - Développement et maintenance de la stratégie RBAC - Revues de performances - Suivi de coûts par application - Modernisation des paradigmes d’ingestion, de transformation et d’exposition de données - Apporter du support au quotidien sur la plateforme - Revues de code SQL - Mise en place de solutions de monitoring et d’alerting - Formalisation et planification de la roadmap produit afin de tirer profit des dernières fonctionnalités de Snowflake à 3, 6 et 12 mois Contexte : Vous intervenez sur la conception de l’ensemble des travaux liés données du client. Vous accompagnez également leurs équipes (Architecture & Data engineering, Data science & Analytics, ML & IA) pour informer de la faisabilité des demandes en prenant en considération les contraintes de coûts, de délais et de qualité. Vous garantissez la pérennité des développements déployés en production. Vous êtes le référent technique Snowflake des Data Engineer et des Data Analysts pour leurs développements. Un projet de refonte des schémas de stockage des données pour basculer vers un modèle RBAC est en cours. Vous travaillez avec une équipe de 15 personnes travaillant en méthode Agile de type Scrum et faites progresser au quotidien la démarche DevSecOps. De manière générale, vous jouez un rôle de facilitateur et d’expert Snowflake entre les équipes Data, AdTech et les autres équipes du client.

Freelance

Mission freelance
Data Engineer F/H - LILLE

Anywr freelance
Publiée le
BigQuery
Google Cloud Platform (GCP)
SQL

3 ans
400-500 €
59000, Lille, Hauts-de-France

Notre client, acteur majeur du secteur du Retail, renforce son équipe Data afin de soutenir sa stratégie de digitalisation et d’optimisation de l’expérience client. Dans ce cadre, nous recherchons un(e) Data Engineer passionné(e) par la donnée et désireux(se) d’évoluer dans un environnement stimulant et innovant. Missions principales : Concevoir, développer et maintenir les pipelines de données (ETL/ELT) pour collecter, transformer et valoriser les données issues de différentes sources (e-commerce, magasins, CRM, supply chain, etc.). Assurer la qualité, la fiabilité et la disponibilité des données pour les équipes métiers, Data Science et BI. Participer à la mise en place d’architectures Big Data et Cloud modernes (Data Lake, Data Warehouse). Contribuer à l’optimisation des performances des traitements de données. Collaborer avec les équipes Data Analysts, Data Scientists et métiers afin de répondre aux besoins business (optimisation de l’expérience client, prévisions de ventes, gestion des stocks…). Mettre en place des bonnes pratiques de développement, de documentation et de monitoring. Environnement technique • Cloud & Data : GCP (BigQuery, Dataform) • Orchestration : Cloud Composer • Transformation : Dataform • Observabilité : Dynatrace • Référentiel & CI/CD : GitLab, Terraform, Cloud Build • Gouvernance & Qualité : DataGalaxy • Documentation & Pilotage : Confluence, JIRA (Scrum)

Freelance

Mission freelance
DEVELOPPEUR SSIS CONFIRME

PARTECK INGENIERIE
Publiée le
Microsoft SQL Server
Microsoft SSIS

12 mois
400-550 €
Paris, France

Poste : Développeur(se) ETL / Data Engineer expérimenté(e) Localisation : Projets en France et à l’international (environnement multiculturel) Missions principales : Structurer, modéliser et intégrer les données (ETL, Data Warehouse). Optimiser et maintenir des entrepôts de données complexes. Intégrer de nouveaux périmètres de données. Collaborer étroitement avec les Data Analysts et Data Scientists. Environnement technique : Microsoft SQL Server, SSIS / Data Tools, Power BI. SQL confirmé (obligatoire), Python souhaité. Modélisation en étoile (Star Schema). Profil recherché : Bac+5 (école d’ingénieur ou université). Minimum 5 ans d’expérience en Data Engineering (on-premise et/ou cloud). Maîtrise du développement ETL / Data Warehouse. Langues : Français & Anglais (niveau C1 obligatoire). Espagnol/Portugais = atout. Soft skills : Esprit analytique, rigueur, bonne communication, travail en équipe. Intérêt pour des projets internationaux et multiculturels.

121 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous