Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 1 659 résultats.
CDI

Offre d'emploi
Data Domain Lead – Data Analytics & Transformation (H/F) Anglophone

Amontech
Publiée le
Data analysis
Gouvernance

Île-de-France, France
Dans le cadre d’un programme de transformation Data d’envergure internationale, pour un grand groupe du secteur des services à l’environnement , nous recherchons un Data Domain Lead pour intervenir sur des domaines data stratégiques, en lien étroit avec les équipes métiers et data. Missions En tant que Data Domain Lead, vous agissez comme référent data métier sur votre périmètre et pilotez les produits data de bout en bout : Recueil, analyse et cadrage des besoins métiers (corporate et Business Units) Définition de la vision produit data et de la roadmap associée Conception et pilotage de cas d’usage data analytics et reporting Mise en œuvre de data domains : pipelines de données, modélisation sémantique, datamarts et tableaux de bord Contribution à la gouvernance data et au respect des standards Accompagnement des métiers dans l’adoption des solutions data et la montée en maturité Interactions quotidiennes avec des interlocuteurs internationaux Environnement technique Data Analytics / BI (Power BI) Modélisation sémantique et datamarts SQL obligatoire (Python est un plus) Environnements data modernes (type MS Fabric ou équivalent) Gouvernance et standards data
Freelance
CDI

Offre d'emploi
Data Ingénieur Spark

R&S TELECOM
Publiée le
Batch
Docker
Git

1 an
Rennes, Bretagne
En tant que Data Engineer Senior, vous interviendrez sur l’ensemble du cycle de vie de la donnée. Tâches à réaliser : Concevoir, développer et maintenir des pipelines d’ingestion batch et streaming Implémenter des traitements Data robustes, industrialisés et observables Participer à la construction d’une architecture Lakehouse moderne Garantir la qualité, la traçabilité et la fiabilité des données Contribuer à l’industrialisation (CI/CD, DataOps, automatisation) Collaborer étroitement avec les Data Architects, Platform Engineers, Product Owners et équipes métier Appliquer les bonnes pratiques de sécurité by design et de conformité Participer à la documentation et au transfert de connaissances
CDI
Freelance

Offre d'emploi
Consultant(e)Chef de projet DATA F/H-Niort

Argain Consulting Innovation
Publiée le
Business Object
Dataiku
ETL (Extract-transform-load)

120 ans
40k-50k €
400-550 €
Niort, Nouvelle-Aquitaine
Nous recherchons un(e) Consultant(e) Chef de projet Data (F/H)pour notre cabinet à Niort🚀 En tant que Consultant(e) chef de projet Data (F/H), vous interviendrez : Chez les clients, selon le cadre et les objectifs définis afin de: piloter l'activité DATA Manager les équipes opérationnellement Contribuer aux estimations fournies par les équipes en vue du s’assurer de la faisabilité dans le budget accordé ou demandé, Construire le planning prévisionnel, accompagner les équipes dans la conception Etre garant des livrables et s’assurer que la solution proposée corresponde aux contraintes de l’organisation (technologiques, sécurité, …), Accompagner les PO dans l'aide à la relation métier Coordonner les équipes projet ainsi que les acteurs externes en vue d’atteindre les engagements (vérification de l’allocation des tâches en fonction des ressources), Construire ses indicateurs et tableaux de bords afin d’assurer le pilotage efficace de son projet, Assurer la visibilité au travers des comitologies projet (animation des comités projets COPIL, COPROJ, Steering Committee, etc …). Mener des TASK FORCE en cas d'incidents Au sein du cabinet : Contribuer au développement du cabinet (développement commercial, optimisation des processus internes, formation et mentorat), Participer à des projets internes relatifs à nos activités évènements, QVT, RSE… Mener et réaliser des projets associatifs (Mécénat auprès de nos associations partenaires). 🚀 L’aventure Argain, c’est : Un suivi et un accompagnement au quotidien par un trinôme (business manager, référent métier, référente RH), Un processus d’intégration personnalisé (individuel puis collectif), Des formations certifiantes (au minimum 1 formation tous les deux ans), De nombreux évènements : 2 évènements au minimum par mois (afterwork, soirée cuisine, cours de sport, karaoké), La possibilité d’évoluer en interne (rôle d’ambassadeur, key account leader, consultant manager), Un variable attractif et déplafonné (prime de cooptation, d’ouverture de compte, d’apport d’affaire), Un package (prime vacances, prime d’intéressement, avantages CSE, RTT, prise en charge de 60% des tickets restaurant). Si vous souhaitez savoir ce que nos argainers pensent de nous :
Freelance

Mission freelance
Architecte Data AWS (H/F)

Insitoo Freelances
Publiée le
Apache Kafka
Apache NiFi
Apache Superset

2 ans
550-610 €
Lyon, Auvergne-Rhône-Alpes
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Architecte Data AWS (H/F) à Lyon, France. Contexte : Dans le cadre d’un programme de transformation Data, nous souhaitons consolider son socle data autour d’une architecture cible fiable, évolutive et sécurisée. L’architecte data interviendra en support de l'équipe existante, en assurer la validation technique et fonctionnelle, et mettre en œuvre les mesures de sécurité nécessaires. Les missions attendues par le Architecte Data AWS (H/F) : Sous la responsabilité du responsable de centre d'expertise Data, il aura en charge de : Valider, sécuriser et faire évoluer l’architecture technique de la plateforme Data (Data Lake, Data Mesh, Data Warehouse) en intégrant les exigences de sécurité Garantir la cohérence, la robustesse et la sécurité des flux de données entre les différents systèmes. Accompagner les équipes projets dans le choix et l’implémentation des solutions techniques. Assurer la veille technologique et proposer des améliorations continues. Collaborer avec les architectes, le RSSI, DPO et équipes cybersécurité pour intégrer les contrôles nécessaires. Assurer la traçabilité des décisions et la documentation des choix techniques. Partager sur des solutions et architectures mises en œuvre chez d'autres clients. Assurer la veille technologique et proposer des améliorations continues. Environnement technique : Architecture et modélisation : Conception de modèles de données (relationnels, NoSQL, dimensionnels, etc.). Maîtrise des architectures Data Warehouse, Data Lake et Data Mesh. Base de données : Expertise en systèmes de gestion de bases de données SQL, NoSQL et notamment PostgreSQL, Snowflake, ElasticSearch et DuckDB Cloud Computing : Connaissance approfondie des services de données des fournisseurs Cloud et notamment AWS Langages et technologies : Intégration & Flux : Apache Nifi ; Transport & Temps Réel : Apache Kafka ; Visualisation (BI) & Reporting : Apache Superset Gouvernance Data : Définition des politiques, des standards et des normes pour garantir la qualité, l'intégrité et la gestion du cycle de vie des données. Sécurité : Connaissance des principes de cybersécurité et maîtrise de la réglementation sur la protection des données (notamment le RGPD). Approche Secure by design (chiffrement, gestion des accès, observabilité, supervision).
Freelance

Mission freelance
Expert Data Streaming Kafka

JobiStart
Publiée le
Apache Kafka
Spark Streaming

3 ans
400-550 €
Paris, France
Expert en systèmes distribués, votre mission est de concevoir, déployer et administrer les clusters Apache Kafka au cœur de l'échange de données en temps réel de la banque. Vous intervenez sur la configuration fine des brokers, la gestion des topics, des schémas (Schema Registry) et des partitions pour garantir une haute disponibilité et une tolérance aux pannes maximale. Vous accompagnez les équipes de développement dans l'implémentation des producteurs et consommateurs, ainsi que dans l'utilisation de Kafka Streams ou ksqlDB pour le traitement de flux. Vous assurez le monitoring proactif des performances (latence, débit), la sécurité des flux (SSL/SASL/ACLs) et le troubleshooting complexe en environnement de production critique. Vous êtes le référent sur les stratégies d'archivage et de réplication inter-sites.
Freelance

Mission freelance
POT8873 - Un Data Engineer sur Lyon

Almatek
Publiée le
SQL

6 mois
260-430 €
Lyon, Auvergne-Rhône-Alpes
Almatek recherche pour l'un de ses clients, un Data Engineer sur Lyon. Compétences : ORACLE impératif SQL impératif Python : c’est un plus mais pas obligatoire Expérience : Participation à des projets liés à la Data et aux Bases de données (injection et exposition des données) Bonne compréhension fonctionnelle Utilisation de GIT pour la gestion de version Niveau recherché : Confirmé (surtout Oracle et SQL, ok pour junior/intermédiaire sur Python) Compétences appréciées (Bonus) : Airflow Apache (ordonnanceur de traitements de données en Python) Trino (exposition des données depuis sources multiples en SQL) Méthodologie Agile SAFE & Scrum Outils de gestion de projet : Jira, Confluence Profil orienté Data Ingénieur On ne recherche pas de profil devsecOps, ni de data architecte Activités : Build 80% & MCO/RUN 20% Conditions de travail : Présentiel souhaité : 2 jours par semaine chez le client Savoir-être : Bonnes compétences en communication Esprit d’équipe : capacité à collaborer efficacement Force de proposition : aptitude à apporter des idées et solutions proactives
Freelance

Mission freelance
Consultant en Data Gouvernance pour une société de gestion de portefeuille

Mon Consultant Indépendant
Publiée le
Direction de projet

5 mois
760-780 €
Paris, France
MERCI DE LIRE ATTENTIVEMENT L'ANNONCE ET DE POSTULER UNIQUEMENT SI VOTRE PROFIL CORRESPOND AUX CRITERES EXIGES Une société de gestion de portefeuilles (fonds d'investissement et mandats) souhaite définir et déployer une gouvernance de la donnée. Les travaux consistent à rédiger la charte de gouvernance, faire adhérer les parties prenantes, notamment les métiers, à cette gouvernance, définir le dictionnaire de données de l'entreprise et le propriétaire de chaque point de donnée, documenter la criticité des données et les contrôles de qualité réalisés. La modélisation de processus fera aussi partie de la mission. Les familles de données qui seront concernées par la mission sont : Instruments financiers, Emetteurs, Prix et données de marchés, ESG, Indices et Benchmark, Portefeuilles, données d'inventaires, opérations financières, calcul de performance, calcul de risques... Expérience indispensable en déploiement d'une Data Gouvernance dans un environnement proche (société de gestion, banque d'investissement, capital market, banque privée).
Offre premium
CDI
Freelance

Offre d'emploi
Service Delivery Manager Infrastructures & Systèmes (RUN)

Lùkla
Publiée le
Data Center
Infrastructure
ITIL

1 an
Courbevoie, Île-de-France
Contexte : Intégré au domaine Application & Systèmes, vous accompagnez l’équipe RUN Application & Système dans un environnement critique : Data Centers, virtualisation, stockage et sauvegarde. Votre rôle : garantir la continuité et la performance des services IT. Missions : Piloter le RUN quotidien : incidents, problèmes, changements, escalades et gestion de crises. Superviser les opérations sur 2 Data Centers. Assurer le suivi des SLA et KPI, reporting client et comités de pilotage. Piloter les prestataires et contrats de services, suivi budgétaire. Valider les impacts techniques, suivre les remédiations sécurité et obsolescences. Compétences requises : Infrastructures et Data Centers, virtualisation VMware/Nutanix, stockage et sauvegarde. Environnements CITRIX. Culture ITIL solide (certification appréciée). Expérience en pilotage d’infogérance.
Freelance

Mission freelance
Ingénieur DevOps Azure

Codezys
Publiée le
Azure
Azure Data Factory
Azure DevOps Services

6 mois
350-390 €
Niort, Nouvelle-Aquitaine
Résumé de la mission : Le client souhaite faire appel à une société spécialisée en ingénierie DevOps et SRE sur environnement Azure, dès la phase d’idéation, en collaborant avec les concepteurs et développeurs pour assurer l’exploitabilité, la performance et la supervision des produits tout au long du cycle de vie. Accompagnement technique : Support à la squad sur la performance, la robustesse, la sécurité et la fiabilité durant le développement et la maintenance. Mise à disposition des environnements : Veiller à leur disponibilité, conformité et automatisation dans une logique DevOps pour le déploiement continu. Garanties opérationnelles : Assurer l’exploitabilité, l’observabilité, et l’optimisation des produits avec assistance technique et certifications. Préconisations : Solutions pour le capacity planning, évolutivité et scalabilité des systèmes. Gestion documentaire : Vérification et mise à jour régulière des dossiers d'exploitabilité. Amélioration continue : Participation à l’amélioration des produits et processus. Compétences techniques requises : Développement, configuration, déploiement et test d'automatismes. Maîtrise des principes fondamentaux d'intégration et développement de code adapté à DevOps. Connaissance des outils et procédures d'exploitabilité et d'observabilité pour assurer la disponibilité. Évaluation des risques techniques lors des mises en production. Gestion des déploiements d’évolutions de solutions et configurations cloud. Objectifs et livrables : Mise à jour du dossier d'architecture avec éléments d’exploitabilité, d’observabilité et de performance. Environnements contenairisés , paramétrés et configurés, avec suivi évolutif dans le temps. Dashboard d'observabilité opérationnels et supports pour leur utilisation. Rapports d’incidents rédigés et communiqués pour leur traitement. Matricielles Qualité-Performance pour évaluation continue des solutions.
Freelance

Mission freelance
Data Engineer Snowflake (H/F)

Cherry Pick
Publiée le
AWS Cloud
Python
Snowflake

12 mois
550 €
Paris, France
En quelques mots Cherry Pick est à la recherche d'un Data Engineer Snowflake (H/F) pour l'un de ses clients qui opère dans le secteur du prêt-à-porter. Description 🏢 Le Contexte : Pilotage et Évolution du socle Snowflake Vous rejoignez une équipe Data en pleine transformation. Le socle technologique est désormais en production et nous recherchons un Data Engineer Senior pour reprendre le flambeau, sécuriser le "Run" et poursuivre le développement de la plateforme. L'enjeu est double : assurer une passation fluide avec le consultant sortant (fin de mission fin avril) et accompagner l'arrivée du nouveau Responsable Data (prévue le 9 février) dans l'évolution de la stratégie (replatforming d'apps legacy, architecture cloud). 🎯 Vos Missions : Développement, Run et Optimisation En tant que référent technique Snowflake, vos responsabilités couvrent l'ensemble du cycle de vie de la donnée. 1. Développement & Engineering : Développer et optimiser les pipelines de données complexes. Faire évoluer la plateforme Data pour répondre aux nouveaux besoins métiers. Intégrer les fonctionnalités avancées de Snowflake ( Snowflake Cortex et Snowflake Intelligence IA for SQL ) pour automatiser les analyses. 2. Run & Passation (Priorité court terme) : Assurer la reprise en main complète de l'environnement de production. Récupérer l'historique et les bonnes pratiques lors de la phase de passation (binôme avec le consultant actuel). Garantir la stabilité et la disponibilité des flux en production. 3. FinOps & Performance : Piloter l'optimisation des coûts liés à l'utilisation de Snowflake. Mettre en place des stratégies de monitoring de consommation et de tuning de performance.
Freelance

Mission freelance
Data Engineer Senior - Data Warehouse

Cherry Pick
Publiée le
Audit
Azure
Azure Data Factory

6 mois
600-680 €
Île-de-France, France
Dans un contexte de transformation, la fiabilité de la donnée est devenue un enjeu critique pour le pilotage financier et opérationnel. Contexte & Enjeux Un socle de Data Warehouse a été initié suite à la refonte du SI, mais celui-ci reste aujourd’hui : incomplet, instable (bugs, latences importantes), avec des problématiques de qualité et de disponibilité de la donnée. Le reporting Power BI est géré en interne. 👉 La mission ne concerne pas la data visualisation , mais bien la construction d’un Data Warehouse robuste, industrialisé et exploitable . Nous recherchons un Data Engineer senior / consultant expérimenté capable de reprendre l’existant, de comprendre les enjeux métiers (notamment contrôle de gestion) et de livrer un socle data fiable dans des délais courts. Missions1. Audit & Diagnostic Analyse de l’existant (modèle de données, flux, performances, qualité) Identification des causes de lenteur, bugs et données manquantes Évaluation de la cohérence entre besoins métiers et implémentation technique 2. Modélisation & Refonte du Data Warehouse Reprise et optimisation de la modélisation DWH Structuration d’un réceptacle de données cohérent et évolutif Intégration des flux issus des nouveaux outils : Cegid XRP Microsoft Dynamics Ammon 3. Ingénierie de données (ETL / ELT) Refactorisation et complétion des pipelines existants Mise en place de l’historisation des données Amélioration des performances et de la fiabilité des traitements 4. Qualité, Traçabilité & Documentation Mise en place de contrôles de qualité automatisés Gestion de la traçabilité et des règles de gestion Documentation du socle data pour sécuriser et pérenniser l’existant 5. Interface Métier Compréhension fine des besoins des opérationnels (indicateurs, chiffres, règles de gestion) Traduction des besoins métier en spécifications techniques Capacité à challenger les demandes pour garantir la cohérence globale du modèle
CDI

Offre d'emploi
Ingénieur Data - Média

Deodis
Publiée le
Apache Spark
Azure DevOps
Databricks

3 ans
40k-51k €
400-500 €
Boulogne-Billancourt, Île-de-France
Les livrables sont Code Source Documentation KPI qualité Compétences techniques Databricks - Expert - Impératif Spark SQL - Expert - Impératif Azure Data Factory - Confirmé - Important Scala - Confirmé - Souhaitable Connaissances linguistiques Français Courant (Impératif) Description détaillée Contexte : Le projet Data PUB - Digital vise à centraliser et harmoniser l'ensemble des données relatives à la diffusion publicitaire digital (impressions, chiffre d'affaire etc) pour permettre un reporting fiable selon différentes dimensions (canal de vente, origine, équipes commerciales, annonceurs etc) et garantir une vision unifiée de la performance digitale. Environnement technique : Azure Data Factory, Databricks, Spark Scala, SQL, Azure DevOps et Power BI. Missions : - Concevoir et développer des pipelines d’ingestion de données via Azure Data Factory. - Développer et optimiser des flux de transformation de données en Spark SQL. - Maintenir des pipelines de traitement de données en Scala (faible part) - Maintenir et développer de nouveaux indicateur de qualité de données - Participer au refactoring du code existant pour améliorer sa performance et sa maintenabilité (réécriture en DBT) - Garantir la qualité du code et veiller au respect des normes de développement au sein de l’équipe. - Implémenter des tests unitaires et assurer la fiabilité des solutions. - Maintenir les solutions de monitoring de l’application Digital.
Freelance
CDI

Offre d'emploi
Chef de Projet Data Référentiel Tiers

VISIAN
Publiée le
RGPD

1 an
40k-45k €
310-540 €
Paris, France
Description du poste La mission se déroule au sein de l'équipe responsable d'une part de mener deux projets règlementaires et d'autres part, d'intervenir sur certains sujets de data quality sur un périmètre de données tiers critiques (données finance ou risque de crédit). Les évolutions sur les projets sont : RGPD Droit à l'oubli : révision et optimisation d'un traitement existant pour effacer des données Personnes du Référentiel Tiers clients du système d'information. Programme Groupe LTS/VDS/LOM qui vise à faire évoluer l'éco-système Tiers en ajoutant de nouvelles données dans le système d'information pour les partager avec le groupe à des fins de reporting règlementaires et financiers.
Freelance

Mission freelance
Proxy Product Owner Data / BI – Environnement Agile

Comet
Publiée le
CyberSoc

1 an
400-590 €
Île-de-France, France
Nous recherchons un(e) Proxy Product Owner expérimenté(e) pour intervenir sur un projet data stratégique, en phase BUILD, au sein d’un grand groupe international. Objectif de la mission Accompagner l’équipe produit dans la conception et la livraison de solutions data à forte valeur métier, avec un rôle clé d’interface entre les équipes techniques et les parties prenantes métier. Responsabilités principales Participation active aux cérémonies Agile (Scrum) Enrichissement et pilotage du backlog (Jira) Analyse des besoins data et des sources nécessaires à la construction de KPIs Définition des règles de transformation et critères d’acceptation Conception de modèles de données (Snowflake, Power BI) Contribution aux phases de tests (UAT) avec les stakeholders Suivi de l’orchestration et des flux de données Production et mise à jour de la documentation fonctionnelle
Freelance

Mission freelance
AI Product Owner

Codezys
Publiée le
Azure
Cloud
Data science

12 mois
Lille, Hauts-de-France
Principales missions : Vision & Stratégie Produit IA : Définir la stratégie des solutions IA en collaboration avec les équipes métier, en identifiant les opportunités dans les domaines du Risque, du Paiement, du Digital, etc., et en priorisant les projets selon leur valeur et faisabilité. Gestion du Backlog & Priorisation : Coordonner et prioriser les initiatives en Data Science et IA en traduisant les besoins métier en fonctionnalités, en maintenant le backlog et en arbitrant les priorités pour maximiser l’impact business à chaque sprint. Pilotage du Delivery Agile : Superviser la livraison des projets IA via des méthodologies agile (Scrum/Kanban), organiser les cérémonies, suivre l’avancement, lever les obstacles, et garantir le respect des délais, du budget et de la qualité, tout en communiquant avec les sponsors. Coordination Métiers–Data–IT : Servir d’interface entre les équipes Data Science, IT et métiers, en facilitant la co-construction de solutions adaptées, en intégrant les contraintes techniques et en assurant une mise en œuvre fluide. Crédit & Risque (Scoring) – Use cases « Machine Learning » classiques : Piloter l’évolution des modèles de scoring crédit (octroi, scores comportementaux), en concevant, expérimentant, déployant et en monitorant les modèles en collaboration avec Risque et Validation, en s’assurant qu’ils respectent les normes réglementaires et qu’ils améliorent la stabilité du coût du risque. IA Générative & Agents : Explorer et déployer des cas d’usage liés à l’IA générative, tels que chatbots, assistants cognitifs ou systèmes avec LLM/RAG, pour automatiser l’analyse de documents, soutenir les équipes internes ou enrichir le support client, en définissant objectifs et indicateurs de performance.
Freelance

Mission freelance
Data Engineer AWS / GenAI

Cherry Pick
Publiée le
Amazon S3
Apache Airflow
Apache Spark

12 mois
450-550 €
Paris, France
Dans le cadre du plan de transformation DATA de notre Client, notre client développe des applications et plateformes DATA pour rendre nos métiers (pilotage, marketing, commerce, etc.) autonomes dans l’analyse de leurs données et KPI. Les infrastructures et projets incluent : AWS, GitLab, Terraform, DBT, Snowflake, Python, Scala, Spark, PowerBI, AI/GenAI Architectures Big Data sophistiquées pour ingérer plus de 100 par jour (Datalake, Event-Driven, Streaming, etc.) Exemples de projets : Chatbot AI Socle vidéo, navigation et calcul des audiences Recommandation de programmes via IA Feature Store et modernisation des flux financiers Plateformes CRM et partage de données partenaires Kubernetes et applications de data self-service Missions En tant que Data Engineer , vous serez en charge de : Concevoir, développer et maintenir des pipelines de données scalables et performants (ingestion, traitement et stockage de données massives). Développer des architectures Big Data sur AWS (S3, EMR, Lambda, Kinesis, Batch…), Snowflake et Spark. Développer en Scala et Python pour le traitement massif des données. Automatiser les workflows et orchestrer les pipelines avec Airflow et DBT . Concevoir et exposer des APIs customer-facing performantes. Optimiser les performances et garantir la scalabilité pour gérer un volume important d’utilisateurs. Collaborer avec les équipes Data Science, Produit et DevOps pour une intégration fluide.
1659 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

France

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous