Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 2 007 résultats.
Freelance

Mission freelance
Architecte modélisation data

Freelance.com
Publiée le
Architecture
Big Data

6 mois
100-600 €
Paris, France
📍 Infos pratiques 📍 Localisation : Paris (2 jours TT) 📅 Démarrage : ASAP 📆 Visibilité : mission longue (jusqu’à fin 2026) Dans le cadre d’un programme de transformation Data B2B , nous recherchons un profil orienté architecture et modélisation métier , capable d’intervenir en amont des développements pour structurer un modèle data cible robuste. 👉 ⚠️ Important : ce n’est PAS un poste de Data Engineer 👉 Le besoin est centré sur la conception, l’abstraction et la structuration de la donnée 🎯 Ce que le client attend réellement ✔ Construire une vision 360 des données B2B ✔ Définir les objets métiers clés (Client, Contrat, Parc, Facture, Usage…) ✔ Concevoir le modèle de données cible (Core Model) ✔ Définir les règles de gestion (RCU / unicité client / hiérarchies) ✔ Analyser les sources legacy et faire le lien avec la cible ✔ Structurer un dictionnaire de données (Business Glossary) ✔ Travailler en lien direct avec les équipes métier 👉 Positionnement attendu : Architecte Data fonctionnel / Data Modeler senior 🧠 Responsabilités Modélisation des données (logique & métier) Définition des règles de gestion (vision client / référentiels) Analyse des écarts entre SI existant et cible Contribution à la gouvernance (catalogue, qualité de données) Support aux équipes Data & métiers Pourquoi c’est intéressant ? ✔ Projet stratégique (transformation data complète) ✔ Forte dimension architecture & conception ✔ Impact direct sur la structuration des données du groupe
Offre premium
Freelance
CDI

Offre d'emploi
Data Engineer Python / Azure Sénior

VISIAN
Publiée le
Azure Data Factory
Azure DevOps
Python

1 an
Paris, France
Contexte La Direction des Systèmes d’Information recrute un Data Engineer pour concevoir, développer et maintenir les architectures Data nécessaires à l’exploitation des données. Missions Mener les projets d’intégration (temps réel) et data (big data & insights) Comprendre, analyser et proposer des solutions techniques répondant aux besoins des divers acteurs de la donnée (spécialistes métier, architecte, data analystes et scientists) Apporter un éclairage technique sur les architectures Cloud, dialoguer avec les fournisseurs de solutions et les consultants techniques Dans une logique de mise en production, créer et déployer des pipelines de données robustes pour les data scientists et data analysts (collecte, stockage, transformation et exploitation) Assurer une bonne qualité des données pour les projets Machine Learning (préparation, complétude, épuration, enrichissement) dans le but d’optimiser les performances des modèles Améliorer les processus internes : localisation et traçabilité de la donnée, standardisation des flux et des scripts de traitement des données, documentation Collaborer avec les équipes basées à l'étranger (Anglais) pour faciliter le Data-Sharing, échanger sur les best-practices et les moyens d’optimiser les architectures Contribuer à l’amélioration de la gouvernance sur la protection et la confidentialité des données Toute activité en dehors de celles énumérées au titre des fonctions principales pourra être confiée au collaborateur dans le cadre de son activité en fonction de son évolution au sein du service et des besoins de l’entreprise
Freelance
CDI

Offre d'emploi
Architecte Data / Stratégie Plateforme Data Européenne

OBJECTWARE
Publiée le
Apache Kafka
BI
Data Lake

3 ans
40k-73k €
400-550 €
Île-de-France, France
🎯 Objectif de la mission Dans un contexte de transformation data à l’échelle européenne, vous intervenez en tant qu’ Architecte / Consultant Senior Data pour structurer, rationaliser et industrialiser la plateforme data du groupe. Vous accompagnez la définition de la stratégie cible, la gouvernance et la trajectoire de migration vers une plateforme data unifiée, scalable et conforme aux contraintes réglementaires (RGPD, localisation des données, sécurité). 🧩 Missions principales🔎 1. Diagnostic des plateformes data existantes Réaliser une cartographie complète des plateformes data existantes Analyser les architectures de bout en bout (de l’ingestion à l’usage métier) Étudier l’organisation, les rôles et responsabilités Identifier les dépendances techniques et fonctionnelles Recenser et prioriser les cas d’usage Data, BI et IA Intégrer les contraintes réglementaires (RGPD, souveraineté des données) 🏗️ 2. Définition de la stratégie data cible Concevoir une architecture cible de plateforme data pan-européenne Travailler avec les équipes d’architecture groupe Recommander les choix technologiques (cloud, data platforms, outils) Définir un modèle de gouvernance data transverse (business lines) Fixer les principes de scalabilité, industrialisation et performance 🔁 3. Stratégie de migration & roadmap Construire une roadmap de transformation et migration vers la cible Définir les étapes de migration des données et des usages Organiser et animer les ateliers avec les équipes IT et métiers Préparer et suivre les comités de pilotage IT Coordonner les phases de tests, recette et non-régression 🚀 4. Accompagnement des premières phases de delivery Accompagner le démarrage des premières implémentations Garantir la cohérence entre architecture cible et réalisation Assurer un rôle de référent auprès des équipes de delivery
Freelance
CDI

Offre d'emploi
Architecte Data Senior

Crafteam
Publiée le
Apache Kafka
Apache Spark
Google Cloud Platform (GCP)

3 ans
60k-63k €
550-600 €
Île-de-France, France
Dans le cadre du développement d’une plateforme Data & IA de nouvelle génération hébergée en environnement hybride (Cloud GCP / On-Premise), nous recherchons un(e) Architecte Data Senior capable de concevoir des architectures robustes, scalables et orientées performance. Vous interviendrez au sein d’équipes pluridisciplinaires sur des sujets stratégiques autour de la data platform, de l’analytics et de l’intelligence artificielle. Vos missions Concevoir et formaliser des architectures data adaptées aux besoins métiers et techniques Collaborer avec les équipes Data Engineering, Data Science, Analytics, Product et projets Accompagner les équipes dans la mise en œuvre des architectures définies Garantir la qualité, la sécurité et l’intégrité des données Optimiser les processus d’ingestion et de traitement des données Participer à la définition des politiques de gouvernance data Évaluer et recommander les technologies les plus adaptées aux enjeux de la plateforme Identifier et résoudre les problématiques d’architecture liées au stockage, à l’accès et à l’exploitation des données Contribuer à des projets de migration de plateformes Data On-Premise vers le Cloud (idéalement GCP) Environnement technique Google Cloud Platform (GCP) Spark Python SQL Kafka MongoDB Hadoop Bases de données SQL / NoSQL DataLake / DataWarehouse / Lakehouse Concepts Datamesh & architectures hybrides
Freelance
CDI
CDD

Offre d'emploi
Administrateur Cloudera CDP & CDP Data Services (environnement OpenShift) TJM MAX 500

Craftman data
Publiée le
Cloudera
Hadoop
Kubernetes

8 mois
40k-45k €
400-550 €
Paris, France
Description du poste Dans le cadre du développement de ses plateformes data, l’entreprise recherche un administrateur spécialisé sur des solutions de type CDP et les services de données associés, notamment Private Cloud (PVC), évoluant dans un environnement conteneurisé OpenShift. Rattaché à l’équipe infrastructure ou data platform, le collaborateur intervient sur l’exploitation, l’administration et l’optimisation des plateformes big data, tout en garantissant leur disponibilité, leur performance et leur sécurité. Missions principales L’administrateur est responsable du bon fonctionnement de la plateforme CDP et de ses services data. Il assure l’installation, la configuration et la maintenance des environnements CDP Private Cloud ainsi que des services de données associés. Il prend en charge le déploiement et l’administration des services CDP Data Services (tels que Data Warehouse, Machine Learning ou Data Engineering) en s’appuyant sur l’infrastructure OpenShift. Il surveille en continu les performances de la plateforme et met en place des actions correctives ou d’optimisation afin de garantir un niveau de service optimal. Il participe à la gestion des incidents et des problèmes en analysant les causes racines et en proposant des solutions durables. Il veille à la bonne intégration des composants CDP avec l’écosystème technique existant, notamment les systèmes de stockage, de sécurité et de réseau. Il contribue à l’automatisation des tâches d’administration et de déploiement à travers des scripts ou des outils d’infrastructure as code. Il travaille en étroite collaboration avec les équipes data, DevOps et sécurité afin de faciliter l’usage de la plateforme et d’assurer sa conformité aux standards internes. Responsabilités techniques L’administrateur assure la gestion des clusters CDP Private Cloud (PVC), incluant leur installation, leur montée de version et leur maintenance corrective et évolutive. Il administre les environnements OpenShift utilisés pour héberger les services CDP Data Services et garantit leur bon dimensionnement. Il configure et maintient les services essentiels tels que Hive, Spark, Impala, HDFS et les services Kubernetes intégrés. Il met en œuvre les politiques de sécurité, notamment l’authentification (Kerberos, LDAP), la gestion des accès et le chiffrement des données. Il supervise les ressources système (CPU, mémoire, stockage) et optimise leur utilisation. Il participe à la mise en place de solutions de supervision et de logging adaptées à l’environnement. Compétences requises Le candidat possède une solide expérience sur la plateforme CDP, en particulier en environnement Private Cloud. Il maîtrise les concepts et l’administration d’OpenShift et des environnements Kubernetes. Il dispose de bonnes connaissances des composants big data tels que Hadoop, Spark, Hive et des outils associés. Il comprend les problématiques liées aux architectures distribuées, à la haute disponibilité et à la performance des systèmes. Il est à l’aise avec les environnements Linux et les outils d’automatisation (shell scripting, Ansible ou équivalent). Une bonne compréhension des enjeux de sécurité des données est attendue. Profil recherché Le poste s’adresse à un profil autonome, rigoureux et capable d’intervenir dans des environnements techniques complexes. Le candidat fait preuve d’un bon esprit d’analyse et de synthèse, et sait travailler en équipe avec des interlocuteurs variés. Une expérience dans un contexte DevOps ou data platform constitue un atout important. Environnement technique CDP Private Cloud (PVC) CDP Data Services (Data Warehouse, Data Engineering, Machine Learning) OpenShift / Kubernetes Hadoop ecosystem (HDFS, Hive, Spark, Impala) Linux (RedHat / CentOS) / Outils de monitoring et de logging
CDI

Offre d'emploi
Data Engineer (F/H)

CELAD
Publiée le

35k-42k €
Strasbourg, Grand Est
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ Strasbourg - Expérience de 2 ans minimum Vous aimez transformer les données en décisions concrètes ? Cette opportunité est faite pour vous ! Nous poursuivons notre développement et recherchons actuellement un.e Data Engineer pour intervenir chez un de nos clients, intervenant dans le secteur bancaire. Contexte : Vous interviendrez directement sur des projets d’intégration et d’exploitation de données, contribuant à rendre l’information accessible et exploitable pour les équipes métier. Voici un aperçu détaillé de vos missions : - Concevoir et maintenir des processus d’intégration de données (ETL / ELT), idéalement avec Semarchy xDI (anciennement Stambia) - Participer à la modélisation de systèmes décisionnels et à l’organisation des données - Manipuler et optimiser les bases de données avec le SQL - Collaborer avec les équipes BI sur des outils comme SAP/BO Situation géographique : Strasbourg (67)
CDI

Offre d'emploi
Data engineer (H/F)

Amiltone
Publiée le

35k-40k €
Lille, Hauts-de-France
Vos missions ? Intégré(e) à nos équipes ou chez nos clients, vous contribuez à développer et valoriser l'ensemble des données en résolvant des problématiques business concrètes via les technologies liées à la Data A ce titre, vos missions seront les suivantes : - Concevoir et mettre en place des architectures de données en choisissant les technologies adaptées aux besoins. - Gestion des bases de données en garantissant la performance et la scalabilité des solutions de stockage. - Analyser et explorer les données avec les différents outils. - Mettre en place des tableaux de bord avec Power BI ou Tableau en exploitant les données transformées via Talend. - Interagir avec les équipes métier pour comprendre et les besoins. - Utiliser TALEND pour extraire des données depuis plusieurs sources (SQL, API, Excel ...). - Automatiser les processus ETL pour centraliser les données dans un Data Wrehouse (Snowflake). - Participation aux projets IA. Compétences requises : • ETL: Talend • Analyse de données (PowerBI, Tableau) • Base de données (SQL, GCP) • Langages: Python, SQL
Freelance
CDI
CDD

Offre d'emploi
Ingénieur Algo / Data Scientist

Signe +
Publiée le
Data analysis

10 mois
40k-45k €
400-460 €
Clermont-Ferrand, Auvergne-Rhône-Alpes
Dans le cadre d’une prestation d’ingénierie à forte dominante scientifique, nous recherchons un profil Ingénieur Algo / Data Scientist pour intervenir sur des problématiques de traitement du signal, d’analyse de données capteurs et de modélisation en environnement industriel. La mission consistera à exploiter, analyser et interpréter des données issues de systèmes physiques ou de capteurs, afin de développer des algorithmes robustes permettant de répondre à des enjeux techniques complexes. Le consultant pourra être amené à travailler sur des sujets de modélisation physique ou numérique, d’optimisation, de détection de phénomènes, de classification ou encore de prédiction à partir de données expérimentales. L’environnement nécessite une bonne capacité à comprendre des phénomènes scientifiques, à manipuler des données techniques et à proposer des approches algorithmiques adaptées aux contraintes industrielles.
CDI

Offre d'emploi
Chef de Projets Data H/F

JEMS
Publiée le

45k-60k €
Nantes, Pays de la Loire
Nous recherchons un Chef de Projets Data pour venir renforcer nos équipes Delivery. Vous serez responsable de la gestion complète des projets de déploiement de nos plateformes data chez nos clients, en garantissant le respect des délais, du budget et de la qualité des livrables. Nous attendons de vous des compétences fortes en Management et Leadership. Vous aurez la charge de : • Superviser l'ensemble du cycle de vie des projets en mode forfaitaire ou en mode dispositif à engagements, jusqu'au déploiement en production • Définir et formaliser les besoins clients en étroite collaboration avec les équipes techniques et les stakeholders • Chiffrer les différentes étapes du projet, identifier les compétences nécessaires, élaborer les plannings, définir le plan de charge (montée en charge des ressources nécessaires) • Assurer un suivi rigoureux des coûts, des délais et des risques, en identifiant et en gérant les éventuels écarts de périmètre • Initialiser et maintenir le plan d'assurance qualité à jour • Encadrer et animer les équipes projets, en motivant et en assurant un suivi efficace de la performance de l'équipe • Garantir la qualité des livrables en supervisant les tests, la validation des fonctionnalités et la conformité aux exigences spécifiées • Participer à l'amélioration continue des processus et méthodologies de gestion de projets (plan de progrès) • Préparer des rapports réguliers sur l'état d'avancement des projets et les résultats obtenus. Référence de l'offre : v6lc4tkq0y
Freelance
CDI

Offre d'emploi
Ingénieur Data SAS / Teradata – Environnement Banque (H/F)

Deodis
Publiée le
Data quality
Gouvernance

1 an
40k-45k €
400-480 €
Île-de-France, France
Nous recherchons un(e) Data Engineer spécialisé(e) SAS / Teradata pour intervenir au sein d’un environnement bancaire exigeant, dans le cadre de la gestion et de l’évolution d’une plateforme Data stratégique utilisée pour des besoins réglementaires. Vous serez en charge de l’administration de la plateforme SAS, de la mise en place et de l’automatisation des traitements de chargement de données via des scripts SAS et Shell, ainsi que du suivi de la qualité et de la conformité des données en base Teradata. Vous interviendrez également sur le support aux utilisateurs métiers (notamment en environnement international), l’analyse des incidents, la validation des flux de données et l’optimisation des traitements batch. Ce rôle requiert une forte expertise technique sur SAS, une bonne maîtrise des environnements Data legacy, ainsi qu’une capacité à évoluer dans un contexte structuré, orienté Data Quality, gouvernance et performance.
CDI

Offre d'emploi
Architecte Solution Data

CHARLI GROUP
Publiée le
Exadata
IBM DataStage
Java

Paris, France
Avec la livraison récente de la toute nouvelle Data Factory, qui consiste en un datawharehouse transversal à l’entreprise ainsi qu’une multitude de services et clients associés, en production ou en devenir Compétences clefs : • Maitrise des technologies data plateformes avec un atout majeur sur les solutions IBM (ETL Datastage PX) • Modélisation des données, data linéage, Data qualité… • Vision : capacité à prendre de la hauteur et référent/garant sur les choix d’architecture • Capacité d’influencer les choix d’architecture et traduire les besoins métier en choix d’architecture fonctionnelle et technique • Faciliter et accompagner les équipes de dev dans le cycle de développement.
Freelance
CDI

Offre d'emploi
Data Ingenieur Python

CHARLI GROUP
Publiée le
Apache Kafka
ELK
Python

3 ans
Paris, France
Ingénieurie Data expérimenté pour conception, construction et maintenance d' une infrastructure de données robuste et performance dans un environnement entièrement on-premise. Étroite collaboration avec les équipes Data pour garantir des pipelines fiables et de haute qualité sur notre infrastructure autogérée. Profil recherché : - Conception et construction des pipelines de données scalables pour le traitement batch et temps réel - Dévelopement et maintenance des workflows avec Apache Airflow (orchestration) et Apache Flink (traitement de flux) - Mise en place et opération des clusters Apache Kafka pour le streaming d'événements à haut débit - Déployement et administration la stack ELK (Elasticsearch, Logstash, Kibana) pour l'ingestion de logs, l'indexation, la recherche et l'observabilité - Écriture du code Python propre, efficacité et test pour la logique ETL/ELT et les outils internes - Garantie de la qualité des données, la fiabilité des pipelines et la résilience de l'infrastructure - Collaboration avec les équipes DevOps sur la planification de capacité et les opérations cluster - Accompagnement et augmentation en compétences des ingénieurs moins expérimentés
CDI
Freelance

Offre d'emploi
Directeur des Systèmes d'Information

VISIAN
Publiée le
Budget Management
Data governance
Project Portfolio Management (PPM)

1 an
Paris, France
Missions Assurer le rôle de DSI à part entière sur la durée de la mission Clarifier l’organisation, les rôles et responsabilités (RUN / BUILD / support) Mettre en place ou renforcer les instances de gouvernance IT (CODIR DSI, comités projets) Fiabiliser le pilotage (rituels, indicateurs, priorisation) Garantir le maintien en condition opérationnelle des systèmes critiques Sécuriser la production IT (disponibilité, performance, incidents majeurs) Traitement des irritants prioritaires métiers Reprendre le pilotage des projets structurants / sensibles Reprioriser le portefeuille projets en lien avec la Direction Générale Identifier rapidement les zones de risque, arbitrages et décisions à prendre Sécuriser les trajectoires (planning, coûts, qualité) Remettre à niveau les pratiques essentielles (documentation, MEP, qualité, sécurité) Apporter des méthodes pragmatiques adaptées à la maturité réelle de l’organisation Professionnaliser sans sur-organiser Être un interlocuteur crédible et opérationnel pour le COMEX Rendre compte de façon claire, factuelle et synthétique Formuler des recommandations actionnables, sans posture politique Produire un état des lieux clair (forces, faiblesses, risques) Capitaliser sur les actions menées et décisions prises Préparer le passage de relais au futur DSI (dossier de reprise)
Freelance
CDI
CDD

Offre d'emploi
Architecte Fonctionnel SI & Data – Senior

RIDCHA DATA
Publiée le
TOGAF

1 an
Ivry-sur-Seine, Île-de-France
🎯 Contexte Dans un environnement multi-BUs, multi-outils et multi-processus , une grande organisation renforce sa Direction des Systèmes d’Information Interne afin de structurer et faire évoluer son Système d’Information Corporate. Le poste s’inscrit dans une démarche de transformation SI & Data , avec un fort enjeu d’alignement stratégique, de gouvernance et de valorisation de la donnée. 🚀 Missions principales 🏗 Architecture fonctionnelle & urbanisation SI Définir et faire évoluer l’architecture fonctionnelle cible du SI Maintenir la cartographie fonctionnelle Définir les principes d’urbanisation Garantir la cohérence des flux et processus métiers Contribuer aux choix structurants et aux études d’opportunité 📊 Gouvernance SI & Data Structurer et animer la gouvernance SI et Data Piloter les instances de gouvernance Garantir la qualité et la cohérence des données Mettre en place et suivre les référentiels 🗺 Pilotage de la roadmap SI Consolider la feuille de route SI Identifier et piloter les dépendances entre projets Contribuer aux arbitrages stratégiques Accompagner les métiers et la DSI sur les cadrages complexes 🤝 Accompagnement transverse Assurer la cohérence globale des solutions SI Intervenir sur les sujets à forte complexité ou à enjeux stratégiques Animer les équipes projets (chefs de projet, AMOA, référents data…) Favoriser l’usage et la valorisation de la donnée 🧩 Périmètre fonctionnel SI Finance SI RH & Activité CRM & Connaissance Client Data & IA
Freelance

Mission freelance
DATA ENGINEER - Nantes

Signe +
Publiée le
Apache Airflow
Apache Hive
Apache Spark

155 jours
370 €
Nantes, Pays de la Loire
Description du poste Prestation de Data Engineering sur site client à Nantes. La mission consiste à : - Réaliser les développements en langage Scala. - Assurer les travaux jusqu'en environnement de production. - Assurer le support N3 de la production. - Superviser les traitements. - Être force de proposition. - Documenter les réalisations. Notre client attend un candidat disposant de plusieurs années d'expérience en Scala et Spark. Conditions de travail : - Prestation sur site. - 4 jours de télétravail par semaine.
CDI

Offre d'emploi
Expert data H/F

HAYS France
Publiée le

Monaco
Vos missions sont les suivantes : Accompagner la modernisation de l'environnement data aujourd'hui basé sur MyReport et de nombreux fichiers Excel. Mettre en place une architecture plus fiable et automatisée pour centraliser et structurer la donnée. Participer au choix de la future plateforme data et aux premières étapes de son implémentation. Construire les premiers flux de données (ETL/ELT) et organiser les modèles de données. Produire des tableaux de bord fiables pour le comité de direction et les équipes métiers. Améliorer la qualité, la cohérence et la disponibilité de la donnée. Préparer l'arrivée de cas d'usage IA (prévisions, automatisations).
2007 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous