Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 5 670 résultats.
Freelance
CDI

Offre d'emploi
Data Engineer / Data Scientist

ONSPARK
Publiée le
Cloudera
Hadoop
Python

4 ans
Paris, France
Contexte OnSpark est un cabinet spécialisé dans la GMAO/EAM et l'intégration SI, en forte croissance (40 collaborateurs, CA 3,3 M€). Dans le cadre de la diversification de son offre vers la Data et l'Intelligence Artificielle, nous recherchons un Data Engineer / Data Scientist pour accompagner nos clients grands comptes. Vous interviendrez au sein d'un Pôle Data mature, exploitant une plateforme Big Data on-premise (Cloudera Data Platform Private Cloud) et un environnement de Data Science (Cloudera Machine Learning). Vos missions s'articulent autour de l'ingestion de données massives issues de multiples partenaires institutionnels, de l'accompagnement des équipes métier et de la mise en œuvre de cas d'usage data avancés (data science, IA, machine learning, NLP, dataviz). Responsabilités Collecte des données Développer, industrialiser et maintenir des pipelines d'ingestion de sources de données internes et externes Participer à la préparation et au suivi de la qualité des données Identifier des opportunités d'utilisation de nouvelles données Expertise & accompagnement métier Accompagner les chargés d'études dans leur utilisation de la plateforme de données (POC/POV, support, expertise, formation) Contribuer et maintenir en condition opérationnelle les cas d'usage sur la plateforme (simulateurs, prévisions, indicateurs, data science, IA) Valoriser et exposer les résultats via des outils de visualisation ou de micro-services Sécuriser & MCO Comprendre les contraintes des équipes supports (sécurité, infrastructure, RGPD) Contribuer aux bonnes pratiques de développement, standardisation des livrables, amélioration continue
CDI

Offre d'emploi
Chef de projet Data-Scientist F/H - Système, réseaux, données (H/F)

█ █ █ █ █ █ █
Publiée le
Python

Bagneux, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Coordinateur Data H/F

HAYS France
Publiée le

2 mois
Caen, Normandie
Mission : Mission de 2 mois en Freelance puis préembauche en CDI Lieu : Caen Vos Missions Organisation du reporting groupe Structure et centraliser les indicateurs clés (KPI) pour le pilotage stratégique et opérationnel. Définit et maintenir une architecture de reporting homogène pour l'ensemble du groupe. Évolution des tableaux de bord Conçoit, maintient et fait évoluer les dashboards pour répondre aux besoins métiers. Garantit l'automatisation, la lisibilité et la fiabilité des rapports. Modélisation des données et flux d'alimentation Conçoit et maintient les modèles de données (Datawarehouse, Datalake, Datamarts). Crée et optimise les processus d'intégration (ETL/ELT) pour alimenter les systèmes analytiques. S'assure de la qualité, de l'exhaustivité et de la fraîcheur des données. Relation avec les métiers et la Direction Technique (OT) Assure le lien fonctionnel entre les équipes métiers et la DSI (Direction Technique). Analyse les besoins, formalise les expressions de besoins, coordonne les réponses techniques. Mise en place de procédures de contrôle qualité Définit et met en oeuvre des règles de contrôle de cohérence et de qualité des données. Met en place des alertes, indicateurs de suivi et tableaux de bord de contrôle. Participe à la conformité réglementaire (ex : RGPD, audit interne). Administration de la plateforme BI Gére les environnements de BI (paramétrage, déploiement, supervision). Met en oeuvre une gouvernance des accès et des rôles : Définit les périmètres d'accès aux données (cloisonnement par entité, fonction, niveau hiérarchique). Assure une gestion fine des droits utilisateurs, rôles et permissions. Formation et accompagnement des utilisateurs Forme les utilisateurs clés et les référents métier aux outils BI et aux bonnes pratiques d'usage des données. Élabore des supports pédagogiques (guides, vidéos, documentation). Développe l'acculturation des collaborateurs à la donnée et à l'IA. Veille technologique & innovation Suit les évolutions dans les domaines BI, data, cloud et IA. Identifie les opportunités d'optimisation ou de transformation des processus métier grâce à la donnée
Freelance

Mission freelance
Enterprise Architect – Data Mesh

Signe +
Publiée le
Data Mesh

12 mois
660 €
Toulouse, Occitanie
🎯 MISSIONS Implémenter une architecture Data Mesh au sein d'un SI industriel complexe Concevoir la Data Service Layer (couche de services de données) Produire les dossiers d'architecture (cibles, patterns, gouvernance) Définir les standards de la donnée orientée domaine Accompagner les équipes produit dans l'adoption du modèle Data Mesh Assurer l'alignement avec les contraintes sécurité & conformité 👤 PROFIL RECHERCHÉ Enterprise Architect confirmé – spécialisation Data Mesh Expérience sur des environnements grands comptes / industrie appréciée Maîtrise des concepts : Data Domain, Data Product, Self-serve platform, Federated governance Compétences en rédaction de dossiers d'architecture Capacité à intervenir en autonomie dès le démarrage
Freelance

Mission freelance
Product Manager Data Mesh

SURICATE IT
Publiée le
Data Mesh
Product management

3 ans
400-750 €
La Défense, Île-de-France
Product Manager Data Mesh 📍 Localisation : Puteaux 📅 Type de mission : Mission longue 🏠 Télétravail : 1 jour / semaine (non négociable) 💰 TJM : 750€ Max 🏦 Secteur d’activité : Finance 🚨ATTENTION : Expérience pratique du Data Mesh obligatoire Contexte de la mission Dans un contexte de transformation data à grande échelle, notre client recherche un Senior Data Product Manager pour piloter la conception, la construction et le déploiement de sa plateforme Data Mesh (Group Data Platform – GDP). Il s’agit d’un rôle stratégique mais fortement opérationnel, avec une responsabilité directe sur la livraison, l’industrialisation et l’adoption de la plateforme à l’échelle de l’entreprise. Vos missions 🎯 Pilotage produit & amélioration continue Recueillir les besoins utilisateurs et définir la vision produit Construire et piloter la roadmap Suivre les KPIs d’usage et de valeur Améliorer en continu l’expérience utilisateur et développeur 🏗️ Delivery de la plateforme Data Définir les capacités de la plateforme (data products, pipelines, gouvernance, observabilité…) Mettre en place les standards techniques et les patterns d’architecture Prendre des décisions techniques et valider les solutions ☁️ Architecture Cloud & Infrastructure Coordonner l’architecture cloud et hybride (AWS / Azure) Piloter l’intégration des systèmes on-premise Garantir la sécurité et la conformité 🚀 Exécution & delivery Piloter le cycle de vie produit (backlog, priorisation, releases) Gérer les déploiements en production Suivre performance, fiabilité et risques 📊 Déploiement & adoption Data Mesh Déployer la plateforme dans les différents domaines métiers Accompagner les équipes dans la création de data products Structurer et piloter l’adoption du modèle Data Mesh 📚 Gouvernance & documentation Formaliser les standards, processus et bonnes pratiques Assurer la conformité avec la gouvernance data du Groupe 📢 Communication & pilotage Assurer le reporting auprès des parties prenantes et du top management Produire dashboards, KPIs et supports de pilotage Animer les comités de suivi 🌟 Évangélisation & adoption Promouvoir la plateforme en interne Construire une communauté autour de la data Développer des cas d’usage et démonstrateurs Indicateurs de succès Plateforme déployée et opérationnelle en production Adoption effective par les métiers Qualité et volume des data products livrés Performance et fiabilité de la plateforme Satisfaction utilisateurs Réduction du time-to-market des cas d’usage data
Freelance

Mission freelance
Ingénieur DATA

ROCKET TALENTS
Publiée le
Apache Kafka
Big Data
Cloudera

1 an
400-460 €
Saint-Quentin, Hauts-de-France
Ingénieur DATA : . Contexte Dans le cadre de l’exploitation et de l’optimisation de notre infrastructure Cloudera Data Platform (CDP), nous recherchons un prestataire expert capable d’assurer le support technique, l’analyse et la résolution des incidents critiques ainsi que l’optimisation continue de la plateforme. Le prestataire devra maîtriser les architectures Cloudera, posséder une expertise avancée en développement Shell, Ansible et Python, et être capable d’intervenir sur les problématiques de dimensionnement et de tuning de l’infrastructure. Une connaissance de Kafka est requise pour la gestion des flux de données en temps réel. Des connaissances en sur la plateforme Dataiku seraient un plus. 3. Missions Support Technique Niveau 2 et 3 sur Cloudera Data Platform • Analyser, diagnostiquer et résoudre les incidents complexes impactant la plateforme Cloudera. • Assurer un support de niveau 2 et 3 pour les équipes techniques et métiers. • Gérer les escalades des incidents critiques et collaborer avec l’éditeur si nécessaire. • Implémenter et améliorer les outils de monitoring avancés pour détecter et anticiper les problèmes. • Optimiser la performance des services et traitements Hadoop, Spark et Kafka. Gestion et Optimisation de Kafka • Administrer et optimiser l’infrastructure Kafka sur Cloudera. • Gérer la scalabilité et la résilience des clusters Kafka. • Assurer une supervision efficace des topics, brokers et consommateurs. • Résoudre les incidents liés à la latence, au throughput et à la gestion des offsets. • Mettre en place des stratégies de sécurisation et de haute disponibilité de Kafka. Automatisation et Développement • Développer et maintenir des scripts Shell, Ansible et Python pour automatiser le support et l’exploitation. • Automatiser la gestion des incidents récurrents et les procédures de maintenance. • Déployer des pipelines CI/CD pour les services Cloudera, Kafka et les bases de données associées. Optimisation et Dimensionnement de l’Infrastructure • Travailler sur le dimensionnement et le tuning des clusters Cloudera pour une meilleure gestion des charges de travail. • Dimensionner les divers clusters ElasticSearch en fonction des consommations des ressources. • Analyser et proposer des évolutions d’architecture en collaboration avec les architectes en fonction des besoins métier. • Assurer une veille technologique et être force de proposition pour améliorer la plateforme. Documentation et Transmission de Connaissances • Documenter les incidents récurrents, les procédures de résolution, les bonnes pratiques et le manuel d’utilisation de l’offre. • Former les équipes internes sur les outils de monitoring, Kafka, Cloudera et l’analyse des incidents. • Rédiger des guides de troubleshooting pour faciliter le travail des équipes de support niveau 1 et 2. 4. Profil Recherché Le prestataire devra justifier des compétences suivantes : • Expérience avérée en administration et support de Cloudera Data Platform. • Maîtrise de Kafka (optimisation, gestion des performances et de la scalabilité). • Capacité à analyser et résoudre des incidents critiques sur un environnement Big Data. • Maîtrise des langages Shell, Ansible et Python pour l’automatisation et le déploiement. • Expérience sur les bases de données Elasticsearch. • Capacité à intervenir sur des problématiques de dimensionnement et d’optimisation des performances. • Autonomie, rigueur et capacité à être force de proposition. • Une connaissance de la plateforme Dataiku serait un plus. • Capacité à collaborer avec des équipes multi-disciplinaires et à transmettre des connaissances. • Bonnes connaissances de Linux (à l'aise avec un terminal).
Freelance

Mission freelance
Data Quality Engineer Senior

INFOGENE
Publiée le
Bloomberg
Data Engineering
Data quality

6 mois
500-1k €
Paris, France
Contexte & Enjeux Les données de marché de référence (futures, yields, FX, indices, obligations) présentent de nombreuses anomalies non détectées, non tracées et souvent corrigées manuellement. Cette situation entraîne une perte de temps significative et impacte la confiance des équipes Research & Prediction. Objectif de la mission Structurer, fiabiliser et industrialiser les contrôles de qualité sur les données de marché, avec une approche à la fois technique et analytique. Les 3 axes principaux 1. Audit Cartographie complète des contrôles existants Identification des gaps par classe d’actifs Construction d’un backlog priorisé 2. Implémentation Développement d’une librairie modulaire de quality checks en Python Remédiation des données historiques Gestion des escalades avec les fournisseurs de données (Bloomberg) 3. Industrialisation & IA Mise en place d’un monitoring automatisé (dashboards KPI, alerting) Industrialisation des contrôles en production Réalisation d’un POC basé sur des LLMs pour : Génération semi-automatique de contrôles Analyse des causes racines des anomalies
CDI

Offre d'emploi
Senior Data Analyst Snowflake H/F

JEMS
Publiée le

40k-50k €
Lyon, Auvergne-Rhône-Alpes
Nous recherchons un(e) Senior Data Analyst spécialisé(e) sur Snowflake capable de trouver des solutions innovantes et robustes à l'ensemble des problématiques Data. Missions : • Être responsable de la couche analytique des métriques End-to-End : calculer et suivre les KPI incluant le temps de cycle, le lead time, le débit (throughput) et les encours (work-in-progress) à travers les étapes de production, • Construire des modèles de données granulaires pour un suivi complet des lots, en enrichissant la visibilité avec un niveau de détail par étape et une cartographie des dépendances entre tâches, • Mettre en place un contrôle statistique des processus appliqué aux métriques de flux : détecter les dérives des KPI par rapport aux limites de variabilité et développer des modèles prédictifs pour optimiser les temps de cycle, • Concevoir et maintenir des dashboards de suivi des flux ainsi que des visualisations d'analyse des goulets d'étranglement pour les équipes de production et les relecteurs de dossiers de lots, • Collaborer avec les data engineers pour intégrer les données SAP et les systèmes MES, en garantissant la qualité des données pour le suivi des lots et l'analyse des flux, • Travailler avec les équipes site pour cartographier finement les tâches de production et valider les dépendances, afin de soutenir la transition vers une séquence de lots optimisée, • Contribuer à l'intégration future de capacités de process mining et de workflows agentiques pour un ordonnancement intelligent des files de production. Référence de l'offre : m8hb4s55ll
Freelance
CDI

Offre d'emploi
Administrateur système et réseaux H/F

OBJECTWARE
Publiée le
Administration réseaux
Administration système

1 an
Tours, Centre-Val de Loire
Nous recherchons un Administrateur système et réseaux H/F pour une mission à Tours. Administrer et exploiter les infrastructures systèmes (serveurs, virtualisation, sauvegardes) et réseaux Assurer la supervision, le maintien en conditions opérationnelles et la sécurité des environnements Gérer les incidents et demandes de support (N2/N3) Participer aux projets d’évolution et de modernisation de l’infrastructure Automatiser les tâches récurrentes et améliorer les processus Rédiger et maintenir la documentation technique
CDI

Offre d'emploi
Data Scientist | Machine Learning

█ █ █ █ █ █ █
Publiée le
Data management
Deep Learning
Git

Réau, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance
CDI

Offre d'emploi
Data & AdTech Developpeur H/F

OBJECTWARE
Publiée le
Python
SQL

3 mois
Rennes, Bretagne
Nous recherchons un Data & AdTech Developpeur H/F pour une mission à Rennes. Missions : Organiser, fiabiliser et valoriser les données au sein de la CDP Garantir la qualité et la cohérence des données exploitées Concevoir et maintenir les flux d’ingestion et de transformation (Python, SQL) Intégrer les différentes sources de données de l’entreprise Concevoir et maintenir des dashboards de suivi Créer des solutions permettant d’accélérer les opérations marketing Intégration de solutions AdTech (alternives IDs, dsp Equativ & The Trade Desk…) Technos : Langages : Python, SQL Data & Cloud : BigQuery Data visualisation : Metabase AdTech : DSP, solutions de tracking, identity management
CDI

Offre d'emploi
Administrateur Systèmes / Réseaux & Sécurité H/F

DAVRICOURT
Publiée le
Réseaux

35k-40k €
Arras, Hauts-de-France
Dans le cadre de la réalisation d'un projet en assistance technique, nous recherchons un(e) Administrateur Systèmes / Réseaux & Sécurité pour l'un de nos clients. Vous interviendrez sur un projet de transformation et de centralisation du système d'information situé à proximité d'Arras. À ce titre, vos missions quotidiennes seront les suivantes : - Administrer et maintenir les infrastructures systèmes et réseaux (Windows / Linux) ; - Garantir la disponibilité, la performance et la fiabilité des environnements ; - Gérer des infrastructures multi-sites et hétérogènes ; - Mettre en place des outils de supervision et de monitoring ; - Participer à la centralisation et à l'harmonisation du SI ; - Définir et renforcer les politiques de sécurité des systèmes d'information ; - Gérer les accès, habilitations et sécurisation des flux ; - Identifier les risques et piloter les plans de remédiation ; - Collaborer avec les prestataires et participer aux choix techniques ; - Assurer un support de niveau avancé et contribuer à l'amélioration continue.
Freelance

Mission freelance
Data Engineer / Data Platform Engineer (H/F)

INFOGENE
Publiée le
Data Engineering
Finance
Python

6 mois
Paris, France
Contexte Dans un environnement financier exigeant, CFM souhaite moderniser et fiabiliser son système de gestion des prix de marché (equities, futures, bonds, IRS…). Le système actuel, basé sur des infrastructures legacy, manque de visibilité, de performance et de robustesse, rendant les opérations complexes et peu fiables pour les équipes support et data. Objectif de la mission Concevoir et développer une plateforme centralisée de gestion et de visualisation des prix , permettant de suivre l’ensemble du cycle de vie des données et d’améliorer les opérations quotidiennes. Missions principales Concevoir une architecture cible scalable et robuste Développer une API Python exposant les données de prix et leur cycle de traitement Implémenter des services backend pour : suivi des statuts des prix gestion des événements et anomalies opérations en masse (validation, rejet, reprocessing) Mettre en place des interfaces utilisateurs : dashboard opérateur interface d’administration visualisation des workflows et historiques Améliorer la traçabilité des données (origine, transformation, blocages) Optimiser les performances et la gestion des volumes Documenter les solutions et accompagner les équipes
Freelance

Mission freelance
Architecte Data

Bifora
Publiée le
Big Data
CICS (Customer Information Control System)
Cloudera

12 mois
500-680 €
Île-de-France, France
Nous recherchons un Architecte Data / Expert Data Modélisation pour le compte d'un de nos clients dans le secteur de l'assurance. Le consultant intégrera l'équipe Architecture Solutions SI de la Direction Stratégie SI Architecture et Cloud. Il accompagnera les projets dans la définition de leur architecture data et prendra en charge la modélisation fonctionnelle des objets métiers. Rôles et responsabilités Organiser et suivre l'accompagnement des projets dans la définition de leur architecture de solution au niveau data Définir, promouvoir, enrichir et suivre la mise en œuvre du cadre normatif de constitution du SI Réaliser la modélisation fonctionnelle des objets Métiers dans le cadre du Modèle Fonctionnel Groupe Mettre à jour la cartographie dans Mega HOPEX Accompagner les équipes de réalisation dans la définition des Modèles Logiques de Données (MLD) déclinés depuis le MFC Apporter un support technique DBA Études sur les Modèles Physiques de Données (MPD) Définir les architectures solutions (fonctionnelles/data) de la phase de faisabilité à la mise en production Produire les livrables d'architecture (dossiers, mise à jour du référentiel) Présenter les solutions envisagées dans les instances de validation Délivrer des avis d'architecture et porter l'engagement vis-à-vis du demandeur Coordonner l'activité d'architecture sur certains périmètres
Freelance

Mission freelance
Data Scientist (H/F)

Nicholson SAS
Publiée le
Data analysis
Data science
Large Language Model (LLM)

8 mois
680 €
Île-de-France, France
Informations Pratiques Secteur : Télécommunications Localisation : Arcueil (94) – Rythme hybride (2 jours de présence sur site par semaine) Démarrage : Immédiat (ASAP) Durée : Jusqu’au 31/12/2026 (Visibilité long terme) TJM max : 680 € Contexte de la Mission Suite à la mise en production réussie d'une solution de relation client innovante basée sur l'intelligence artificielle ( Speech-to-Speech ), le groupe amorce une phase de déploiement et d'industrialisation sur l'ensemble de ses canaux digitaux. L'objectif est de renforcer les équipes Data pour accompagner cette montée en charge selon deux axes stratégiques : l'optimisation du monitoring et l'automatisation de la qualité. Vos Missions Rattaché(e) aux équipes Data Science, vous intervenez sur le cycle de vie de la solution dans une logique de passage à l'échelle : Optimisation du Monitoring : Perfectionner les outils de suivi et d'analyse de performance de la solution IA en production. Mise en place du Test Ops : Concevoir et déployer une " Test Case Factory " augmentée par l'IA. Automatisation : Utiliser la Data Science pour générer des scénarios de tests automatisés à chaque nouvelle version logicielle afin de garantir la robustesse du système. Industrialisation : Participer activement au "scaling" de la solution sur les différents points de contact digitaux du client. Compétences Techniques Cœur de métier : Data Science appliquée. Spécialités : Traitement du langage naturel (NLP), intégration de modèles de langage (LLM) et architectures agentiques. Méthodologie : Sensibilité aux problématiques de mise en production (MLOps / Test Ops). Soft Skills Capacité à travailler dans un environnement technologique de pointe. Rigueur méthodologique pour assurer la fiabilité des processus de tests. Force de proposition pour l'amélioration continue des outils de monitoring.
Freelance

Mission freelance
Business Data Analyste SQL (h/f)

emagine Consulting SARL
Publiée le

1 mois
500-600 €
92400, Courbevoie, Île-de-France
Nous recherchons un Business Analyste Data Profil recherché : Bac +5 (école d’ingénieur ou équivalent) – obligatoire Minimum 5 ans d’expérience en tant que Business Analyste, idéalement au sein d’équipes IT Maîtrise des fondamentaux du métier de BA : recueil des besoins, rédaction des spécifications, stratégie de tests (y compris automatisation), animation d’ateliers Solide expérience sur des projets data : modélisation de données (data modeling), SQL, architecture data, analyse approfondie des données Expérience sur des plateformes décisionnelles (reporting, analytics) Compétences clés : Très bonne maîtrise de SQL et d’Excel Bonne connaissance de la suite Microsoft Office Anglais professionnel requis Soft skills : Dynamisme et proactivité Esprit structuré et analytique Excellente communication orale Capacité à travailler dans un environnement international et multi-équipes (contexte de transformation multi-pays)
5670 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous