Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 1 015 résultats.
Offre d'emploi
Chef de projet Data F/H - Informatique de gestion (H/F)
█ █ █ █ █ █ █
Publiée le
Python
SQL
La Garde, Provence-Alpes-Côte d'Azur
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Offre d'emploi
Lead Data H/F
CELAD
Publiée le
45k-50k €
Rennes, Bretagne
Envie d’un nouveau challenge... CELAD vous attend ! Nous poursuivons notre développement et recherchons actuellement un(e) Lead Data H/F pour intervenir chez un de nos clients. Contexte : Vous intervenez dans un environnement Data structuré, organisé en squads, avec des enjeux forts autour de la gouvernance, de la qualité et de la valorisation des données. En lien étroit avec les équipes Data (Data Engineers / Data Analysts) et les métiers, vous jouez un rôle clé dans le pilotage des initiatives Data et dans le déploiement des bonnes pratiques de gouvernance et de conformité. Votre mission : Au sein d'une équipe projet, vous serez en charge de : - Piloter et animer les travaux Data en coordination avec les équipes Data et les métiers - Collecter, prioriser et organiser les besoins Data des squads - Assurer le suivi de la mise en œuvre des solutions Data - Participer au cadrage des projets et garantir le respect du cadre Data (gouvernance, protection, BI) - Accompagner les équipes sur les sujets de Data Management et de Data Privacy (RGPD) - Animer les échanges et assurer un reporting régulier auprès des parties prenantes
Mission freelance
Ingénieur DataOps / DevOps Data (H/F)
emagine Consulting SARL
Publiée le
AWS Cloud
Azure
CI/CD
36 mois
Niort, Nouvelle-Aquitaine
Dans le cadre du renforcement de sa plateforme data, un grand groupe du secteur assurantiel recherche un Ingénieur DataOps afin d’accompagner l’industrialisation, la fiabilisation et l’exploitation de ses environnements data. Vous interviendrez au sein d’une équipe dédiée à la performance et à la stabilité des services data, avec pour objectif d’assurer leur disponibilité et leur évolutivité. Vous participerez activement à la mise en place et à l’amélioration des pipelines de déploiement (CI/CD), à l’automatisation des processus, ainsi qu’à la gestion des environnements de production et de test. Vous serez également impliqué dans la supervision des systèmes, la gestion des incidents, et la mise en œuvre des exigences non fonctionnelles (sécurité, performance, scalabilité). Enfin, vous contribuerez à l’amélioration continue des pratiques DataOps et à la documentation des solutions mises en place.
Mission freelance
🔷 Mission de DSI à temps partagé — 2 jours / semaine
Tenth Revolution Group
Publiée le
Data Lake
Microsoft Fabric
12 mois
Lyon, Auvergne-Rhône-Alpes
Groupe industriel en croissance cherche un DSI à temps partagé. Lyon / multi-sites France + Pays-Bas — 8 entités — 50 M€ de CA — Contexte LBO. Les fondations SI sont posées : ✅ Sage X3 en production depuis 2024 ✅ OroCommerce déployé début 2025 ✅ Power BI avec Fabric et data lake en cours de structuration Le chantier reste ouvert : ▶ Migration M365 ▶ Réseau WAN groupe ▶ Consolidation des filiales encore sous Sage 100 / Cegid ▶ Facture électronique avant fin 2026 ▶ Cybersécurité ▶ Plan de continuité d'activité Le tout dans un contexte de build-up actif. Ce groupe a besoin d'un DSI qui sait travailler sans armée, qui parle aux DG comme aux équipes terrain, qui pilote des prestataires sans en dépendre, et qui rend l'IT lisible pour des décideurs non techniques.
Mission freelance
Directeur de Projet Data Banque (H/F)
Signe +
Publiée le
Big Data
12 mois
700 €
Paris, France
Dans le cadre de la transformation de ses systèmes d’information Finance et Risques, un acteur majeur du secteur bancaire recherche un Directeur de Programme IT expérimenté. Le programme porte sur des enjeux stratégiques liés à la data, aux réglementations financières et à la modernisation des plateformes SI. Le rôle est fortement exposé et implique des interactions régulières avec la Direction Financière ainsi que des instances de gouvernance de haut niveau. Missions principales Pilotage de programme Piloter un programme IT d’envergure (budget pluri-millions d’euros) dans un environnement bancaire exigeant Définir et suivre la feuille de route globale (planning, budget, risques, dépendances) Animer les comités de pilotage et assurer le reporting auprès des directions métiers et de la gouvernance Garantir l’atteinte des objectifs en termes de qualité, délais et coûts Pilotage SI et Data Assurer la coordination entre les équipes IT, les équipes data et les métiers Finance / Risques Apporter une vision stratégique sur les sujets Big Data (opportunités, contraintes, impacts SI) Superviser les trajectoires d’évolution des plateformes et des architectures data Coordination métier Finance / Risques Être l’interlocuteur privilégié de la MOA Finance et Risques Comprendre et challenger les besoins fonctionnels liés aux reportings réglementaires et aux dispositifs ALM Faciliter les échanges avec les équipes Contrôle de Gestion et Finance Gouvernance et gestion des parties prenantes Interagir avec des interlocuteurs de haut niveau (DAF, directions métiers, Directoire) Piloter des dispositifs multi-équipes incluant des prestataires et centres de services Sécuriser l’avancement du programme dans un contexte transverse et international Conformité réglementaire Intégrer les contraintes réglementaires liées aux exigences BCBS239 Garantir la qualité, la traçabilité et la fiabilité des données financières et de risques Profil recherché Expérience confirmée en Direction de Programme IT dans le secteur bancaire Solide compréhension des systèmes d’information Finance / Risques Bonne culture Big Data (enjeux, architectures, cas d’usage) sans être un profil développeur Expérience du pilotage de programmes complexes et fortement exposés Capacité à dialoguer avec des interlocuteurs métiers et techniques Expérience de gestion de prestataires et de centres de services Excellentes compétences de communication, leadership et gestion des priorités Conditions Localisation : à définir (présence régulière requise) Démarrage : idéalement début avril Durée : longue mission
Mission freelance
Lead Data H/F
CELAD
Publiée le
1 an
450-500 €
Rennes, Bretagne
Envie d’un nouveau challenge... CELAD vous attend ! Nous poursuivons notre développement et recherchons actuellement un(e) Lead Data H/F pour intervenir chez un de nos clients. Contexte : Vous intervenez dans un environnement Data structuré, organisé en squads, avec des enjeux forts autour de la gouvernance, de la qualité et de la valorisation des données. En lien étroit avec les équipes Data (Data Engineers / Data Analysts) et les métiers, vous jouez un rôle clé dans le pilotage des initiatives Data et dans le déploiement des bonnes pratiques de gouvernance et de conformité. Votre mission : Au sein d'une équipe projet, vous serez en charge de : - Piloter et animer les travaux Data en coordination avec les équipes Data et les métiers - Collecter, prioriser et organiser les besoins Data des squads - Assurer le suivi de la mise en œuvre des solutions Data - Participer au cadrage des projets et garantir le respect du cadre Data (gouvernance, protection, BI) - Accompagner les équipes sur les sujets de Data Management et de Data Privacy (RGPD) - Animer les échanges et assurer un reporting régulier auprès des parties prenantes
Offre d'emploi
Lead Data H/F
CELAD
Publiée le
Rennes, Bretagne
Envie d’un nouveau challenge... CELAD vous attend ! Nous poursuivons notre développement et recherchons actuellement un(e) Lead Data H/F pour intervenir chez un de nos clients. Contexte : Vous intervenez dans un environnement Data structuré, organisé en squads, avec des enjeux forts autour de la gouvernance, de la qualité et de la valorisation des données. En lien étroit avec les équipes Data (Data Engineers / Data Analysts) et les métiers, vous jouez un rôle clé dans le pilotage des initiatives Data et dans le déploiement des bonnes pratiques de gouvernance et de conformité. Votre mission : Au sein d'une équipe projet, vous serez en charge de : - Piloter et animer les travaux Data en coordination avec les équipes Data et les métiers - Collecter, prioriser et organiser les besoins Data des squads - Assurer le suivi de la mise en œuvre des solutions Data - Participer au cadrage des projets et garantir le respect du cadre Data (gouvernance, protection, BI) - Accompagner les équipes sur les sujets de Data Management et de Data Privacy (RGPD) - Animer les échanges et assurer un reporting régulier auprès des parties prenantes
Mission freelance
Data Product Manager (Business Analyst / Solution Architect)
Comet
Publiée le
Business Analysis
Business Intelligence
12 mois
400-660 €
Île-de-France, France
Contexte de la mission En tant que membre de l'équipe, vous dirigerez un programme comprenant plusieurs études visant à améliorer et à apporter davantage de valeur au programme d'analyse du département Cybersécurité du Groupe. Ce programme soutient l'objectif du Groupe consistant à renforcer la conformité aux normes de cybersécurité et à accélérer la correction des vulnérabilités. Dans un deuxième temps, vous piloterez la mise en œuvre des solutions recommandées dans les conclusions des études. Profil : Senior / Expert Compétences requises : Excellentes compétences en communication avec les dirigeants de niveau C en anglais et en français (écrit et oral) Planification stratégique (séquençage d’une série d’études et de mises en œuvre impliquant plusieurs contributeurs) Analyse des processus métier et informatiques Expérience dans le domaine des données, de l’analyse et de la BI, avec une connaissance des plateformes, des outils et des méthodes appliquées (par exemple, Agile, revue de code, CI/CD) Maîtrise des principes de gouvernance des données, de gestion des données de référence et d’architecture des données Orientation client (réalisation d’entretiens avec les clients, réactivité et concision) Objectifs et livrables Organiser l'étude en incluant tous les participants identifiés et recueillir les exigences de toutes les parties prenantes Comprendre l'ambition, les enjeux et les objectifs de l'entreprise Organiser et animer des ateliers avec les équipes métier Recueillir toutes les contributions métier nécessaires à l'étude Documenter l'architecture fonctionnelle et les recommandations Planifier les différentes phases de travail en s'appuyant sur la proposition du département Data & Analytics et les meilleures pratiques Coordonner les contributeurs Data-as-a-Service (architecte technique, ingénieurs Data & BI) Documenter la valeur de la solution Préparer le budget et le planning de développement et d'exploitation Formaliser les propositions finales de « lancement du projet » Compétences demandées English - Confirmé Business Intelligence - Expert Strategic Planning - Avancé Masterdata Management - Confirmé Communication Professionnelle - Expert Data Architecture - Confirmé Data Governance - Avancé Business Analysis - Expert
Offre d'emploi
Consultant Data / BI – SQL / ETL / Power BI (H/F)
CITECH
Publiée le
Data analysis
6 mois
40k-50k €
350-390 €
Nancy, Grand Est
CITECH recrute ! 👌 Vous souhaitez mettre vos compétences Data & Business Intelligence au service d’un environnement technique structuré et orienté données ? Nous recherchons un Consultant Data / BI (H/F) pour intervenir au sein d’un environnement décisionnel exigeant, dans le cadre du renforcement d’une équipe Data travaillant sur des sujets de reporting, exploitation de données et data marts . Vous intégrerez une équipe technique existante et collaborerez étroitement avec les équipes métiers et data afin de concevoir et faire évoluer les solutions de reporting décisionnel. Description du poste Au sein d’un environnement data structuré, vos principales responsabilités seront : 🔹 Concevoir, développer et maintenir des reportings décisionnels 🔹 Développer des rapports et indicateurs BI 🔹 Analyser les besoins métiers et proposer des solutions de reporting adaptées 🔹 Développer et optimiser des requêtes SQL / PL-SQL 🔹 Participer à la conception, à l’alimentation et à l’exploitation de data marts 🔹 Contribuer à l’ amélioration de la qualité, de la fiabilité et de la performance des données 🔹 Assurer la documentation des développements et des reportings réalisés
Mission freelance
Lead Test Data Management
Axysse
Publiée le
TDMA
1 an
400-550 €
Île-de-France, France
📅 Démarrage ASAP | Mission longue durée (fin 2026) Dans le cadre d’un programme de transformation majeur autour d’un système de réservation de nouvelle génération, nous recherchons un Lead Test Data Management pour structurer et industrialiser la gestion des données de test à grande échelle. 👉 Un rôle clé, transverse, au cœur des enjeux de qualité, de performance et de sécurisation des parcours métiers. 🎯 Votre rôle Vous prenez la responsabilité complète de l’activité Test Data Management (TDM) avec un double objectif : structurer et accélérer. Vos principales responsabilités : 🔹 Pilotage de l’activité TDM Définir la stratégie de gestion des jeux de données de test Prioriser les besoins (backlog data) et garantir un service fiable aux équipes Mettre en place des KPI (qualité, disponibilité, délais, couverture) 🔹 Gouvernance & catalogue de données Construire et maintenir un catalogue centralisé de jeux de données Définir les standards (naming, versioning, usage) Assurer la traçabilité entre besoins métiers et datasets 🔹 Support aux équipes & campagnes E2E Accompagner les Feature Teams dans leurs besoins data Sécuriser les campagnes end-to-end et les parcours critiques Coordonner la configuration des données complexes 🔹 Gestion des partenaires Piloter les prestataires et structurer le cadre opérationnel Suivre la qualité de service et les engagements 🔹 Industrialisation & amélioration continue Identifier les leviers d’automatisation (génération, anonymisation, duplication…) Optimiser les délais de mise à disposition des données 🔹 Communication & onboarding Formaliser les processus et bonnes pratiques Accompagner les équipes dans l’adoption Assurer un reporting régulier
Offre d'emploi
Data Engineer GCP H/F
JEMS
Publiée le
45k-55k €
Levallois-Perret, Île-de-France
Nous recherchons un(e) data Engineer GCP capable de trouver des solutions innovantes et robustes à l'ensemble des problématiques Data. Vous aurez la charge de : • Participer à la conception et réalisation d'une solution Data depuis l'acquisition jusqu'à l'exploitation de la donnée en accompagnant la réflexion des directions métiers • Identifier, collecter et intégrer les données nécessaires à la résolution de problématiques métier et opérationnelles • Garantir la qualité des données en mettant en place les outils de mesure et de suivi adéquats en appliquant les règles de Data Gouvernance et de Data Management • Transcrire des besoins métier en règles de gestion data • Industrialiser le déploiement de vos réalisations à travers l'implémentation de tests unitaires, d'intégration et de non-régression Référence de l'offre : prw1pbyy5v
Mission freelance
251774/Data Engineer (Snowflake / Qlik) - RENNES, NANTES, BREST, CAEN
WorldWide People
Publiée le
Snowflake
3 mois
Bretagne, France
Data Engineer (Snowflake / Qlik) - RENNES, NANTES, BREST, CAEN Ingénieur Data & BI (Snowflake / Qlik) Pour l'un de nos clients, nous recherchons un Ingénieur Data et BI. Périmètre Data : L'équipe Data intervient sur plusieurs domaines (Data Engineering, Data Viz, … ) Data Visualisation et BI (Qlik Cloud) : Préparer et transformer les données pour leur exploitation. Concevoir, développer et maintenir des applications et tableaux de bord interactifs. Proposer des designs pertinents de dashboards répondant aux besoins métiers. Gérer les accès utilisateurs et groupes. Assurer la maintenance et la qualité des applications existantes. L'équipe intervient également à la partie reporting et administration : Conception et automatisation de rapports (Excel, PDF, …). Supervision de la plateforme Qlik : gestion des catalogues et applications, suivi des licences, clés et APIs. Diagnostic et résolution des incidents (logs, API Qlik). Compétences requises : 3 ans d'expérience sur l’utilisation de Qlik (QlikSense, QlikCloud ...) et Snowflake (préparation et optimisation des données). Bonne compréhension des principes d’architecture BI et des bonnes pratiques de modélisation. Capacité à optimiser les applications et améliorer la performance des modèles de données. Points clés pour réussir Être autonome et curieux : (forums, documentation, veille technique)... Avoir une base technique solide sur les modules de Qlik (Analyse, Automation). Comprendre les enjeux d’administration, même si ce n’est pas le cœur du métier. Être capable de diagnostiquer les problèmes d’accès, de configuration ou de logique métier. Autonome, curieux, capacités relationnelles Objectifs et livrables Data Visualisation et BI (Qlik Cloud) : Préparer et transformer les données pour leur exploitation. Concevoir, développer et maintenir des applications et tableaux de bord interactifs. Proposer des designs pertinents de dashboards répondant aux besoins métiers. Gérer les accès utilisateurs et groupes. Assurer la maintenance et la qualité des applications existantes. Compétences demandées Compétences Niveau de compétence QlikCloud Avancé QLIKVIEW Confirmé Snowflake Avancé Architecture BI Confirmé QlikSense Confirmé
Mission freelance
Tech Lead Data – Snowflake et Modern Data Stack (H/F)
Lùkla
Publiée le
Snowflake
1 an
Lyon, Auvergne-Rhône-Alpes
Dans le cadre du développement de sa plateforme data, nous recherchons un Tech Lead Data pour piloter la conception et l’évolution d’une Modern Data Stack performante et scalable. Vos missions Définir et piloter l’architecture data basée sur Snowflake Mettre en place les standards de modélisation, gouvernance et sécurité Structurer les pipelines d’ingestion et de transformation (dbt, Fivetran) Déployer les bonnes pratiques d’industrialisation (CI/CD, tests, qualité) Optimiser la performance et les coûts de la plateforme (FinOps) Encadrer techniquement les équipes data et accompagner leur montée en compétence Contribuer à la roadmap data et aux sujets d’innovation (IA notamment) Environnement technique Snowflake dbt Fivetran Power BI Azure DevOps
Mission freelance
101058/Data Scientist Machine Learning, Prompt engineering, MLOPS Nantes (2 jours TT)
WorldWide People
Publiée le
Data science
9 mois
400-450 €
Nantes, Pays de la Loire
Data Scientist IA GEN, Python, Machine Learning, Prompt engineering, MLOPS Nantes (2 jours TT) - Une base solide en Python pour l'exploration des données, l'évaluation d'un modèle ou la construction d'une API python. - Une Connaissance de SQL - De Solides connaissances de Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Une Maîtrise des frameworks ML distribués modernes tels que TensorFlow, PyTorch Activité principales attendues : Machine Learning / Deep Learning • Évaluer le problème métier et prouver la valeur via l'analyse exploratoire des données pour démontrer la valeur d'une approche ML/DL • Création et production de modèles d'apprentissage automatique industrialisables • Traitement de données à grande échelle pour la création de jeux de données d'entraînement • Appliquer les bonnes pratiques de MLOps et d'explicabilité des modèles • Présenter les résultats aux parties prenantes et aider au suivi à long terme de la performance du modèle pour démontrer la valeur de l'IA IA Générative • Évaluer le problème métier et prouver la valeur via l'analyse exploratoire des données pour démontrer la valeur d'une approche IA Gen • Prompt engineering • Bench via des solutions d'évaluation des modèles d'IA Gen • Optimisation des solutions (paramétrage des modèles) Notre client attend de la candidature que vous proposerez : - qu'elle soit autonome sur l'IA Gen (prompt engineering, context engineering, construction de workflow avec RAG, tool calling, MCP, implémentation de guardrails) - qu'elle dispose d'une expérience significative en Machine/Deep Learning (traitement du langage naturel, traduction automatique, etc.), Vision (vision par ordinateur, reconnaissance, etc.), et sur le cycle de vie des modèles IA (de la conception vers l'industrialisation, puis la supervision en production de sa valeur) Enfin qu'elle ait : - Une base solide en Python pour l'exploration des données, l'évaluation d'un modèle ou la construction d'une API python. - Une Connaissance de SQL - De Solides connaissances de Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Une Maîtrise des frameworks ML distribués modernes tels que TensorFlow, PyTorch
Offre d'emploi
Interopérabilité : Ingénieur Intégration, Data & Cloud
1PACTEO
Publiée le
ETL (Extract-transform-load)
Google Cloud Platform (GCP)
Intégration
12 mois
44k-94k €
400-750 €
75000, Paris, Île-de-France
Dans le cadre de ses activités, notre client recherche un Ingénieur Intégration, Data & Cloud. L’ingénieur intervient sur la conception, le développement et l’exploitation de solutions d’intégration, de traitement de données et d’architectures cloud, dans un contexte orienté automatisation, data et DevOps. Il contribue directement à la mise en place de solutions d’interopérabilité entre systèmes hétérogènes (on-premise et cloud), en assurant la fiabilité, la fluidité et la sécurisation des échanges de données. Missions principales Intégration & Orchestration Développement et orchestration de flux d’intégration avec Magic xpi Automatisation des échanges de données entre systèmes (on premise ↔ cloud) dans une logique d’interopérabilité Intégration de services via APIs REST (authentification, appels sécurisés, transformation des données) Conception et orchestration de workflows d’intégration avec Application Integration (GCP) Cloud & Architecture (Google Cloud Platform) Conception et déploiement de solutions cloud sur Google Cloud Platform (GCP) Mise en place et gestion d’architectures data et d’intégration favorisant l’interopérabilité entre applications Gestion des environnements dev / recette / production Data Engineering & Analytics Modélisation de données et conception de pipelines ETL / ELT Traitement de volumes de données importants Optimisation de requêtes SQL avancées Analyse et data warehousing avec BigQuery Transformation et modélisation analytique avec dbt (staging, intermediate, marts, tests de qualité, documentation, versioning) ETL & Outils Data Conception et développement de flux ETL avec SQL Server Integration Services (SSIS) Automatisation des traitements d’intégration de données multi-sources Développement & Scripting Programmation Python SQL avancé Scripting et automatisation (batch processing, jobs automatisés) DevOps & CI/CD Mise en place et maintenance de pipelines CI/CD avec GitHub Automatisation des tests, builds et déploiements via GitHub Actions Gestion du versioning et des bonnes pratiques de développement Automatisation Low-Code Création de flux Power Automate (cloud et desktop) Utilisation de connecteurs et intégrations avec des systèmes tiers Méthodologies & Qualité Travail en méthodologie Agile / Scrum Application des bonnes pratiques de développement et de data engineering Contribution à la documentation technique et à l’amélioration continue
Offre d'emploi
Data Engineer senior
Atlanse
Publiée le
Agile Scrum
AWS Cloud
AWS Glue
1 an
60k-67k €
500-600 €
Paris, France
En tant que Data Engineer Senior PySpark, vous jouez un rôle clé dans la performance et la fiabilité des traitements de données à grande échelle. Vous êtes en charge de l’optimisation des pipelines existants et de l’organisation des activités de RUN & stabilisation, en veillant à prioriser les actions à forte valeur ajoutée dans un environnement Agile. Votre rôle Optimisation et refonte des pipelines data · Auditer, refactorer et faire évoluer les modules de data engineering : Refining Covariates Modelling, Exposition · Optimiser les pipelines PySpark pour améliorer les performances de traitement à grande échelle (partitioning, gestion des joins, cache, skew et volumétrie) · Renforcer la modularité, la lisibilité, l’évolutivité et la scalabilité des pipelines · Contribuer à la réduction de la dette technique et à la modernisation du legacy Industrialisation et qualité des développements · Structurer un framework flexible permettant l'ajout de nouvelles features et facilitant l’industrialisation des développements · Mettre en place les tests unitaires, d’intégration et fonctionnels · Formaliser des standards de développement Stabilisation, RUN et amélioration continue · Améliorer la stabilité des pipelines grâce au monitoring et à l’application des bonnes pratiques CI/CD · Structurer et prioriser les actions de RUN et de stabilisation · Définir et piloter un plan d'optimisation priorisé avec des gains mesurables Passage à l’échelle et évolution de l’architecture data · Adapter les pipelines pour un déploiement mondial / multi régions en tenant compte des enjeux de volumétrie et de passage à l’échelle · Optimiser le ratio coût / performance des traitements · Travailler en étroite collaboration avec les Data Scientists et les ML Engineers
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
1015 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois