Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 1 734 résultats.
Offre premium
Offre d'emploi
Directeur de Programme IT / Data (H/F)
ALTEN
Publiée le
Data Strategy
Gestion de projet
Lyon, Auvergne-Rhône-Alpes
Dans le cadre d’un programme stratégique de migration des plateformes data et BI, ce poste joue un rôle central. Il implique une collaboration étroite avec des équipes techniques et métiers, et s’inscrit dans une dynamique de transformation du SI, avec des enjeux forts en gouvernance et coordination. Intervenir sur le pilotage transverse d’un programme de migration de plateforme data , en assurant la coordination des équipes techniques et métiers Contribuer à l’animation de la gouvernance du programme (comités de pilotage, comités techniques, suivi des décisions et arbitrages) Coordonner les différentes squads techniques et gérer les interdépendances entre les chantiers Intervenir dans la gestion de la relation avec les métiers , en animant les ateliers d’expression des besoins et en accompagnant la transformation des usages Contribuer à la gestion du changement et à la communication auprès des utilisateurs finaux Piloter le suivi budgétaire du programme (OPEX / CAPEX), l’allocation des ressources et les arbitrages nécessaires Contribuer à l’identification et au suivi des risques projet , ainsi qu’à la mise en place de plans de mitigation Garantir la qualité des livrables et le suivi des migrations de flux de données et de restitutions BI Piloter la stratégie de décommissionnement des usages obsolètes et la rationalisation des infrastructures Contribuer à la documentation, capitalisation et préparation des instances de gouvernance du programme
Mission freelance
Data Custodian
MLMCONSEIL
Publiée le
Data governance
6 mois
100-500 €
Nantes, Pays de la Loire
Pour mon client basé à Nantes , je suis à la recherche d'un Data Custodian : En tant que Data Custodian, on assure la visibilité, la qualité et la disponibilité des données issues du RAW, tout au long de la chaîne de traitement au sein de la Plateforme. On accompagne les équipes dans l’identification et l’accès aux données pertinentes, en facilitant la compréhension des structures et des flux, ainsi que la documentation des sources pertinentes. Capacité à travailler dans un framework Agile Capacité à tracer les flux et documenter les transformations Connaissance des sources et du RAW Anticipation des effets des évolutions des sources sur les socles Le Data Custodian doit avoir un passif de Data Engineer/LeadTech Data ou Data Steward.
Mission freelance
Data Gouvernance / Data Custodian – Paris / Nantes
FRENCHOPS SERVICES
Publiée le
Data governance
Data Lake
Data management
1 an
Paris, France
Nous recherchons deux profils complémentaires : Expert Data Gouvernance : définition du cadre stratégique et de la gouvernance des données Data Custodian : mise en œuvre opérationnelle et supervision des données Ces deux rôles interviennent sur la visibilité, la qualité et la fiabilité des données tout au long de la chaîne de traitement. Expert Data Gouvernance Objectif Définir le cadre de gouvernance des données et apporter la vision stratégique permettant de structurer les pratiques autour de la plateforme data. Responsabilités Définir le cadre de gouvernance des données Structurer les rôles et responsabilités autour de la data Accompagner les équipes métiers et techniques Apporter une vision stratégique sur l’organisation et la gestion des données Informations mission Durée : 2 à 3 mois renouvelable Charge : 40 à 60 % Localisation : Paris ou Nantes Déplacements ponctuels à Nantes Data Custodian Rôle Le Data Custodian garantit la visibilité, la qualité et la disponibilité des données issues du RAW et agit comme point de contact privilégié avec les systèmes sources. Objectifs Garantir la disponibilité, la qualité et la traçabilité des données Assurer la complétude des sources Maintenir la visibilité sur les données brutes et leurs transformations Garantir la cohérence des données pour les équipes métiers et techniques Activités BUILD Cartographier les données RAW et identifier les sources Documenter les sources et les transformations Participer aux ateliers de conception Mettre en place des outils de catalogue / dictionnaire de données Définir les métriques et alertes pour la supervision Activités RUN Superviser la chaîne technique du RAW Suivre les flux et indicateurs Informer les équipes des évolutions des systèmes sources Analyser l’impact sur les socles data Sponsoriser les évolutions SI améliorant la qualité des données Durée : 1 an renouvelable Charge : temps plein Localisation : Nantes
Mission freelance
Developpeur Data Engineer
Freelance.com
Publiée le
Big Data
Snowflake
3 mois
400 €
Bordeaux, Nouvelle-Aquitaine
Vous rejoignez l’équipe Data Tech Knowledge au sein de la direction IT Data. La mission s’inscrit dans une dynamique d’innovation autour de l’ IA appliquée aux environnements Data , avec un fort enjeu d’industrialisation et d’optimisation des processus existants. Vous intervenez en proximité avec les équipes métiers et data afin d’améliorer les outils, les flux et les plateformes. 🚀 Missions principales Développer et maintenir des pipelines d’alimentation de données Concevoir et optimiser des transformations via ETL (Talend / DBT) Travailler en binôme avec un Data Analyst sur des cas d’usage IA/Data Participer au développement d’agents IA permettant le requêtage SQL en langage naturel Mettre en place des outils d’aide au développement et de monitoring Contribuer aux bonnes pratiques DevOps et DataOps Réaliser une veille technologique autour des architectures data modernes 🛠 Environnement technique Langages : SQL, Python Bases de données : Snowflake, SQL Server, PostgreSQL Data Processing : DBT, Talend Data Ingestion : DLT, Kafka, Talend DevOps : Git, TFS, Azure DevOps, Docker, Kubernetes, Liquibase Infrastructure as Code : Terraform Data Visualisation : Power BI 🔎 Profil recherché 2 à 5 ans d’expérience en Data Engineering Très bonne maîtrise de Python et Snowflake Expérience confirmée sur des outils ETL (Talend et/ou DBT) Connaissances en IA (1 à 2 ans) appréciées Autonomie, esprit d’équipe et capacité à comprendre les enjeux métiers
Mission freelance
FREELANCE – Data Manager (H/F)
Jane Hope
Publiée le
Data Strategy
3 mois
Cagnes-sur-Mer, Provence-Alpes-Côte d'Azur
Notre client, basé à Cagnes sur Mer (06) est à la recherche d’un Data Manager (H/F) freelance dans le cadre de l’accompagnement des utilisateurs métier à la prise en main de nouveaux systèmes et modèles de données. MISSIONS · Traduire les besoins métiers mis en lumière par le business analyst en besoins techniques notamment en termes de requêtes SQL et de tableaux de bord à mettre en place · Être l’interface technique auprès du client : accompagner les clients ayant des lacunes en requêtes SQL et leur proposer des solutions · Occuper un rôle de data manager mentor pour transmettre l’information et accompagner les équipes · Echanger avec différents interlocuteurs, aussi bien techniques que métiers · Animer des ateliers pour présenter les modèles et faire monter en compétences l’ensemble des clients
Offre d'emploi
QA Big Data
KLETA
Publiée le
Big Data
Hadoop
3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un QA Big Data pour garantir la qualité, la fiabilité et la performance des pipelines et produits data. Vous analyserez les architectures et flux existants, identifierez les risques qualité et proposerez des stratégies de test adaptées aux environnements Big Data et analytiques. Vous concevrez et mettrez en œuvre des tests automatisés sur les traitements batch et streaming (qualité des données, complétude, fraîcheur, cohérence, non-régression), en utilisant des frameworks et outils adaptés (Great Expectations, dbt tests, Python, SQL ou équivalent). Vous serez responsable de la définition des critères d’acceptance data, de la mise en place de contrôles qualité et de la surveillance des anomalies en production. Vous travaillerez étroitement avec les équipes Data Engineering, Data Science et DevOps pour intégrer la qualité dans les pipelines CI/CD et les processus de delivery. Vous participerez également à l’analyse des incidents data, à l’amélioration continue des pratiques de test et à la documentation des standards qualité au sein de la plateforme.
Offre d'emploi
Product Owner / Data Steward
OCTOGONE
Publiée le
Data governance
Data modelling
IA
6 mois
Clermont-Ferrand, Auvergne-Rhône-Alpes
Product Owner / Data Steward capable de jouer un rôle central dans la transformation Data & IA de l’entreprise. Profil recherché : Expérience solide en change management , transformation et accompagnement d’équipes Aisance dans l’ animation , la facilitation et la fédération de publics variés (contexte international) Capacité à structurer une vision , construire une roadmap et piloter le changement Sensibilité aux enjeux Data / IA (pas besoin d’expertise technique) Curiosité pour comprendre les modèles de données, référentiels et la sémantique Mission : Donner du sens à la démarche “Data & IA driven” Animer ateliers, communautés et groupes de travail Contribuer à l’acculturation Data/IA (sensibilisation, formations) Suivre l’adoption, valoriser les succès et ajuster les pratiques Faire le lien entre les équipes data, IA, IT et gouvernance Compétences Connaissance des data platforms (stockage, transformation, visualisation) Compétences en Data Governance et Data Modeling Excellentes compétences relationnelles, organisationnelles et d’animation
Mission freelance
Data Manager
RED Commerce - The Global SAP Solutions Provider
Publiée le
Data management
6 mois
Lyon, Auvergne-Rhône-Alpes
*** Data Manager – Hybride – Lyon *** RED Global est à la recherche d’un Data Manager pour venir rejoindre les équipes de l’un de nos clients dans le cadre de leurs projets en cours. Profil recherché: 8-10 ans d’expérience en tant que Responsable Data/ Data Manager Capacité à manager des équipes et différentes plateformes. Management Opérationnel Excellentes compétences de communication Détails de la mission: Démarrage : ASAP Localisation : Hybride – Lyon – 2/3 jours sur site par semaine Durée : contrat de 6 mois puis passage en CDI Langues : Français et Anglais obligatoire
Mission freelance
Data Scientist Machine Learning / Deep Learning Aix en Provence/la
WorldWide People
Publiée le
Data science
6 mois
400-440 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Data Scientist Machine Learning / Deep Learning Aix ASAP Expérience +2 ans sur l'IA Gen : prompt engineering, context engineering, construction de workflow avec RAG, tool calling, MCP, implémentation de guardrails. Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Expérience significative en Machine/Deep Learning (traitement du langage naturel, traduction automatique, etc.), Vision (vision par ordinateur, reconnaissance, etc.), et sur le cycle de vie des modèles IA (de la conception vers l'industrialisation, puis la supervision en production de sa valeur). Une base solide en Python est requise pour l'exploration des données, l'évaluation d'un modèle ou la construction d'une API python. - Connaissance de SQL - Solide connaissance de Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Maîtrise des frameworks ML distribués modernes tels que TensorFlow, PyTorch Activité principales attendues : Machine Learning / Deep Learning • Évaluer le problème métier et prouver la valeur via l'analyse exploratoire des données pour démontrer la valeur d'une approche ML/DL. • Création et production de modèles d'apprentissage automatique industrialisables • Traitement de données à grande échelle pour la création de jeux de données d'entraînement • Appliquer les bonnes pratiques de MLOps et d'explicabilité des modèles • Présenter les résultats aux parties prenantes et aider au suivi à long terme de la performance du modèle pour démontrer la valeur de l'IA IA Générative • Évaluer le problème métier et prouver la valeur via l'analyse exploratoire des données pour démontrer la valeur d'une approche IA Gen • Prompt engineering • Bench via des solutions d'évaluation des modèles d'IA Gen • Optimisation des solutions (paramétrage des modèles) Compétences et expériences demandées : - Expérience +2 ans sur l'IA Gen : prompt engineering, context engineering, construction de workflow avec RAG, tool calling, MCP, implémentation de guardrails. - Expérience significative en Machine/Deep Learning (traitement du langage naturel, traduction automatique, etc.), Vision (vision par ordinateur, reconnaissance, etc.), et sur le cycle de vie des modèles IA (de la conception vers l'industrialisation, puis la supervision en production de sa valeur). Une base solide en Python est requise pour l'exploration des données, l'évaluation d'un modèle ou la construction d'une API python. - Connaissance de SQL - Solide connaissance de Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Maîtrise des frameworks ML distribués modernes tels que TensorFlow, PyTorch - Pratiquer une veille active sur vos domaines de compétence. - Participez activement à la construction de la stratégie en effectuant la veille technologique, étant force de proposition sur les nouveaux outils / nouvelles méthodes à utiliser et le partageant avec le reste de l’équipe
Mission freelance
Team Leader Data Engineering
Kamatz
Publiée le
Data cleaning
Data management
Snowflake
6 mois
Bordeaux, Nouvelle-Aquitaine
🔎 Freelance – Team Leader Data Engineering / Lead Data Engineer (H/F) 📍 Localisation : Bordeaux (3 jours sur site) 📄 Type de contrat : Freelance 📅 Démarrage : ASAP ⏳ Durée : Mission longue (6 mois renouvelables) Contexte Dans le cadre du développement de sa Data Platform logistique , notre client recherche un Lead Data Engineer / Team Leader Data Engineering pour accompagner l’évolution et la structuration de son équipe data. Rattaché au Head of Engineering Logistique , vous intervenez à la fois comme référent technique, facilitateur et leader d’équipe , afin de garantir la performance, la scalabilité et la fiabilité de la plateforme data . (équipe : 4 data engineers / 1 Lead developer) Vous travaillerez en étroite collaboration avec les équipes data, produit et métiers . Missions Leadership & management technique Encadrer une équipe de Data Engineers Accompagner la montée en compétences de l’équipe Faciliter la collaboration entre engineering, produit et métiers Apporter un support technique sur les problématiques complexes Data Engineering & Delivery Concevoir et optimiser les pipelines de données Garantir la qualité, la fiabilité et la performance des traitements Améliorer les processus de delivery data Mettre en place des pratiques d’ amélioration continue Data Platform & Architecture Participer aux décisions d’architecture data Assurer la scalabilité de la plateforme Optimiser la gestion et l’exposition des données Périmètre Data La plateforme data couvre : La production de KPI et indicateurs métiers logistiques Le partage de données entre filiales du groupe L’exposition de données et services data aux clients B2B Stack technique Data Platform Snowflake dbt Talend Apache Kafka Langages SQL Python Data Visualisation Microsoft Power BI Outils Jira Confluence
Offre d'emploi
Data Scientist Confirmé (H/F)
Clostera
Publiée le
Data science
Île-de-France, France
Rejoignez-nous ! Aujourd’hui, nous recherchons un(e) Data Scientist Confirmé pour intervenir sur un projet clé de transformation analytique dans le secteur de la distribution. Ce que vous ferez : Modélisation et analyse Concevoir et développer des modèles de Machine Learning permettant de prédire l’appétence client aux offres promotionnelles. Explorer, transformer et enrichir de nouveaux jeux de données afin de les rendre exploitables pour les analyses et les modèles. Test & Learn Concevoir et analyser des protocoles d’A/B Testing afin d’évaluer l’efficacité des campagnes marketing. Mesurer l’impact réel des dispositifs promotionnels sur les comportements clients. Industrialisation & MLOps Participer à la mise en production des modèles et au monitoring de leur performance (dérive des données, qualité des scores). Contribuer à l’industrialisation des pipelines de traitement de données et des workflows analytiques. Data Engineering & Cloud Développer des traitements et automatisations en Python pour la manipulation et l’industrialisation des données. Concevoir et optimiser des requêtes et datasets via SQL / BigQuery . Déployer des solutions data sur une plateforme Cloud (GCP) . Conteneuriser les applications avec Docker pour garantir leur portabilité. Orchestrer des workloads avec Kubernetes . Planifier et superviser les pipelines data via Airflow / Cloud Composer . Gérer le versioning et la collaboration via Git . Votre positionnement vous permettra de travailler sur des projets innovants, d’interagir avec des équipes multidisciplinaires et d’exploiter votre expertise pour apporter une réelle valeur ajoutée. Environnement technique Langages : Python, SQL Cloud : Google Cloud Platform (GCP) Data : BigQuery Orchestration : Airflow (Cloud Composer) Conteneurisation : Docker Orchestration de conteneurs : Kubernetes Versioning : Git Méthodologie projet : Agile (Scrum, Sprint Planning, Backlog)
Mission freelance
Product Owner - Transaction Regulatory Reporting
NEXORIS
Publiée le
Data quality
1 an
560-650 €
Île-de-France, France
Notre client, Banque de Finance et d'Investissement, recherche un Product Owner Transformation Reporting Réglementaire – Capital Markets (H/F) dans le cadre d'une longue mission. Dans le cadre d’un programme pluriannuel de transformation et de sécurisation des reportings réglementaires transactionnels au sein des activités de marchés, la mission consiste à piloter la backlog et garantir la conformité réglementaire (MIFID II, EMIR, SFTR…) dans un environnement international. Rôles stratégiques : - Traduction des exigences réglementaires (MIFID II, EMIR, SFTR…) en user stories et critères d’acceptation métier - Priorisation des livrables selon les échéances réglementaires, l’impact business et les risques - Coordination des parties prenantes : IT, Compliance, Front Office, Middle & Back Office Rôles opérationnels : - Gestion et priorisation de la backlog, animation des cérémonies agiles - Définition et validation des solutions fonctionnelles de reporting - Contrôle du respect des formats techniques (ISO 20022, FpML) et des délais de transmission réglementaire - Encadrement des Feature Owners et des équipes en charge des expressions de besoins et des recettes - Pilotage des dépendances entre systèmes Front Office, post-trade et outils de reporting Rôles de pilotage : - Définition et suivi des KPIs (taux de rejet, complétude des données, délais de soumission) - Reporting aux instances de gouvernance (avancement, risques, alertes) - Accompagnement au changement et support aux équipes de production Livrables - Backlog priorisée et roadmap de transformation - User stories et critères d’acceptation formalisés - KPIs de pilotage et tableaux de bord - Documentation fonctionnelle et supports d’accompagnement au changement
Mission freelance
Architecte Technique Data
CONCRETIO SERVICES
Publiée le
Data governance
Telecom
12 mois
390-600 €
Île-de-France, France
Nous recherchons pour le compte de notre client un architecte technique data pour transformer les données télécoms en informations exploitables, en concevant et optimisant des algorithmes d'analyse distribuée. Missions Analyser, qualifier et valider les données sources avec les équipes métiers Concevoir et implémenter les algorithmes distribués de valorisation et de détection d'anomalies Optimiser les traitements face aux contraintes de volumétrie et de délais Garantir la cohérence, la fiabilité et la véracité des résultats produits Étudier les corrélations et restituer les résultats de manière exploitable Accompagner les métiers dans la compréhension et l'interprétation des données Documenter les jeux de données, règles de calcul et usages associés Veiller au respect des exigences de cybersécurité
Offre d'emploi
Architecte Data Mesh
KLETA
Publiée le
Architecture
Data governance
3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Architecte Data Mesh pour définir et piloter la mise en place d’une architecture data fédérée orientée domaines. Vous analyserez les organisations, les flux de données et les architectures existantes afin de proposer une trajectoire cible alignée avec les principes du Data Mesh (responsabilité par domaine, produits data, self-service, gouvernance fédérée). Vous guiderez la conception des plateformes de données par domaine en définissant des standards communs (contrats de données, qualité, observabilité, versioning, discoverabilité) et en structurant les mécanismes de partage et d’interopérabilité entre équipes. Vous serez responsable des choix structurants en matière de gouvernance, de sécurité, de catalogage et de propriété des données, tout en veillant à la scalabilité et à l’exploitabilité du modèle. Vous travaillerez étroitement avec les équipes Data Engineering, Cloud, DevOps et métiers pour accompagner le changement organisationnel et technique. Vous aurez également un rôle clé dans l’animation d’ateliers, la formalisation de patterns d’architecture et l’accompagnement des équipes dans l’adoption des pratiques Data Mesh et de la culture produit autour de la donnée.
Mission freelance
Directeur de projet Data (H/F)
Freelance.com
Publiée le
Big Data
Data Lake
ERP
12 mois
400-820 €
Malakoff, Île-de-France
Nous recherchons un Spécialiste Intégration & Data Senior / Directeur de projet SI afin de piloter des sujets d’intégration complexes au sein d’un système d’information hybride et transverse. La mission consiste à sécuriser l’intégration des solutions SI et leur passage du Build vers le Run , en garantissant leur exploitabilité par les équipes de production. Le consultant interviendra principalement sur : des sujets Data (environ 70%) des périmètres Corporate / ERP (environ 30%) Dans ce cadre, il devra : Piloter les activités d’intégration SI et coordonner les acteurs techniques et fonctionnels. Garantir la préparation des mises en production et l’exploitabilité des solutions livrées. Assurer la transition Build to Run et l’alignement avec les équipes d’exploitation. Faire le lien entre les différentes équipes Études, Infrastructure, Data, Production et Métiers . Organiser et anticiper la mobilisation des équipes techniques nécessaires aux déploiements . Identifier les risques d’intégration et sécuriser les flux et dépendances entre systèmes . Animer la coordination transverse dans un environnement sans management hiérarchique direct. Le rôle nécessite une forte capacité à naviguer dans un environnement organisationnel complexe , à fédérer plusieurs équipes et à sécuriser les projets d’intégration.
Offre d'emploi
Product Owner Big Data
KLETA
Publiée le
Big Data
Product management
3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Product Owner Big Data pour piloter la roadmap d’une plateforme data industrielle et maximiser la valeur des produits data. Vous analyserez les besoins métiers et techniques, structurerez le backlog produit et proposerez des trajectoires d’évolution alignées avec la stratégie data de l’entreprise. Vous travaillerez étroitement avec les équipes Data Engineering, Data Science, BI, Cloud et DevOps pour traduire les besoins en user stories claires, définir des critères d’acceptance et prioriser les fonctionnalités à forte valeur ajoutée. Vous accompagnerez la mise en place de produits data fiables, documentés et exploitables, en intégrant des enjeux de qualité, de gouvernance et de performance. Vous animerez des ateliers avec les parties prenantes, participerez aux cérémonies agiles et suivrez des indicateurs d’usage et de création de valeur. Vous aurez également un rôle clé dans la communication entre équipes techniques et métiers, en facilitant l’alignement stratégique et en promouvant une culture produit orientée données et impact business.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
1734 résultats
Contrats
Lieu
1
1
France
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois