Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 1 197 résultats.
Freelance

Mission freelance
Data manager IA Act / data gouvernance

Publiée le
Data governance
Gouvernance
IA

1 an
650-800 €
Paris, France
Télétravail partiel
Dans le cadre d'une création de poste, nous recherchons un(e) data manager sénior pour intervenir sur de la data gouvernance et de l'IA act. Le projet vise à accompagner le déploiement du domaine de conformité réglementaire. Vous apporterez un support méthodologique, organisationnel et opérationnel pour mettre en œuvre les dispositifs de conformité du Groupe aux réglementations sur le partage de données. Vous serez amené à : Contribuer à la définition de la feuille de route du Groupe en réponse aux exigences réglementaires Animer et coordonner des groupes de travail pluridisciplinaires (Data, sécurité, juridique, IT, métiers) Produire les livrables nécessaires à l'aide à la décision (analyses, synthèses, plans d'action) Assurer la sensibilisation des acteurs et l'appropriation des nouvelles gouvernances, en s'appuyant sur les démarches existantes (programme Data Act)
Freelance
CDI

Offre d'emploi
Data Engineer - Elasticsearch

Publiée le
Elasticsearch
ETL (Extract-transform-load)

1 an
40k-60k €
400-550 €
Montreuil, Île-de-France
Environnement de travail: Au sein d'une équipe de DataManagement à taille humaine, devoir d'intégration et renfort de l'équipe pour contribution aux enjeux forts de DataDriven Travail à la mise à disposition de données en garantissant la qualité et la fraicheur pour l'ensemble des traitements et process qui l'utilisent. Collaboration avec les équipes informatiques et capacité de traitement des données en provenance de différentes sources, puis analyse et interprétation des résultats tout en définissant la structure de stockage Anglais écrit et oral pour des échanges avec certains interlocuteurs internationaux et les équipes de support éditeur. 1. Objet de la mission Développer, optimiser et maintenir des pipelines de données, incluant l’automatisation, la gestion des bases, la recherche et le traitement. 2. Périmètre de la prestation · Conception et développement de flux ETL/ELT. · Mise en place et exploitation de traitements en streaming. · Développement de scripts et automatisations PowerShell. · Administration et optimisation de PostgreSQL. · Indexation, recherche et optimisation dans Elasticsearch. 3. Livrables attendus · Pipelines opérationnels et documentés. · Scripts PowerShell industrialisés. · Schémas et procédures PostgreSQL optimisés. · Index/mappings Elasticsearch performants.
Freelance
CDI

Offre d'emploi
Technical Product Owner Data Science Platform

Publiée le
DevOps
Machine Learning

1 an
40k-45k €
400-690 €
Paris, France
Télétravail partiel
Objectifs Au sein de la division AI & Innovation de l'IT groupe d'une institution financière majeure, l'équipe AI Production Center recherche un profil premium afin d'assurer l'ownership technique du produit "Data Science Platform" du groupe. Contexte Équipe de 20 experts répartis sur 5 pôles d'activité (Solutions Engineering, Automation Engineering, Infrastructure Engineering, Product Office, Client Services) 15+ plateformes de Data Science / MLOps en production (Cloud et on premise) / 600+ utilisateurs Data Scientists Plusieurs infrastructures, plateformes et services d'IA Generative en production à l'attention de tous les métiers du Groupe Un GRID de GPU on premise utilisé pour le training et l'inference Pratiques DevSecOps / GitOps / MLOps / LLMOps Automatisation autour des APIs des infrastructures, des plateformes (kubernetes/openshift) et des produits Environnement de travail Team Play avant tout! Curiosité sans limites!! Autonomie, rigueur, qualité Sens du service client Patience & bienveillance Appétance naturelle pour le partage de connaissances L'automatisation dans le sang Anglais courant (fournisseurs et clients en dehors de France, base documentaire entièrement en Anglais) Laptops au choix (MacOS, Windows)
Freelance

Mission freelance
DATA MANAGER / REF GOUVERNANCE DE DE DONNEES

Publiée le
Collibra
Data governance
Gouvernance

1 an
Lille, Hauts-de-France
Télétravail partiel
Nous recherchons un Référent Gouvernance de Données / Data Steward pour une mission freelance au sein d’une équipe transverse Data. Ce rôle stratégique consiste à accompagner les équipes produits digitaux dans l’exposition et la qualité de leurs données, en garantissant le respect des règles de gouvernance définies au niveau groupe. Le consultant sera le point de référence sur la gouvernance des données , travaillera en autonomie et interagira régulièrement avec les autres référents data des différentes plateformes pour harmoniser les pratiques et contribuer à l’amélioration continue. Missions principales : Accompagner les équipes produits dans l’exposition de leurs données selon les standards de gouvernance. Définir et mettre en œuvre les règles de qualité des données en collaboration avec les équipes concernées. Garantir la certification des données publiées. Participer aux comités de gouvernance avec les autres référents data. Être force de proposition sur l’évolution des pratiques et des modèles de données. Contribuer à la modélisation des données et à la valorisation des données de référence. Livrables attendus : Données exposées selon les règles de gouvernance définies. Règles de qualité déployées et respectées. Évaluation du respect des standards de gouvernance.
Freelance

Mission freelance
Architecte Data

Publiée le
Data Lake
Data Warehouse

6 mois
400-660 €
Paris, France
Nous recherchons pour notre client un Architecte Data dans le cadre d’un programme de transformation Data. Sous la responsabilité du responsable de centre d'expertise Data, il aura en charge de : Valider, sécuriser et faire évoluer l’architecture technique de la plateforme Data (Data Lake, Data Mesh, Data Warehouse) en intégrant les exigences de sécurité Garantir la cohérence, la robustesse et la sécurité des flux de données entre les différents systèmes. Accompagner les équipes projets dans le choix et l’implémentation des solutions techniques. Assurer la veille technologique et proposer des améliorations continues. Collaborer avec les architectes, le RSSI, DPO et équipes cybersécurité pour intégrer les contrôles nécessaires. Assurer la traçabilité des décisions et la documentation des choix techniques. Partager avec Apicil les REX sur des solutions et architectures mises en oeuvre chez d'autres clients. Assurer la veille technologique et proposer des améliorations continues.
Freelance
CDI

Offre d'emploi
Tech Lead Data

Publiée le
CI/CD
DBT
Python

12 mois
40k-60k €
400-600 €
Île-de-France, France
Télétravail partiel
Tech Lead Data & Analytics (Snowflake, dbt, Tableau) – Télétravail possible 📍 Temps plein | F/H/X Nous recherchons un(e) Tech Lead Data pour rejoindre une Feature Team et piloter le développement de produits Data Analytics & IA de haute qualité. Missions principales : Encadrer et coacher une équipe de Data Engineers Définir les choix techniques et modélisations des produits Data Industrialiser et optimiser les flux et produits Data Relever des défis techniques, challenger le "status quo" et proposer des améliorations Compétences techniques requises : SQL, Python, Jinja Snowflake (ou autre Modern Data Platform, ex: GCP BigQuery) dbt, Tableau ou autres outils Analytics Culture Agile & DevOps (CI/CD) Profil recherché : 7+ ans d’expérience en Data, dont 3 ans comme Senior Data Engineer Leadership, autonomie et orientation résultats 💬 Candidature / Contact : Merci de postuler via le site ou de nous envoyer un message directement pour échanger sur le poste.
Freelance
CDD
CDI

Offre d'emploi
Consultant Data (DataLab Cloudera / Hive / Python) (F/H)

Publiée le
Apache Hive
Cloudera
Python

6 mois
57k-64k €
520-580 €
Paris, France
Télétravail partiel
Contexte Au sein d’une direction des systèmes d’information nationaux et européens d'un acteur majeur du secteur banco-financier, le service en charge des plateformes data conçoit, maintient et fait évoluer les systèmes d’information au service d’activités critiques telles que la politique monétaire, les opérations de marché, la gestion des risques, la conformité et la stabilité financière. Vous interviendrez dans un DataLab rattaché aux applications de marché, au cœur des usages data des équipes métiers (marchés, risques, conformité). Objectifs de la mission Vous interviendrez principalement sur : La fin de réalisation et la maintenance évolutive d’un laboratoire data existant L’enrichissement des cas d’usage métiers liés aux opérations de marché, aux risques et à la politique monétaire Les travaux de cadrage et de structuration d’un gisement de données, en lien avec les besoins métiers Périmètre fonctionnel et technique Sources de données Flux issus de systèmes Front, Back et Décisionnels Marché Plateformes de trading et systèmes décisionnels associés Plateforme Data Cloudera Hive Environnements Python et R SAS Viya Outils de restitution et d’analyse Power BI SAS Viya Missions principales Data Engineering & DataLab Développement et maintenance de traitements de données sous Cloudera / Hive Conception et optimisation de requêtes Hive Manipulation, préparation et transformation de données volumineuses Développement de scripts et notebooks Python pour l’analyse, l’exploration et l’enrichissement des données Contribution à la structuration et à l’alimentation des gisements de données Support aux usages métiers Accompagnement des utilisateurs métiers dans l’exploitation des données Contribution aux laboratoires analytiques (Python / R / SAS Viya) Participation à la mise à disposition de jeux de données exploitables pour des analyses prospectives Appui à la création et à l’évolution des cas d’usage data liés aux opérations de marché, aux risques et à la politique monétaire Maintenance et évolution Participation à la maintenance corrective et évolutive du DataLab Prise en compte des nouveaux besoins utilisateurs Contribution à la qualité, à la fiabilité et à la traçabilité des données Documentation des traitements et des jeux de données
CDI

Offre d'emploi
Ingénieur d'Affaires Data & IA Secteur Luxe H/F

Publiée le

50k-80k €
Levallois-Perret, Île-de-France
Télétravail partiel
En tant qu' Ingénieur d'Affaires Data & IA secteur Luxe H/F vous aurez la charge de : • Créer et développer de nouvelles relations d'affaires avec des clients potentiels et des partenaires stratégiques du Luxe • Identifier et explorer de nouvelles opportunités de marché pour nos produits et services • Travailler en étroite collaboration avec nos équipes internes pour élaborer des solutions sur mesure pour nos clients du secteur du Luxe • Prévoir les tendances du marché du Luxe et anticiper les besoins des clients pour façonner notre stratégie de croissance • Représenter JEMS lors d'événements, de conférences et de réunions pour élargir notre réseau et renforcer notre présence sur le marché • Garder un œil sur la concurrence et élaborer des stratégies pour rester en tête Avantages à travailler chez JEMS : • Un accompagnement personnalisé pour développer votre carrière • L'opportunité de travailler dans un environnement dynamique et stimulant • Une culture d'entreprise qui encourage la créativité, l'innovation et la croissance personnelle • Un package de rémunération compétitif avec des avantages exceptionnels • Un soutien continu pour développer vos compétences et avancer dans votre carrière • Des séminaires d'intégration inoubliables Pour Postuler Si vous êtes prêt(e) à relever le défi et à devenir un acteur clé de notre équipe en tant qu'Ingénieur d'Affaires chez JEMS, envoyez nous votre CV accompagné d'une lettre de motivation convaincante qui montre pourquoi vous êtes la personne idéale pour ce poste. Montrez nous votre passion, votre détermination et votre vision pour l'avenir. Diversité Le Groupe JEMS porte fièrement sa valeur "Diversité" en se mobilisant pour l'inclusion et l'égalité des chances et en luttant contre toutes formes de discrimination. Tous nos postes sont ouverts aux personnes en situation de handicap. Chez JEMS, nous croyons que les meilleurs candidats sont ceux qui partagent notre passion pour l'innovation et notre engagement envers l'excellence. Rejoignez notre équipe et soyez prêt à changer le jeu ! Référence de l'offre : atfd0ce6uo
Freelance
CDI

Offre d'emploi
Développeur CONFIRME Big Data Hadoop/PySpark/Python - 3 à 6 ans

Publiée le
Apache Hive
Apache Spark
Hadoop

3 ans
38k-43k €
300-400 €
Paris, France
Télétravail partiel
🏭 Secteurs stratégiques : Banque d’investissement PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Le département a lancé un programme stratégique, qui comporte plusieurs projets d'harmonisation des processus et outils. L'un de ces streams a pour vocation de constituer un datalake sur une stack Hadoop, afin de servir les besoins en data et reporting. Ce datalake a également pour vocation de devenir la brique centrale de l'architecture du SI . Nous recherchons un profil Hadoop / PySpark qui sera en charge, en lien avec l'équipe de production applicative / devops, de mettre en œuvre techniquement les évolutions du datalake. Passionné par les données, capable de s’adapter à un environnement dynamique et en constante évolution, le prestataire doit faire preuve d'autonomie, d'initiative et d'une forte capacité d'analyse pour résoudre des problèmes complexes. 🤝Principales missions : Les tâches suivantes seront confiés au consultant : • Mettre en œuvre de nouvelles ingestions de données, data prep/transformation • Maintenir et faire évoluer nos outils de gestion des pipeline de données (Pyspark + shell scripting) • Adresser à l'équipe devops les demandes relatives aux évolutions de la plateforme • Eventuellement mettre en œuvre une couche d'APIs afin d'exposer nos données
CDD
CDI
Freelance

Offre d'emploi
Data Manager Migration SAP (profil habilitable)

Publiée le
PowerBI
SAP

6 mois
40k-72k €
400-600 €
Massy, Île-de-France
Télétravail partiel
Profil : Data Manager / Responsable migration Stream Finance. Contexte : Dans le cadre du déploiement de la nouvelle version de SAP, le client à besoin de renforcer le domaine Finance/Contrôle de Gestion d’un Data Manager / Responsable reprise des données, chargé de mettre en place et de piloter toutes les actions nécessaires à la bonne application des stratégies de migrations définies par objet, et au final de garantir le volume et la qualité des données migrées. Mission : Coordonner avec les métiers la mise en conformité des données et leur nettoyage Appliquer, et mettre à jour le cas échéant, les stratégies de migration des données déjà définies Planifier et coordonner sur le Stream Finance toutes les activités liées à la migration de données en alignement avec le planning d’implémentation du projet solution S/4 HANA et dans l’objectif de respecter la date du go live Prendre en charge les activités d’extraction/transformation des données sur certains objets Mettre à disposition des métiers des outils de validation des données après extraction/transformation et après chargement Venir en support des activités techniques et métiers de validation Analyser les retards, relancer et demander des plans d'action Planifier et organiser les comités/réunions prévus avec l’intégrateur et les métiers S’assurer que tous les bons acteurs sont invités et disponibles pour ces réunions Valider les compte-rendus et les actions décidées et tenir à jour le suivi des actions Décliner la stratégie du programme et synchroniser les actions poussées par le central en local Identifier & analyser les risques et les remonter au Stream Leader Finance ainsi qu’à la Direction programme Définir les KPI Finance sur le nettoyage et la migration des données et en assurer le suivi Alimenter les outils utilisés sur le projet (One2Team, HPALM, portail sur Weshare)
Freelance

Mission freelance
Datascientist - sud est France

Publiée le
Data science

6 mois
Provence-Alpes-Côte d'Azur, France
Télétravail partiel
Dans le cadre de sa transformation SI, le client cherche un profil capable de valoriser les données , construire des modèles prédictifs , fiabiliser les pipelines data et produire des dashboards à forte valeur ajoutée. • Collecter, nettoyer et préparer les données issues de sources diverses • Concevoir et maintenir des architectures de données adaptées aux besoins analytiques • Collaborer avec les équipes techniques sur la structuration du modèle de données, la gouvernance et la qualité des référentiels. • Explorer les données pour identifier des patterns, tendances et corrélations • Valider et optimiser les modèles • Déployer les modèles dans des environnements de production • Restituer les résultats de manière claire aux parties prenantes • Collaborer étroitement avec les équipes métier, les développeurs. • Construire des modèles de machine learning adaptés aux besoins métier.
Freelance

Mission freelance
Data Engineer senior/expert DBT/Snowflake  Paris ou Lyon/sa

Publiée le
DBT
Snowflake

3 mois
400-480 £GB
Paris, France
Télétravail partiel
Data Engineer senior/expert DBT/Snowflake Paris ou Lyon 5 à 10 ans d’expérience Anglais obligatoire Démarrage : asap Durée : min 3 mois Localisation : Paris / Lyon de préférence Compétences requises : Snowflake : Maîtrise des fonctionnalités avancées de Snowflake (Time Travel, Zero-Copy Cloning) Configuration et optimisation des entrepôts Snowflake Gestion des étapes externes et de Snowpipe pour l'ingestion à partir d'AWS S3 Configuration et mise en œuvre des mécanismes de sécurité RBAC, RLS et Dynamic Data Masking Administration de la base de données Snowflake (création/gestion d'objets, monitoring, optimisation) dbt (outil de création de données) : Développement avancé de modèles SQL dans dbt Création et optimisation de modèles de données Utilisation des macros Jinja pour créer du code SQL dynamique et réutilisable Configuration des tests dbt pour la validation des données Mise en œuvre des instantanés dbt pour le suivi des modifications Création de DAG optimisés avec une gestion appropriée des balises et des dépendances Documentation des modèles de données
Freelance

Mission freelance
Expert BigData Aix en Provence ASAP Maitrise Cloudera, Kubernetes et devOps

Publiée le
Big Data
Cloudera

6 mois
400-440 £GB
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Télétravail partiel
Expert BigData Aix en Provence ASAP Maitrise Cloudera, Kubernetes et devOps Mise en place d'outils IA/Data pour les équipes à fortes valeurs ajoutées tout en gardant les nombres au stricte minimum. Mise en place et gestion des pipelines CI/CD en mode GitOps Utilisation des systèmes de monitoring et d'alerting (ex. Victoria Metrics, Grafana). Collaboration étroite avec les équipes de développement et d'opérations. Analyse et optimisation des performances des applications et infrastructures. Rédaction de documentation technique et guides de procédures. Gestion des incidents et mise en œuvre de solutions préventives.
Freelance

Mission freelance
DATA MANAGER

Publiée le
Data cleaning
Data governance
Data quality

3 ans
400-500 €
Lille, Hauts-de-France
Télétravail partiel
Gouvernance des données Définir les standards de gestion et gouvernance des données. Assurer la mise en conformité avec les réglementations (RGPD, CCPA). Qualité et sécurité Mettre en place des contrôles automatisés et surveiller la qualité des données. Sécuriser les accès et protéger les données sensibles. Exploitation et partage Standardiser les processus d’accès aux données. Accompagner les équipes métiers dans leur exploitation des données. Éthique et conformité Vérifier la conformité des analyses et modèles. Sensibiliser les équipes à l’éthique des données. Compétences Gouvernance : Standards, gestion des métadonnées. Sécurité : Chiffrement, contrôle des accès. Architecture : Structuration des modèles de données en couche Business, Solution et Exposition, Collaboration : Formation, animation de workshops Expérience utilisateur : Storytelling, recueils feedback Indicateurs de performance Taux de conformité aux standards. Qualité des données et réduction des erreurs. Performance des processus de gouvernance. Sécurisation et protection des données.
Freelance

Mission freelance
Data Quality Tale of Data

Publiée le
Data quality

6 mois
450-470 €
Paris, France
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un Data Quality Tale of Data (H/F) , pour le compte de l'un de ses clients qui opère dans le domaine d'Energie. Description 📍 Contexte de la mission Au sein de l'équipe Data Achat, cette mission s'inscrit dans la continuité des travaux d'analyse et de mise en qualité des données achats initiés précédemment. L'objectif est d'accélérer et d'industrialiser les processus de qualité de données (Data Quality) via l'outil Tale of Data , en vue de l'année 2026. 🎯 Objectifs Principaux Le consultant devra assurer le nettoyage, la fiabilisation et l'industrialisation des données provenant de sources multiples, tout en participant à la structuration de la future Data Plateforme. 💼 Responsabilités & Missions 1. Data Quality Management & Tale of Data (Cœur de mission) Administration de Tale of Data : Tous les flux transitent par cet outil. Une maîtrise (ou une très forte capacité d'adaptation immédiate) est impérative car le consultant devra être autonome rapidement. Configuration et Nettoyage : Paramétrer l'outil pour identifier les anomalies (doublons, erreurs, manquants) sur les données Fournisseurs, Contrats, Données Clients (tables SAP), Marketing, etc. Industrialisation : Faire face à la demande croissante en automatisant les contrôles qualité et les redressements de données. 2. Gestion Multi-Sources & Analyse Consolidation des données : Travailler sur des environnements hétérogènes : SAP MM , Business Central, et outils non-ERP (appels d'offres, qualifications). Rapprochement : Croiser les données entre les différents outils pour produire des référentiels fiables. Investigation : Aller chercher l'information à la source, évaluer la donnée et comprendre sa structure (ne pas "tâtonner"). 3. Pilotage & Projets Transverses (Data Gouv) KPIs : Spécifier et produire les indicateurs de suivi de la qualité des données par périmètre. Data Platform : Monter en compétences sur la structure des données pour accompagner le lancement de la nouvelle Data Plateforme Achats et le projet global de Data Gouvernance. Collaboration : Identifier les nouveaux cas d'usage avec les Business Process Owners (BPO) et les Data Domain Owners.
CDI
Freelance

Offre d'emploi
Data Engineer - Finance (H/F)

Publiée le
Apache Hive
Bash
Hadoop

3 ans
50k-60k €
480-550 €
Île-de-France, France
Télétravail partiel
Contexte : La mission va se dérouler au sein de l'IT Data Management & BI dans l'équipe Big Data & API / Squad Financing & Risk qui aujourd'hui développe et gère un datalake (FinLake). Ce datalake est utilisé comme une data plateforme pour les équipes IT et métiers. Missions : L'objectif de la mission est d'assurer le rôle de Data Engineer du FinLake : - Gestion de la production - Gestion de la dette technique - Revoir l'architecture actuelle et proposer des évolutions - Développements liés aux projets
1197 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

France

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous