Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 1 795 résultats.
Freelance

Mission freelance
POT8928 - Deux Data Steward (Confirmé et Sénior) sur Tours

Almatek
Publiée le
SharePoint

6 mois
220-400 €
Tours, Centre-Val de Loire
Almatek recherche pour l'un de ses clients Deux Data Steward (Confirmé et Sénior) sur Tours. *** Profil confirmé (4 à 5 ans) *** Analyse des politiques de catalogage -Alignement entre politiques -Rapports de cohérence et suivi des écarts Appui aux data owners -Identification des datasets manquants -Définition des métadonnées -Animation de très nombreux ateliers -Mise à jour de l’outil de catalogage (manuel + injections de masse) Qualité du catalogage -Définition d’indicateurs qualité -Détection et résorption des écarts -Développement de code (outillage qualité) Gestion de l’outil de catalogage -Améliorations, habilitations, recettes -Outils complémentaires Conduite du changement & formation -Documentation, supports -Sessions de formation et d’acculturation *** Profil Sénior(> à 7 ans) *** Analyse des politiques et écarts qualité -Notes d’analyse -Roadmap annuelle des chantiers qualité -Mise en place d’un processus d’analyse de risques hebdomadaire Définition des règles qualité -Ateliers avec data owners -Reformulation des règles dans les documents métiers -Capitalisation dans les outils Implémentation des contrôles qualité -Définition et suivi des contrôles -Tableaux de bord qualité -Synthèses adaptées aux publics cibles Outillage -Amélioration des outils existants -Développement d’outils complémentaires (dont analyse de risque) Conduite du changement -Formation, supports, acculturation Environnement technique : Sharepoint 2016 - Windows 11 - Office 365 - PowerBI online – Chrome Localisation : TOURS + 3jrs TT/ semaine
CDI
Freelance

Offre d'emploi
Développeur Data & IA (Python & Dataviz) - Lyon

STHREE SAS pour COMPUTER FUTURES
Publiée le
API
Confluence
DevOps

6 mois
36k-40k €
360-390 €
Lyon, Auvergne-Rhône-Alpes
Renforcer le groupe en assurant la conception, le développement et l’industrialisation de solutions Data, IA et Dataviz destinées aux équipes de développement et DevSecOps. Le consultant contribuera également à : l’intégration d’usages IA dans les outils du développeur augmenté , l'accompagnement et la montée en compétences des équipes internes Responsabilités principales 1. Développement & Industrialisation Data / IA (activité dominante) Développer des composants logiciels Python : scripts, services, APIs, traitements batch. Construire et optimiser des chaînes de traitement de données (ingestion, qualité, traçabilité, performance). Concevoir, industrialiser et maintenir des solutions Data & IA au service des équipes de développement Contribuer à l’intégration d’usages IA dans l’outillage du développeur augmenté (assistants de code, automatisation, observabilité, analyse). 2. Dataviz & reporting décisionnel Concevoir des tableaux de bord Power BI et autres outils de visualisation. Produire des visualisations destinées au pilotage, à l’observabilité et à l’aide à la décision. 3. Documentation, capitalisation & qualité Rédiger et maintenir la documentation technique. Alimenter les référentiels de connaissances (Confluence). Contribuer à la capitalisation des bonnes pratiques Data/IA. 4. Accompagnement & formation des équipes internes Appuyer les équipes internes lors de la prise en main des solutions développées. Animer des formations, démonstrations et sessions d’acculturation (ex. : GitHub Copilot). Participer au transfert de compétences et à la montée en maturité Data/IA. 5. Pilotage & coordination opérationnelle Suivre le backlog et collaborer avec les équipes projets, produits et outillage. Produire un reporting régulier d’avancement, d’activité et de difficultés éventuelles.
Freelance

Mission freelance
Data Analyst Métier (H/F)

HOXTON PARTNERS
Publiée le
PowerBI
SQL

12 mois
Guyancourt, Île-de-France
Data Analyst Métier (H/F) Dans un contexte de transformation data au sein d’une DSI, nous recherchons un Data Analyst Métier pour accompagner les équipes métier dans la définition, la valorisation et la gouvernance de la donnée, au sein d’un environnement data mesh et on-prem . Vos missions Analyser et valoriser les données à des fins business (analyses exploratoires, KPI, recommandations). Collecter, structurer et fiabiliser des données issues de sources multiples (ERP, MES, PLM, etc.). Concevoir des produits de données (PDE / PDU / PDA) et contribuer aux pipelines data. Accompagner les métiers : compréhension des besoins, indicateurs, pédagogie data. Contribuer à la qualité et à la gouvernance des données (OpenMetaData, SLO, règles d’accès). Environnement & compétences SQL avancé, Power BI (modélisation, DAX), Dataiku, Excel. Bonne compréhension des enjeux métier et culture de la performance. Rigueur, pédagogie, excellent esprit d’analyse et de synthèse. Contexte secteur défense : exigences fortes en sécurité, traçabilité et “need-to-know”.
Freelance
CDI

Offre d'emploi
Data Steward

VISIAN
Publiée le
Data analysis
Gouvernance

1 an
40k-45k €
120-490 €
Paris, France
Contexte Une filiale d'un groupe bancaire majeur spécialisée dans le financement de biens d'équipement ou de biens immobiliers à destination des entreprises. Son activité est répartie sur plusieurs pays, et sur plusieurs types de financement : crédit, crédit-bail mobilier et immobilier, location, wholesale, LLD avec gestion de parc, revolving, …. Le projet STELLAR a pour objectif de mettre la data science et les outils d'IA au service de use cases Métier, en assurant la mise en oeuvre de ces use case de la phase exploratoire jusqu'à la phase d'industrialisation. Par exemple sur le use case AVE de refonte de l'application de valorisation avancée de matériels que nous finançons. Dans le cadre de la mise en œuvre de ce chantier, l'équipe Stellar recherche un data steward pour produire la documentation associée à la data gouvernance: Data Model (Business et IT), Data Dictionnary et classification des données sensibles (Data Asset Confidentiality Card). Analyse et alignement du périmètre métier En lien avec les référents métiers : Analyse approfondie des besoins métiers liés à la donnée, à l'analytique, à l'IA et au reporting. Compréhension des processus et enjeux fonctionnels pour identifier précisément les informations nécessaires à chaque cas d'usage. Cartographie des objets métier à définir Identification des données métier Construction du modèle de données et documentation Classification en concepts et sous concepts Classification du niveau de confidentialité Documentation des données : définitions, attributs, relations, règles de gestion métier. Production des modèles de données métier et IT Collaboration étroite avec le Data Office pour valider les jeux de données existants, identifier les manques, assurer l'alignement avec les standards de gouvernance, traçabilité et qualité. Contribution à la modélisation des données non encore prises en charge par la data platform Gouvernance des données Animation des ateliers avec les référents métiers et les IT pour valider les définitions. Assurer la traçabilité entre modèles métier et technique.
Freelance

Mission freelance
Senior Data Engineer AWS

SILAMIR
Publiée le
AWS Cloud

12 mois
Paris, France
Nous recherchons un Data Engineer expérimenté afin de contribuer à la fiabilité, l’automatisation et la scalabilité d’un Lakehouse data. Vous interviendrez sur la conception et l’orchestration de pipelines, l’optimisation des traitements et l’évolution de l’architecture data dans un environnement moderne basé sur AWS. Vos missions : Conception & orchestration Concevoir, développer et maintenir des pipelines Airflow pour l’ingestion et la transformation des données Mettre en place des frameworks et mécanismes d’automatisation Garantir la robustesse, la modularité et la résilience des workflows Traitement & gestion des flux Développer des composants pour le traitement de fichiers plats (CSV, JSON, Parquet…) et leur exposition via API Consommer et transformer des flux Kafka avec Spark Optimiser la performance et le partitionnement des traitements sur de gros volumes Collaboration analytique Collaborer avec les Data Analysts pour concevoir des agrégats métiers Créer et maintenir des vues Athena utilisées dans Tableau Garantir la cohérence, la fraîcheur et la traçabilité des données Évolution du Lakehouse Participer à la conception et à l’amélioration continue de l’architecture Créer et maintenir des tables de référentiel (clients, contacts, événements, interactions…) Implémenter ces référentiels avec Iceberg / Hudi Supervision & DataOps Assurer la supervision quotidienne des pipelines Mettre en place alerting et monitoring Produire et maintenir la documentation technique
Freelance

Mission freelance
Développeur Data & IA Python & Dataviz

QUALIS ESN
Publiée le
Confluence
Github
JIRA

6 mois
400 €
Lyon, Auvergne-Rhône-Alpes
Mission générale : Renforcer le groupe en assurant la conception, le développement et l’industrialisation de solutions Data, IA et Dataviz, au service des équipes de développement et DevSecOps. Le consultant contribue également à l’intégration d’usages IA dans les outils du développeur augmenté, ainsi qu’à l’accompagnement des équipes internes. Responsabilités principales 1. Développement & industrialisation Data / IA (activité dominante) Concevoir et développer des composants logiciels Python : scripts, services, APIs, traitements batch. Mettre en œuvre des chaînes de traitement de données (ingestion, qualité, traçabilité, performance). Développer et industrialiser des solutions Data et IA destinées aux équipes de développement Enedis. Contribuer à l’intégration des usages IA dans l’outillage du développeur augmenté (assistants de code, automatisation, analyse, observabilité). 2. Dataviz & reporting décisionnel Concevoir des tableaux de bord Power BI et autres outils de visualisation. Produire des visualisations utiles au pilotage, à l’observabilité et à l’aide à la décision. 3. Documentation, capitalisation et qualité Structurer et maintenir la documentation technique. Contribuer aux référentiels de connaissances (Confluence). Participer à la capitalisation des bonnes pratiques Data/IA. 4. Accompagnement et formation des équipes internes Appuyer les équipes dans la prise en main des solutions. Animer des sessions de formation ou démonstrations (ex : GitHub Copilot). Participer au transfert de compétences et à la montée en maturité des équipes Enedis. 5. Pilotage et coordination opérationnelle Suivre le backlog, collaborer avec les équipes projets / produits / outillage. Produire un reporting régulier d’avancement et d’activité.
Freelance

Mission freelance
Consultant 6-8 ans Asset management référentiel data / MOA

Mon Consultant Indépendant
Publiée le
MOA

6 mois
520-550 €
Paris, France
Pour le compte de l’un de nos clients dans le secteur de l’ Asset Management , nous recherchons un Consultant MOA spécialisé en référentiel data , disposant de 6 à 8 ans d’expérience . Le consultant interviendra sur la gestion et l’optimisation des référentiels (instruments financiers, tiers, données de marché), la formalisation des besoins métiers, la rédaction des spécifications fonctionnelles et le suivi des évolutions en lien avec les équipes IT. Le poste requiert une solide connaissance des environnements Asset Management, une expertise en data management et une forte capacité de coordination transverse.
CDI

Offre d'emploi
Chef de projet Data (Expert Power BI)

AVALIANCE
Publiée le
Agile Scrum
Alteryx
DAX

Nanterre, Île-de-France
Description de la mission : Globalement votre mission pourra être de plusieurs niveaux : - Participer aux différents sujets ayant traits à Power BI - Accompagner les métiers dans l’assistance, avec animation formation au besoin, sur Power BI - Organiser des ateliers de best practices avec les métiers sur Power BI - Contribuer à enrichir et consolider le socle Power BI Et plus précisément : - Maîtrise et pratique de SQL sous Oracle indispensable - Participer et réaliser les développements sur Power BI (où vous serez également force de proposition) - Développement des Datasets sous Power BI - Modélisation des tables de faits/Dimensions et optimisation de scripts et modèles de données - Utilisation du langage DAX pour l’ajout des champs calculés et le calcul des mesures (KPI) - Gestion des sécurités et des habilitations dans Power BI - Collaborer au quotidien avec les autres développeurs de notre équipe - Rédaction des documents des spécifications techniques et livrables - Assister les utilisateurs internes pour gérer leurs demandes (analyse et traitement de données, rapports…) Compétences en Chefferie de Projet & Gouvernance DATA : - Proposer et Harmoniser un cycle de vie des développements sur power BI - Coordonner et animer réunions, ateliers et comités liés à la DATA - Concevoir des supports (présentations, synthèses, reportings) - Gérer l’organisation complète des réunions et le suivi d’actions - Faire preuve d’autonomie et être force de proposition - Participer activement à la gouvernance DATA et promouvoir les bonnes pratiques
Freelance

Mission freelance
Data Steward

Phaidon London- Glocomms
Publiée le
Data analysis
P2P
Project Portfolio Management (PPM)

6 mois
400-550 €
Écully, Auvergne-Rhône-Alpes
Rôle du Data Steward Le Data Steward (expert fonctionnel / chef de projet / référent métier) n’est pas un développeur , mais un profil fonctionnel chargé de garantir la qualité, la cohérence et la bonne compréhension des besoins métier auprès des équipes techniques. Responsabilités principales Gestion de projet et coordination efficace des différentes parties prenantes Recueil et analyse des besoins métiers Rédaction de spécifications fonctionnelles claires, complètes et structurées Accompagnement des développeurs lors des premiers tests et clarifications Support aux utilisateurs : validation, assistance, formation Contribution au bon déroulement de la migration des flux SAP BW vers Snowflake
CDI

Offre d'emploi
Lead Data Scientist / ML & AI Engineer F/H - Système, réseaux, données (H/F)

█ █ █ █ █ █ █
Publiée le
Ocaml
PostgreSQL
Python

Paris, France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
PM Data Migration GCP

Mon Consultant Indépendant
Publiée le
Data analysis
Google Cloud Platform (GCP)

12 mois
650-680 €
Paris, France
Pour le compte de l’un de nos clients, nous recherchons un Program Manager – Expert technique et fonctionnel en Data Migration Cloud (GCP) . Le consultant pilotera les migrations de données par département métier , assurera le suivi des jalons, la gestion des risques et l’ orchestration ainsi que la priorisation des tâches . Il sera également garant de la gouvernance du programme et du pilotage des parties prenantes , en supervisant l’ensemble des activités de transformation : études, réalisation, vérification et appropriation par les métiers. Le poste requiert une forte expertise Cloud GCP, une vision transverse et d’excellentes capacités de coordination.
CDI

Offre d'emploi
Chef de Projet Data RGPD (H/F)

FED SAS
Publiée le

45k-55k €
France
Fed IT, cabinet entièrement dédié aux recrutements spécialisés sur les métiers de l'informatique (Infra, Data, Développement, MOA, MOE, Management), recherche pour un de ses clients dans le secteur de la santé basé à Paris, un ou une : Chef de Projet Data RGPD (H/F). Le poste est à pourvoir dans le cadre d'un CDI chez le client final. Au sein de la Direction des Systèmes d'Information (DSI), vous aurez la charge d'accompagner l'équipe Data composée de profils techniques sur les enjeux fonctionnels et légaux (mise en conformité RGPD). A ce titre, vos principales missions seront : - Accompagner les métiers dans la rédaction de l'expression des besoins (reporting ou rapports) ; - Gérer des projets de bout en bout liés à la gouvernance des données et au reporting : cadrage, planification, chiffrage, exécution, suivi et reporting ; - Collaborer avec les différentes équipes métiers, IT et risques pour assurer une mise en place efficace des solutions de gestion de données ; - Proposer des recommandations stratégiques pour optimiser l'utilisation des données tout en garantissant leur qualité et en assurant leur protection ; - Mettre en place des indicateurs de qualité des données et assurer leur suivi en continu ; - Concevoir et mettre en œuvre des processus automatisés de purge et d'archivage des données conformément aux exigences internes et réglementaires, collaborer avec les équipes de la DSI et plus particulièrement de la Direction Technique pour intégration des solutions de purge dans l'infrastructure existante ; - Suivre les cycles de rétention des données et garantir une conformité continue en lien avec les évolutions éventuelles des exigences ; - Travailler en étroite collaboration avec le DPO (Data Protection Officer) de la structure pour garantir la conformité des processus de gestion et traitement de données aux exigences RGPD ; - Participer aux audits de conformité et rédiger des rapports sur l'état des pratiques liées aux données.
CDI

Offre d'emploi
Développeur Talend / Data Analyst H/F

ADSearch
Publiée le

40k-50k €
Villeneuve-Loubet, Provence-Alpes-Côte d'Azur
[En Bref] CDI - Développeur Talend / Data Analyst H/F - Cagnes-sur-Mer - Télétravail 3 jours/sem Je recrute pour une entreprise historique qui a su évoluer avec son temps, un Développeur Talend / Data Analyst H/F pour accompagner sa transformation data-driven. TON POSTE Avec pour objectif de structurer, analyser et valoriser la donnée au service des métiers, au côté d'une équipe spécialisée en analyse de données et Business Intelligence, tu participeras à l’ensemble du cycle de vie de la donnée, en lien étroit avec les équipes métiers, IT, data et BI. Ton rôle consistera à transformer la donnée brute en indicateurs fiables et exploitables pour le pilotage et la prise de décision. En claire : - Accompagner les équipes métiers dans la formalisation de leurs besoins décisionnels, - Analyser les données issues de différentes sources internes et externes - Concevoir, développer et optimiser des tableaux de bord et rapports à forte valeur ajoutée (Power BI, SAP BO WebI), - Participer à la modélisation et à la transformation des données via des processus ETL (notamment SAP BODS), - Contribuer aux projets de fiabilisation, de gouvernance et d’évolution du datawarehouse, - Suivre l’avancement des projets data et assurer le reporting associé, - Participer à l’amélioration et à l’industrialisation des méthodes et outils décisionnels, - Réaliser les évolutions dans le respect des normes et standards de développement en place.
Freelance

Mission freelance
SEO Data Enginer senior - Discovery/IA & MVP - Lille avec TT

Expert Line Conseil
Publiée le
J2EE / Java EE
Large Language Model (LLM)
RAG

12 mois
650-730 €
Lille, Hauts-de-France
Pour un acteur du secteur du Retail basé dans le Nord de la France : Dans un contexte d’accélération des technologies autour de l’AI et du GenAI, de transformation digitale et d’organisation d’entreprise plateforme, nous déployons des solutions et produits en lien direct avec l’ensemble de nos BUs et des communautés Digitales. En tant que Data Engineer avec un rôle de Discovery Lead, tu es un profil moteur sur l'ensemble du cycle : de l'analyse des nouvelles tendances à la mise en production de MVP (Minimum Viable Product). 1. Pilotage du Discovery : ○ Tu prends en charge des sujets complexes et émergents liés à la donnée (SEO, expérience client, APIs). ○ Tu es capable d'initier le développement sans nécessiter un cahier des charges exhaustif et d'agir sur la base d'objectifs métier. ○ Tu as déjà eu des approches de type Discovery, où tu as participé et organisé l'analyse et à la spécification de solutions naissantes. 2. Veille, Analyse & Architecture : ○ Tu réalises une veille technique et forcément en lien avec le métier dans les domaines du Commerce en ligne, du SEO/GEO, et des évolutions du Generative AI pour anticiper les nouveaux besoins. ○ En lien direct avec nos Tech leads et nos software architects, tu utilises ton excellent niveau d'analyse pour définir et documenter le plan technique et l'architecture à mettre en place pour chaque explorations (y compris les pipelines de données, où les différentes approches de prompt engineering). 3. Développement de MVP (Minimum Viable Product) : ○ Ta mission est de développer rapidement des prototypes fonctionnels pour tester et valider la valeur business. ○ Cela implique de réaliser aussi bien le développement Back-end (API Java) que le développement Front-end rapide pour matérialiser le produit ou l'outil d'expérimentation. ○ Tu as la capacité de limiter le périmètre fonctionnel du MVP à l'essentiel (ne pas traiter 100% des cas) afin de maximiser la vitesse de mise en marché / expérimentation. 4. Mesure & Communication : ○ Tu définis les KPIs (Key Performance Indicators) à atteindre pour chaque MVP. ○ Tu assures aussi la spécification et la communication claire et concise des résultats des expérimentations auprès des équipes métier et techniques Périmètre des Sujets : ● Phase 1 - SEO Technique & Gen AI : Construction de solutions pour enrichir, formater et rendre nos données "AI-friendly" afin d'optimiser son indexation et sa compréhension par les moteurs de recherche et les Generative Engines. ● Phase 2 - Expérience Client & Plateforme : Ton périmètre s'étendra à des sujets stratégiques : Site Web (Navigation, Personnalisation), Espace Client, Pages Magasins, et développement d'APIs Backend transverses (Web/Mobile/App).
CDI

Offre d'emploi
Data Engineer

CAT-AMANIA
Publiée le
Ansible
Apache Airflow
Apache Kafka

Île-de-France, France
ntégration au sein de l'équipe Data event Management qui gère les trois offres de services suivantes : - Offre Infra. Kafka sur ITCloud OnPremise - Offre Infra. Kafka sur IBMCloud/dMZR. Activités principales - Construction/Déploiement/Support/MCO des offres autour de la technologie de messaging kafka Méthodologie de Travail - ITIL - Agile/Scrum à l'échelle - Product Based Projets principaux en cours - Transition vers un Nouvel Orchestrateur sur l'Offre Infra Kafka IBMCloud/dMZR basé sur Python et Airflow, Terraform - Extension de l'offre Kafka sur IBMCloud/dMZR avec l'intégration du produit Lenses - Migration du monitoring de l'infrastructure OnPremise de Splunk vers une solution Dynatrace combinée avec ELK. Technologies Utilisées - Outils administratifs: ServiceNow, Jira, Confluence - Infrastructure as Code: Ansible, Terraform - Langages: Bash, java (spring/jhipster), python - Repository: Artifactory - Database: SQL Server, PostgreSQL - Contenairsation: Docker/Kubernetes - Provider Cloud: ITCloud, IBMCloud - Orchestration: Airflow, Autosys, BPM - Versionning: Git - Messaging: kafka - CI/CD: GitLab CI - Operating system: Redhat - Monitoring: ELK, Dynatrace, LogDNA, Sysdig - Sécurité: HashiCorp Vault, Cyberarc
Freelance

Mission freelance
Data Analyst IA Solutions (PowerBI, SQL, Python)

Nicholson SAS
Publiée le
CI/CD
Data analysis
DBT

24 mois
300 €
Lille, Hauts-de-France
Missions : Nous recherchons une personne avec une expérience confirmée (au moins 3 à 5 ans sur des problématiques Data), passionnée par la construction de solutions analytiques robustes et percutantes. Modélisation et Bases de Données : Vous maîtrisez parfaitement le langage SQL pour concevoir et optimiser des tables de données, notamment dans BigQuery et PostgreSQL. Vous avez également une connaissance des bases de données NoSQL comme MongoDB. Une expérience avec dbt pour la transformation et la modélisation est fortement appréciée. Visualisation de Données (Dataviz) : Vous avez une expertise solide sur des outils de BI comme Power BI ou Looker pour transformer des données brutes en dashboards interactifs et clairs, aidant ainsi à la prise de décision. Ingénierie et Analyse : Vous utilisez Python pour l'analyse, la manipulation de données complexes ou l'automatisation de tâches. Écosystème Cloud & DevOps : Vous êtes familier avec Google Cloud Platform (GCP). Vous avez une forte sensibilité aux pratiques DevOps et une expérience avec les outils d'intégration et de déploiement continus (CI/CD, comme Git, GitLab CI, GitHub Actions) pour garantir le versionnement, la qualité et l'automatisation des déploiements. Qualité de la Donnée : Vous êtes sensible à la qualité et à la gouvernance des données, et vous mettez en place des pratiques pour assurer la fiabilité des informations.
1795 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous