Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 376 résultats.
Freelance

Mission freelance
Data Analyst - Power BI

Publiée le
Data analysis
Data science
Data visualisation

6 mois
400-500 €
Rennes, Bretagne
Télétravail partiel
Nous recherchons un(e) Data Analyst passionné(e) par l’analyse de données et souhaitant évoluer dans un environnement de production dynamique. Vous intégrerez une équipe en charge de la supervision d’un outil de production et serez responsable de la création et du suivi de reporting sur l’activité. Missions principales : Analyser les données issues de l’outil de production pour fournir des reporting réguliers. Identifier et suivre les incidents de production, analyser leur origine et proposer des actions correctives. Mettre en place des actions d’amélioration des processus basées sur les analyses réalisées. Collaborer avec les équipes métiers et techniques pour optimiser le fonctionnement des outils et des processus. Profil recherché : Connaissance de Power BI et capacité à créer des rapports et dashboards clairs et efficaces. Goût pour l’analyse et l’interprétation des données. Capacité à comprendre des processus de production et à proposer des améliorations. Rigueur, curiosité et sens de l’organisation. Junior accepté, envie d’apprendre et de monter en compétence. Conditions : Poste sur site dans un premier temps pour faciliter la montée en compétence. Possibilité de télétravail partiel : 3 jours par semaine après la période initiale.
Freelance

Mission freelance
Coordinateur Anomalies & Tests RUN SI

Publiée le
Data analysis
Dynatrace
JIRA

24 mois
Paris, France
Télétravail partiel
Poste : Pilotage de projet ou de programme en Assistance Technique, taux journalier Spécialités technologiques : BI, Reporting Secteur d'activité : Assurance Technologies et outils : Jira, Excel (niveau avancé), Power BI, Dynatrace Description de la mission : Renforcer la tour de contrôle opérationnelle pour un nouveau Système d’Information complexe, en assurant le suivi, l’analyse et la coordination du traitement des anomalies et incidents, en lien avec les équipes de tests, production et responsables de chantiers. La mission est opérationnelle, orientée qualité, incidents, remédiation et respect des plannings, sans rôle de PMO. Objectifs : Garantir une prise en charge efficace des anomalies détectées en tests et RUN Sécuriser les plannings de livraison via une maîtrise fine des incidents Assurer une coordination fluide entre tests, production et chantiers Fournir une vision consolidée et actionnable de l’état des anomalies Missions principales : Pilotage et suivi des anomalies : création, qualification, priorisation Analyse des incidents du jour, stock d’anomalies, criticité et impact sur livraisons Consolidation des anomalies et indicateurs dans des outils de pilotage Coordination entre tests et production, en assurant la cohérence avec le planning Coordination avec les chefs de chantiers : prise en charge, remédiation, suivi et animation d’instances Formalisation et diffusion des comptes-rendus et PV, suivi des délais de correction Production de tableaux de bord et synthèses (ex. Excel, Power BI) Animation des communautés opérationnelles (niveau 2) Livrables attendus : Analyse quotidienne des incidents Analyse consolidée du stock d’anomalies Tableaux de bord de suivi des délais, criticité, avancement Comptes rendus des instances de coordination Suivi des plans de remédiation Environnement technique : Jira pour le suivi des anomalies, Excel (niveau avancé), Power BI pour l’analyse et le reporting, Dynatrace pour la supervision et performance.
Freelance

Mission freelance
Développeur Oracle Data Integrator (ODI)

Publiée le
ODI Oracle Data Integrator

24 mois
300-430 €
Brest, Bretagne
Télétravail partiel
Au sein d’une équipe couvrant tous les métiers de notre client (commerce, gestion, marketing, finance, risque, etc. ), nous recherchons à renforcer notre équipe par l’intégration d’un nouveau Consultant ODI. En tant que consultant maitrisant parfaitement Oracle Data Integrator, vos tâches consistent à : - Analyse des besoins fonctionnels, cadrage technique, études - Préparation les plans d’actions techniques : architecture, documentation, charge, dépendances, délais, bonnes pratiques... - Accompagner les développeurs BI dans la réalisation de leur projet - Revue des solutions techniques - Apporter votre expertise technique lors des phases de préparation, de conception et de priorisation - Participation à tous les rituels agile de votre Feature Team - Réalisation des développements ETL sous Oracle Data Integrator - Suivi et la sécurisation des traitements de production - Amélioration de l’existant, gestion des tickets
CDI

Offre d'emploi
Développeur Data / BI – Datastage & Power BI (H/F)

Publiée le
IBM DataStage
Microsoft SQL Server
PostgreSQL

55k-60k €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
CITECH recrute ! 👍 Si vous souhaitez mettre vos compétences au service d’un projet stratégique orienté Data & Décisionnel, nous avons LA mission pour vous ! Nous recherchons un(e) Développeur Data / BI (H/F) maîtrisant Datastage, SQL et Power BI pour intervenir sur un projet à forte valeur ajoutée autour de la construction et de l’optimisation du système décisionnel de notre client 🚀 Vous rejoindrez une équipe experte du SI Décisionnel et participerez à des travaux d’alimentation, de transformation et de restitution des données au sein d’un environnement technique exigeant. 🙌🔽 Vos missions principales seront les suivantes : 🔽🙌 Développement & Alimentation de données : 🔸 Concevoir et développer les programmes d’alimentation du Datawarehouse et des Datamarts (ODS, DWH) ; 🔸 Réaliser des traitements complexes via Datastage et le langage SQL ; 🔸 Optimiser les requêtes SQL pour garantir la performance des chaînes de traitements ; Restitution & Reporting : 🔸 Développer des datasets et dataflows sous Power BI ; 🔸 Concevoir et produire des rapports et tableaux de bord utilisateurs ; Qualité, Maintenance & Exploitation : 🔸 Réaliser les tests unitaires et rédiger les plans/fiches de tests ; 🔸 Rédiger le dossier d’exploitation destiné à l’équipe de Production ; 🔸 Prendre en charge les anomalies et évolutions (Run) en lien avec les équipes internes ; 🔸 Respecter les normes et bonnes pratiques en vigueur au sein du SI Décisionnel ; 🔸 Assurer un reporting d’avancement régulier auprès du responsable de domaine.
Freelance

Mission freelance
Intermediate Data Engineer

Publiée le
API
AWS Cloud
Big Data

12 mois
Paris, France
Contexte du projet Notre client dans le secteur de l'energie, dans sa stratégie de transformation data-driven , souhaite exploiter pleinement ses données pour : proposer de nouvelles offres, réduire les risques opérationnels, accroître l’efficacité des équipes. Le projet One Pulse vise à centraliser et harmoniser les indicateurs clés liés aux activités d’approvisionnement dans différents pays. Objectif : mettre en place une plateforme Big Data robuste et scalable permettant de collecter, traiter et diffuser les données de manière cohérente et sécurisée à travers le groupe. Objectif de la mission Développer une plateforme basée sur des technologies Big Data et Cloud (AWS) pour : capturer et traiter des volumes importants de données, normaliser et exposer des indicateurs multi-pays, garantir la conformité avec les guidelines techniques et d’architecture, améliorer les frameworks communs (CI/CD, tests, monitoring, performance, qualité de code, etc.). Activités principales Collecter et challenger les besoins métiers. Concevoir des solutions conformes aux guidelines d’architecture. Participer au développement et à la maintenance du code (Python, API, Big Data). Optimiser la performance, la qualité et la robustesse des solutions. Rédiger la documentation technique en anglais. Mettre en place des outils de monitoring et d’alerting. Contribuer à la phase de production et à l’amélioration continue. Compétences attendues Techniques (2 à 3 compétences maîtrisées minimum) : CompétenceNiveau attendu: Python / API (Software engineering)Big Data ingestion (S3, Medaillon architecture)Big Data patterns (lambda, partitioning, bucketing…)AWS Fonctionnelles : Proactivité et autonomie, Leadership technique (capacité à guider d’autres devs), Sens de la qualité et du delivery, Rigueur, communication claire, Anglais courant. Livrables attendus Conception, développement et documentation technique, Rapports d’avancement et dashboards de suivi, Plan de monitoring et correction d’anomalies, Code source, spécifications techniques et fonctionnelles, Plan de réversibilité et continuité de service. Profil recherché Un Data Engineer expérimenté (3 à 6 ans d’expérience) capable d’évoluer dans un environnement Big Data international et complexe, avec une bonne culture logicielle et une maîtrise de Python et des architectures data sur cloud (idéalement AWS).
Freelance

Mission freelance
Data Analyst Social Listening ( 4 ans xp)

Publiée le
Data analysis
IA Générative

120 jours
400-480 €
Paris, France
Télétravail partiel
Contexte de la prestation : La prestation s’inscrit au sein de la Direction de la Communication Digitale de France Télévisions. Elle vise à conduire des analyses quantitatives et qualitatives relatives à la réputation du groupe sur les réseaux sociaux et le web. Le prestataire travaillera en lien étroit avec l’équipe communication digitale et contribuera au pilotage opérationnel de la veille, de l’analyse et des recommandations stratégiques. Missions : 1. Veille et suivi en temps réel : > Assurer une veille continue, réactive et structurée des conversations sur les réseaux sociaux et le web via des outils de social listening. > Surveiller en temps réel les signaux faibles, les sujets sensibles et les potentiels sujets de crise. > Effectuer la veille en direct lors d’émissions diffusées en soirée. 2. Analyse et production de livrables > Produire des notes d’analyse synthétiques et rapides : - Notes quotidiennes - Notes mensuelles - Analyses thématiques - Notes ad hoc selon actualité - Effectuer des études réputationnelles dans le cadre de campagnes ou dispositifs de marketing d’influence. 3. Recommandations et accompagnement stratégique - Construire des recommandations éditoriales et stratégiques à destination de la Direction de la Communication Digitale et d’autres directions internes. - Proposer des pistes d’amélioration ou d’optimisation des dispositifs de communication digitaux. 4. Collaboration interne - Travailler en étroite collaboration avec l’équipe communication digitale et contribuer à la coordination lors des sujets urgents ou sensibles. Expertises et compétences requises : > Expérience - Minimum 1 an d’expérience dans le secteur des médias et/ou du secteur public. - Minimum 5 ans d’expérience en social listening, incluant l’analyse de données conversationnelles.
Freelance

Mission freelance
Data Analyst Informatica

Publiée le
Data analysis
Informatica
PowerBI

1 an
300-450 €
Strasbourg, Grand Est
Télétravail partiel
Au sein d’un grand groupe industriel international spécialisé dans les solutions électriques, vous intégrerez le pôle Data rattaché à la DSI. L’équipe Data Quality, composée de 4 personnes, a pour mission de garantir la fiabilité et la cohérence des données (Customer, RH, Produit, etc.) dans un contexte multiculturel. L’enjeu est d’assurer la mise à disposition de données fiables, exploitables et de haute qualité au service des équipes métiers et des partenaires distributeurs. Missions qui vous serez conférés : Assurer la qualité, la cohérence et la complétude des données sur l’ensemble des périmètres (client, RH, produit…). Mettre en œuvre et superviser les processus ETL avec l’outil Informatica , validé comme solution principale au sein du pôle Data. Collaborer avec les équipes métiers pour recueillir, analyser et formaliser les besoins en matière de données. Organiser et animer des ateliers métiers afin de traduire les besoins fonctionnels en spécifications techniques. Participer aux projets d’ AMOA Data : rédaction des spécifications, accompagnement des utilisateurs, suivi de la mise en production. Contribuer à la modélisation et à la gouvernance des données , dans une logique d’amélioration continue. Créer et maintenir des rapports et tableaux de bord dans Power BI.
Freelance

Mission freelance
Data Engineer AWS - PySpark/Databricks

Publiée le
Amazon S3
Apache Spark
AWS Cloud

12 mois
550-600 €
Paris, France
Télétravail partiel
Contexte : Nous recherchons un Data Engineer pour participer à une mission sur un environnement cloud AWS. Le candidat évoluera au sein d’une équipe digitale internationale et contribuera à la conception, au développement et à la mise en production de solutions data à grande échelle. Profil recherché : Expérience confirmée en tant que Data Engineer ou rôle équivalent. Capacité à collecter les besoins métiers et utilisateurs et à les traduire en architecture de données. Expérience dans la conception et le développement de pipelines de données robustes et évolutifs. Autonomie et rigueur dans la mise en production et la maintenance d’architectures data. Bonnes capacités de communication et aptitude à travailler en équipe multidisciplinaire. Compétences techniques requises : Python – maîtrise avancée (4/4) PySpark – maîtrise avancée (4/4) Databricks – niveau confirmé (3/4) AWS – niveau confirmé (3/4) Anglais – professionnel (3/4) Conditions de travail : Télétravail : 2 jours par semaine Présence obligatoire sur site : 3 jours par semaine Lieu : Paris Début de mission : 08/12/2025 Processus de sélection : Codingame à compléter dans les 48h après réception. Proctoring appliqué pour le codingame. Soutenances techniques prévues après le codingame.
Freelance
CDI

Offre d'emploi
Data Engineer

Publiée le
DevOps
Python

6 mois
Paris, France
Description de la mission: Au sein d’un centre de services de cybersécurité vous rejoindrez une équipe internationale DevSecOps et vous serez responsable de la conception, du développement et la mise en œuvre d’applications. Missions : Cette équipe a pour principales missions de : • Faire la conceptualisation de la solution, le « proof of concept », l'estimation des efforts, le développement, la mise en œuvre, le déploiement et les phases de support. • Développer un code sécurisé, propre, réutilisable et bien documenté en suivant une méthode AGILE. • Configurer les environnements de développement, de test et de production en local et/ou dans le cloud • Maintenir la qualité du code, la documentation relative au développement, le déploiement en production, et le transfert de connaissances (KT).
Freelance
CDI

Offre d'emploi
Data Analyst

Publiée le
Pandas
PySpark

1 an
Île-de-France, France
Mission ne convient pas à un data scientist Compétences OBLIGATOIRES : Guru en PySpark Très bonne maitrise de Tableau et de Panda. Capacité d'analyse, bon niveau statistique. Démarrage : ASAP Experience : 4/5ans min Dans le cadre de ce besoin : En tant que consultant data au sein de la Cellule du Qualité de Fixe (CQF) de Bouygues Telecom, vous serez en charge de produire des analyses à partir de dataset que vous aurez constitués sur des données de nos plateformes Big Data, Vous aurez également la responsabilité de rendre disponible des données, une fois celles-ci nettoyées, préparées et formatées sous forme de dataset ou de table à disposition des datascientists de l'équipe. Vous aurez à développer des tableaux de bord de suivi de KP.. Vous serez en charge de : -L'exploitation de la plateforme Big Data de monitoring Wifi des Box : A ce titre vous aurez la charge : -Du monitoring des principaux KPI du système et la misé en œuvre des nouveaux KPI -Des investigations lors d'incident : Vous déclencherez et piloterez le fournisseur et / ou les autres entités de Bytel contribuant à son bon fonctionnement. -Vous serez le garant de mise à disposition des données issues du cluster HDFS. Vous aurez des scripts Scala / Spark à développer pour toute évolution à la demande de l'équipe Datascience ou en fonction des évolutions du système. -Vous assurez la mise en œuvre des politiques de sécurités et de sauvegarde, et appliquer tout patch ou correctif nécessaire à cette intégrité. -Du pilotage des fournisseurs externes et internes pour les évolutions de la plateforme, que ces évolutions portent sur le hardware, les applicatifs, ou l'architecture réseau. La data ingénierie et l'exploitation de la plateforme Data en architecture de type microservices, basée sur Kubernetes et OpenShift. Vos tâches seront de : -Assurer la supervision et débogage du système via Openshift -S’assurer du bon fonctionnement des applicatifs (Spark, MinIo, Jhub, MySQL, Airflow) -Contrôler les volumes et consommations Hardware de la plateforme -Débugger les pods en cas d’erreur -Assurer l’écriture des graphes Helm pour les déploiements applicatifs -Ecriture de charts Helm pour le déploiement de nouveaux applicatifs -Tester les nouveaux graphes sur la plateforme de test -Déployer et patcher les applicatifs déjà existants avec Helm -Assurer la pérennité de la plateforme en gérant efficacement les images et graphes via GitLab -Assurer la gestion des utilisateurs et des règles de gestion du Datalake -Gestion des buckets et utilisateurs -Création de points de stockage et destis règles de gestion associées -Création de scripts pour le stockage de Parquets -Assurer le fonctionnement du déploiement continu avec GitLab -Administration des images de production Gitlab et DockerHub En résumé : Guru en PySpark et très bonne maitrise de Tableau et de Panda. Avec une capacité d'analyse, bon niveau statistique. Amené à faire du développement descriptif de requête pour diffuser des KPI sous forme de dashboard Tableau.
Freelance

Mission freelance
[MISSION LONGUE] Administrateur Lakehouse / Cloudera – Expert Big Data (H/F)

Publiée le
Apache
Apache NiFi
Apache Spark

12 mois
400-650 €
Paris, France
Télétravail partiel
Client final : secteur paiement – mission longue – environnement Cloudera CDP Nous recherchons un Administrateur Lakehouse / Administrateur Cloudera confirmé ou senior pour accompagner l’un de nos clients grands comptes dans la gestion et l’exploitation de son écosystème Big Data. 🎯 Compétences OBLIGATOIRES (critères majeurs) 👉 Maîtrise parfaite des composants Lakehouse suivants : Apache Ranger (Data Security) Apache Atlas (Gouvernance & Lineage) Spark + Apache Zeppelin (Processing) NiFi (Ingestion) Apache Impala (Analytics) Hadoop (HDFS) + Apache Kudu (Data Lake) Hue (Serving / SQL UI) ➡️ Ces compétences sont indispensables : seuls les profils maîtrisant ces briques seront retenus. 🧩 Vos responsabilités Administrer et maintenir l’écosystème Cloudera / CDP (Cloudera Manager, HDFS, Yarn, Zookeeper…). Assurer le MCO/MCS : disponibilité, performances, sécurité, supervision. Documenter les procédures d’exploitation & rédiger des rapports synthétiques. Respecter les SLA et intervenir en cas d’incident. Travailler en environnement ITIL (gestion incidents, problèmes, changements). Automatiser les déploiements via Ansible (certificats, keystores, configurations). Utiliser les outils DevOps : GitHub , Jenkins . Exploiter les environnements Linux (analyse de logs, diagnostic). Participer aux réunions d’équipe, aux projets et aux comités. Être force de proposition sur l’amélioration continue et la supervision. 🌍 Environnement technique Cloudera CDP • Cloudera Manager • HDFS • Yarn • Zookeeper Apache Ranger • Apache Atlas • Spark • Zeppelin • NiFi • Impala Hadoop • Kudu • Hue Ansible • GitHub • Jenkins • Linux 📌 Profil recherché 5 à 7+ ans en administration Big Data / Hadoop / Cloudera impératif. Très forte expertise sur les briques Lakehouse listées ci-dessus. À l’aise en production, ITIL, sécurité, automatisation. Bon niveau d’anglais (échanges éditeurs Cloudera & fournisseurs). Consultant autonome, structuré, capable de rendre compte et d’améliorer l’existant. 🚀 Disponibilité immédiate ou rapide Si vous maîtrisez Cloudera + Ranger + Atlas + Spark + NiFi + Impala + Kudu , contactez-moi directement.
Freelance

Mission freelance
Business Analyst / Scrum Master Senior – Finance & IA

Publiée le
Agile Scrum

12 mois
400-550 €
Paris, France
Télétravail partiel
Contexte Accompagnement du projet sur des sujets Finance et Intelligence Artificielle. Missions Recueillir et analyser les besoins métiers Traduire les besoins en user stories et backlog priorisé Animer les rituels Agile (Scrum) Faire le lien entre métiers, tech et data Garantir la valeur métier des solutions IA Profil recherché 10+ ans d’expérience en BA et/ou Scrum Solide connaissance des enjeux Finance Expérience de projets IA en production Excellentes capacités de communication Anglais Réelle expérience de projet IA en production
Freelance
CDI

Offre d'emploi
Product Owner

Publiée le
BI
Data Warehouse

12 mois
Paris, France
Télétravail partiel
Le/La Data Product Owner – Intermodal est responsable de la définition et de la livraison du produit de données Intermodal , qui servira de datamart de référence pour l’ensemble des sources opérationnelles et commerciales clés (systèmes de gestion du transport existants et futurs, outils opérationnels, solutions de facturation, etc.). Il/Elle est le point focal côté métier pour tous les sujets liés à la construction et à l’évolution du produit de données Intermodal. Le périmètre couvre les données de référence (master data) et les données transactionnelles , issues de l’ensemble des systèmes Intermodal, y compris plusieurs TMS. Dans le cadre d’un projet de déploiement d’un nouveau système de gestion du transport, le/La Data Product Owner pilote les activités de préparation, de nettoyage et de sécurisation des données avant chaque mise en production, en collaboration avec les Product Owners, les experts régionaux et les équipes IT. Il/Elle s’appuie sur un/une référent(e) Master Data , chargé(e) d’accompagner l’identification, la standardisation et la consolidation des données de référence (clients, sites, actifs, etc.) afin de garantir une base de données cohérente et fiable. Travaillant en étroite collaboration avec les chefs de projet métier et IT, les Product Owners et les experts techniques, le/La Data Product Owner documente et supervise les flux de données de bout en bout , maintient le catalogue de données , définit et pilote les règles de qualité des données , et gère le backlog du produit data . Il/Elle promeut des indicateurs cohérents et une source unique de vérité pour le pilotage de la performance. Ce rôle fait le lien entre le métier et l’IT sur les sujets data : compréhension de la création et de l’usage des données dans les systèmes opérationnels, traduction en un datamart fiable et cohérent, et accompagnement de son adoption et de son amélioration continue. Responsabilités clésVision et roadmap du produit data Définir, avec les chefs de projet métier et IT, le plan de construction et d’évolution du datamart Intermodal de référence couvrant l’ensemble des systèmes sources clés. Traduire les objectifs métiers (pilotage de la performance, maîtrise des coûts, qualité de service, visibilité opérationnelle, etc.) en une vision produit data et une roadmap détaillée. Maintenir et prioriser le backlog du produit data (domaines de données, fonctionnalités, transformations, initiatives qualité, prérequis BI), en arbitrant entre valeur métier, contraintes techniques et ressources disponibles. Besoins BI & analytique Recueillir les besoins BI et reporting des parties prenantes métiers en collaboration avec le/la référent(e) BI (KPI, tableaux de bord, reporting réglementaire ou contractuel, suivi opérationnel). Traduire les cas d’usage métiers en exigences data : éléments de données requis, règles de calcul, niveaux d’agrégation, historique, fréquence de mise à jour. Proposer des solutions adaptées à l’architecture et aux outils BI disponibles, en tenant compte : de la fraîcheur des données requise (quasi temps réel, quotidien, mensuel), de la performance et de l’ergonomie, de la sécurité des données et des droits d’accès. Prioriser et coordonner, avec le/la référent(e) BI, la livraison des tableaux de bord et rapports basés sur le datamart Intermodal, en garantissant la cohérence des indicateurs. Compréhension et documentation des flux de données Formaliser les flux de données de bout en bout : création, mise à jour, enrichissement et consommation des données tout au long des processus Intermodal. Cartographier les interfaces et dépendances entre les différents systèmes opérationnels, les référentiels de données et la couche datamart / BI. Produire et maintenir une documentation claire (schémas de flux, lignage des données, liens processus/données) à destination des équipes IT, des utilisateurs métiers et de la gouvernance. Catalogue de données & modèle de données Piloter, en lien avec la gouvernance data, la création et la maintenance du catalogue de données Intermodal, incluant pour chaque donnée : définition et signification métier, système source, classification (master data / transactionnelle), niveau de confidentialité, responsabilités (propriétaires métier et IT). S’assurer, avec les équipes IT et les architectes data, de l’alignement entre les modèles de données logiques et physiques et la vision métier du catalogue. Promouvoir l’usage du catalogue de données comme référence unique sur la signification et l’origine des données. Qualité des données & gouvernance Identifier et évaluer l’impact des données manquantes ou de mauvaise qualité sur les opérations, le reporting et la prise de décision. Définir, pour les données clés, les pratiques de gestion de la qualité : KPI et seuils de qualité, règles de contrôle et de surveillance, processus de gestion des anomalies, rôles et responsabilités (responsables, contributeurs, escalade). Prioriser les améliorations de qualité des données dans le backlog (contrôles, enrichissements, workflows de correction). Garantir la conformité avec les politiques et standards de gouvernance data. Pilotage de la livraison & validation Collaborer avec les data engineers, développeurs BI et équipes plateforme pour livrer les incréments du produit data (nouvelles sources, tables, métriques, vues). Animer les revues de validation avec les équipes IT et métier pour confirmer l’adéquation aux besoins et la qualité de la documentation. Valider les structures de données et transformations selon des critères d’acceptation clairs. Assurer la cohérence et la réutilisation des jeux de données et indicateurs afin d’éviter les duplications. Préparation des déploiements & support Piloter, pour les projets de déploiement de nouveaux systèmes, les phases de préparation et de nettoyage des données avec l’appui du/de la référent(e) Master Data : planification des chargements et migrations, coordination avec les équipes métiers, régionales et IT, validation de la complétude et de la qualité des données avant mise en production. Suivre les incidents data lors des mises en service et en phase de démarrage, et capitaliser pour les déploiements suivants. Mettre à jour la documentation (catalogue, flux, règles de qualité) en fonction des nouvelles zones, périmètres ou évolutions des systèmes. CompétencesCompétences data & techniques Bonne compréhension des concepts de data warehouse (schéma en étoile, dimensions/faits, ETL/ELT, lignage des données). Expérience en catalogage et documentation des données. Connaissance des frameworks et indicateurs de qualité des données. Capacité à échanger avec des équipes techniques sur des modèles de données ; des bases en SQL sont un plus. Expérience avec des outils BI (Power BI, Tableau, Qlik ou équivalent). Compétences produit & métier Forte capacité à traduire les besoins métiers en exigences data et inversement. Expérience en gestion de backlog et en priorisation multi-parties prenantes. Communication claire et structurée auprès de publics métiers et techniques. Soft skills Esprit analytique, rigueur et sens du détail. Capacité à animer des ateliers et à fédérer autour de décisions communes. Sens des responsabilités et de l’ownership dans un environnement en transformation. Excellente organisation pour gérer plusieurs chantiers en parallèle.
Freelance

Mission freelance
Consultant FinOps / PMO IT – Pilotage de la Performance & Optimisation des Coûts (Secteur Paiements)

Publiée le
Board
FinOps
Grafana

2 ans
400-490 €
Île-de-France, France
Télétravail partiel
Contexte : Dans le cadre de la transformation et de la modernisation de son Système d’Information, une grande direction IT du secteur bancaire recherche un Consultant FinOps / PMO IT pour rejoindre son Tech & Data Office . L’objectif : piloter la performance IT, accompagner la transformation agile et optimiser les coûts de production des infrastructures et applications critiques. Missions principales : Analyser les coûts de production IT (CPU, stockage, serveurs, OS, etc.) et identifier les leviers d’optimisation. Consolider les données financières et techniques via les outils internes (COPRICE, COCKPIT, REFA, BOARD). Préparer et animer les comités de pilotage (facturation, performance, obsolescence) avec les directions IT et financières. Collaborer avec les équipes techniques et métiers pour anticiper les impacts budgétaires des nouveaux projets (nouvelles applis, décommissionnements, refresh…). Participer au reforecast mensuel et contribuer à la planification budgétaire. Accompagner les leaders IT dans l’amélioration continue, la transformation agile et la diffusion des bonnes pratiques. Suivre les indicateurs clés de performance (qualité, coûts, agilité, conformité).
CDI
Freelance

Offre d'emploi
Chef de Projet Technique IaaS, Data & Cloud

Publiée le
Cloud
IaaS (Infrastructure-as-a-Service)
Openshift

1 an
Île-de-France, France
Télétravail partiel
CONTEXTE DE LA MISSION : Nous recherchons pour notre client Grand-Compte un Chef de Projet Technique pour rejoindre une équipe spécialisée dans l’infrastructure, le cloud, la donnée, l’IA et le DevOps. MISSIONS PRINCIPALES : Piloter des projets sur les périmètres IaaS et DATA Définir les solutions cibles en collaboration avec les experts et les utilisateurs Coordonner l’ensemble des parties prenantes Structurer et animer la gouvernance des projets Établir et suivre les plans d’investissements et les budgets Identifier, analyser et gérer les risques projets Garantir la production des livrables selon la méthodologie interne
Freelance
CDI

Offre d'emploi
Chef de Projet IT – IT Run Framework (Finance de marché)

Publiée le
API
Control-M
ITIL

1 an
Île-de-France, France
Télétravail partiel
🎯 Contexte Nous recherchons un Chef de Projet IT pour rejoindre une équipe en charge de l’amélioration du Run IT au sein d’un environnement Finance de Marché. Vous interviendrez dans le cadre de la mise en œuvre de l’IT Run Framework, un programme stratégique visant à renforcer la qualité de la Production (Incident, Problem, Change), avec un fort accent sur le développement d’outils, l’automatisation et l’exploitation de la data. 🔎 Missions Pilotage du delivery IT Run Piloter la roadmap de l’IT Run Framework en lien avec les enjeux de Production Prioriser et cadrer les besoins fonctionnels en collaboration avec les équipes IT Développements & Outillage IT Définir les besoins fonctionnels liés aux outils Run (Incident, Problem, Change) Contribuer à la conception de solutions telles que : plateformes de communication incidents automatisation de workflows ITIL Participer à l’intégration d’API Amélioration continue & Qualité Production Mettre en place et faire évoluer les processus de sécurisation des changements (CAB) Structurer la documentation et les contrôles automatisés Formaliser les incidents et problèmes dans les backlogs de développement Data, KPI & IA Définir et suivre les indicateurs de performance du Run IT Construire et exploiter des dashboards (Power BI) Contribuer à des use cases IA
376 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous