L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 4 943 résultats.
Offre d'emploi
Data Engineer IA
Craftman data
Publiée le
DevOps
Docker
Github
6 mois
40k-45k €
390-540 €
Île-de-France, France
Maintien en condition opérationnelle et industrialisation du Portail Multi‑IA Générative dans un contexte multi‑environnements (On‑Premise, GCP, cloud de confiance à venir). Mise en œuvre et optimisation des chaînes CI/CD (GitLab), de l’Infrastructure as Code (Terraform) et de l’automatisation des déploiements. Contribution à la sécurité, conformité et observabilité des usages IA générative (IAM, secrets, logs, metrics, traces, FinOps). Mise en place et exploitation des pratiques LLMOps : observabilité LLM, évaluations continues (qualité, sécurité, coûts), guardrails et HITL. Conception et préparation de la V2 du Portail IA (architecture cible, HLD/LLD, migration). Support technique N2/N3, analyse et résolution d’incidents, assistance aux mises en production. Production de la documentation technique (runbooks, playbooks, architectures) et transfert de compétences vers les équipes internes.
Mission freelance
Data Platform Engineer - Metadata
CAT-AMANIA
Publiée le
Databricks
FastAPI
Github
1 an
100-450 €
Lille, Hauts-de-France
Organisée autour des outils de stockage et de catalogage, l'équipe Datalake est chargée de mettre à disposition le stockage (S3) pour l'ensemble de la data platform et de garantir robustesse et scalabilité. L'équipe Datalake assure la gouvernance technique du patrimoine de donnée et la gestion des métadonnées au travers des data contract. Nous hébergeons et maintenons le repository central de ces derniers. Nous permettons grâce à cela de construire une observabilité de plateforme au travers de l’usage, du lineage etc. Nous avons le besoin de sensibiliser les utilisateurs aux bonnes pratiques que l'équipe met en place sur une modern data stack. Ceci afin d'accompagner au mieux le développement des use cases métiers sur la plateforme. Une appétence data et avoir déjà manipulé des outils tels que databricks est un réel plus. Ta mission sera de Garantir la robustesse du data contract registry (Aurora + Python fastAPI) Monitorer et prendre des actions proactives de management Assurer le support et l'accompagnement tournant sur les outils de l'équipe (S3, Glue, Unity Catalog, data contract registry) Restituer dans le datalake les metadonnées de nos produits Accompagner et former Définir et promouvoir les bonnes pratiques proposées au sein de l'équipe Participer et conseiller lors de la conception des pipelines de données des équipes Développer le futur Gouvernance automatisée (Data contract registry, access management, metadata management) Etroite collaboration avec les staff engineer de la plateforme pour le développement de nouvelle features (ADR)
Offre d'emploi
Data analyst H/F
Proxiad
Publiée le
Data analysis
Python
SQL
47k-65k €
Île-de-France, France
🎯 Objectifs principaux Recueillir et formaliser les besoins métiers liés aux données de référence Analyser les données existantes et proposer des modèles de données adaptés et réutilisables Contribuer à la création et à l’évolution des datasets stratégiques Garantir la qualité, la cohérence et la gouvernance des données Faciliter l’exposition et la consommation des données (API, Data Platform) Participer aux programmes de transformation et de migration 🛠️ Responsabilités clés Rédaction de user stories et critères d’acceptation Analyse fonctionnelle et data (y compris cas complexes) Modélisation des données (référentiels / MDM) Contribution aux analyses ad hoc Support aux équipes techniques (ingénieurs data) Participation à la gouvernance des données (qualité, métadonnées, catalogage) Rédaction de documentation et accompagnement à la mise en production À distance – maximum 3 jours par semaine Le consultant travaillera sur l'ordinateur portable et le système du client.
Mission freelance
Senior Data Analyst Power BI
ARGANA CONSULTING CORP LLP
Publiée le
Amazon Redshift
API REST
AWS Cloud
12 mois
350-400 €
Paris, France
Nous recherchons un Senior Data Analysr Power BI . La mission implique la conception, le développement et la mise en œuvre de solutions analytiques avancées pour répondre aux besoins des métiers. 🎯 Missions principales Accompagner les utilisateurs dans la définition et la formalisation des besoins et des enjeux de restitution et de datavisualisation. Animer des ateliers de type “Design” pour clarifier les besoins et proposer des solutions adaptées. Participer aux travaux de cadrage SI , études d’opportunité et de faisabilité. Recueillir et rédiger les expressions de besoins et spécifications fonctionnelles de solutions analytiques, et valider les livrables. Concevoir et réaliser les restaurations Power BI : rapports, indicateurs et tableaux de bord. Participer à la documentation des règles de sécurité des données et des applications. Élaborer les manuels utilisateurs et les supports de formation aux applications de datavisualisation. Rédiger les spécifications techniques et cahiers des charges pour les POC ou déploiements. Préconiser les adaptations et améliorations des processus existants . 📊 Livrables Développement et déploiement des cas d’usage (cartographies, tableaux de bord, data quality, alimentation du DatalakeHouse…). Documentation des règles de calcul et d’agrégation pour les indicateurs. Rédaction de plans de tests, cahiers de recette et supports utilisateurs . Production et mise à disposition des tableaux de bord . 🛠️ Environnement technique Power BI (Desktop et Service) Databricks, Nifi, RedShift Power Automate, Power Platform Cloud AWS Smart Data, API REST
Mission freelance
Cadrage risques & data (BCBS 239)
Mon Consultant Indépendant
Publiée le
Data Strategy
Gestion de projet
4 mois
650-700 €
Paris, France
Dans le cadre de la transformation de ses fonctions de contrôle, un acteur de premier plan du Crédit à la Consommation souhaite définir et structurer sa future Plateforme Risque Cible. L'enjeu est double : moderniser l'infrastructure technologique pour intégrer les opportunités offertes par l'Intelligence Artificielle (automatisation des contrôles) tout en garantissant une conformité stricte aux exigences réglementaires, notamment BCBS 239. La mission s'inscrit dans un environnement transverse, nécessitant une synergie forte entre la Direction des Risques, les équipes Data et l'IT. Objectifs et Périmètre L'objectif central est de réaliser une analyse d'écarts (gap analysis) entre l'existant et la cible, puis de concevoir la feuille de route opérationnelle pour la mise en œuvre du dispositif. Le périmètre prioritaire est le Risque de Crédit, incluant également les risques financiers, de valeur résiduelle et opérationnels. Descriptif des interventions Phase 1 : Diagnostic et Analyse de l'Existant · Recueil des besoins : Animation d'ateliers avec les équipes Risques pour identifier les attentes et les leviers d'amélioration. · Audit des "Pain Points" : Identification des points de friction du dispositif actuel (processus, outils, qualité de donnée). · Benchmark de place : Analyse comparative des pratiques du secteur (organisation, gouvernance) et veille sur les cas d'usage de l'IA dans la gestion des risques. Phase 2 : Définition de la Cible (Target Operating Model) · Scénarios de Plateforme : Proposition de différents scénarios d'architecture et de services pour la plateforme cible. · Gouvernance des Données : Définition de la chaîne de responsabilité, de validation et de gouvernance de la donnée. · Pilotage : Spécification des tableaux de bord de suivi de la qualité des données (du niveau opérationnel jusqu’au Corporate Center). · Organisation & RH : Estimation des besoins en effectifs (FTE) et cartographie des compétences nécessaires pour opérer la cible. Phase 3 : Cadrage Opérationnel et Plan de Déploiement · Feuille de route : Élaboration d'un plan d'actions structuré par chantiers. · Gestion des dépendances : Articulation étroite avec le programme interne spécifique et les impératifs du projet BCBS 239. · Planning & Gouvernance Projet : Définition des jalons clés, des étapes de validation interne et mise en place des instances de pilotage. 4. Livrables attendus · Rapport d’analyse d’écarts et benchmark de place. · Dossier de définition de la plateforme cible et de l’organisation associée. · Schéma de gouvernance et de responsabilité des données. · Feuille de route détaillée (Roadmap) et planning d'implémentation. · Estimation budgétaire et dimensionnement des équipes (FTE). 5. Profil recherché · Expertise Métier : Solide expérience en gestion des risques (Crédit, Valeur Résiduelle, Opérationnel) dans le secteur financier. · Expertise Réglementaire : Maîtrise approfondie des exigences BCBS 239. · Culture Data/IA : Capacité à projeter l'utilisation de l'IA pour l'industrialisation des contrôles métiers. · Soft Skills : Excellence en gestion de projets transverses, capacité à fédérer des interlocuteurs variés (Risque, Finance, IT, Data). · Atout majeur : Expérience opérationnelle dans le secteur du crédit à la consommation automobile (captives).
Mission freelance
DATA ANALYST SENIOR LOOKER
PROPULSE IT
Publiée le
24 mois
300-600 €
Paris, France
Polyvalent.e, vous travaillerez sur des problématiques d'analyse de données, de traitements d'informations pour l'ensemble des directions métiers Vous participerez à la mise en place de solutions innovantes et pérennes en utilisant vos compétences en Data. En charge d'exploiter et d'analyser les données du groupe afin de suivre les performances business, de parfaire la connaissance de nos données et de contribuer aux actions métier. Missions principales : Vos principales missions seront : · Développer des indicateurs de pilotage à destination de différentes directions du groupe, · En lien avec le métier, analyser les données et spécifier aux développeurs les données et règles de gestion à appliquer · Mettre en place des reportings (Cockpit, Scorecard ...) via nos solutions de data visualisation, · Accompagner les projets transverses afin d'anticiper les impacts et enjeux à venir, · Accompagner les projets d'architecture Data/ couche sémantique sur Look ML · Réaliser des analyses et restituer les enseignements via des dashboards et supports clairs, · Être force de proposition pour déployer des suivis d'indicateurs pertinents, · Participer au développement de la culture Data du groupe
Mission freelance
Ingénieur système & Azure
Tenth Revolution Group
Publiée le
Active Directory
Azure
6 mois
400-650 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Je recherche un profil d'ingénieur systèmes & cloud Senior (Azure) sur Aix-en-Provence : - Systèmes d'exploitation : Windows 10/11, Windows Server 2012/2016/2019 et éventuellement Linux. - Virtualisation: Microsoft Hyper-V - Automatisation et Scripting: PowerShell. - Environnement Cloud : Azure, Office & Exchange 365, Active Directory & Entra ID, SharePoint, InTune, Microsoft Defender, Dynamics 365, téléphonie OVH. - Technologies : Fortinet, Aruba, Veeam Backup, Synology Intervention au sein d'une équipe composé du responsable et de 2 administrateurs systèmes
Offre d'emploi
Consultant Data Governance – Asset Management (H/F)
Deodis
Publiée le
Data governance
1 an
40k-60k €
580-700 €
Île-de-France, France
Dans le cadre d’un programme de transformation data au sein d’un environnement exigeant, nous recherchons un Consultant Data Governance pour intervenir sur des problématiques de gouvernance, qualité et traçabilité des données. La mission s’inscrit dans un contexte de migration et d’intégration de systèmes , nécessitant une forte coordination entre les équipes métier et IT. Recueillir et formaliser les besoins métier liés aux données Animer des ateliers avec les équipes métier et IT Mettre en place et maintenir la traçabilité des données (data lineage, mapping des flux) Concevoir et documenter les flux de données de bout en bout Définir et piloter la roadmap de livraison des cas d’usage data Identifier les dépendances, risques et contraintes de livraison Participer aux ateliers de conception fonctionnelle et technique Gérer et suivre le backlog data Mettre en œuvre les bonnes pratiques de gouvernance et de qualité des données Produire la documentation (dictionnaires de données, processus, reporting, KPIs) Assurer le suivi des risques et des plans d’actions Contribuer à la conduite du changement et à l’adoption des standards data
Mission freelance
Consultant data tracking & analytics
SMH PARTICIPATION
Publiée le
BigQuery
Google Tag Manager
Javascript
6 mois
100-380 €
Niort, Nouvelle-Aquitaine
Contexte de la mission Au sein de la Direction du Digital et des Systèmes d'Information . Avec l'équipe en charge de la collecte, de la transformation et de la restitution des données collectées sur les canaux digitaux. Nous recherchons une prestation sur la suite Data de Google (Google Tag Management, Looker Studio et BigQuery). Objectifs et livrables Exploitation des données Le fonctionnement en mode SAFe implique des livraisons à fréquences régulières. Dans ce cadre, de nouvelles données sont créées en permanence et nécessitent d’être mises à disposition pour répondre aux besoins de reporting. Les missions sont : Collaborer avec les autres membres de l’équipe sur les données nécessaires à la mesure des features : définition des objectifs / KPI’s Accompagner dans la définition des besoins en tracking Recetter les données lorsque la feature est en phase de test Recetter les données après la mise en production de la feature Préparer et ingérer des données dans Big Query (en Node JS) Mise à disposition des données fiabilisées dans Looker Studio Participer à l’analyse des données produites, en tirer des enseignements En complément : Veiller au bon fonctionnement de l’ingestion de données quotidiennes, appliquer un correctif si nécessaire Ingérer de nouvelles sources de données nécessaires au monitoring global des KPI’s du train Gérer et optimiser Les notions d’analyse et d’amélioration sont centrales pour accompagner le développement du train, ainsi il est aussi demandé de : Participer à l’analyse des données issues des monitoring afin d’en tirer des enseignements Participer à l’amélioration continue (dans les tracking, les process ou le fonctionnement de l’équipe) Communiquer et proposer Les déploiements en mode agile nécessite une organisation pluri-métier autour de la roadmap du train, la communication avec les autres est une notion clé. Nous recherchons un profil qui : Communiquer avec les autres corps de métier (PO, UX, testeurs, architectes, développeurs) dans la construction des features Pour les compétences demandées, il faut créer Piano Analytics à la place de Adobe Analytics
Offre d'emploi
Ingénieur Système & Réseau – MySQL / Data Infrastructure h/f
Ela Technology
Publiée le
Ansible
Apache Airflow
Apache Kafka
6 mois
Nancy, Grand Est
💥 Enjeux de la mission Intervention sur des plateformes data critiques , au cœur de l’infrastructure SI. Focalisation sur : performance haute disponibilité fiabilité des systèmes Positionnement à la croisée du run avancé, de l’optimisation et des projets techniques . 🎯 Périmètre d’intervention Gestion des incidents N3 en production critique Optimisation des bases MySQL (tuning, performance, haute disponibilité) Industrialisation des solutions techniques Gestion de l’obsolescence (upgrades, stabilisation) Suivi des KPIs de performance et disponibilité Contribution aux évolutions de l’infrastructure data 🛠️ Environnement technique attendu Maîtrise nécessaire ou forte montée en compétence attendue sur : MySQL → expertise (performance, réplication, HA) Linux → administration avancée Docker → conteneurisation ELK → supervision et analyse avancée Ansible / Puppet → automatisation Kafka → compréhension opérationnelle Airflow → orchestration CI/CD & Git → usage courant Expériences appréciées sur : Hadoop, Spark, Hive
Mission freelance
Data Platform Engineer (Elastic / OpenSearch / Iceberg / Kubernetes)
EBMC
Publiée le
Elasticsearch
3 mois
400-480 €
Paris, France
Nous recherchons un Data Platform Engineer spécialisé dans les technologies Search , Data Lakehouse et Cloud Native . Le candidat contribuera à la conception, la mise en place et l’industrialisation de solutions basées sur ElasticSearch / OpenSearch , Apache Iceberg et des environnements Kubernetes . Le rôle comporte une forte dimension POC , incluant l’évaluation de nouvelles approches techniques, l’intégration de composants dans des architectures distribuées, ainsi que l’automatisation du provisioning via Ansible . Le poste nécessite une réelle curiosité technique, une capacité à apprendre rapidement et une motivation à travailler sur des sujets innovants et structurants pour la plateforme Data de l’entreprise.
Offre d'emploi
Lead Dev Data Streaming
OCTOGONE
Publiée le
Apache Kafka
6 mois
Grenoble, Auvergne-Rhône-Alpes
Vous intervenez en tant que référent technique et pilote d’une équipe d’environ 5 développeurs sur une plateforme de data streaming dédiée à la collecte et au traitement de données énergétiques issues d’équipements terrain (capteurs IoT, automates, systèmes de gestion technique de bâtiments). L’objectif de la plateforme est de permettre le pilotage intelligent de systèmes de chauffage et de climatisation, en exploitant des flux de données en temps réel afin d’optimiser la consommation énergétique tout en garantissant le confort des occupants. Le contexte présente des enjeux très forts de volumétrie et de passage à l’échelle : ingestion massive de données issues de centaines de milliers d’équipements, gestion de flux continus à haute fréquence, et nécessité de garantir des traitements fiables et performants en conditions de charge. Vous évoluez ainsi sur des problématiques techniques exigeantes : partitionnement Kafka, gestion du throughput, optimisation de la latence, tolérance aux pannes, reprise sur incident, cohérence des données et supervision de pipelines critiques.
Offre d'emploi
BUSINESS ANALYST DATA ASSURANCE (H/F)
GROUPE ALLIANCE
Publiée le
Cloudera
SAS
55k-65k €
Levallois-Perret, Île-de-France
ACCROCHE SI TRANSFORMER UN BESOIN MÉTIER EN SPÉCIFICATION CLAIRE EST TON SUPER POUVOIR, TU ES PEUT-ÊTRE CELUI QU’ON ATTENDAIT ... CE QUE TU RECHERCHES : Évoluer au sein d’une équipe dynamique Participer à des projets innovants d’envergure Relever des défis liés à la compréhension métier et à la traduction fonctionnelle Donner un nouveau souffle à ta carrière Alors nous avons la mission idéale pour toi. Au sein d’un acteur majeur du secteur de l'assurance, tu participeras au recueil des besoins, au cadrage des projets Data, à la cohérence fonctionnelle/technique du SI et au suivi de bout en bout des solutions mises en œuvre pour répondre aux enjeux métiers : Les besoins utilisateurs, tu recueilleras Les processus métiers, tu analyseras Les spécifications fonctionnelles, tu rédigeras Le lien entre les équipes métier et IT, tu assureras La validation des livrables, tu piloteras Les plans de test fonctionnels, tu construiras Ton équipe, tu accompagneras Aux ateliers, comités et instances projet, tu participeras QUI TU ES : Diplômé(e) de la formation qui va bien Surdoué(e) ou doté(e) d’une expérience de 10 ans minimum Expert(e) en analyse fonctionnelle, expression de besoin, modélisation de données et sensible à la qualité des données Habile avec les outils SAS, Cloudera, Jira AU-DELÀ DES COMPÉTENCES TECHNIQUES, TU ES / AS : Dynamique : tu n’aimes pas rester les deux pieds dans le même sabot Autonome : un guide du Routard te suffira Esprit de synthèse : tu sais aller à l’essentiel Capacité d’adaptation : tu es un vrai caméléon Sens de la communication : les mots n’ont pas de secret pour toi Force de proposition : tu es l’Aladdin de l’informatique Esprit d’équipe : un pour tous et tous pour un !
Mission freelance
INGENIEUR SYSTEMES ACTIVE DIRECTORY / AZURE AD
PROPULSE IT
Publiée le
Azure
24 mois
275-550 €
France
PROPULSE IT recherche un(e) consultant(e) Active Directory pour une mission chez un de nos clients. Sur cette mission l'accent est mis sur l'expertise Azure AD. MCO de la partie Active Directory : 80% - Participation à la résolution des incidents et demandes liés à la gestion des de Niveau 3 liés aux droits d'accès. - Participation à la MCO des outils d'administration des solutions d'Active Directory et Azure AD. Gestion des projets 20% o Participe activement aux projets o Planification en lien avec les chefs de projet Attendus comportementaux - Esprit d'équipe - partage de connaissances - Adaptabilité aux changements - Anglais professionnel courant y compris à l'oral (Animation / participation / communication fréquente avec les IT régionales). Equivalent Niveau B2 (Classification Européenne).
Mission freelance
Business Data Analyst MDM - Customer Domain
Zenith Rh
Publiée le
6 mois
Nord, France
Nous recherchons pour notre client, un(e) Consultant Senior Business Data Analyst MDM, pour une mission en freelance au sein d'un groupe international leader dans son domaine. Dans le cadre du lancement d'un programme stratégique de Master Data Management (MDM) portant sur le domaine "Client", notre client souhaite structurer et documenter ses actifs de données avant la phase de déploiement. Rattaché(e) directement au Customer Data Owner et au Group Customer Data Steward, votre rôle sera d'apporter un soutien opérationnel et analytique pour transformer les besoins métiers en modèles de données exploitables. Les enjeux sont majeurs : définir un modèle de données cible harmonisé, établir des règles de gouvernance robustes et garantir la qualité des données à l'échelle internationale. 🚀 Vos principales responsabilités incluent : 🔹 La définition et la documentation du modèle de données (objets métiers, attributs clés, définitions). 🔹 L'identification des Critical Data Elements (CDE) et des attributs MVP pour le futur outil MDM. 🔹 La préparation et l'animation d'ateliers avec les parties prenantes métiers pour recueillir les besoins et spécificités locales. 🔹 La formalisation des règles de cycle de vie des données (création, validation, enrichissement). 🔹 La contribution aux volets métiers de l'appel d'offres (RFP) en cours.
Mission freelance
Chef de Projet Data (F/H)
CELAD
Publiée le
Big Data
DORA
Google Cloud Platform (GCP)
12 mois
450-470 €
Paris, France
Envie d’un nouveau challenge… CELAD vous attend ! 🚀 Nous poursuivons notre développement et recherchons actuellement un.e Chef de Projet Data pour intervenir chez un de nos clients dans le secteur bancaire . 💻💼 Voici un aperçu détaillé de vos missions 🎯 : Piloter des projets IT orientés Data de bout en bout, de la phase de cadrage jusqu’à la mise en production Recueillir et analyser les besoins métiers, en lien étroit avec les équipes Communication et les parties prenantes Coordonner les équipes techniques (développeurs, architectes, production, sécurité) et assurer le bon déroulement des projets Garantir le respect des engagements en termes de qualité, coûts, délais et sécurité Participer à la conception technique et à la rédaction des spécifications détaillées Superviser les phases de développement, de tests et de recette Assurer la mise en production des solutions dans un environnement CI/CD Piloter la documentation projet (dossiers d’architecture, ISP, exigences réglementaires DORA) Gérer la relation avec les différents interlocuteurs internes et externes Accompagner le changement et assurer le support auprès des utilisateurs
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
4943 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois