L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 285 résultats.
Offre d'emploi
Chef de Projet & Business Analyst – Données Bilan Carbone / CSRD
VISIAN
Publiée le
PowerBI
SQL
1 an
40k-45k €
400-660 €
Île-de-France, France
Contexte : Nous recherchons un(e) Chef de Projet / Business Analyst pour renforcer l’équipe RSE d’une DSI Workplace. L’équipe travaille sur plusieurs projets annuels autour de la gestion des données RSE, et la mission implique autonomie, responsabilité et un large éventail de compétences techniques et fonctionnelles. Missions principales : Assurer la gestion de projets liés aux données RSE et au bilan carbone. Collecter, formaliser et analyser les besoins métiers. Collaborer avec les data engineers pour définir les traitements nécessaires. Produire des rapports et analyses à partir des données (maîtrise d’Excel et SQL requise). Créer des dashboards et indicateurs (Power BI est un plus). Participer à la documentation et au suivi des projets.
Mission freelance
Senior Consultant Data & AI / Data Product Factory
SQLI
Publiée le
Database
3 mois
400-650 €
Paris, France
Hello , Pour le compte de l'un de mes clients dans le secteur du luxe, je suis à la recherche d'un Consultant Data & AI / Data Product Factory Senior. Contexte & Enjeux du poste : Dans un contexte de forte accélération des usages Data & IA, nous accompagnons nos clients (grands comptes et ETI) dans la structuration de leurs capacités Data & AI afin de créer de la valeur métier à travers des Data Products industrialisés. Le Senior Consultant Data & AI interviendra auprès des directions Data, IT et Métiers pour : Définir des cibles Data & AI Concevoir et déployer des Data Factories orientées produit Accompagner la transformation organisationnelle, technologique & méthodologique Missions principales : 1. Conseil & Cadrage stratégique Accompagner les clients dans la définition de leur stratégie Data & AI Identifier les cas d’usage à valeur et les transformer en Data Products Réaliser des diagnostics de maturité Data & AI Définir des roadmaps Data alignées avec les enjeux business 2 Mise en place de Data Factory orientée Data Products Concevoir des modèles de Data Factory (organisation, processus, gouvernance) Mettre en place une approche Data Product (Data Mesh / Product Thinking) Définir les rôles clés : Data Product Owner, Data Engineer, Analytics Engineer, Data Scientist, Platform Team Accompagner la mise en œuvre des rituels agiles, du delivery et de la priorisation 3. Architecture & Solutions Data & AI Cadrer et challenger les architectures Data modernes Cloud Data Platform (AWS, Azure, GCP) Lakehouse, Data Warehouse, Streaming Contribuer au choix et à la mise en place des solutions : ETL / ELT BI & Analytics Machine Learning & IA Garantir les bonnes pratiques : Qualité des données Sécurité Gouvernance MLOps / DataOps 4. Accompagnement du changement & montée en maturité Accompagner les équipes client dans la prise en main des nouveaux modèles Former et coacher les équipes Data et Métiers Contribuer à l’adoption des usages Data & IA Participer à la structuration de centres de compétences Data
Offre d'emploi
Ingénieur DATA
INFOGENE
Publiée le
44 800-54k €
Bordeaux, Nouvelle-Aquitaine
Le poste fait partie de la Direction de la Transformation Stratégique qui compte notamment quatre équipes data : BI & Data Analytics, Data & AI Technology, Data Science & AI, Stratégie & Projets Data. Sous l’autorité du/de la Responsable Data & AI Technology et du/de la Team Leader, le/la Data Engineer réalise la conception, le développement et la maintenance des systèmes – produits, services et plate-forme – permettant la collecte, la transformation, le stockage et la distribution des données. Il/elle intervient également sur l’architecture data pour garantir des solutions robustes, performantes et évolutives. Missions clés : • Conçoit, développe et maintient des systèmes – produits, services et plate-forme – permettant la collecte, la transformation, le stockage et la distribution des données • Assure le développement logiciel lié et prodigue son support aux équipes data & business dans leurs propres développements • Intervient sur l’architecture data pour garantir des solutions robustes, performantes et évolutives • Participe activement à la montée en compétence des équipes data & business et les accompagne dans l’adoption des bonnes pratiques data et DevOps • Administre et fait évoluer la plate-forme data en collaboration avec la DSI, développe les outils nécessaires Compétences attendues : • Expertise en Python et SQL, appliquée dans des environnements data complexes et exigeants, intégrée dans des pratiques DevOps (Git, CI/CD, ELK …) o Expérience solide et opérationnelle avec les outils de la modern data stack et notamment Snowflake, Airflow et Soda • Expérience démontrée dans la conception d’architectures data modulaires, scalables et résilientes, combinée à des connaissances avancées en infrastructure et cloud, en particulier Azure. • Forte sensibilité aux technologies émergentes, en particulier l’IA, avec une capacité à identifier des cas d’usage pour le business et à les intégrer dans des produits data mais aussi dans la plate-forme data
Mission freelance
Product Owner Data (Finance)
AVALIANCE
Publiée le
Backlog management
Data management
Finance
1 an
Montréal, Québec, Canada
Product Owner Data – Secteur Bancaire (Montréal) Dans le cadre d’un programme de données stratégique, nous recherchons un(e) Product Owner Data pour intervenir chez un client majeur du secteur bancaire, basé à Montréal. 🎯 Contexte du mandat Programme de transformation et gouvernance des données Gestion de données transverses à l’échelle de l’organisation Collaboration étroite avec les équipes Data, IT et métiers 🧩 Responsabilités Porter la vision produit Data et gérer le backlog Recueillir, analyser et prioriser les besoins métiers liés aux données Travailler avec les équipes techniques (Data Engineers, Architectes, BI, etc.) Assurer la valeur business des produits Data livrés Participer aux cérémonies agiles (planification, refinement, reviews) Contribuer à la gestion de produit dans un contexte bancaire réglementé.
Offre d'emploi
EXPERT Snowflake
EMMA-IT
Publiée le
AWS Cloud
Google Cloud Platform (GCP)
Snowflake
1 an
Île-de-France, France
Bonjour, Nous recherchons un Lead Data Platform EXPERT Snowflake, pour intervenir chez l’un de nos clients « grand compte » DESCRIPTIF DE LA MISSION ; •Accompagner les équipes métiers dans leurs travaux d’identification et expression de leurs besoins en données et d'indicateurs décisionnels, •Capacité à concevoir des solutions innovantes et fiables nécessitant l’utilisation de technologies dites "Modern DataOps" et IA agentique pour répondre aux nouveaux cas d’usages métiers exprimés et à gérer les projets Data de bout en bout, •Piloter l'équipe de Data Engineers pour assurer la mise en oeuvre •Développer, tester, optimiser et gouverner les flux de traitement et d’ingestion de données au sein de notre Data Platform, •Avoir la capacité de créer rapidement de nouveaux Datamarts de zéro s'appuyant sur notre socle de données existant pour des usages spécifiques, •Contribuer à la mise à disposition et au partage de la donnée au travers d’outils et de processus d'export simples, rapides à mettre en œuvre et monitorables, •Déployer et optimiser au quotidien des pipelines de données (On Premise ou dans le Cloud), •Assurer la stabilité et la gouvernance technique de la plateforme Data, des applications déployées et de certaines de nos plateformes SaaS de données attenantes. Environnement technique utilisé: Snowflake, dbt Core, Linux, Cloud AWS (AWS EC2, AWS S3, AWS Serverless), Cloud CGP (Big Query, GA4), SQL, Python, Airflow, Docker, Terraform, Git, Gitlab & Gitlab CI VOUS JUSTIFIEZ DE ; · Vous êtes titulaire d’un Bac +5 en informatique, avec au minimum 7 ans d'expérience professionnelle · Vous avez de 3 à 5 ans d'expérience sur la plateforme SaaS Snowflake · Vous êtes à l'aise avec le Cloud public AWS et GCP, ses principaux services et ses méthodes de déploiements · Vous possédez des compétences avancées autour des langages et technologies suivants : SQL, Python, Airflow, Prefect, Linux, Docker, Snowflake Cortex et Snowflake Intelligence · Vous connaissez au moins un framework de développement de Web Services REST (Django, Flask, FastAPI pour Python ou éventuellement Express pour NodeJS) et l'outil Postman n'a pas de secrets pour vous · Vous connaissez bien les outils de visualisation de données (Tableau Cloud ou PowerBI) · Vous avez une bonne maîtrise de l’optimisation des déploiements et des processus d'intégration/déploiements continus (CI/CD) via des technologies du marché (comme Docker, Gitlab CI, Jenkins ou équivalent) · Vous détenez des connaissances autour des processus de gestion de la configuration et d'Infrastructure as Code (Terraform, Pulumi, Cloud Formation ou CDK AWS) et des outils d’orchestration de flux de données (comme Airflow ou Prefect) · Vous êtes à l'aise avec les outils de type agents CLI (Claude Code, Codex CLI ou OpenCode) et leur méthodologie de spécifications associée pour développer et déployer des applications autour de la data pilotées en autonomie par l'IA. · Vous connaissez bien les outils Jira et Confluence LES PLUS ; · Toute connaissance du business Retail/Fashion est un plus · Toute connaissance ou compétence sur la mise en place de projets IA agentiques de type RAG ou "Text to SQL" est un plus · Toute connaissance des outils/plateformes BW/4HANA, SAP Analytics Cloud ou PowerBI est un plus · Toute connaissance des outils d'observabilité (comme Sifflet) ou d'agrégation de données de campagnes media (Supermetrics) est un plus · Toute connaissance du déploiement et de l'orchestration de containers avec Kubernetes est un plus Si cette mission correspond à vos attentes et que votre profil correspond à ce besoin, N’hésitez pas à nous adresser votre date de disponibilité, votre CV au format Word et vos prétentions financières par ce biais. Dans l’attente d’un futur échange et d’une future collaboration, L’équipe EMMA-IT.
Offre d'emploi
Expert Technique Cybersécurité & DevSecOps – GenAI / Azure (H/F)
AVA2I
Publiée le
Azure
CI/CD
Cybersécurité
3 ans
40k-45k €
400-550 €
Île-de-France, France
Dans un contexte de déploiement et de sécurisation de solutions d’IA de nouvelle génération (GenAI, LLM, agentique) , nous recherchons un expert technique cybersécurité & DevSecOps avec une forte expertise Azure / Microsoft . Le rôle est exclusivement technique , orienté mise en œuvre concrète des contrôles de sécurité , en interaction directe avec les équipes de développement et data. Missions principales Sécurisation de la stack Azure IA / GenAI : Azure AI & Cognitive Services Azure OpenAI (si utilisé) Azure Machine Learning Fabric, Power Platform, M365 Design et implémentation des contrôles de sécurité : authentification et autorisation (RBAC, MFA, Conditional Access, PIM), sécurisation réseau et identité, cloisonnement des environnements et sécurisation des endpoints IA. Mise en place et amélioration de chaînes CI/CD sécurisées Sécurisation de l’Infrastructure as Code (Terraform, Bicep) Exploitation et paramétrage des outils Microsoft : Sentinel, Defender for Cloud, Purview (DLP, gouvernance des données) Accompagnement des développeurs, data engineers et data scientists sur : les risques IA (prompt injection, poisoning, exfiltration, escalade de privilèges), les bonnes pratiques de sécurité applicables. Livrables attendus Architectures et blueprints de sécurité pour des solutions GenAI sur Azure Configurations sécurisées des services IA Contributions aux analyses de risques et mesures de mitigation techniques Revues de code, IaC et pipelines CI/CD Mise en place de contrôles automatisés (policy-as-code, scripts, pipelines) Reporting technique sur la posture de sécurité et les plans de remédiation Profil recherché 8 à 12 ans d’expérience en cybersécurité / cloud security Au moins 3 ans récents sur des projets GenAI / LLM / IA moderne en environnement Azure Expertise confirmée sur : Azure & M365 (RBAC, MFA, Conditional Access, PIM), services IA Azure, DevSecOps / CI-CD / IaC, outils de sécurité Microsoft (Sentinel, Defender for Cloud, Purview). Capacité à intervenir sur des projets IA concrets , au-delà de simples POC Soft skills & langues Forte capacité à interagir avec des profils techniques (devs, data) Posture pédagogique et orientée solutions À l’aise en environnement international Anglais professionnel courant obligatoire Intitulés possibles Expert Technique Cybersécurité & DevSecOps – GenAI / Azure Senior Cloud Security Engineer – Azure / GenAI Architecte Sécurité Azure & M365 – IA / GenAI
Mission freelance
AI Product Manager
Orcan Intelligence
Publiée le
AI
Large Language Model (LLM)
6 mois
500-750 €
Paris, France
Orcan intelligence recherche pour l’un de ses clients dans la finance, un AI Product manager pour une mission avec un fort enjeu stratégique. Vos missions : Priorisation & Roadmap : Analyser les POCs existants, définir les indicateurs de succès et sélectionner les Use Cases à industrialiser en priorité. Stratégie de Données : Piloter la conception et la mise en place de la base de données dédiée à l'IA (structuration, choix des sources, vision Vector DB / RAG). Conception de Solutions : Designer des workflows d'automatisation avancés intégrant des technologies LLM et ALLM (Agentic LLM) pour automatiser des tâches complexes. Aide à la Décision : Préparer les dossiers d'arbitrage pour la Direction (coûts, gains de productivité, faisabilité) afin de lever les derniers verrous de validation. Pilotage du Delivery : Faire le pont avec les équipes techniques (Data Engineers / AI Devs) pour s'assurer que le produit livré répond parfaitement aux besoins des Opérations.
Mission freelance
Senior Business Analyst & Chef de Projet Data – RSE / Bilan Carbone
CAT-AMANIA
Publiée le
Responsabilité Sociétale des Entreprises (RSE)
6 mois
460-650 €
Île-de-France, France
Au sein de la DSI Workplace d'un grand groupe, nous recherchons un profil senior pour renforcer l'équipe dédiée à la RSE (Responsabilité Sociétale des Entreprises). Vous intégrerez une équipe à taille humaine (environ 12 personnes) gérant en moyenne 5 projets structurants par an. Il s'agit d'une mission longue durée (1 an renouvelable) nécessitant une forte autonomie et une capacité à prendre des responsabilités immédiates. VOS MISSIONS À la croisée des chemins entre les équipes métiers et les équipes techniques (Data Engineers), vous assurerez le rôle de Business Analyst et Chef de Projet. Analyse et Cadrage : Recueillir les besoins auprès des interlocuteurs Business RSE et comprendre les enjeux liés aux données du bilan carbone. Investigation de Données (Hands-on) : Explorer les bases de données en autonomie via des requêtes SQL complexes et utiliser Excel pour prototyper ou valider la qualité des données avant industrialisation. Spécification et Pilotage : Formaliser les règles de gestion et les traitements de données attendus. Dialoguer directement avec les Data Ingénieurs pour leur fournir des spécifications claires et tester leurs livrables. Pilotage de Projet : Suivre l’avancement, garantir les délais et la qualité des livrables.
Mission freelance
Senior Analytics Engineer
BLOOMAYS
Publiée le
AWS Cloud
ETL (Extract-transform-load)
Microsoft Power BI
6 mois
550-650 €
Lyon, Auvergne-Rhône-Alpes
Dans un contexte d’hypercroissance, nous recherchons un Senior Analytics Engineer pour rejoindre l’équipe Data et contribuer à structurer, fiabiliser et faire évoluer la plateforme analytique de notre client dans le secteur de la mutuelle Concevoir, développer et maintenir des pipelines de données robustes (ETL/ELT). Automatiser les traitements pour améliorer la performance et la fiabilité des données. Mettre en place la gouvernance des données : catalogage, gestion des métadonnées, droits d’accès. Concevoir et optimiser des modèles de données adaptés aux besoins métier (AWS, Redshift…). Garantir les performances des bases de données, y compris sur de grands volumes. Collaborer avec les Data Analysts, Data Engineers et IA Engineers pour répondre aux besoins de l’entreprise. Participer à la création de tableaux de bord et reporting (Power BI) en assurant l'exactitude des données. Assurer la disponibilité des données pour les prises de décision stratégiques. Apporter une expertise technique et accompagner les équipes sur les bonnes pratiques analytiques. Former et soutenir les utilisateurs métier sur les outils data. Mettre en place des contrôles qualité et détecter les anomalies via le monitoring. S’assurer de la conformité aux réglementations sur la confidentialité et la sécurité (GDPR, CCPA).
Mission freelance
DATA ARCHITECT (GCP)
Keypeople Consulting
Publiée le
Apache Airflow
BigQuery
CI/CD
6 mois
580-720 €
Île-de-France, France
Dans le cadre du renforcement de sa Data Platform , l’un de nos clients grands comptes recherche un Architecte Data confirmé à senior pour accompagner ses équipes Data et garantir la cohérence, la performance et la scalabilité de l’architecture globale. Architecte Data – Environnement Cloud GCP Votre rôle Intégré(e) aux équipes Data (Product Owners, Data Engineers, Data Scientists…), vous interviendrez en accompagnement transverse sur l’architecture de la plateforme Data et des dispositifs associés. Vos principales responsabilités : Définir et garantir la cohérence de la stack technique Data Assurer le respect des normes et standards d’architecture Mettre en place et sécuriser les contrats d’interface entre équipes Auditer l’architecture existante et proposer des axes d’amélioration Réaliser une veille technologique et contribuer à l’introduction de nouvelles solutions Participer aux tests et à l’intégration de nouvelles technologies 🛠️ Developer Experience & FinOps Contribution à l’écriture de modules Terraform / Terragrunt Accompagnement des équipes sur l’ Infrastructure as Code et la CI/CD Définition des standards de développement et de déploiement Mise en place du suivi budgétaire par équipe (FinOps) Implémentation des outils de monitoring, alertes et seuils Identification et priorisation des optimisations de coûts Compétences recherchées 3 ans minimum d’expérience en tant qu’ Architecte Data Solide expertise en architecture Data & Cloud Excellente maîtrise des bonnes pratiques d’architecture Expérience en sécurisation des applications Cloud Environnement Google Cloud Platform (GCP) Maîtrise de BigQuery , Cloud Composer (Airflow) , Dataplex Langages Python et SQL Expérience avec Spark Expérience avec dbt Maîtrise de Terraform et Terragrunt
Mission freelance
Lead data en Ile de France
EterniTech
Publiée le
Apache Airflow
AWS Cloud
DBT
6 mois
Île-de-France, France
NOUVELLE OPPORTUNITÉ – MISSION FREELANCE Je recrute un(e) TECH LEAD / LEAD DATA pour un client final. Démarrage : début janvier Localisation : Ile de France/ hybride Durée : mission longue, renouvelable Profil recherché Expérience confirmée en TECH LEAD / LEAD DATA => Stacks techniques obligatoires : SQL / Environnement Cloud (AWS) / Snowflake / dbt / Airflow / => BI / Dataviz (ex : Tableau ou équivalent) Solide background technique (Data / Cloud / Engineering) À l’aise avec les enjeux d’architecture, qualité et delivery Responsabilités clés Co-pilotage de l’équipe (priorisation, planification, animation) Binôme étroit avec le Product Owner Encadrement de Data Engineers (internes & externes) Mise en œuvre des bonnes pratiques (DevOps, qualité, FinOps, RUN) Cadrage, découpage et estimation des sujets Data Choix d’architectures et de modélisation Data Livraison des produits dans le respect des délais et standards Gestion des incidents, communication et escalade des risques Contribution à la dynamique collective et aux instances Data/Engineering Objectifs à court/moyen terme Redynamiser et structurer l’équipe Réduire les dépendances individuelles et sécuriser le RUN Auditer l’existant et réduire la dette technique Reprendre et intégrer de nouveaux produits Data stratégiques Accompagner des initiatives à fort enjeu décisionnel Intégrer un nouveau Product Owner
Offre d'emploi
Chef de projet & Business Analyst Données Bilan Carbone (H/F)
STORM GROUP
Publiée le
Chef
Microsoft Excel
SQL
3 ans
50k-55k €
400-500 €
Île-de-France, France
Pilotage de projets RSE & data Piloter des projets data liés au bilan carbone (collecte, fiabilisation, exploitation et restitution des données) Organiser et suivre les différentes phases projet : cadrage, expression de besoins, conception, réalisation, recette, mise en production Assurer le respect des délais, budgets et engagements qualité Business Analysis & relation métier Recueillir, analyser et formaliser les besoins des métiers RSE Être l’ interlocuteur privilégié du business , avec une forte capacité à traduire les enjeux métiers en besoins data exploitables Rédiger les spécifications fonctionnelles et data (règles de gestion, indicateurs, sources, traitements) Pilotage data & collaboration technique Concevoir et formaliser les modèles de données nécessaires aux indicateurs de bilan carbone Échanger avec les Data Engineers pour définir et prioriser les traitements (ETL, règles de calcul, contrôles qualité) Rédiger et comprendre des requêtes SQL pour analyses, contrôles et recettes Exploiter Excel à un niveau avancé pour le traitement, l’analyse et la restitution des données Reporting & aide à la décision Produire et maintenir des reportings et tableaux de bord La création de rapports Power BI est un plus apprécié Garantir la fiabilité et la traçabilité des indicateurs carbone Responsabilité & coordination RSE Contribuer à la structuration et au pilotage de l’équipe RSE Participer à la définition des priorités et feuilles de route Être force de proposition sur l’ amélioration des processus et outils
Mission freelance
Product Owner Data Technique - (H/F)
Atlas Connect
Publiée le
BI
Data analysis
Data governance
12 mois
470-580 €
Île-de-France, France
Contexte Dans un contexte de transformation digitale et d’optimisation de la gestion des données, nous recherchons un Product Owner Data Senior pour piloter la mise en place et l’évolution de solutions liées à la signature électronique , au respect RGPD , et aux outils de BI et reporting . Le poste implique une collaboration étroite avec les équipes techniques (Data Engineers, BI Developers), les métiers et la direction juridique et conformité. Missions principales Pilotage produit : Définir et prioriser le backlog Data en lien avec les besoins métiers et réglementaires. Assurer le suivi des projets de signature électronique et de conformité RGPD. Garantir la qualité et la cohérence des données utilisées pour le reporting et la BI. Coordination et communication : Servir d’interface entre les équipes métiers, juridiques et techniques. Présenter les évolutions et résultats aux parties prenantes. Promouvoir les bonnes pratiques en matière de gouvernance des données. Conformité et sécurité des données : S’assurer du respect des réglementations RGPD et des normes internes de sécurité des données. Participer à la rédaction et à la mise à jour des politiques de données et des workflows de conformité. Reporting et BI : Définir les besoins en reporting, KPIs et dashboards pour les métiers. Superviser la qualité des données, leur disponibilité et leur fiabilité. Contribuer à la mise en place d’outils et de process de BI avancés. Profil recherché Expérience : 5 à 8 ans minimum en Product Ownership / Data Management. Compétences techniques : Expertise en signature électronique et flux documentaires digitaux. Connaissance approfondie de la RGPD et de la conformité des données. Bonne maîtrise des outils BI / reporting (Power BI, Tableau, Looker…). Connaissances en bases de données et modélisation (SQL, Data Warehouses…). Compétences comportementales : Leadership et capacité à fédérer des équipes pluridisciplinaires. Sens de l’organisation, rigueur et priorisation. Communication claire et capacité à vulgariser des concepts techniques.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
285 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois