Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 73 résultats.
Freelance

Mission freelance
Développeur Python AWS - Data & Gen AI ( Databricks)

Publiée le
Amazon DynamoDB
Amazon S3
API

12 mois
550-680 €
Paris, France
Télétravail partiel
Missions principales : Participer à la conception, au développement et à la mise en œuvre de nouvelles fonctionnalités du plan de travail (workplan). Contribuer à la rédaction des spécifications techniques et à la documentation associée. Prendre part à la construction et à l’évolution d’une plateforme data intégrant la gouvernance, l’ingestion, la transformation, le stockage, l’exposition et l’analytique. Intervenir sur les aspects RUN et BUILD de la plateforme en soutien à l’équipe existante. Garantir la sécurité, la performance et la scalabilité des solutions déployées sur le Cloud AWS. Participer à la mise en place de solutions Gen AI au sein de l’écosystème Data/Cloud. Compétences techniques requises : Cloud AWS : maîtrise approfondie des services IAM, S3, DynamoDB, Lambda, API Gateway . Databricks et sa composante AI (Genie) . Développement Backend Python , avec une solide expérience en API / webservices / routes . Maîtrise d’un framework Python (idéalement AWS Powertools for Lambda , Flask ou FastAPI ). Infrastructure as Code : expertise en Terraform et bonne culture DevOps . Expérience dans la mise en œuvre de plateformes data (gouvernance, ingestion, transformation, stockage, exposition, analytics). Excellente capacité de communication écrite et orale en anglais . Compétences appréciées : Certifications AWS : Solutions Architect Associate , Data Engineer Associate et/ou Developer Associate . Connaissances en Power BI , services réseau , Collibra ou React . Sens de la collaboration, autonomie et approche orientée solution. Objectifs et livrables : Contribution à la définition et au développement des features du workplan. Livraison de composants applicatifs fiables et documentés . Participation active aux revues techniques et réunions d’équipe . Support dans la gestion opérationnelle (RUN) et l’ amélioration continue (BUILD) des solutions Cloud & Data.
Freelance

Mission freelance
Manager Platform Data & Analytics

Publiée le
CoreData

6 mois
500-650 €
Paris, France
Bonjour, Pour le compte de l'un de mes clients dans le secteur du luxe, je suis à la recherche d'un manager Platform Data et Analytics. Cette mission concerne la gestion transitoire d’un poste de manager Platform Data et Analytics chez le client, en attendant le recrutement d’un successeur. Elle inclut la prise en main, le pilotage des missions ainsi que le transfert des responsabilités : · Handover pour prendre la main sur les missions · Pilotage des missions · Handover pour transférer la mission vers le successeur. Les deux missions principales sont : 1. Assistance au pilotage de la Federated Data Platform 2. Pilotage IT du projet SSOT (Single Source of Truth) En tant que Data Product Manager au sein des équipes Corporate IT, votre mission principale est de piloter les évolutions (via les quaterly releases) via la joint design autorithy & d'être en support eux entités. En travaillant & en étant aligné avec les directeurs Data et travaillant de concert avec le data / solution architect et le Cloud Architect la mission couvre : · Définition et pilotage de la roadmap produit : Élaborer et maintenir la feuille de route stratégique de la plateforme et des services data partagés, en tenant compte des besoins métiers, des priorités et des évolutions des éditeurs (par exemple roadmap MS Fabric). · Identification et valorisation des synergies : Collaborer avec les divisions, les régions et les fonctions Corporate pour détecter les opportunités de mutualisation et maximiser la valeur ajoutée des initiatives data à l’échelle mondiale. · Gestion des évolutions et arbitrages : Piloter les demandes d’évolutions de la plateforme avec les divisions et les régions, coordonner les arbitrages et veiller à l’alignement avec la stratégie data globale. · Garant du Delivery et du Run : Superviser le développement et le bon fonctionnement des produits data (Federated Data Platform), suivre les indicateurs de performance (KPI) et assurer un support continu aux utilisateurs. · Gouvernance des services data : Animer la gouvernance data autour de thèmes clés tels que le Federated Data Platform (avec la joint design authority) en impliquant les parties prenantes des divisions et régions. · Support à la réussite des Use Case : S’assurer que la plateforme répond aux besoins des programmes stratégiques (Programme Hero, ORION, ESG, …) et accompagne efficacement la réalisation des use cases data (des divisions, régions, corporate). · Accompagnement au changement et formation : Être le point de contact privilégié pour le déploiement et l’adoption des solutions, organiser la montée en compétence des équipes et recueillir les feedbacks pour améliorer les services. Remarque: le partenaire de la Federated Data Platform est la société ONEPOINT (En France)
Freelance

Mission freelance
Ingénieur MLOps Data & IA

Publiée le
Amazon S3
Apache Airflow
Apache Spark

12 mois
500-550 €
Île-de-France, France
Télétravail partiel
Contexte Le profil interviendra sur l’ensemble du cycle de vie des solutions d’Intelligence Artificielle (IA), incluant : Industrialisation et CI/CD : Mise en place et maintenance de pipelines CI/CD (GitLab, Docker, Terraform, Kubernetes). Infrastructure et automatisation : Gestion et optimisation des environnements AWS (S3, EMR, SageMaker, IAM…). Data Engineering & Spark : Développement et optimisation de jobs Spark pour la préparation et le traitement de données à grande échelle. MLOps / Production : Déploiement, suivi et supervision des modèles IA (MLflow, , monitoring Datadog). Collaboration transverse : Interaction quotidienne avec les Data Scientists pour fiabiliser le delivery et le suivi des modèles. Veille et amélioration continue : Participation active à l’optimisation des pipelines et à la montée en maturité technique de l’équipe. Description de la mission Le profil sera en charge de : Maintenir et faire évoluer les pipelines d’industrialisation (CI/CD, Terraform, Docker, Kubernetes). Participer à la mise en production et au suivi des modèles IA (Airflow, Datadog, , MLflow). Garantir la fiabilité des traitements Spark et la conformité des environnements AWS. Contribuer au suivi de la production et aux mises en production (MCO). Participer à l’amélioration continue des outils et pratiques Data/IA. Documenter les bonnes pratiques techniques et partager les retours d’expérience au sein de l’équipe AI Experts. Compétences techniques attendues Obligatoires (Must Have) : CI/CD (GitLab) Docker Terraform Kubernetes Spark Python AWS (S3, EMR, SageMaker, IAM…) Souhaitables (Nice to Have) : MLflow Airflow API / FastAPI Datadog Suivi de production / MEP Autres compétences : Expérience de collaboration avec des Data Scientists Veille technologique et amélioration continue Soft Skills recherchés Esprit d’équipe et forte culture du delivery Rigueur technique, curiosité et autonomie Capacité à collaborer efficacement dans un environnement pluridisciplinaire (DE, DS, OPS, PO, DEV, staff) Sens du partage et de la documentation Livrables et responsabilités principales Maintenir et faire évoluer les pipelines CI/CD et d’industrialisation Participer aux mises en production et au suivi des modèles IA Garantir la fiabilité des traitements Spark et la conformité AWS Contribuer à l’optimisation continue des outils et pratiques Documenter et partager les bonnes pratiques techniques
Freelance

Mission freelance
Data engineer senior/Tech lead Migration IDQ Fabric (F/H) - 75

Publiée le
Databricks
Microsoft Fabric
PySpark

12 mois
400-770 €
Paris, France
Télétravail partiel
Notre client migre ses flux ETL d’Informatica vers Microsoft Fabric pour ses besoins en data ingestion et analytics. Le projet concerne principalement le domaine Finance, avec un modèle pivot centralisant contrats, positions, instruments de couverture, flux futurs, contreparties et données de marché. Environnement technique : * ESB (Software AG), * ETL (Informatica), * Data Platform (Fabric/Power BI) Mission En tant que Tech Lead Data, vous serez responsable de : * Définir les standards techniques (Fabric, Spark, Python) et bonnes pratiques de développement. * Piloter la migration des flux Informatica vers Fabric : * Évaluer l’existant (flux, modèles pivots, dépendances). * Concevoir le framework d’ingestion/transformation (Spark, Notebooks). * Mettre en place la CI/CD (Azure DevOps/GitHub). * Assurer le monitoring et la qualité des données. * Encadrer une équipe de 3 Data Engineers (mentorat, optimisation des performances). * Collaborer avec les équipes métiers (Finance/Risque) et l’architecture IT.
Freelance

Mission freelance
Data Engineer | DevOps AWS (H/F)

Publiée le
AWS Cloud
CI/CD
Data analysis

9 mois
400-450 €
Saint-Denis, Île-de-France
Télétravail partiel
Nous recherchons un Data Engineer | DevOps AWS (H/F) pour contribuer à la construction , à l’évolution et à la fiabilité d’un Data Lake stratégique , au cœur des projets liés à l’analyse de l ’expérience utilisateur. Vous interviendrez sur l’ensemble de la chaîne de traitement des données (ingestion, transformation, restitution) au sein d’un environnement AWS moderne, dans une logique d’ industrialisation , de performance et de qualité de service . Vos principales missions : • Maintenir et faire évoluer une architecture data scalable sur AWS , adaptée à des volumes importants de données hétérogènes ( logs, fichiers, API …). • Concevoir et structurer les différentes couches du Data Lake ( Landing, Bronze, Silver ) en lien avec les besoins métiers et les bonnes pratiques data. • Développer des pipelines de traitement de données robustes et automatisés ( ETL/ELT ), en batch ou quasi temps réel , via des services AWS : Glue, Lambda, EMR, Redshift, S3… • Orchestrer les flux de données et automatiser les traitements entre les différentes couches du Data Lake. • Assurer le MCO : surveillance, détection et résolution des incidents, fiabilisation des flux, documentation technique. • Intégrer de nouvelles sources de données aux formats variés ( API REST, fichiers plats, logs applicatifs …) tout en assurant sécurité et performance . • Mettre en place des mécanismes de gestion des rejets et de réconciliation pour garantir la qualité et la cohérence des données. • Participer à l’ amélioration continue de la plateforme (veille, refonte, optimisation) , dans une logique DataOps (CI/CD, qualité, tests, versioning). • Collaborer avec les équipes projet, data analysts, data scientists et métiers pour aligner les solutions techniques avec les usages attendus . • Documenter l’architecture, les traitements et les processus pour assurer la traçabilité, la maintenabilité et la capitalisation.
Freelance
CDI

Offre d'emploi
Développeur(se) Azure Data Fabric confirmé(e)

Publiée le
MySQL

18 mois
40k-45k €
100-500 €
Paris, France
Télétravail partiel
CONTEXTE : Experience : 5 ans et plus Métiers Fonctions : Etudes & Développement, Développeur Spécialités technologiques : Transformation digitale ; Gouvernance des données Dans un contexte de transformation digitale orientée data, nous recherchons un profil senior capable de concevoir, développer et maintenir des solutions de traitement et d’ingestion de données sur la plateforme Azure Data Fabric. Vous serez un acteur clé dans l’industrialisation des flux de données, l’optimisation des pipelines, et la mise en œuvre de solutions scalables et performantes. Le poste implique à la fois un rôle opérationnel, d’expertise technique et de leadership sur les bonnes pratiques de l’écosystème Azure. MISSIONS 1. Conception et développement ▪ Participer à l’analyse des besoins métiers et techniques en matière de traitement de données. ▪ Concevoir et développer des pipelines d’ingestion, de transformation et de distribution des données sur Azure Data Factory. ▪ Intégrer les services Azure liés à la Data Fabric qui seront nécessaire : ex : Azure Data Lake Storage Gen2 etc... ▪ Implémenter des modèles de données et des solutions de traitement ▪ Encadrer la modélisation des flux de données complexes (batch et streaming) et proposer des architectures “data-driven” adaptées aux enjeux métiers. 2. Conception et développement de pipelines avancés ▪ Concevoir, développer et maintenir des pipelines avec Azure Data Factory et/ou Azure Synapse Pipelines. ▪ Définir et mettre en œuvre des stratégies de surveillance (monitoring) et d’alerting des pipelines. ▪ Optimiser les performances et les coûts des traitements (partitionnement, parallélisation, contrôle qualité). 3. Support et amélioration continue ▪ Assurer le support dans l’utilisation de la plateforme. ▪ Être force de proposition sur l’optimisation des traitements, la réduction des coûts Azure, et les innovations technologiques. ▪ Suivre la performance et la fiabilité des solutions déployées via Azure Monitor, Log Analytics, Application Insights. Expertise souhaitée Compétences requises : Techniques : ▪ Azure Data Factory - Expert ▪ Azure Data Lake Storage Gen2 - Confirmé ▪ Azure Synapse Analytics (dedicated & serverless) - Confirmé à expert ▪ Azure Event Hub / Stream Analytics - Bonne connaissance ▪ Sécurité Azure & gouvernance - Bonne connaissance ▪ Python / SQL / PowerShell - Confirmé ▪ Architecture Data / Cloud - Expérience significative ▪ PowerBI Confirmé Compétences comportementales : • Bon relationnel et sens de l’écoute • Autonomie et esprit d’initiative • Esprit analytique et rigueur • Capacité à vulgariser les sujets techniques pour les métiers • Esprit d’équipe Profil recherché : ▪ Bac+3 à Bac+5 en informatique, ingénierie, data ou équivalent. ▪ Expérience significative en développement de solutions data sur Microsoft Azure. ▪ Minimum 5 ans d’expérience sur des projets data complexes en environnement cloud (Azure de préférence). ▪ Très bonne connaissance de l’écosystème Azure et de ses services data. ▪ Bonne compréhension des architectures data modernes (data lake, real-time,event-driven). ▪ Sensibilité forte à la performance, la sécurité et la gouvernance des données. ▪ Autonomie, rigueur, curiosité technologique, esprit d’équipe. ▪ Bon niveau de communication, capable d’interagir avec les équipes métiers et IT.
Freelance

Mission freelance
Data Analyst Ms Power BI / DataFlows– Montpellier

Publiée le
AWS Cloud
AWS Glue
Data analysis

12 mois
400-530 €
Montpellier, Occitanie
Télétravail partiel
Contexte : Le secteur de l’énergie renouvelable, notamment l’éolien et le solaire, connaît une croissance rapide et nécessite une exploitation optimale des données pour piloter les activités, assurer la qualité des installations et suivre la performance énergétique. Dans ce contexte, nous recherchons un Data Analyst Power BI confirmé pour renforcer les équipes Data et contribuer à la transformation digitale et analytique de l’entreprise. Mission principale : Le Data Analyst Power BI aura pour objectif de maintenir, améliorer et développer les tableaux de bord métiers critiques , tout en garantissant la qualité et la fiabilité des données . Ses missions incluent : Assurer le maintien en condition opérationnelle (MCO) des tableaux existants. Concevoir et déployer de nouveaux tableaux Power BI adaptés aux besoins métiers. Détecter, analyser et corriger les anomalies de données , et sensibiliser les métiers à la qualité des données. Documenter les évolutions, anomalies et retours métiers. Collaborer avec les équipes métiers et techniques (AWS, Dataiku, Power Platform…) pour assurer la cohérence et la performance des tableaux de bord.
Freelance
CDI

Offre d'emploi
Architecte Solution Senior -( H/F)

Publiée le
Architecture
oauth2
saml

36 mois
65k-70k €
560-600 €
Paris, France
Télétravail partiel
LENA IT recherche pour l'un de ses clients un(e) Architecte Senior, capable de concevoir et de piloter des architectures robustes, sécurisées et interopérables, dans un environnement exigeant en matière de conformité réglementaire, sécurité des systèmes d’information et interconnexion avec de nombreux partenaires publics et privés. TJM Max : 600€HT non négociable ACTIVITÉS PRINCIPALES / SES MISSIONS CONCEPTION ET COHÉRENCE DU SYSTÈME D’INFORMATION • Concevoir et documenter des architectures (fonctionnelle, logicielle, technique, sécurité, data) modulaires, évolutives et sécurisées dans des environnements hybrides (Cloud privé / Cloud public Azure). • Définir les patterns d’architecture adaptés : micro-services, Event Driven Architecture (EDA), API REST, architecture hexagonale, etc. • Évaluer les solutions techniques proposées par les prestataires et garantir leur conformité avec les principes d’architecture. • Accompagner les équipes projets et techniques dans la mise en place des bonnes pratiques de conception et de documentation. ARCHITECTURE D’AUTHENTIFICATION ET INTEROPÉRABILITÉ (expérience avérée) • Concevoir des solutions d’authentification et de fédération d’identité en s’appuyant sur les standards reconnus : Open ID Connect, OAuth2, SAMLv2, etc. • Collaborer avec les experts sécurité pour garantir la conformité aux exigences réglementaires (RGPD, RGS, etc.). COLLABORATION ET GOUVERNANCE • Travailler en étroite collaboration avec les équipes internes, les partenaires et les intégrateurs. • Participer aux comités d’architecture et aux instances de gouvernance du SI. • Produire des livrables d’architecture clairs, synthétiques et conformes aux standards. VEILLE TECHNOLOGIQUE • Analyser les développements technologiques les plus récents. • Rechercher des solutions innovantes pour l’intégration de nouvelles applications ou la création de nouvelles solutions. COMPÉTENCES TECHNIQUES • Très bonne maîtrise des principes de l’architecture. • Expérience avérée sur les technologies et environnements Cloud Azure, API Management, Micro-services, EDA, containerisation, CI/CD, Data Transactionnelle, Data Analytics … • Connaissance en composants d’infrastructure. • Maîtrise des standards d’authentification : Open ID Connect, OAuth2, SAMLv2. • Expérience avérée sur les sujets liés à la sécurité des systèmes d’information, incluant les problématiques de conformité : RGPD, RGS et la sécurité applicative (gestion des identités et des accès (IAM), chiffrement, sécurisation des API, gestion des secrets…) • Connaissance des outils de modélisation et des Framework d’architecture : TOGAF, UML, ArchiMate… APTITUDES PROFESSIONNELLES • Sens de la confidentialité et éthique. • Rigueur, capacité d’anticipation et sens de la méthode. • Qualités relationnelles et diplomatie dans les interactions avec la direction informatique, les directions métiers, la maîtrise d’ouvrage, la maîtrise d’oeuvre et la sécurité (RSSI). • Qualités rédactionnelles. • Esprit de synthèse et capacité à prioriser les problématiques pour maintenir une vision globale du SI et de la cible à atteindre.
Freelance
CDI

Offre d'emploi
Chef de projet SEO

Publiée le
SEO

3 ans
30k-48k €
260-420 €
Hauts-de-Seine, France
Télétravail partiel
Chef de projet SEO / GEO DETAIL MISSION SEO Optimisation SEO : analyse des pages et mot clés, arborescence, structure des pages, rédaction web, backlinks, contenus, cocon sémantique, maillage interne… Optimisation GEO?: rédaction de contenu AI first?: balisage, contenu, citation, best practice, échanges de liens. Définition de nouveaux mots clés et gestion du planning éditorial (volumétrie, saisonnalité, sorties d’offres, priorités business...) Gérer les migrations de contenu entre les différents sites de la galaxie. Définition du calendrier éditorial off site (via des sites à fortes popularité). Optimisation vidéos YouTube Appui SEO auprès des autres équipes (FAQ, équipements et services…) Rédaction web et SEO (title, meta-description, article, FAQ, FAQ accordéon de SERP) Pilotage de l'équipe créa (maquettes, infographies, vidéos…) Participation au comité édito Participation aux étapes de la conception technique et créative du site : atelier Design Thinking, création d'un wireframe. Pilotage des performances GEO via nos outils de suivi. WEBMASTERING Contribution des articles Détection des anomalies et des bugs sur le site : création de tickets et suivi des correctifs (JIRA) Evaluation des besoins sur site, suggestions d’évolution et création de wireframe Pilotage de l’évolution du CMS pour la rubrique Conseils (composants, paramètre) : évaluation et analyse, expression des besoins, recette, validation des maquettes et des tests, accompagnement lors de la mise en production. Suivi des statistiques via des KPIs AUTRES Formation des collaborateurs sur les bonnes pratiques SEO (création et optimisation d’article/page) Pilotage opérationnel de l’alternant SEO Rédaction de guides et de guidelines SEO : guide vocabulaires et outils SEO, guide de création de contenus SEO, guide d’analyse et d’optimisation SEO. OUTILS CMS : Adobe Experience Manager (AEM) Outil SEO : Screaming Frog / SEM Rush / Google Search Console Outil GEO : SEM Rush AIO / Surfer SEO Demandes d’évolution et gestion des incidents : solution de ticketing JIRA Statistiques : Google Analytics / Dashboard analytics interne / Google Search Console / SEM Rush Gestion de projet : Trello / Slack / Teams Travaille en collaboration avec Agences SEO / Chefs de projets / Chefs de produits / Content Factory / Equipe FAQ / Prestataires externes / Juristes Contexte Mission principale : Développer le référencement naturel (SEO & GEO) du site ENGIE Particuliers, sur la partie marque et hors marque. Périmètre : Gestion des pages conseils et appui SEO régulier pour d’autres parties du site (pages offres, services, équipements, FAQ…). Gestion des publications sponsorisées sur les sites de presse.
Freelance

Mission freelance
Développeur MSBI - Power BI Ms Consultant (Secteur bancaire)

Publiée le
Azure Data Factory
Azure DevOps
BI

12 mois
500-560 €
Île-de-France, France
Télétravail partiel
Au sein de la Direction des Données et des Services Analytiques, le service Analytic assure la mise en œuvre et le support des solutions analytiques et de Business Intelligence de la Banque. L’équipe DEV Rapide MSBI intervient sur des projets de développement agiles et rapides (moins de 20 jours de développement) pour répondre aux besoins métiers en matière d’analyse, de reporting et de visualisation de données. Le consultant interviendra sur l’ensemble du cycle de vie des projets BI : du recueil de besoin jusqu’à la mise en production, tout en accompagnant les utilisateurs et en participant à la promotion de l’offre de services BI. 🎯 Missions Recueil des besoins auprès des équipes métiers et participation aux ateliers techniques et fonctionnels. Conception et développement de solutions BI agiles (SQL, SSIS, SSRS, SSAS, Power BI). Mise en œuvre de prototypes et POC pour valider les choix fonctionnels et techniques. Accompagnement des utilisateurs dans la prise en main des solutions et des outils de datavisualisation. Maintenance et évolution des solutions BI déployées. Avant-vente et conseil : participation à la présentation de l’offre de services BI, réalisation de démonstrations et supports de communication. Animation de communautés BI et partage des bonnes pratiques. Mise à jour documentaire (SharePoint) et suivi des activités (reporting hebdomadaire). Veille technologique sur l’écosystème Microsoft BI et les outils complémentaires.
Freelance

Mission freelance
229359/Data Architect DWH (Kimball/Inmon) et BI plus Lakehouse (Iceberg/Delta/Hudi)

Publiée le
Architecture

3 mois
Vélizy-Villacoublay, Île-de-France
Télétravail partiel
Data Architect Expérience: • Compétences indispensables 7 à 12 ans en ingénierie des données avec DWH (Kimball/Inmon) et BI plus Lakehouse (Iceberg/Delta/Hudi), Trino/Presto, Spark/Flink, Kafka/PubSub. Modélisation sémantique, contrats de données, ingénierie de la performance, couche dbt/metrics ; GCP + hybride sur site, IaC/CI-CD pour les données. Architecture monopage, contrats de données, ADR/HLD, modèle sémantique et arbre KPI, runbook/SLO, modèle de coût. Mission Maîtrisez l'architecture de la solution de bout en bout pour les produits de données et les cas d'utilisation analytiques au sein d'une ou plusieurs chaînes de valeur. Traduisez les résultats commerciaux en solutions de données sécurisées, évolutives et soucieuses des coûts, basées sur les données et la plateforme d'entreprise (DWH, Iceberg/Trino lakehouse, streaming, ML, GCP/on-premise). Architecture : Ingestion de lots/flux, DWH (Kimball/Star) + Lakehouse (Iceberg/Trino), service via SQL/APIs/couche sémantique ; Les fonctionnalités ML s'écoulent en cas de besoin. Modélisation : Concepts métiers → conceptuels/sémantiques → logiques/physiques (partitionnement, ordre Z/cluster, index). BI & Analytics : Posséder la couche sémantique/les métriques, gouverner les KPI, optimiser les performances du tableau de bord/requête, la mise en cache, les agrégats ; activer le libre-service (couche dbt/metrics + catalogue). Ops & FinOps : SLO (fraîcheur/latence/coût), observabilité, runbooks, backfills ; ajustez le stockage/les requêtes pour réduire les coûts. Gouvernance/Maillage : métadonnées de propriété du produit, découvrabilité, documentation ; publication de blueprints et ADR. Compétences indispensables 7 à 12 ans en ingénierie des données avec DWH (Kimball/Inmon) et BI plus Lakehouse (Iceberg/Delta/Hudi), Trino/Presto, Spark/Flink, Kafka/PubSub. Modélisation sémantique, contrats de données, ingénierie de la performance, couche dbt/metrics ; GCP + hybride sur site, IaC/CI-CD pour les données. Architecture monopage, contrats de données, ADR/HLD, modèle sémantique et arbre KPI, runbook/SLO, modèle de coût. Gestion des parties prenantes • Travaillez en étroite collaboration avec les parties prenantes de l'entreprise, les responsables de livraison et les propriétaires de produits pour recueillir des informations, comprendre les points faibles et hiérarchiser les fonctionnalités qui génèrent de la valeur pour l'entreprise. • Présenter régulièrement des mises à jour sur les progrès à la haute direction, en soulignant les étapes franchies, les défis rencontrés et les prochaines étapes du processus de développement.
Freelance

Mission freelance
Ingénieur de production - Data / GCP

Publiée le
Big Data
Google Cloud Platform (GCP)
Production

12 mois
450-500 €
Paris, France
Télétravail partiel
Notre client, un grand groupe bancaire, souhiate intégrer un profil d"ingénieur de production au sein de sa plateforme Data & Analytics Cloud , qui centralise les usages de reporting, data science et data management pour l’ensemble du groupe. Au sein du service Power BI Cloud et Data Platform , vous intégrerez l’équipe en charge de l’exploitation et de la fiabilité des environnements de production supportant plusieurs milliers d’utilisateurs et applications Missions : En tant qu’ Ingénieur de Production , vous participerez à la supervision, au maintien en conditions opérationnelles et à l’automatisation des services data et BI du groupe. Vos activités clés : Assurer l’ exploitation courante de la plateforme Power BI Cloud et des environnements Data (GCP). Gérer les déploiements applicatifs et les changements via XL Deploy . Participer à la mise en place d’infrastructures automatisées (Infrastructure as Code – Terraform ). Superviser les traitements de données et les flux d’ingestion sur BigQuery . Contribuer à la gestion des accès utilisateurs et à la sécurisation des environnements . Participer au diagnostic et à la résolution d’incidents en lien avec les équipes projet et data. Collaborer aux activités Build et à la mise en production de nouveaux services en mode Agile / DevOps . Être force de proposition pour l’amélioration continue , l’ industrialisation et la fiabilité des process d’exploitation Stack technique : Power BI Cloud (SaaS, administration et gouvernance) GCP : BigQuery, IAM, monitoring, déploiement de services Data Terraform (IaC) XL Deploy , intégration et automatisation des déploiements Scripting : Bash / Python / PowerShell Supervision et observabilité (outils du marché ou internes)
Freelance

Mission freelance
Mission Freelance – Data Analyst (Confirmé)

Publiée le
Microsoft Power BI

1 an
400-530 €
Île-de-France, France
Télétravail partiel
Vos missions Participer à la construction et exploitation du socle de données (Datalake GCP / BigQuery). Réaliser des analyses de connaissance utilisateurs : profils, appétences, parcours, fidélisation, impact des fonctionnalités et de la pression publicitaire. Concevoir, mettre à jour et améliorer des dashboards Power BI pour le suivi des objectifs et indicateurs. Contribuer à la valorisation des données au service des équipes internes (éditorial, produit, marketing). Compétences techniques Maîtrise des requêtes SQL avancées . Expérience sur un environnement Cloud (idéalement GCP / BigQuery ). Solide maîtrise de Power BI . Bonne connaissance des bases de données et outils analytics (Piano Analytics, Google Analytics…). Appétence pour les contenus audiovisuels et la data storytelling .
Freelance

Mission freelance
Data Analytics Stream Leader Reporting SAP ECC S/4HANA

Publiée le
SAP

1 an
100-550 €
Île-de-France, France
Description de la mission Dans le cadre d’un projet de conversion SAP, nous recherchons un consultant pour assurer le rôle de Data Analytics Stream Leader Reporting. Rôle recherché : Le volet reporting n’avait pas été cadré initialement. Une ressource a pris le rôle de Stream Leader sur la phase de cadrage Data Analytics : Identification et rationalisation de 400 rapports spécifiques (ABAP encapsulé dans transaction Z) et 500 queries SQ01 ou extractions SE16n / infoset / jointures de tables. Définition pour chacun de la stratégie de migration : remédiation dans S/4HANA, transfert vers la dataplatform AWS ou rationalisation (suppression des doublons et non utilisés). Compétences Demandées Connaissance du traitement de la donnée et de son utilisation, de la collecte et de la modélisation Connaissance de SAP ECC ou S/4HANA Capacité d’analyse de l’existant et de stratégie data Connaissance des outils Pack Office Anglais courant (écrit et oral) : langue du projet Une connaissance du langage SQL serait un plus
Freelance
CDI

Offre d'emploi
Développeur Grid Computing / Cloud Service

Publiée le
Bash
C/C++
Linux

12 mois
Île-de-France, France
Télétravail partiel
Contexte / Objectifs Au sein du pôle Pricing & Analytics de la DSI Global Market & Risks, le consultant interviendra au sein de l’équipe Calculation Core Services en tant que développeur. Le pôle Pricing & Analytics est en charge du développement et de la maintenance des librairies financières et de leur intégration dans différentes applications et sur des environnements distribués. Ces librairies valorisent les produits dérivés des marchés Equity, Commodity et Fixed Income. Le consultant interviendra au sein d'une équipe de développeurs pluridisciplinaires en charge de maintenir des solutions de distribution pour la CIB de Natixis. Le soft principal est celui qui permet de valoriser, à l’aide de la méthode numérique Monte Carlo, les produits dérivés complexes du périmètre Equity. Ce soft est en capable d’adresser des calculs on premise ou sur le cloud (GCP et Qarnot) grâce à des composants Python/Shell/OpenShift/Sqlalchemy. Nous travaillons à l'intégration d'un nouveau soft open-source de distribution des calculs "ArmoniK" La mission consiste à : Accompagner les IT Quants dans l'intégration de leurs librairies de pricing de Datasynapse vers ArmoniK Etre un relais entre l'éditeur Aneo et l'équipe CCS Participer aux POC des applications/libs candidates à une bascule de datasynapse vers ArmoniK Participer à des travaux de R&D : GPU, Allocateur mémoire... A assurer le support de niveau 3 et la maintenance corrective des solutions au catalogue de l’équipe
Freelance

Mission freelance
Chef de projet Expérimenté - IT E-commerce H/F/NB

Publiée le
Confluence
Data analysis
Salesforce Commerce Cloud

218 jours
400-550 €
Île-de-France, France
Télétravail partiel
Au sein de l'équipe IT Europe , nous recherchons un(e) Chef de Projet E-commerce expérimenté pour piloter des missions stratégiques sur les marchés France & UK/Ireland . Missions Principales : 🎯 Coordination des Ventes Flash côté IT pour les marchés FR & UK/IE 🏪 Pilotage des sites de vente au personnel : Run : Gestion des incidents et maintenance opérationnelle Build : Pilotage des évolutions et nouveaux développements Roll out : Déploiement de nouveaux sujets et fonctionnalités 🤝 Interface privilégiée avec le Business Local FR 👥 Collaboration transverse avec les équipes métiers (business, CRM, opérations, paiement, Customer care, finance)
73 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous