Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 1 202 résultats.
Mission freelance
Expert Cybersécurité – GenAI / Azure
Publiée le
AI
Azure
Cybersécurité
3 ans
400-800 €
Fontenay-sous-Bois, Île-de-France
Télétravail partiel
Nous recherchons un Expert Cybersécurité spécialisé GenAI afin d’accompagner une direction sécurité sur les sujets IA, Cloud et protection des données. Assurer la cybersécurité des projets et plateformes GenAI Définir les règles de sécurité autour des technologies : Microsoft 365, Azure, Copilot, Power Platform, Azure ML Produire les dossiers de sécurité : risques, contre-mesures, blueprints, recommandations Accompagner les équipes projets et centres de compétences (architecture, normes, standards) Réaliser des revues de sécurité du code et des livrables techniques Définir des KPI de gouvernance AI et des tableaux de pilotage des risques
Mission freelance
Ingénieur Data / BI
Publiée le
Azure Data Factory
Databricks
Scala
12 ans
400-560 €
Île-de-France, France
Télétravail partiel
Les livrables sont : Code Source Documentation KPI qualité Compétences techniques Databricks - Expert - Impératif Spark SQL - Expert - Impératif Azure Data Factory - Confirmé - Important Scala - Confirmé - Souhaitable Description détaillée Contexte : Le projet Data PUB est le datamart TV qui vise à centraliser et fiabiliser les données nécessaires au pilotage et à l’analyse de l’activité publicitaire TV linéaire. Le datamart se source principalement d’OptiPub, base de référence regroupant les informations issues des différentes applications métiers de la régie publicitaire. Côté restitution, Ouranos fonctionne principalement avec une logique de self-BI : nous mettons à disposition des métiers un univers BusinessObjects et/ou un dataset Power BI standardisé, que les utilisateurs exploitent pour construire leurs propres tableaux de bord et analyses. La finalité est de fournir un socle de données unique et cohérent permettant aux équipes métier d’accéder rapidement à des informations fiables sur l’activité pub TV et de gagner en autonomie dans le reporting. Environnement technique : Azure Data Factory, Databricks, Spark Scala, SQL, Azure DevOps et Power BI. Missions : - Concevoir et développer des pipelines d’ingestion de données via Azure Data Factory. - Développer et optimiser des flux de transformation de données en Spark SQL. - Maintenir des pipelines de traitement de données en Scala (faible part) - Maintenir et développer de nouveaux indicateur de qualité de données - Participer au refactoring du code existant pour améliorer sa performance et sa maintenabilité - Garantir la qualité du code et veiller au respect des normes de développement au sein de l’équipe. - Implémenter des tests unitaires et assurer la fiabilité des solutions. - Maintenir les solutions de monitoring de l’application Digital. Profil recherché : - Profil orienté Analytics Engineer - Maîtrise avérée de Spark SQL - Bonne connaissance en modélisation BI - Expérience confirmée sur l’écosystème Microsoft Azure (Data Factory, Databricks, Azure DevOps). - Bonne connaissance de Git et des pratiques DevOps. - Sens de la communication, force de proposition et capacité à travailler en équipe. - Rigoureux, attaché aux bonnes pratiques de développement et à la qualité du code. Ingenieur Data 5-8 ans Définition du profil Il est garant du bon fonctionnement et de la disponibilité des données dont il a la responsabilité. Il assure la prévention des dysfonctionnements des données et contribue à la bonne utilisation de celles-ci
Mission freelance
Data Engineer / Data Analyst Python
Publiée le
Analyse
KPI
Python
3 ans
320 €
Marseille, Provence-Alpes-Côte d'Azur
🔍 Nous recherchons un(e) Data Analyst / Data Engineer pour renforcer une équipe existante et accompagner la transformation digitale et la gestion des données réglementaires du département Chartering , dans un contexte fortement exposé aux enjeux de conformité FUEL EU . 1) Suivre et agir pour la transformation digitale et la gestion/collecte des données réglementaires du département Chartering (état des lieux et mise en place de process) 2) Collecter les informations nécessaires pour le calcul de la compliance FUEL EU et tenir à jour les bases de données spécifiques pour ces calculs et leurs couts 3) Elaborer et comparer les différentes options pour diminuer l’exposition réglementaire 4) Contrôler et challenger les informations et projections communiquées par les armateurs et les lignes exploitantes 5) Mettre en place des outils et KPI’s permettant des prises de décisions opérationnelles 6) Négocier / coordonner avec les armateurs le timing et la nature des mesures pour compenser ou neutraliser les déficits réglementaires 7) Présenter et partager les résultats avec les lignes, plateau IMO, départements/métiers concernés
Offre d'emploi
Lead Technical Architect – Environnement Finance de Marché (H/F)
Publiée le
Big Data
Finance
Time series
3 ans
46k-58k €
400-550 €
Île-de-France, France
Télétravail partiel
🎯 Contexte Un département stratégique dédié à la recherche quantitative en finance de marché recherche un Lead Technical Architect pour renforcer ses équipes. La mission s’inscrit au cœur d’un environnement global, à forte intensité data et compute, travaillant en étroite collaboration avec des équipes Quant , IT , Research et Ops . Vous interviendrez sur des plateformes critiques liées au pricing , au risk management , aux time-series data et à la performance des systèmes de calcul. 🛠 Vos responsabilités Au sein du groupe en charge des infrastructures compute et market data, vous aurez pour missions : Repenser et optimiser l’architecture des services Compute et Histo . Améliorer la scalabilité , la performance et la résilience de l’infrastructure grid. Fournir des recommandations structurantes sur la stack haute disponibilité. Rewriting / refactoring de composants techniques ne répondant pas aux exigences de performance. Participer à la définition des frameworks pour les services de market data haute demande. Travailler au quotidien avec les équipes quant, recherche et ingénierie.
Offre d'emploi
DATA ANALYST CRM MICROSOFT DYNAMICS 365 H/F
Publiée le
50k-75k €
Île-de-France, France
Télétravail partiel
Dans le cadre du déploiement progressif d’un nouveau CRM Microsoft Dynamics 365 pour un acteur industriel majeur, vous intervenez en tant que Data Analyst senior pour piloter la qualité et la cohérence des données clients/tiers à intégrer dans le nouveau SI. Votre objectif : garantir l’alignement des données issues de sources multiples (SAP CRM, SAPi, TPA, Sales, etc.) et assurer des imports fiables et conformes aux exigences de mise en service 2026. Missions principales Lot 1 Identifier et analyser les données clients/tiers à reprendre depuis SAP CRM (~1500 fiches) Détecter les doublons, incohérences et manques via analyses croisées Produire les fichiers d’import CRM (créations / modifications) au format attendu Documenter les actions correctives nécessaires sur les bases connexes (TPA, SCORE, SAPi) Suivre les indicateurs de couverture, cohérence et qualité Lot 2 Approfondir l’analyse sur un périmètre élargi (CRM GE, DUNS, MDM, etc.) Créer les fichiers d’import avec enrichissement complet (zoning, scoring, contrôle export…) Piloter l’alignement multi-systèmes sur les fiches clients/tiers Alerter sur les risques projet, proposer des plans d’action
Offre d'emploi
Chef de projet DATA (H/F)
Publiée le
50k-55k €
Nancy, Grand Est
Télétravail partiel
Intégré à une équipe pluridisciplinaire, vos missions seront les suivantes : - Contribuer à la mise en place de solutions DATA et BI chez les clients (du cadrage au déploiement) - Rédaction de cahier des charges et études de faisabilité - Suivi d'avancement du projet, du budget et du planning, - Rédaction ou validation de documents d'analyse fonctionnelle - Formation utilisateurs - Être garant de la qualité des livrables
Mission freelance
98710/Data Engineer Nantes - Kafka - DBT - Python - Trino
Publiée le
Apache Kafka
DBT
Python
12 mois
400-420 £GB
Nantes, Pays de la Loire
Télétravail partiel
Data Engineer Nantes - Kafka - DBT - Python - Trino L'objectif de la mission est de mettre en place des nouveaux produits accompagnant la transition technologique de la plateforme et des pratiques associées tout en accompagnant la montée en compétence de l'équipe sur les outils du socle, notamment DBT, Kafka, KafkaCOnnect, Trino - Concevoir, implémenter et documenter des pipelines d'ingestion et de transformation (DBT, Kafka Connect, Trino). - Mettre en place des modèles de données optimisés et cohérents avec les standards du socle. - Participer à la migration et l'optimisation des traitements depuis Cloudera/Spark vers les nouvelles technologies (Kafka / Trino / Iceberg). - Intégrer les développements dans la chaîne CI/CD, en lien avec les pratiques de déploiement du socle. Participer à la gestion des habilitations et du contrôle des accès, en cohérence avec les principes de sécurité et conformité RGPD. - Contribuer à la mise en place d'outils d'observabilité (logs, monitoring, audit des accès, performance des jobs). - Accompagner les membres de l'équipe dans la prise en main des outils DBT et Kafka. - Partager les bonnes pratiques de développement, de testing et de gestion du code (revues, documentation, mentoring). - Être force de proposition sur l'amélioration continue du socle et des workflows de développement. - Travailler en étroite collaboration avec le Tech Lead, les PO et les Data Stewards pour assurer la cohérence des modèles et des processus. - Participer activement aux rituels agiles (daily, sprint planning, review, rétrospective). Les activités confiées supposent la maîtrise de : - Kafka - DBT - Python - Trino
Mission freelance
CONSULTANT TECHNQUE BI DATA EXPERT SSIS SQL SERVEUR AZURE DEVOPS
Publiée le
Azure
BI
DevOps
24 mois
300-600 €
Nanterre, Île-de-France
Télétravail partiel
CONSULTANT BI DATA EXPERT SSIS SQL SERVEUR AZURE DEVOPS Expérience ciblée : PLUS DE 10 ANS Compétences impératives - Compétences techniques : Conception / Modélisation BI (Flux & modèles de données) Expériences significatives sur la mise en place complète de projets BI Data ETL (conception, modélisation, réalisation) et sur le RUN en environnement Full Microsoft (SSIS, SQL Server : Modélisation, procédures stockées, optimisation SQL, etc.). Connaissance et mise en œuvre de la suite Microsoft AZURE DEVOPS (Git, Board Agile, Pipeline de déploiement CI/CD). Anglais professionnel courant - Compétences organisationnelles Expérience significative sur l'implémentation de projets BI d'intégration de données (datawarehouse & datamarts) Avoir la capacité de mener des mini-projets en autonomie tout en étant accompagné par un(e) maitrise d'ouvrage et/ou le métier. Capacité à s'organiser, à s'adapter sur les priorités, à synthétiser l'état d'avancement de ses activités et à remonter les alertes si besoin. - Compétence(s) appréciée(s) : Outils de reporting BI : TABLEAU, IBM Cognos, Power BI Habitué aux relations avec des partenaires offshore Certifications sur la suite MSBI - Descriptif détaillé de la mission : Assurer le RUN des applications existantes (ETL, Bases de données, support niveau 3) Comprendre les enjeux métier, problématiques à résoudre et opportunités à concrétiser. Echanger et challenger les besoins métiers avec les équipes AMOA BI en tenant compte des contraintes techniques. Proposer, concevoir et spécifier des solutions techniques viables, évolutives et tenant compte de l'existant. Rédaction des documents techniques (spécification techniques, document d'exploitation…etc). Conseiller, proposer des axes d'amélioration, alerter si besoin. - Environnement technique de la mission : Socle Data : SSIS, SQLServer (2016), procédures stockées, Azure DevOps (Git, Board Agile, Pipeline de déploiement CI/CD) Reporting : COGNOS BI 10.2 et 11 & Tableau Date début de mission : ASAP Durée estimée de la mission : longue - 3 mois (renouvelables)
Mission freelance
Data Engineer cloud Google (GCP)
Publiée le
API
Google Cloud Platform (GCP)
Python
18 mois
100-500 €
Paris, France
Télétravail partiel
CONTEXTE : Notre stack technique est principalement constitué de Python, Spark, SQL, BigQuery, Dataplex pour la qualité des données, Airflow pour l’orchestration des traitements et Terraform ainsi que Terragrunt pour l’industrialisation. La stack inclut aussi d’autres services de la Google Cloud Platform. mission de l’ équipe 1. Déployer les datasets normés sur un ou plusieurs des data domain 2. Accompagner les utilisateurs des datasets normés dans leurs usages 3. Mettre en place le contrôle qualité sur ces datasets MISSIONS : Dans un premier temps, la prestation consiste à : • Concevoir et réaliser les contrôles qualité sur les données de la plateforme Data, en exploitant Dataplex Universal Catalog • Industrialiser ces contrôles grâce à Terraform et Terragrunt • Concevoir et réaliser les indicateurs nécessaires au pilotage de la qualité des données • Concevoir et réaliser la remontée de ces indicateurs dans notre data catalog Collibra En marge de l’objectif de livraison de livraison précédent et en interaction avec les membres de l’équipe, la suite de la mission consiste à : • Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l’équipe • Participer aux initiatives de gouvernance des données en développant les contrôles de qualité des données • Construire et maintenir de pipelines data robustes et scalables • Accompagner les membres de l’équipe dans l’exploitation et le requêtage des données • Organiser et structurer le stockage des données • Mettre en place et maintenir des infrastructures scalables capable de répondre aux besoins et à l’accroissement rapide du volume de données • Construire et maintenir les workflows de la CI/CD • Partager avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur • Assurer l’évolutivité, la sécurité, la stabilité des environnements • Participer aux différentes instances des data ingénieurs • Contribuer et veiller à la mise à jour de la documentation • Faire de la veille technologique active dans le domaine Expertises demandées pour la réalisation de la prestation : • Au moins 5 ans d’expérience en tant que Data Ingénieur dans un environnement data • Compétences solides en data : structures de données, code, architecture • Expériences dans la conception et la réalisation de pipelines data • Expériences dans un environnement du cloud Google (GCP) • Expériences intégrant BigQuery et Dataplex Universal Catalog • Expériences intégrant les langages Python et SQL • Expériences intégrant Spark • Expériences intégrant des flux avec l’API Collibra • Expériences intégrant Terraform et Terragrunt • Expériences intégrant Gitlab et Gitlab CI/CD • Expériences intégrant les méthodologies Agile : Scrum ou Kanban • Capacité à vulgariser et à communiquer sur des aspects purement techniques • Junior : moins de 3 ans d’expérience significative dans le type d’expertise demandé • Confirmé : 3 à 5 ans d’expérience significative dans le type d’expertise demandé • Sénior : plus de 5 ans d’expérience significative dans le type d’expertise demandé
Offre d'emploi
Data Analyst Java Spark GCP (H/F)
Publiée le
Java
30k-35k €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Vos missions ? En tant que Data Analyst Java Angular (H/F), vous serez en charge des missions suivantes: - Le développement des tâches qui vous sont assignées en respectant les spécifications - Le Code Review avec les autres développeurs du projet - L'écriture de tests unitaires et fonctionnels durant vos développements - L'industrialisation de vos développements via notre PIC (Jenkins) - La participation au Daily Scrum Meeting, Sprint Revue, Rétro de Sprint et Planning Poker La stack technique : - Python Spark GCP - BDD : SQL (MySQL, PostgreSQL, SQLServer) et/ou NoSQL (MongoDB, Cassandra, Redis) - Outils : Git, Jenkins, Jira
Mission freelance
Reporting Developer – Data & Analytics (VBA - Excel)
Publiée le
Microsoft Excel
Microsoft Power BI
VBA
3 mois
Paris, France
Objectif de la mission Intervenir en tant que Reporting Developer pour concevoir, maintenir et optimiser des solutions de reporting et de business intelligence , principalement basées sur Excel et VBA , afin de soutenir les processus de pilotage de la performance. La mission couvre l’ensemble du cycle de la donnée : collecte, structuration, consolidation, automatisation, restitution et qualité. Principales responsabilités Développement & automatisation des reportings Analyser et intégrer plusieurs structures et sources de données Développer des solutions de reporting automatisées sous Excel VBA Concevoir des templates de collecte et de consolidation Produire des tableaux de bord de pilotage et rapports standards pour le management Processus métier couverts Performance Management (exercices trimestriels et semestriels) Plan stratégique annuel (soumission et revues) Exercices d’auto‑évaluation qualitative Consolidation trimestrielle des données Europe et International Maintenance & optimisation des outils existants Maintenir et faire évoluer des outils Excel VBA déjà en production Améliorer la robustesse, la performance et la lisibilité des reportings Rationaliser certains outils de suivi d’activité (ex. santé, portefeuille produits) Qualité des données & fiabilité Garantir la qualité, la cohérence et la traçabilité des données Réaliser les tests et sécuriser la non‑régression Contribuer aux standards requis pour les besoins de contrôle et d’audit
Offre d'emploi
DATA ANALYST CYBERSÉCURITÉ & IAM (H/F)
Publiée le
Cybersécurité
IAM
KPI
3 ans
52k-63k €
450-550 €
Île-de-France, France
Télétravail partiel
Contexte Dans un contexte de renforcement du pilotage cyber et de la gouvernance des identités, nous recherchons un Data Analyst spécialisé Cybersécurité & IAM . Le poste est orienté data, reporting et indicateurs , avec une forte interaction entre les équipes Cyber, IAM, Risques et IT . 👉 Ce rôle n’est pas un poste d’expert applicatif IAM , mais un profil Data appliqué aux enjeux de cybersécurité. Objectifs du poste Produire, fiabiliser et automatiser les indicateurs Cyber & IAM (KPI / KRI) Industrialiser le reporting sécurité à destination des équipes opérationnelles et du management Améliorer la qualité, la cohérence et l’exploitabilité des données de sécurité Missions principales Data & Reporting Produire et automatiser les KPI / KRI Cyber & IAM Concevoir, maintenir et industrialiser les dashboards Power BI Exploiter et croiser les données issues de différentes sources (IAM, logs, référentiels, outils cyber) Mettre en place des chaînes de traitement data (SQL / Python) Qualité & Gouvernance de la donnée Mettre en œuvre des contrôles de qualité de données Identifier les incohérences, anomalies et axes d’amélioration Documenter les indicateurs, règles de calcul et sources de données Analyse & Interaction métier Analyser les données d’habilitations, de logs et de référentiels IAM Challenger les besoins exprimés par les équipes Cyber, IAM et Risques Traduire des enjeux sécurité en indicateurs lisibles et actionnables Travailler en transverse avec les équipes Data, Cyber et IT Compétences techniques Data & BI Power BI (modélisation, DAX, industrialisation) SQL (requêtes complexes, optimisation) Python (data analysis, automatisation) Data Management Qualité de données Structuration et normalisation des datasets Sources Cyber / IAM Logs de sécurité Données d’habilitations et référentiels IAM Compréhension des concepts IAM (identités, rôles, droits, provisioning) Compétences fonctionnelles Bonne compréhension des enjeux cybersécurité et risques Capacité à définir et structurer des KPI / KRI Aisance dans les environnements complexes et multi-interlocuteurs
Mission freelance
TECH LEAD DATA / LEAD DATA ENGINEER
Publiée le
AWS Cloud
DBT
Snowflake
8 mois
600-700 €
Paris, France
Télétravail partiel
Tech Lead Data / Lead Data Engineer – Périmètre Finance Mission principale Piloter techniquement une Feature Team Data orientée Finance, garantir la qualité, la fiabilité et la livraison des produits Data/Analytics, tout en assurant le leadership technique et humain de l’équipe. Objectifs à court/moyen terme Redynamiser et structurer l’équipe Réduire les dépendances individuelles et sécuriser le RUN Auditer l’existant et réduire la dette technique Reprendre et intégrer de nouveaux produits Data stratégiques Accompagner des initiatives à fort enjeu décisionnel Intégrer un nouveau Product Owner STACKS OBLIGATOIRES : AWS / SNOWFLAKE / DBT / AIRFLOW
Mission freelance
Data Engineer senior/expert DBT ET IICS (Informatica Intelligent Cloud Services) /sa
Publiée le
DBT
Informatica
Snowflake
6 mois
400-480 £GB
Clipperton Island, France
Télétravail partiel
Data Engineer senior/expert DBT ET IICS (Informatica Intelligent Cloud Services) Bordeaux pour diriger la migration d'IICS vers DBT sur Snowflake. Connaissance approfondie d'IICS et de dbt : maîtrise parfaite des deux outils. Spécialisation en validation : expérience dans la vérification de la parité des données 1:1 à l'aide d'outils tels que dbt_audit_helper.) Stack : Snowflake, dbt, IICS et Airflow (pour l'orchestration). 5 à 10 ans d’expérience Anglais obligatoire Démarrage : asap Durée : min 3 mois Localisation : Bordeaux de préférence sinon France L'équipe recherche un data Engineer senior pour diriger la migration d'IICS vers DBT sur Snowflake. Le candidat idéal doit jouer le rôle de « traducteur » : il doit être capable de lire des mappages IICS hérités complexes (logique de rétro-ingénierie) et de les refactoriser en modèles SQL DBT modulaires et propres. Compétences requises : Connaissance approfondie d'IICS et de dbt : maîtrise parfaite des deux outils. Spécialisation en validation : expérience dans la vérification de la parité des données 1:1 à l'aide d'outils tels que dbt_audit_helper.) Stack : Snowflake, dbt, IICS et Airflow (pour l'orchestration).
Mission freelance
Data Analyst - ETL Informatica - 3/4 ans d'XP - 1208
Publiée le
10 mois
350-400 €
Niort, Nouvelle-Aquitaine
Télétravail partiel
Contexte Notre client dans le secteur de l'assurance recherche un Data Analyst spécialisé Informatica pour intervenir sur les flux ETL alimentant les univers de reporting (en appui au besoin BO existant). Besoin : Analyse et optimisation des jobs Informatica (extraction, transformation, chargement) Support aux évolutions de reporting et maintenance des flux data Basé sur site à Niort (présence régulière obligatoire) Responsabilités ETL Informatica (70%) Analyse, développement et optimisation de workflows Informatica Maintenance des sessions/mappings existants Gestion des incidents flux et reprise des traitements en erreur Paramétrage des sources/cibles (Oracle, SQL Server, fichiers) Data Analysis (30%) Contrôle qualité des données extraites/transformées Analyse des volumes/performances des flux ETL Support aux utilisateurs métiers sur les données alimentant les rapports Documentation des workflows et procédures ETL
Mission freelance
ARCHITECTE DATA / POWER BI & AZURE
Publiée le
Azure
BI
24 mois
275-550 €
Massy, Île-de-France
Télétravail partiel
Nous recherchons un(e) DATA ARCHITECTE POWER BI / AZURE Dans le respect de la stratégie IT établie par le DSI, votre mission consiste à : Responsabilités : • Analyser les besoins fonctionnels. • Localiser les données de production. • Déterminer les spécifications techniques. • Définir l'architecture. • Modéliser les datawarehouse (entrepôts de données) et les datamarts (magasins de données) dédiés à une fonction particulière dans l'entreprise. • Accompagner le client dans la réalisation du projet. • Maintenir les sources de données à jour • Mettre à disposition les données aux métiers • Superviser les flux de données et en contrôler l'intégrité
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
1202 résultats
Contrats
Lieu
1
1
France
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois