Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 1 223 résultats.
Freelance

Mission freelance
Senior Data Engineer Python - AWS Cloud F/H

Publiée le
AWS Cloud
Databricks
PySpark

6 mois
550 €
Paris, France
Télétravail partiel
Notre client dans le secteur Énergie et ressources naturelles recherche un Senior Data Engineer Python – Environnement AWS Cloud H/F Descriptif de la mission: Objectifs et livrables L’entreprise recherche une prestation de Senior Data Engineer externe, curieux(se) et engagé(e), pour rejoindre une équipe data. Le profil externe sera responsable de : - Construire des data pipelines scalables - Concevoir des modèles de données robustes - Délivrer des solutions data de haute qualité dans un environnement collaboratif Missions / Responsabilités principales • Collaboration métier - Travailler en étroite collaboration avec les parties prenantes métier pour comprendre les besoins - S’assurer que les produits data répondent aux objectifs de l’organisation • Modélisation et architecture de données - Concevoir et implémenter des modèles de données robustes, scalables, maintenables et facilement consommables par d’autres produits et par les data analysts - Optimiser l’architecture data et les solutions de stockage pour la performance, le coût et l’accessibilité - Maintenir des formules de calcul de données complexes • Pipelines et traitements de données - Construire et maintenir des pipelines de données scalables pour des processus ETL/ELT - Assurer un flux de données fiable et efficient à travers les systèmes - Développer des solutions data en Python pour manipuler, transformer et préparer les workflows d’ingestion de données • Environnement Cloud et outillage - Utiliser les services cloud AWS (ex. Lambdas, Step Functions, S3, RDS, etc.) pour l’orchestration, le traitement et la livraison de données - Exploiter Databricks et pySpark (Unity Catalog…) pour les traitements distribués - Collaborer avec les équipes backend pour aligner les intégrations de services et les implémentations techniques • Qualité, performance et industrialisation - Participer aux revues de code, discussions de design et activités de planification logicielle - Mettre en place, monitorer et tester les standards de qualité des données pour garantir précision, cohérence, fiabilité et performance optimale des actifs data - Prendre en charge et faire preuve d’initiative sur la qualité des données, la performance des systèmes et l’amélioration continue de l’infrastructure data Profil et compétences recherchées Compétences techniques requises - Python (pandas, pydantic, tests unitaires, linting, formatting…) : niveau 4/4 - GitHub (GitHub Actions – workflows CI/CD) : niveau 2/4 - Plateforme AWS Cloud (Lambdas, Step Functions, S3, RDS…) : niveau 3/4 - Databricks / pySpark (Unity Catalog…) : niveau 2/4 - Connaissances de base en Terraform ou forte appétence pour l’apprendre : niveau 1/4 - Bases de données SQL : PostgreSQL, clients SQL et outils d’administration (ex. DBeaver) : niveau 4/4 - Compétences linguistiques anglais et français : niveau 4/4 (bilingue / courant dans les deux langues) Mindset / état d’esprit - Agilité - Envie de comprendre le business et ses valeurs fondamentales - Curiosité technique et implication dans des solutions transverses - Forte orientation résolution de problèmes - Engagement dans l’apprentissage continu et l’adaptation aux technologies en évolution - Participation et contribution aux activités et projets du chapitre data engineering Soft skills - Communication claire en français et en anglais - Attention au détail - Capacité à travailler de manière autonome et en équipe - Forte exigence sur la qualité du code, la documentation et la collaboration - Idéalement, capacité à vulgariser la technique pour communiquer avec les équipes métier sur des sujets technologiques Détails de la mission - Date de démarrage souhaitée : 16/02/2026 (au plus tard) - Localisation : Paris - Modalités de travail : • 2 jours par semaine en télétravail • 3 jours par semaine sur site à Paris Planning et étapes de sélection - Clôture de la consultation / date limite des propositions : 18/01/2026 - Envoi des tests techniques (codingame avec proctoring) : 19/01/2026 • À compléter par les profils dans les 72h après réception, avant le vendredi 23/01/2026 - Soutenances techniques : entre le 27/01/2026 et le 02/02/2026 Compétences demandées : - AWS Cloud platform : niveau Confirmé - SQL Databases : niveau Expert - PySpark : niveau Avancé - Databricks : niveau Avancé - GitHub : niveau Avancé - Terraform : niveau Élémentaire - Python : niveau Expert Langue - Anglais : niveau Bilingue - Français : niveau avancé (équivalent bilingue, requis pour la communication et la documentation) Compétences / Qualités indispensables: Français et anglais courants, Python : niveau Expert AWS Cloud platform : niveau Confirmé, SQL Databases : niveau Expert, PySpark : niveau Avancé, Databricks : niveau Avancé, GitHub : niveau Avancé, Terraform : niveau Élémentaire,
Freelance

Mission freelance
Ingénieur Automatique - Intégration capteurs & bancs de tests

Publiée le
Big Data
C/C++
Linux

6 mois
200-310 €
Paris, France
Télétravail partiel
Contexte de la mission Vous rejoindrez l'équipe en charge de l'intégration des capteurs. Cette équipe pluridisciplinaire au sein du département Automatique : prototype et valide l'intégration des capteurs dans les différents produits, en collaboration avec les départements Mécanique et Électronique ; développe des méthodes de calibration innovantes, en collaboration avec l'équipe Bancs de Tests. Nous recherchons un candidat rigoureux, passionné, curieux, créatif, qui aime travailler dans un environnement dynamique et pluridisciplinaire, et qui n’a pas peur de s’attaquer à des challenges techniques nouveaux. Le candidat doit être diplômé d'une école d'ingénieur ou d'un master avec specialisation en Automatique, Mécatronique, Robotique ou similaire. Une experience professionnelle dans le domaine de l'automatique des systèmes embarqués ou dans la validation de capteurs MEMS est un gros plus. Objectifs et livrables Votre mission sera de contribuer au développement et à l'amélioration continue de nos produits en participant à l’ensemble des responsabilités de l’équipe. Vos missions : 1) Conception mécanique et électronique : Participer au design mécanique et électronique. S'assurer du respect des spécifications. 2) Validation du design & traitement des données des capteurs : Réaliser des tests de caractérisation des capteurs et de leur intégration. Prototyper, concevoir et documenter les méthodes de validation et calibration des capteurs. 3) Industrialisation des méthodes de validation et calibration & suivi de production : Développer et maintenir le code de test (C++, Python). Développer de nouveaux outils de tests. Industrialiser les méthodes de validation et calibration des capteurs. Analyser statistiquement les logs de production pour rejeter les valeurs aberrantes et détecter des problèmes de conception ou de production. Ces tâches nécessitent de : Rédiger des specifications techniques liées aux fonctions développées Réaliser un reporting régulier : documentation de résultats et méthodes, présentations au reste de l'équipe Respecter le planning projet Compétences demandées Compétences Python : Avancé Tests sur banc d'essai : Confirmé Big Data : Élémentaire Capteurs MEMS : Confirmé C++ : Avancé Automatique : Confirmé LINUX : Élémentaire Traitement du signal : Confirmé MATLAB : Confirmé Langues Anglais : Courant
Freelance

Mission freelance
Chef de projet senior Data / Automatisation & IA (H/F)

Publiée le
Automatisation
Business Analyst
Google Workspace

3 mois
Paris, France
Télétravail partiel
Contexte de la mission Dans le cadre d’une démarche de transformation digitale au sein d’un environnement e-commerce, nous recherchons un Chef de projet senior Data / Automatisation & IA disposant d’une forte culture Data et Business Analysis . La mission s’inscrit dans une logique d’amélioration continue des processus métiers, avec un focus sur l’automatisation, l’exploitation de la donnée et l’intégration de solutions d’intelligence artificielle au service de la performance opérationnelle. Objectifs de la mission Identifier, cadrer et piloter des opportunités à forte valeur ajoutée autour de l’automatisation et de l’IA Accompagner les métiers dans la définition et la mise en œuvre de solutions data-driven Garantir la cohérence des solutions avec l’écosystème technologique existant Responsabilités principales Identifier et prioriser des opportunités de transformation digitale (automatisation, IA, data) Recueillir, analyser et formaliser les besoins métiers en collaboration avec les parties prenantes Réaliser le cadrage fonctionnel et piloter les projets de bout en bout Coordonner les équipes internes et externes impliquées (métiers, IT, partenaires) Traduire les données en insights actionnables et recommandations stratégiques Concevoir et suivre des cas d’usage concrets autour de l’automatisation et de l’IA Veiller à l’alignement des solutions avec les standards internes et l’écosystème Google Profil recherché Expérience confirmée (7 à 10 ans) en Data Analysis / Business Analysis , avec une évolution vers des rôles de gestion de projets digitaux Forte appétence pour les sujets d’automatisation, d’IA et de transformation des processus métiers Excellente maîtrise de l’écosystème Google : Workspace AppSheet Looker / Looker Studio Solutions IA (Vertex AI, Gemini, Google AI Studio) Solide capacité à cadrer des besoins métiers complexes et piloter des projets transverses Très bonnes compétences en communication et en conduite du changement Esprit analytique, orienté résultats Anglais professionnel requis Modalités Localisation : Massy (91) Télétravail : 2 jours par semaine Démarrage : Début janvier 2026 Durée : 3 mois, renouvelable (jusqu’à 15 renouvellements possibles)
Freelance

Mission freelance
Data Analyste Senior

Publiée le
Microsoft Power BI
Piano Analytics
SQL

210 jours
Paris, France
Télétravail partiel
Contexte et définition du besoin Une grande Direction Data rattachée à la Direction du Numérique d’un acteur majeur du secteur médias / contenus numériques recherche un Data Analyste Senior pour soutenir la transformation data-driven et le pilotage des performances de ses plateformes numériques. La mission vise à accompagner les équipes produit et éditoriales sur l’analyse de la performance des contenus jeunesse dans un contexte de forte évolution des usages digitaux. 2. Prestations attendues Analyse et reporting Recueil et formalisation des besoins auprès des équipes internes. Définition des sources de données et rédaction des cahiers des charges à destination des Data Engineers. Conception, automatisation et maintenance des dashboards Power BI . Itérations et validations en mode agile. Accompagnement et pilotage Coaching et acculturation data des équipes internes. Définition, harmonisation et suivi des KPIs transverses. Contribution au déploiement et à l’amélioration du tracking multi-supports (Web, App, TV). Formalisation des besoins analytics en lien avec les équipes produit et techniques. Analyse des usages Analyse des audiences et comportements utilisateurs via Piano Analytics / AT Internet , Nielsen , eStat Streaming . Analyse des parcours et de l’expérience utilisateur avec ContentSquare . Collaboration avec l’équipe Études pour les analyses vidéo et usage. 3. Compétences recherchées Compétences techniques Maîtrise confirmée de : Piano Analytics / AT Internet , eStat Streaming, Nielsen. Expertise Power BI. Très bonne connaissance SQL. Connaissance GCP, Power Automate. Outils : Excel, PowerPoint, Jira, Confluence, GetFeedback/Usabilla. Compétences solides en tracking multi-supports. Expérience en analyse UX avec ContentSquare. Compétences fonctionnelles Capacité à structurer des KPIs, piloter des sujets analytics et produire des reporting fiables. Expérience en coaching et accompagnement data. Gestion de projet.
Freelance

Mission freelance
Data Analyste Géolocalisation (GPS)/jab

Publiée le
GPS

6 mois
Paris, France
Télétravail 100%
Data Analyste Géolocalisation (GPS) - Démarrage : ASAP - TJM : Non déterminé - Full Remote : possible 1 Déplacement à prévoir au début : Paris Mission : Nous recherchons un profil ayant EXP sur des problématiques GPS Rapprochement avec la voirie Détection des points aberrants et correction Rapprochement avec les adresses distribuées Détection des arrêts multi moyen de locomotion => Faire de l’analyse des parcours entre différentes journées. Ces expériences sont indispensables. Compétences requises : Connaissance de DataBricks souhaitable mais non indispensable
CDI
CDD

Offre d'emploi
Data Analyst Confirmé Mission Support & Gestion Backlog-Sophia Antipolis(H/F)

Publiée le
Backlog management
Data analysis
KPI

1 an
Sophia Antipolis, Provence-Alpes-Côte d'Azur
Contexte de la mission Dans le cadre d’un renforcement des activités RUN, nous recherchons un Data Analyst Confirmé , immédiatement opérationnel, pour accompagner le Responsable Support dans le traitement durable du backlog et l’amélioration des procédures. 🎯 Objectifs et périmètre de la mission Gestion du backlog Redmine : Analyse et priorisation des tickets Prise en charge des actions nécessaires Clôture des tickets antérieurs au 01/01/2024 (hors périmètre 508) Assainissement et stabilisation du backlog Documentation & Procédures : Rédaction et formalisation des procédures de résolution Fiabilisation et homogénéisation du traitement RUN Évolution des outils : Participation à la réflexion sur une possible migration Redmine → Jira Analyse d’impact, prérequis, organisation cible Gestion des accès : Création et gestion des comptes Redmine Traitement des demandes en attente (85 demandes dont 37 déjà finalisées) Autres contributions : Support aux travaux de migration ERMV2 Périmètre complémentaire possible sur le backlog Jira CNAM ⚙️ Compétences techniques Data Analyst – Confirmé Scripting – Confirmé (souhaité) Développement – Junior (souhaité) Maîtrise des outils de ticketing (Redmine, Jira) Compréhension des environnements RUN / support Capacité à manipuler, structurer et exploiter les données pour produire des KPI 📊 Livrables attendus Tableau de bord KPI Backlog Procédures de support client formalisées Backlog assaini, priorisé et contrôlé
Freelance

Mission freelance
Concepteur Développeur IBM DataStage

Publiée le
BI
Data governance
ETL (Extract-transform-load)

12 mois
500-550 €
Île-de-France, France
Télétravail partiel
Contexte Dans le cadre d’un projet décisionnel au sein du secteur bancaire , le Concepteur Développeur IBM DataStage intervient sur l’alimentation des bases DRE et Datamart . Il participe à la conception, au développement et à la maintenance des flux ETL, et accompagne les équipes BI dans l’écriture et l’optimisation des scripts SQL. 📍 Lieu de mission : Joinville-le-Pont Intitulé du poste Concepteur Développeur ETL IBM DataStage Missions principales Concevoir, développer et maintenir les traitements ETL sous IBM DataStage Alimenter les bases de données décisionnelles ( DRE et Datamart ) Analyser les besoins métiers et techniques liés à l’alimentation des données Optimiser les flux de données (performances, volumétrie, qualité) Rédiger et maintenir la documentation technique Accompagner les développeurs BI dans : l’écriture et l’optimisation des scripts SQL la compréhension des modèles de données Participer aux phases de tests, recettes et mises en production Gérer les incidents et assurer le support sur les chaînes d’alimentation Environnement technique ETL : IBM DataStage Bases de données : Oracle / DB2 / SQL Server Langages : SQL avancé Décisionnel / BI : Datamart, DRE Systèmes : Unix / Linux Outils : ordonnanceur, outils de supervision, versioning Compétences requises Techniques Maîtrise confirmée de IBM DataStage Très bonnes compétences en SQL (requêtes complexes, optimisation) Connaissance des architectures décisionnelles Compréhension des flux ETL/ELT Sensibilité aux problématiques de performance et de volumétrie Fonctionnelles Compréhension des enjeux data et BI en environnement bancaire Capacité à traduire un besoin métier en solution technique
Freelance
CDI
CDD

Offre d'emploi
Data Engineer Snowflake / AWS / Informatica / Qlik (H/F)

Publiée le
AWS Cloud
Snowflake

1 an
40k-65k €
400-550 €
Île-de-France, France
Télétravail partiel
Data Engineer Snowflake / AWS / Informatica / Qlik (H/F) Contexte Dans le cadre de la croissance de notre pôle Data & Analytics , nous recherchons un Data Engineer pour intervenir sur des plateformes data cloud modernes chez nos clients grands comptes. Vous évoluerez dans des environnements Snowflake, AWS, Informatica et Qlik , au cœur de projets à fort impact métier. Vos missions En tant que Data Engineer / Consultant Data , vous serez amené(e) à : Concevoir et développer des architectures data cloud sur AWS Mettre en place et optimiser des data warehouses Snowflake Développer et maintenir des flux ETL/ELT avec Informatica Participer à la modélisation des données (Data Vault, étoile, snowflake) Alimenter les outils de data visualisation et BI (Qlik Sense / QlikView) Garantir la qualité, la performance et la gouvernance des données Collaborer avec les équipes BI, analytics et métiers Environnement technique Cloud : AWS (S3, Redshift, Lambda, Glue…) Data Warehouse : Snowflake ETL / Intégration : Informatica BI / Dataviz : Qlik Sense, QlikView Langages : SQL (indispensable), Python (apprécié) Méthodologie : Agile / Scrum
Freelance
CDI
CDD

Offre d'emploi
Directeur de Projet Senior Réversibilité Entrante - Ivry sur seine(H/F)

Publiée le
Back-end
Front-end
Pilotage

1 an
40k-45k €
400-530 €
Ivry-sur-Seine, Île-de-France
🎯 Contexte Nous recherchons un Directeur de Projet Senior pour piloter la réversibilité entrante ANAH au sein d’une Business Unit spécialisée dans les activités de back-office numérique, front-office (téléphonie, mail, live chat) et dématérialisation documentaire. Le projet inclut des évolutions techniques, organisationnelles et fonctionnelles, avec un pilotage renforcé des équipes techniques, fonctionnelles et de production. 🛠 Missions principales Piloter la réversibilité entrante ANAH et garantir la bonne exécution des engagements projet. Coordonner les équipes techniques, fonctionnelles, production et DSI . Assurer le pilotage complet des phases : conception → build → run. Gérer le planning , les risques , le budget et la facturation (interne/externe). Superviser les évolutions techniques (ex : portail Power BI, outil omnicanal). Préparer la transition vers le RUN : documentation, processus, pilotage opérationnel. Produire les reportings projet et la météo projet . Garantir l’application des méthodes et processus internes de gestion de projet. ⚙️ Compétences requisesTechniques Direction de projet – Expert (impératif) Connaissance approfondie des SI Back & Front Office – Confirmé (important) Pilotage / Méthodologie Expérience confirmée en pilotage de projets complexes (multi-équipes, multi-métiers) Gestion contractuelle, budgétaire et organisationnelle Très bon niveau en coordination transverse Soft skills Leadership transverse Excellente communication Capacité à convaincre et arbitrer Sens du relationnel développé 📄 Livrables attendus Météo projet & tableaux de bord Documentation projet & RUN Processus et procédures Suivi budgétaire & reporting direction
CDI

Offre d'emploi
Data Engineer NiFi

Publiée le
Apache NiFi

40k-65k €
Île-de-France, France
Télétravail partiel
En tant que Data Engineer chez Smile, vous ferez partie de notre aventure où chaque jour est une nouvelle occasion de construire des solutions qui dépassent les attentes de nos clients (et les vôtres !)🧑‍🚀👩‍🚀 Ce que vous ferez en tant que Data Engineer chez Smile ? Conception et développement de pipelines de données (ETL/ELT). Maintenance et optimisation de l'infrastructure de données. Mise en place de solutions de stockage et de traitement de données (data warehouses, data lakes). Collaboration avec les équipes de data science et d'analyse. Automatisation des processus de gestion des données. Veille technologique sur les outils et technologies de données. Côté technique justement, vous évoluerez dans un environnement Open Source ☕: Ingénierie des données et Cloud : ETL/ELT, Big Data (Spark, Hadoop), plateformes cloud (AWS, Azure, GCP), orchestration (Kubernetes, Docker). Analyse de données et Business Intelligence : Visualisation (Power BI, Tableau), reporting, analyse prédictive, bases de données SQL/NoSQL. Développement logiciel et programmation : Développement backend, langages (Python, Java, Scala, R), API, intégration continue (CI/CD). Recherche et indexation de données : Moteurs de recherche (Elasticsearch, Solr), recherche full-text, optimisation de la performance des requêtes. Vous intègrerez un environnement stimulant où votre expertise et votre passion seront reconnues 💥. Nous vous invitons à participer à des projets captivants et à contribuer à notre croissance commune🌱. Smile s’engage pour un environnement où la diversité est une force et l’inclusion, un pilier. Ici, chaque talent est reconnu, respecté et encouragé à aller plus loin.
Freelance

Mission freelance
Customer Data Modeler

Publiée le
Master Data Management (MDM)
SAP
SAP S/4HANA

6 mois
400-550 €
France
Télétravail 100%
Mon Client recherche un Customer Data Modeler expérimenté pour intervenir dans le cadre du projet MDV . Cette mission, à réaliser en full remote , débutera dès que possible et se poursuivra jusqu’au 30 juin 2026 . Le consultant aura pour mission principale de concevoir et documenter les modèles de données clients (Customer Master Data), tout en définissant les processus de gouvernance , les rôles associés et les règles de qualité . Une forte capacité à collaborer avec les équipes métier et IT est essentielle afin d’assurer la cohérence du modèle et son alignement global avec les besoins de l’organisation. Le profil recherché justifie d’au moins 5 ans d’expérience en Master Data Management , avec une expertise avérée sur la donnée client (modélisation, gouvernance, qualité). Une bonne compréhension des processus du domaine client est indispensable. La connaissance de SAP S/4HANA et SAP MDG constitue un plus. La mission requiert une excellente maîtrise du français et de l’anglais . Le prix d’achat maximum est fixé à 1000 € par jour .
CDI

Offre d'emploi
Data Analyst H/F

Publiée le
Data analysis
Database
PL/SQL

35k-40k €
Saint-Brieuc, Bretagne
Lieu : Saint-Brieuc (22) Salaire : 35/40K€ Rythme : Présentiel Nous recrutons pour un intégrateur de solutions industrielles et tertiaires en pleine croissance situé à proximité de Saint-Brieuc dans les Côtes d’Armor. Il s’identifie comme un interlocuteur global pour les entreprises ayant besoin de solutions logicielles innovantes en automatisation, informatique, électricité, GTB, maintenance… Il souhaite couvrir l’ensemble du cycle, de l’étude/conception à la mise en œuvre, la formation, la maintenance et le suivi de leurs clients, afin d’apporter une solution clés-en-main. Dans le cadre de leur développement, notre client souhaite recruté un Data Analyst confirmé. Les missions sont les suivantes : - Interpréter les besoins métier et les transformer en problématiques analytiques exploitables. - Veiller à la qualité, la cohérence et la robustesse des données utilisées dans les modèles et analyses. - Préparer, explorer et modéliser des jeux de données complexes afin d’en extraire des résultats actionnables. - Développer et maintenir des indicateurs, rapports avancés et outils analytiques pour soutenir les décisions stratégiques. - Documenter les méthodes, modèles et workflows, et contribuer à la diffusion des bonnes pratiques data au sein de l’organisation. - Accompagner et former les utilisateurs aux analyses, modèles et outils développés pour garantir leur bonne appropriation. - Effectuer une veille continue sur les technologies, méthodes statistiques et avancées en machine learning, puis partager les évolutions pertinentes avec l’équipe.
Freelance
CDI

Offre d'emploi
Architecte Data (28)

Publiée le
CI/CD
Terraform

1 an
40k-45k €
400-750 €
Île-de-France, France
Télétravail partiel
Définition du besoin La Direction Technique du Numérique d'une grande entreprise de médias mène des projets transverses en étroite collaboration avec les autres directions, notamment la direction Data. La Direction Data a été créée avec la volonté de faire de la Data un levier de croissance des offres numériques. La Direction Data a 3 grandes activités : maximiser la collecte de données tout en respectant les réglementations en vigueur, développer la connaissance et l'expérience utilisateurs et mettre à disposition auprès des équipes internes des outils de pilotage et d'aide à la décision. Dans ce contexte, la Direction Technique a besoin d'être accompagnée sur une prestation d'Architecture Data pour l'ensemble de la Data Platform et des dispositifs associés. Prestations attendues dans le cadre de la prestation Au sein des équipes Data composées de product owners, de data engineers, de data scientists et autres profils, la prestation portera sur l'accompagnement des équipes dans les domaines suivants :
Freelance

Mission freelance
Data Analyst - Talend

Publiée le
SQL
Talend

2 ans
350-500 €
Niort, Nouvelle-Aquitaine
Télétravail partiel
Pour l'un de nos clients niortais, nous recherchons un Data Analyst Talend : '- Préparer, nettoyer et mettre en qualité les données - Livrer les TDB et accompagner les utilisateurs dans leurs usages - Fournir un appui analytique à la conduite d’exploration et à l’analyse complexe de données - Être force de proposition dans les analyses de données, la sélection et définition des KPI, les tableaux de bord et les formes de présentations possibles. - Communiquer à travers les équipes du service, Poste basé à NIORT.
Freelance
CDI

Offre d'emploi
Data Manager

Publiée le
Dataiku
Microsoft SQL Server
Sass

1 an
40k-45k €
330-540 €
Paris, France
Télétravail partiel
Contexte de la mission Cette mission s'inscrit dans le contexte actuel de l'augmentation de la surveillance réglementaire sur les activités de financement associées aux Private Equity (PE) et Private Crédit (PC). Au sein du département RISK, l'équipe Data Management a pour rôle d'accompagner les équipes RISK dans leurs activités quotidiennes en mettant en œuvre des solutions agiles et innovantes en termes de traitement, d'automatisation et de visualisation des données ; et contribue aux demandes réglementaires complexes à l'échelle du Groupe nécessitant une forte expertise technique et fonctionnelle des données. Sur le périmètre crédit, la production d'analyses de portefeuilles et d'exercices réglementaires s'effectue dans l'environnement UDS (Unified Data Set), une solution SAS pour la collecte et la préparation des données et SQL Server / Tableau Server pour la visualisation des données. Une migration de la plateforme de collecte et de préparation des données de SAS vers Dataïku est en cours de finalisation dans le cadre d'un projet Risk Data Services. La mise en service de la nouvelle plateforme est prévue début 2026. Sur cette nouvelle plateforme, l'UDS devra évoluer pour intégrer un nouveau besoin permettant à la banque de mieux monitorer ses risques face à des contreparties financées par des Private Equity ou des Private Credit. Cette mission consistera à implémenter une solution pour couvrir ce besoin au niveau de l'UDS, d'abord en mode tactique puis en mode cible. Dans le cadre de cette mission, de nouvelles données devront être collectées, contrôlées, agrégées et restituées dans des dashboards. Cette mission s'inscrit dans un projet plus global qui vise à faire évoluer l'ensemble du dispositif IT RISK/Finance pour couvrir ce besoin d'une manière globale.
CDI
Freelance

Offre d'emploi
Data Architect / Data Engineer (H/F)

Publiée le
Cloud

1 an
La Défense, Île-de-France
Télétravail partiel
Nous recherchons un profil technique pour accompagner des projets data stratégiques au sein d’un acteur spécialisé dans la transformation et l’architecture des systèmes d’information. Vos missions Concevoir et faire évoluer des architectures data modernes (cloud, data lake, data warehouse, data mesh… selon les projets). Définir les standards et bonnes pratiques d’ingénierie des données. Concevoir, développer et optimiser des pipelines de données robustes et industrialisés. Participer aux choix technologiques et contribuer à la mise en place d’une gouvernance data efficace. Collaborer avec les équipes projet (data engineers, data analysts, product owners…) pour garantir la qualité et la fiabilité de la donnée. Compétences recherchées Maîtrise d’un ou plusieurs environnements cloud : AWS, Azure ou GCP. Expérience avérée en conception d’architectures data (batch, streaming, event-driven…). Solide pratique des langages et écosystèmes data : Python, SQL, Spark, DBT, Kafka, Airflow… Bonne compréhension des modèles de stockage et de traitement (Delta Lake, BigQuery, Snowflake…). Connaissance des bonnes pratiques de CI/CD, observabilité, sécurité et gouvernance data. Profil 3 à 7 ans d’expérience en data engineering ou en architecture data. Capacité d’analyse, rigueur technique et vision d’ensemble des systèmes de données. Aisance en communication et capacité à travailler en équipe sur des projets multidisciplinaires. Ce que nous offrons Participation à des projets à forte valeur ajoutée. Environnement orienté expertise, innovation et montée en compétences. Culture technique stimulante et possibilités d’évolution.
1223 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

France

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous