Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.

Offre d'emploi
Data Engineer – AWS / Databricks
Missions principales : Conception d’outils Big Data : Contribution active à la conception, au développement et à l’amélioration d’outils de traitement de données massives, couvrant l’ensemble du cycle de vie des données : ingestion, traitement, analyse et restitution. Définition des besoins techniques : Collaboration étroite avec les utilisateurs de la plateforme Data pour comprendre les besoins métier et garantir un alignement optimal entre les solutions développées et les attentes fonctionnelles. Développement sur Databricks et AWS : Réalisation de développements avancés sur les plateformes Databricks et AWS, en utilisant notamment les technologies suivantes : Python, SQL, Spark et Airflow. Intégration des pratiques FinOps : Mise en œuvre de bonnes pratiques FinOps dans le développement afin d’optimiser les coûts, les performances et l’utilisation des ressources sur AWS. Utilisation d’outils tels que dbt , GitLab CI/CD , et autres solutions DevOps. Audit et accompagnement transverse : Réalisation d’audits techniques et de revues de code au sein des équipes, avec pour objectif de renforcer la maîtrise des enjeux techniques et de favoriser l’adoption de stratégies FinOps efficaces. Technologies et outils utilisés : Cloud & Big Data : AWS (S3, EC2, Lambda, Glue), Databricks, Spark Langages & Frameworks : Python, SQL, PySpark Orchestration & Automatisation : Airflow, GitLab CI/CD, dbt Suivi des coûts et performance : Outils FinOps intégrés à AWS Méthodologies de travail : Agile / Scrum, DevOps, FinOps

Offre d'emploi
Tech Lead Databricks
Nous recherchons un Tech Lead Databricks pour rejoindre l’équipe Data en pleine expansion de notre client, leader dans le domaine de la maitrise des risques. Vous aurez la responsabilité d’assurer la conception et la mise en œuvre de solutions de data engineering et data science sur la plateforme Databricks, tout en assurant le leadership technique pour une équipe de développeurs et data engineers. MISSIONS Leadership technique Coacher une équipe de data engineers, data scientists, et développeurs travaillant sur la plateforme Databricks Mettre en place des bonnes pratiques de développement et veiller à la qualité du code (revues de code, tests unitaires) Conception et architecture Concevoir et implémenter des solutions techniques sur Databricks pour répondre aux besoins des équipes métiers (data analytics, data science) Définir des architectures évolutives et performantes pour l'ingestion, le traitement et l’analyse des données Participer à la modélisation de données Travailler en étroite collaboration avec les architectes, les équipes applicatives et équipes métiers pour définir des solutions adaptées Développement et intégration Développer des pipelines de données et des workflows de traitement de données dans Databricks Assurer l'intégration des solutions avec d'autres outils et systèmes (bases de données, systèmes de stockage, outils de BI) Participer au développement des tableaux de bord sous Power BI Optimisation des performances Identifier et résoudre les problèmes de performance dans les flux de données et l'architecture Mettre en place des mécanismes d'optimisation des coûts liés à l’utilisation de la plateforme Databricks Veille technologique et innovation Assurer une veille sur les nouvelles technologies et pratiques dans l’écosystème Big Data et Databricks Proposer des améliorations continues pour augmenter l’efficacité des processus et la qualité des données Accompagner et former les équipes IT aux bonnes pratiques ITIL

Mission freelance
Data Engineer Senior – Industrialisation d’un portail IA/LLM – Secteur Bancaire
Dans le cadre de la transformation digitale d’un grand groupe du secteur bancaire, nous recherchons un Data Engineer Senior. Vous participerez à l’industrialisation d’un portail à destination des équipes Data Science et Intelligence Artificielle, servant à orienter et informer sur les modèles d’IA générative et LLM. La solution, initialement développée en mode exploratoire sous Streamlit, doit être sécurisée, déployée en OnPremise sur l’infrastructure interne de la banque, et intégrée avec les outils existants (VM Linux, HAProxy, API interne, etc.). Principales missions : Participation au cadrage technique et à la définition des solutions applicatives. Refonte et redesign de l’application existante. Initialisation de l’environnement de développement et de la chaîne DEVOPS. Développement Front avec attention particulière à l’UX/Design et à la gestion des exceptions. Développement de pipelines de données (extraction via API, intégration SQL, structuration pour exposition dans le portail). Intégration et déploiement continu (CI/CD) sur tous les environnements. Rédaction de la documentation technique et utilisateur. Réalisation des recettes techniques et tests de bout en bout. Traitement des incidents & assistance utilisateurs. Respect strict des normes de développement Python. Travail en lien direct avec les Data Scientists, équipes IA, DevOps et sécurité du groupe bancaire.

Mission freelance
Data Engineer Scala/Spark – AWS Cloud
Nous recherchons un Data Engainer Scala/Spark pour rejoindre une équipe Data/IT Agile au sein d’un grand compte du secteur financier . L’application sur laquelle vous interviendrez est une solution batch critique permettant le traitement de Data à travers des calculs d’indicateurs et la restitution via un front React et des APIs REST. La solution est cloud native , déployée sur : AWS pour les imports et l’ETL (S3, Glue, Athéna, Lambda) ; Azure pour les calculs complexes et le stockage SQL Server. Au sein de l’équipe projet, vous interviendrez sur : La prise en main de l’application existante (Scala/Spark, C#) L’ implémentation de nouvelles User Stories , issues de la Roadmap métier La conception technique de solutions évolutives sur le Cloud L’ implémentation des évolutions fonctionnelles et techniques La mise en production , le suivi post-release La rédaction des spécifications et documentation technique La rédaction et exécution de tests unitaires et d’intégration Le monitoring de la production (via Splunk) Le support utilisateurs et l’ amélioration continue

Offre d'emploi
Lead Data Engineed Snowflake - DBT
Cherchons un profil expert Snowflake pour participer activement à la structuration de l'offre de notre client, à l'élaboration des architectures avant-vente et à la montée en compétence de leurs équipes. Lead Data Engineer passionné par Snowflake et DBT vous travaillerez chez des clients leaders dans leurs secteurs afin de moderniser leur infrastructure de données. Vous travaillerez sur des projets stimulants, de l'implémentation initiale de Snowflake à l'optimisation de pipelines complexes avec dbt, en passant par l'intégration d'écosystèmes data avancés. Votre rôle sera crucial pour le succès de ces transformations. Missions principales : * Développer nos assets technologiques et nos accélérateurs pour des déploiements plus rapides et efficaces. * Participer activement aux phases d'avant-vente, en concevant des architectures innovantes et en présentant nos solutions aux clients. * Accompagner nos clients dans la conception, le développement et le déploiement d'architectures data modernes basées sur Snowflake et dbt. * Mettre en place et optimiser des pipelines de données robustes et performants avec dbt. * Conseiller nos clients sur les meilleures pratiques de la Modern Data Stack et les accompagner dans la migration et l'intégration de leurs données. * Encadrer et faire monter en compétences une équipe de data engineers sur les technologies Snowflake et dbt. Compétences attendues : - Une expérience significative en tant que Lead Data Engineer ou Architecte Data, avec une expertise approfondie de Snowflake et dbt (certifications bienvenues). - Une excellente compréhension des concepts de la Modern Data Stack et de ses meilleures pratiques (Snowflake Openflow, Fivetran, dbt, Airbyte…). - Une expérience dans un projet de migration de plateforme Data vers une Modern Data Stack est un vrai plus Maîtrise des langages SQL et Python. - Une expérience réussie en Streamlit et/ou Generative AI est un atout sérieux. - Capacité à travailler en équipe, à communiquer efficacement et à vous adapter aux environnements clients avec une forte orientation conseil.

Offre d'emploi
Lead Data Engineed Snowflake
Cherchons un profil expert Snowflake pour participer activement à la structuration de l'offre de notre client, à l'élaboration des architectures avant-vente et à la montée en compétence de leurs équipes. Lead Data Engineer passionné par Snowflake et DBT vous travaillerez chez des clients leaders dans leurs secteurs afin de moderniser leur infrastructure de données. Vous travaillerez sur des projets stimulants, de l'implémentation initiale de Snowflake à l'optimisation de pipelines complexes avec dbt, en passant par l'intégration d'écosystèmes data avancés. Votre rôle sera crucial pour le succès de ces transformations. Missions principales : * Développer nos assets technologiques et nos accélérateurs pour des déploiements plus rapides et efficaces. * Participer activement aux phases d'avant-vente, en concevant des architectures innovantes et en présentant nos solutions aux clients. * Accompagner nos clients dans la conception, le développement et le déploiement d'architectures data modernes basées sur Snowflake et dbt. * Mettre en place et optimiser des pipelines de données robustes et performants avec dbt. * Conseiller nos clients sur les meilleures pratiques de la Modern Data Stack et les accompagner dans la migration et l'intégration de leurs données. * Encadrer et faire monter en compétences une équipe de data engineers sur les technologies Snowflake et dbt. Compétences attendues : - Une expérience significative en tant que Lead Data Engineer ou Architecte Data, avec une expertise approfondie de Snowflake et dbt (certifications bienvenues). - Une excellente compréhension des concepts de la Modern Data Stack et de ses meilleures pratiques (Snowflake Openflow, Fivetran, dbt, Airbyte…). - Une expérience dans un projet de migration de plateforme Data vers une Modern Data Stack est un vrai plus Maîtrise des langages SQL et Python. - Une expérience réussie en Streamlit et/ou Generative AI est un atout sérieux. - Capacité à travailler en équipe, à communiquer efficacement et à vous adapter aux environnements clients avec une forte orientation conseil.

Offre d'emploi
Chef.fe de projet Senior – Data & Finance
Vous piloterez un projet stratégique à forte composante analytique et financière. Vous aurez pour mission de structurer, suivre et sécuriser l’avancement du projet, tout en coordonnant les parties prenantes et en automatisant les processus critiques. Votre rôle Gestion de projet & Pilotage Piloter le projet en assurant le suivi des livrables, des délais et des budgets Définir et mettre en place un système de suivi de la performance et des avancées Identifier, analyser et gérer les risques de manière proactive Analyse & Exploitation des données Initier et conduire les analyses de données financières complexes pour en extraire les insights clés Travailler en étroite collaboration avec les data analysts et data engineers pour garantir la qualité et pertinence des analyses Restituer les résultats de manière claire et impactante aux parties prenantes Coordination & Alignement des équipes Coordonner la relation entre les équipes Finance, Produits, Data et IT pour garantir l’alignement sur les objectifs du projet Obtenir l'adhésion des contrôleurs et des responsables métiers sur les spécifications et les livrables Préparer et présenter des rapports stratégiques aux instances de gouvernance Automatisation & Optimisation des processus Contribuer à l’automatisation des processus critiques (ex. : calculs de volumes de commandes, impacts douaniers) Garantir la qualité et l'intégrité des données utilisées Travailler avec les data engineers pour optimiser les flux de données et processus d’automatisation
Offre d'emploi
Tech Lead Databricks H/F
Vos missions sur ce poste : Encadrer une équipe (data engineers, data scientists, développeurs) sur Databricks Mettre en place les bonnes pratiques de développement et garantir la qualité du code Concevoir des solutions techniques évolutives pour l'ingestion, le traitement et l'analyse des données Participer à la modélisation des données Collaborer avec les équipes métiers, applicatives et architectes pour définir des solutions adaptées Développer des pipelines et workflows de données sur Databricks Intégrer les solutions aux systèmes existants (bases de données, stockage, BI…) Contribuer au développement de dashboards sous Power BI Identifier et résoudre les problèmes de performance Optimiser les coûts liés à l'usage de Databricks Assurer une veille technologique sur l'écosystème Big Data Proposer des améliorations continues sur les processus et la qualité des données

Offre d'emploi
Senior Project Manager F/H
Nous recherchons un Senior Project Manager (PM) F/H pour piloter un projet stratégique à forte composante analytique et financière. Vous serez responsable de structurer et de suivre l'avancement du projet, tout en identifiant et en remontant les risques. Vous jouerez un rôle clé dans l'alignement des différentes parties prenantes et dans l'automatisation de processus critiques. Missions principales Gestion de projet • Piloter le projet en assurant un suivi rigoureux des livrables, des délais et des budgets. • Définir et mettre en place un système de suivi pour mesurer les progrès et assurer la performance/livraisons • Identifier, analyser et gérer les risques de manière proactive. Analyse et synthèse • Initier et conduire des analyses de données financières complexes pour en extraire les insights attendus. • Travailler en étroite collaboration avec les data analysts et data engineers des équipes squads pour garantir la qualité et pertinence des analyses. • Synthétiser les informations clés pour les présenter de manière claire et concise aux parties prenantes. Coordination avec les parties prenantes • Coordonner la relation entre les équipes Finance, Produits, Data et IT pour garantir l'alignement sur les objectifs du projet. • Obtenir l'adhésion des contrôleurs et des responsables métiers sur les spécifications et les livrables. Automatisation des processus • Contribuer à l'automatisation des processus critiques (ex. : calculs de volumes de commandes, impacts douaniers) en collaboration avec les équipes Data (Dataiku, JDE, etc.). • S'assurer de la qualité et de l'intégrité des données utilisées dans le projet. • Travailler avec les data engineers pour optimiser les flux de données et les processus d'automatisation. Rapports et communication au management • Produire des rapports réguliers sur l'état d'avancement du projet. Préparer des présentations stratégiques pour le comité de pilotage Les missions énumérées ci-dessus ne sont pas exhaustives, il s'agit des missions principales. Référence de l'offre : ybusdn0g71

Mission freelance
Data Ingénieur cloudera
Data Engineer avec compétence sur la stack technique Hadoop, Python, Spark/PySpark, Cloudera Expérimenté 3 à 5 années d'expérience sur des activités similaires ... ... .. ... ... .. .. ... ... ... ... ... ... ... .. ... ... ... ... .. ... ... .. ..... ... ... ... ... .. ... ... .. .. ... ... ... ... ... ... ... .. ... ... ... ... .. ... ... .. ..... ... ... ... ... .. ... ... .. .. ... ... ... ... ... ... ... .. ... ... ... ... .. ... ... .. ..... ... ... ... ... .. ... ... .. .. ... ... ... ... ... ... ... .. ... ... ... .

Mission freelance
DEVIENS #AUTEUR DE VIDEO Neo4j
Nous sommes une maison d'édition spécialisée dans la publication de livres et vidéos autour de l'informatique et de la bureautique. Nous recherchons un(e) professionnel(le) de l'IT pour la prochaine publication de notre vidéo qui portera sur Neo4j. "Pourquoi pas moi ? Je suis développeur(euse), data scientist, data engineer, ou formateur(trice)... et Neo4j n'a aucun secret pour moi. J’ai envie de partager mon expertise au plus grand nombre ! Participer à la création d'une vidéo me permettra de renforcer ma crédibilité et de mettre à profit mes connaissances." Vous bénéficierez d'un accompagnement éditorial (sommaire, essai, méthodologie, suivi, montage vidéo...) La rémunération est proposée sous forme de forfait.

Offre d'emploi
Data analyst R&D (données cliniques)
Missions principales En pratique, vos responsabilités seront les suivantes : Recueillir et analyser les besoins utilisateurs (équipes métier et R&D). Développer ou améliorer des solutions d’acquisition et de visualisation innovantes. Concevoir et optimiser des rapports de tests, validations et suivis financiers (P&L, KPIs). Élaborer et maintenir la documentation technique, fonctionnelle et les guides utilisateurs. Conseiller et accompagner les utilisateurs dans l’exploitation des solutions. Participer à la mise en place et l’évolution de processus et d’outils de data management. Réaliser des études de faisabilité (données, systèmes, outils, développements). Assurer des formations utilisateurs et produire le matériel pédagogique associé. Compétences techniques attendues Reporting & DataViz Power BI (certification souhaitée) : DAX, Power Query, Report Builder. Streamlit (Python) et Shiny (R) pour des applications interactives. Data storytelling et adaptation des visualisations selon les profils utilisateurs (métiers, data science, direction). Programmation & Analyse de données Python (pandas, matplotlib, seaborn, Streamlit). R (packages de data processing, dashboards interactifs via Shiny). SAS (traitement, analyse et transformation de données structurées, contexte analytique ou clinique). SQL / DBT (structuration, transformation et exploitation de données relationnelles). Bonnes pratiques de développement Maîtrise de Git / GitLab (versionning, branches, merge requests, revues de code). Respect des bonnes pratiques de structuration, modularité et documentation du code. Travail en mode agile (Kanban, Scrum) avec PO, Tech Lead, Data Engineers. Big Data & Cloud Transformation et industrialisation de la donnée sur Google Cloud Platform (GCP) . Développement de datamarts en collaboration avec les Data Engineers.
Mission freelance
DATA INGENIEUR H/F
Description du Poste : Nous recherchons un Data Engineer expérimenté pour rejoindre notre équipe Enterprise Management et Finance, composée de d’1 PO, 3 Power BI, 1 QA et 1 Data Engineer. Cette équipe est le cœur de notre plateforme de données, responsable de l'ingestion et de la normalisation des données. Son rôle sera également de travailler sur la création, la maintenance et l'amélioration de l'infrastructure, ainsi que sur les processus CI/CD et la documentation, dans un contexte Agile SAFE. Votre consiste à Participer à l’harmonisation des données dans notre Data Platform (DP) pour les reportings du TOP management Assurer la qualité et la conformité des données Travailler dans un contexte Agile SAFE pour assurer des livraisons efficaces et continues

Mission freelance
Proxy Product Owner Data
Nous recherchons un Proxy Product Owner pour accompagner une équipe Data dans un contexte de forte croissance digitale. Vous interviendrez au sein d’une équipe pluridisciplinaire (PM, PO, Analytics Engineer, Data Engineer, QA...) en charge de l’ensemble du cycle de vie de la donnée, de sa création à son activation pour différents usages métiers. Votre rôle consistera à : Recueillir et formaliser les besoins fonctionnels (techniques et métiers) en support du PO. Assurer le suivi des projets et garantir la visibilité des avancées auprès des parties prenantes. Participer au déploiement technique des produits data sur des assets web, applications mobiles, IPTV et TV connectée. Contribuer à la mise en place et au paramétrage des outils tiers (Tag Commander, Piano Analytics, DMP, CMP...).
Mission freelance
Senior Data Consultant / Architecte Fonctionnel
Contexte Dans le cadre du développement d’une Data Platform (Data as a Service) , nous recherchons un Senior Data Consultant / Architecte fonctionnel afin de piloter la phase d’ assessment / étude et d’accompagner ensuite le passage en exécution du projet. Responsabilités Organiser et animer les ateliers de cadrage avec les métiers. Recueillir et formaliser les besoins business. Réaliser la modélisation de données (conceptuelle & physique – Silver layer). Documenter l’architecture fonctionnelle et la valeur de la solution. Coordonner les contributeurs techniques (architectes, Data Engineers, BI Engineers). Préparer budget, planning et “Go to project” proposal.

Offre d'emploi
Consultant MSBI / T-SQL (H/F)
Missions : Le consultant data Engineer SQL au sein du pôle « Data Architect & Engineer », sera en charge principalement de : - Concevoir, développer et maintenir des flux de données (XLM, JSON, WS, xslt, ..) - Concevoir, développer et maintenir des modèles de données (Sqlserver / Sybase IQ) - Maintenir/Optimiser des cubes SSAS Multi-dimensionnels & Tabular - Mettre en place/maintenir des chaines de batchs (CTRL-M) - Assurer des tâches de support - Contribuer aux projet devops - Rédiger des documentations techniques et des procédures - Participer au dispositif d’astreintes.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.