Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 207 résultats.
CDI
Freelance

Offre d'emploi
Data Engineer – AWS / Databricks

Hexateam
Publiée le
AWS Cloud
Databricks
Python

23 mois
Île-de-France, France

Missions principales : Conception d’outils Big Data : Contribution active à la conception, au développement et à l’amélioration d’outils de traitement de données massives, couvrant l’ensemble du cycle de vie des données : ingestion, traitement, analyse et restitution. Définition des besoins techniques : Collaboration étroite avec les utilisateurs de la plateforme Data pour comprendre les besoins métier et garantir un alignement optimal entre les solutions développées et les attentes fonctionnelles. Développement sur Databricks et AWS : Réalisation de développements avancés sur les plateformes Databricks et AWS, en utilisant notamment les technologies suivantes : Python, SQL, Spark et Airflow. Intégration des pratiques FinOps : Mise en œuvre de bonnes pratiques FinOps dans le développement afin d’optimiser les coûts, les performances et l’utilisation des ressources sur AWS. Utilisation d’outils tels que dbt , GitLab CI/CD , et autres solutions DevOps. Audit et accompagnement transverse : Réalisation d’audits techniques et de revues de code au sein des équipes, avec pour objectif de renforcer la maîtrise des enjeux techniques et de favoriser l’adoption de stratégies FinOps efficaces. Technologies et outils utilisés : Cloud & Big Data : AWS (S3, EC2, Lambda, Glue), Databricks, Spark Langages & Frameworks : Python, SQL, PySpark Orchestration & Automatisation : Airflow, GitLab CI/CD, dbt Suivi des coûts et performance : Outils FinOps intégrés à AWS Méthodologies de travail : Agile / Scrum, DevOps, FinOps

Offre premium
CDI

Offre d'emploi
Tech Lead Databricks

KOLABS Group
Publiée le
Big Data
CI/CD
Databricks

Lyon, Auvergne-Rhône-Alpes

Nous recherchons un Tech Lead Databricks pour rejoindre l’équipe Data en pleine expansion de notre client, leader dans le domaine de la maitrise des risques. Vous aurez la responsabilité d’assurer la conception et la mise en œuvre de solutions de data engineering et data science sur la plateforme Databricks, tout en assurant le leadership technique pour une équipe de développeurs et data engineers. MISSIONS Leadership technique Coacher une équipe de data engineers, data scientists, et développeurs travaillant sur la plateforme Databricks Mettre en place des bonnes pratiques de développement et veiller à la qualité du code (revues de code, tests unitaires) Conception et architecture Concevoir et implémenter des solutions techniques sur Databricks pour répondre aux besoins des équipes métiers (data analytics, data science) Définir des architectures évolutives et performantes pour l'ingestion, le traitement et l’analyse des données Participer à la modélisation de données Travailler en étroite collaboration avec les architectes, les équipes applicatives et équipes métiers pour définir des solutions adaptées Développement et intégration Développer des pipelines de données et des workflows de traitement de données dans Databricks Assurer l'intégration des solutions avec d'autres outils et systèmes (bases de données, systèmes de stockage, outils de BI) Participer au développement des tableaux de bord sous Power BI Optimisation des performances Identifier et résoudre les problèmes de performance dans les flux de données et l'architecture Mettre en place des mécanismes d'optimisation des coûts liés à l’utilisation de la plateforme Databricks Veille technologique et innovation Assurer une veille sur les nouvelles technologies et pratiques dans l’écosystème Big Data et Databricks Proposer des améliorations continues pour augmenter l’efficacité des processus et la qualité des données Accompagner et former les équipes IT aux bonnes pratiques ITIL

Freelance

Mission freelance
Data Engineer Senior – Industrialisation d’un portail IA/LLM – Secteur Bancaire

WE +
Publiée le
Ansible
API REST
Bash

6 mois
500-600 €
Île-de-France, France

Dans le cadre de la transformation digitale d’un grand groupe du secteur bancaire, nous recherchons un Data Engineer Senior. Vous participerez à l’industrialisation d’un portail à destination des équipes Data Science et Intelligence Artificielle, servant à orienter et informer sur les modèles d’IA générative et LLM. La solution, initialement développée en mode exploratoire sous Streamlit, doit être sécurisée, déployée en OnPremise sur l’infrastructure interne de la banque, et intégrée avec les outils existants (VM Linux, HAProxy, API interne, etc.). Principales missions : Participation au cadrage technique et à la définition des solutions applicatives. Refonte et redesign de l’application existante. Initialisation de l’environnement de développement et de la chaîne DEVOPS. Développement Front avec attention particulière à l’UX/Design et à la gestion des exceptions. Développement de pipelines de données (extraction via API, intégration SQL, structuration pour exposition dans le portail). Intégration et déploiement continu (CI/CD) sur tous les environnements. Rédaction de la documentation technique et utilisateur. Réalisation des recettes techniques et tests de bout en bout. Traitement des incidents & assistance utilisateurs. Respect strict des normes de développement Python. Travail en lien direct avec les Data Scientists, équipes IA, DevOps et sécurité du groupe bancaire.

Freelance

Mission freelance
Data Engineer Scala/Spark – AWS Cloud

HIGHTEAM
Publiée le
Amazon S3
Apache Spark
API

3 ans
550-600 €
Île-de-France, France

Nous recherchons un Data Engainer Scala/Spark pour rejoindre une équipe Data/IT Agile au sein d’un grand compte du secteur financier . L’application sur laquelle vous interviendrez est une solution batch critique permettant le traitement de Data à travers des calculs d’indicateurs et la restitution via un front React et des APIs REST. La solution est cloud native , déployée sur : AWS pour les imports et l’ETL (S3, Glue, Athéna, Lambda) ; Azure pour les calculs complexes et le stockage SQL Server. Au sein de l’équipe projet, vous interviendrez sur : La prise en main de l’application existante (Scala/Spark, C#) L’ implémentation de nouvelles User Stories , issues de la Roadmap métier La conception technique de solutions évolutives sur le Cloud L’ implémentation des évolutions fonctionnelles et techniques La mise en production , le suivi post-release La rédaction des spécifications et documentation technique La rédaction et exécution de tests unitaires et d’intégration Le monitoring de la production (via Splunk) Le support utilisateurs et l’ amélioration continue

Freelance
CDI
CDD

Offre d'emploi
Lead Data Engineed Snowflake - DBT

IT CONSULTANTS
Publiée le
Méthode Agile
Snowflake

12 mois
Levallois-Perret, Île-de-France

Cherchons un profil expert Snowflake pour participer activement à la structuration de l'offre de notre client, à l'élaboration des architectures avant-vente et à la montée en compétence de leurs équipes. Lead Data Engineer passionné par Snowflake et DBT vous travaillerez chez des clients leaders dans leurs secteurs afin de moderniser leur infrastructure de données. Vous travaillerez sur des projets stimulants, de l'implémentation initiale de Snowflake à l'optimisation de pipelines complexes avec dbt, en passant par l'intégration d'écosystèmes data avancés. Votre rôle sera crucial pour le succès de ces transformations. Missions principales : * Développer nos assets technologiques et nos accélérateurs pour des déploiements plus rapides et efficaces. * Participer activement aux phases d'avant-vente, en concevant des architectures innovantes et en présentant nos solutions aux clients. * Accompagner nos clients dans la conception, le développement et le déploiement d'architectures data modernes basées sur Snowflake et dbt. * Mettre en place et optimiser des pipelines de données robustes et performants avec dbt. * Conseiller nos clients sur les meilleures pratiques de la Modern Data Stack et les accompagner dans la migration et l'intégration de leurs données. * Encadrer et faire monter en compétences une équipe de data engineers sur les technologies Snowflake et dbt. Compétences attendues : - Une expérience significative en tant que Lead Data Engineer ou Architecte Data, avec une expertise approfondie de Snowflake et dbt (certifications bienvenues). - Une excellente compréhension des concepts de la Modern Data Stack et de ses meilleures pratiques (Snowflake Openflow, Fivetran, dbt, Airbyte…). - Une expérience dans un projet de migration de plateforme Data vers une Modern Data Stack est un vrai plus Maîtrise des langages SQL et Python. - Une expérience réussie en Streamlit et/ou Generative AI est un atout sérieux. - Capacité à travailler en équipe, à communiquer efficacement et à vous adapter aux environnements clients avec une forte orientation conseil.

Freelance
CDI
CDD

Offre d'emploi
Lead Data Engineed Snowflake

IT CONSULTANTS
Publiée le
Méthode Agile
Snowflake

12 mois
Levallois-Perret, Île-de-France

Cherchons un profil expert Snowflake pour participer activement à la structuration de l'offre de notre client, à l'élaboration des architectures avant-vente et à la montée en compétence de leurs équipes. Lead Data Engineer passionné par Snowflake et DBT vous travaillerez chez des clients leaders dans leurs secteurs afin de moderniser leur infrastructure de données. Vous travaillerez sur des projets stimulants, de l'implémentation initiale de Snowflake à l'optimisation de pipelines complexes avec dbt, en passant par l'intégration d'écosystèmes data avancés. Votre rôle sera crucial pour le succès de ces transformations. Missions principales : * Développer nos assets technologiques et nos accélérateurs pour des déploiements plus rapides et efficaces. * Participer activement aux phases d'avant-vente, en concevant des architectures innovantes et en présentant nos solutions aux clients. * Accompagner nos clients dans la conception, le développement et le déploiement d'architectures data modernes basées sur Snowflake et dbt. * Mettre en place et optimiser des pipelines de données robustes et performants avec dbt. * Conseiller nos clients sur les meilleures pratiques de la Modern Data Stack et les accompagner dans la migration et l'intégration de leurs données. * Encadrer et faire monter en compétences une équipe de data engineers sur les technologies Snowflake et dbt. Compétences attendues : - Une expérience significative en tant que Lead Data Engineer ou Architecte Data, avec une expertise approfondie de Snowflake et dbt (certifications bienvenues). - Une excellente compréhension des concepts de la Modern Data Stack et de ses meilleures pratiques (Snowflake Openflow, Fivetran, dbt, Airbyte…). - Une expérience dans un projet de migration de plateforme Data vers une Modern Data Stack est un vrai plus Maîtrise des langages SQL et Python. - Une expérience réussie en Streamlit et/ou Generative AI est un atout sérieux. - Capacité à travailler en équipe, à communiquer efficacement et à vous adapter aux environnements clients avec une forte orientation conseil.

CDI

Offre d'emploi
Chef.fe de projet Senior – Data & Finance

Atlanse
Publiée le
Dataiku
Microsoft Excel
Microsoft Power BI

50k-55k €
Marseille, Provence-Alpes-Côte d'Azur

Vous piloterez un projet stratégique à forte composante analytique et financière. Vous aurez pour mission de structurer, suivre et sécuriser l’avancement du projet, tout en coordonnant les parties prenantes et en automatisant les processus critiques. Votre rôle Gestion de projet & Pilotage Piloter le projet en assurant le suivi des livrables, des délais et des budgets Définir et mettre en place un système de suivi de la performance et des avancées Identifier, analyser et gérer les risques de manière proactive Analyse & Exploitation des données Initier et conduire les analyses de données financières complexes pour en extraire les insights clés Travailler en étroite collaboration avec les data analysts et data engineers pour garantir la qualité et pertinence des analyses Restituer les résultats de manière claire et impactante aux parties prenantes Coordination & Alignement des équipes Coordonner la relation entre les équipes Finance, Produits, Data et IT pour garantir l’alignement sur les objectifs du projet Obtenir l'adhésion des contrôleurs et des responsables métiers sur les spécifications et les livrables Préparer et présenter des rapports stratégiques aux instances de gouvernance Automatisation & Optimisation des processus Contribuer à l’automatisation des processus critiques (ex. : calculs de volumes de commandes, impacts douaniers) Garantir la qualité et l'intégrité des données utilisées Travailler avec les data engineers pour optimiser les flux de données et processus d’automatisation

CDI

Offre d'emploi
Tech Lead Databricks H/F

HAYS France
Publiée le

55k-60k €
Lyon, Auvergne-Rhône-Alpes

Vos missions sur ce poste : Encadrer une équipe (data engineers, data scientists, développeurs) sur Databricks Mettre en place les bonnes pratiques de développement et garantir la qualité du code Concevoir des solutions techniques évolutives pour l'ingestion, le traitement et l'analyse des données Participer à la modélisation des données Collaborer avec les équipes métiers, applicatives et architectes pour définir des solutions adaptées Développer des pipelines et workflows de données sur Databricks Intégrer les solutions aux systèmes existants (bases de données, stockage, BI…) Contribuer au développement de dashboards sous Power BI Identifier et résoudre les problèmes de performance Optimiser les coûts liés à l'usage de Databricks Assurer une veille technologique sur l'écosystème Big Data Proposer des améliorations continues sur les processus et la qualité des données

CDI

Offre d'emploi
Senior Project Manager F/H

SEA TPI
Publiée le

50k-60k €
Marseille, Provence-Alpes-Côte d'Azur

Nous recherchons un Senior Project Manager (PM) F/H pour piloter un projet stratégique à forte composante analytique et financière. Vous serez responsable de structurer et de suivre l'avancement du projet, tout en identifiant et en remontant les risques. Vous jouerez un rôle clé dans l'alignement des différentes parties prenantes et dans l'automatisation de processus critiques. Missions principales Gestion de projet • Piloter le projet en assurant un suivi rigoureux des livrables, des délais et des budgets. • Définir et mettre en place un système de suivi pour mesurer les progrès et assurer la performance/livraisons • Identifier, analyser et gérer les risques de manière proactive. Analyse et synthèse • Initier et conduire des analyses de données financières complexes pour en extraire les insights attendus. • Travailler en étroite collaboration avec les data analysts et data engineers des équipes squads pour garantir la qualité et pertinence des analyses. • Synthétiser les informations clés pour les présenter de manière claire et concise aux parties prenantes. Coordination avec les parties prenantes • Coordonner la relation entre les équipes Finance, Produits, Data et IT pour garantir l'alignement sur les objectifs du projet. • Obtenir l'adhésion des contrôleurs et des responsables métiers sur les spécifications et les livrables. Automatisation des processus • Contribuer à l'automatisation des processus critiques (ex. : calculs de volumes de commandes, impacts douaniers) en collaboration avec les équipes Data (Dataiku, JDE, etc.). • S'assurer de la qualité et de l'intégrité des données utilisées dans le projet. • Travailler avec les data engineers pour optimiser les flux de données et les processus d'automatisation. Rapports et communication au management • Produire des rapports réguliers sur l'état d'avancement du projet. Préparer des présentations stratégiques pour le comité de pilotage Les missions énumérées ci-dessus ne sont pas exhaustives, il s'agit des missions principales. Référence de l'offre : ybusdn0g71

Freelance

Mission freelance
Data Ingénieur cloudera

MLMCONSEIL
Publiée le
Apache Spark
Cloudera
Python

6 mois
260-430 €
Lille, Hauts-de-France

Data Engineer avec compétence sur la stack technique Hadoop, Python, Spark/PySpark, Cloudera Expérimenté 3 à 5 années d'expérience sur des activités similaires ... ... .. ... ... .. .. ... ... ... ... ... ... ... .. ... ... ... ... .. ... ... .. ..... ... ... ... ... .. ... ... .. .. ... ... ... ... ... ... ... .. ... ... ... ... .. ... ... .. ..... ... ... ... ... .. ... ... .. .. ... ... ... ... ... ... ... .. ... ... ... ... .. ... ... .. ..... ... ... ... ... .. ... ... .. .. ... ... ... ... ... ... ... .. ... ... ... .

Freelance

Mission freelance
DEVIENS #AUTEUR DE VIDEO Neo4j

Editions ENI
Publiée le
Database
Neo4j

4 mois
100-300 €
Saint-Herblain, Pays de la Loire

Nous sommes une maison d'édition spécialisée dans la publication de livres et vidéos autour de l'informatique et de la bureautique. Nous recherchons un(e) professionnel(le) de l'IT pour la prochaine publication de notre vidéo qui portera sur Neo4j. "Pourquoi pas moi ? Je suis développeur(euse), data scientist, data engineer, ou formateur(trice)... et Neo4j n'a aucun secret pour moi. J’ai envie de partager mon expertise au plus grand nombre ! Participer à la création d'une vidéo me permettra de renforcer ma crédibilité et de mettre à profit mes connaissances." Vous bénéficierez d'un accompagnement éditorial (sommaire, essai, méthodologie, suivi, montage vidéo...) La rémunération est proposée sous forme de forfait.

CDI

Offre d'emploi
Data analyst R&D (données cliniques)

INFOGENE
Publiée le

50k-60k €
Neuilly-sur-Seine, Île-de-France

Missions principales En pratique, vos responsabilités seront les suivantes : Recueillir et analyser les besoins utilisateurs (équipes métier et R&D). Développer ou améliorer des solutions d’acquisition et de visualisation innovantes. Concevoir et optimiser des rapports de tests, validations et suivis financiers (P&L, KPIs). Élaborer et maintenir la documentation technique, fonctionnelle et les guides utilisateurs. Conseiller et accompagner les utilisateurs dans l’exploitation des solutions. Participer à la mise en place et l’évolution de processus et d’outils de data management. Réaliser des études de faisabilité (données, systèmes, outils, développements). Assurer des formations utilisateurs et produire le matériel pédagogique associé. Compétences techniques attendues Reporting & DataViz Power BI (certification souhaitée) : DAX, Power Query, Report Builder. Streamlit (Python) et Shiny (R) pour des applications interactives. Data storytelling et adaptation des visualisations selon les profils utilisateurs (métiers, data science, direction). Programmation & Analyse de données Python (pandas, matplotlib, seaborn, Streamlit). R (packages de data processing, dashboards interactifs via Shiny). SAS (traitement, analyse et transformation de données structurées, contexte analytique ou clinique). SQL / DBT (structuration, transformation et exploitation de données relationnelles). Bonnes pratiques de développement Maîtrise de Git / GitLab (versionning, branches, merge requests, revues de code). Respect des bonnes pratiques de structuration, modularité et documentation du code. Travail en mode agile (Kanban, Scrum) avec PO, Tech Lead, Data Engineers. Big Data & Cloud Transformation et industrialisation de la donnée sur Google Cloud Platform (GCP) . Développement de datamarts en collaboration avec les Data Engineers.

Freelance

Mission freelance
DATA INGENIEUR H/F

HAYS France
Publiée le
BigQuery
Data management

6 mois
75008, Paris, Île-de-France

Description du Poste : Nous recherchons un Data Engineer expérimenté pour rejoindre notre équipe Enterprise Management et Finance, composée de d’1 PO, 3 Power BI, 1 QA et 1 Data Engineer. Cette équipe est le cœur de notre plateforme de données, responsable de l'ingestion et de la normalisation des données. Son rôle sera également de travailler sur la création, la maintenance et l'amélioration de l'infrastructure, ainsi que sur les processus CI/CD et la documentation, dans un contexte Agile SAFE. Votre consiste à Participer à l’harmonisation des données dans notre Data Platform (DP) pour les reportings du TOP management Assurer la qualité et la conformité des données Travailler dans un contexte Agile SAFE pour assurer des livraisons efficaces et continues

Freelance

Mission freelance
Proxy Product Owner Data

SKILLWISE
Publiée le
JIRA
Kanban
Web analytics

2 mois
150-500 €
Paris, France

Nous recherchons un Proxy Product Owner pour accompagner une équipe Data dans un contexte de forte croissance digitale. Vous interviendrez au sein d’une équipe pluridisciplinaire (PM, PO, Analytics Engineer, Data Engineer, QA...) en charge de l’ensemble du cycle de vie de la donnée, de sa création à son activation pour différents usages métiers. Votre rôle consistera à : Recueillir et formaliser les besoins fonctionnels (techniques et métiers) en support du PO. Assurer le suivi des projets et garantir la visibilité des avancées auprès des parties prenantes. Participer au déploiement technique des produits data sur des assets web, applications mobiles, IPTV et TV connectée. Contribuer à la mise en place et au paramétrage des outils tiers (Tag Commander, Piano Analytics, DMP, CMP...).

Freelance

Mission freelance
Senior Data Consultant / Architecte Fonctionnel

Comet
Publiée le
Salesforce Sales Cloud
SAP S/4HANA
Snowflake

1 an
400-640 €
Île-de-France, France

Contexte Dans le cadre du développement d’une Data Platform (Data as a Service) , nous recherchons un Senior Data Consultant / Architecte fonctionnel afin de piloter la phase d’ assessment / étude et d’accompagner ensuite le passage en exécution du projet. Responsabilités Organiser et animer les ateliers de cadrage avec les métiers. Recueillir et formaliser les besoins business. Réaliser la modélisation de données (conceptuelle & physique – Silver layer). Documenter l’architecture fonctionnelle et la valeur de la solution. Coordonner les contributeurs techniques (architectes, Data Engineers, BI Engineers). Préparer budget, planning et “Go to project” proposal.

Freelance
CDI

Offre d'emploi
Consultant MSBI / T-SQL (H/F)

STORM GROUP
Publiée le
Data Warehouse
MSBI
Transact-SQL

3 ans
48k-55k €
480-520 €
Île-de-France, France

Missions : Le consultant data Engineer SQL au sein du pôle « Data Architect & Engineer », sera en charge principalement de : - Concevoir, développer et maintenir des flux de données (XLM, JSON, WS, xslt, ..) - Concevoir, développer et maintenir des modèles de données (Sqlserver / Sybase IQ) - Maintenir/Optimiser des cubes SSAS Multi-dimensionnels & Tabular - Mettre en place/maintenir des chaines de batchs (CTRL-M) - Assurer des tâches de support - Contribuer aux projet devops - Rédiger des documentations techniques et des procédures - Participer au dispositif d’astreintes.

207 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

France

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous