Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 2 920 résultats.
CDI

Offre d'emploi
Développeurs JAVA Back-End

Publiée le
Back-end
Docker
Git

1 an
40k-50k €
400 €
Île-de-France, France
🔎 Recherche : 3 Développeurs JAVA Back-End Senior (8+ ans) – Secteur bancaire Missions : Conception et développement de solutions JAVA de qualité Support applicatif Travail en méthodologie Agile Contribution à l’amélioration continue Environnement : Java 8/17/21, Spring / Spring Boot, Spring Data, Spring Batch, Microservices, Cloud, Jenkins, Maven, Git, TDD, PostgreSQL, Oracle (Notions : Docker, Kubernetes, BDD, Architecture Hexagonale) 👤 Profil recherché Développeur JAVA Back-End Senior 8 ans d’expérience minimum Expérience significative en secteur bancaire ou financier fortement appréciée
Freelance

Mission freelance
Data Engineer H/F

Publiée le
Azure

3 ans
Île-de-France, France
Description : Livrables : • Concevoir et mettre en œuvre des solutions data pour soutenir les objectifs business. • Analyser et interpréter des données complexes afin d’en extraire des informations exploitables. • Collaborer avec des équipes inter fonctionnelles pour identifier et résoudre les défis liés aux données. • Développer et maintenir des pipelines de données, des modèles et des outils de reporting. • Garantir la qualité, l’intégrité et la sécurité des données tout au long de leur cycle de vie. • Fournir une expertise technique et des conseils aux parties prenantes pour soutenir les prises de décisions fondées sur les données. Expertise : • Diplôme de niveau Bachelor ou Master en informatique, data science ou domaine connexe. • Plus de 5 ans d’expérience en data engineering, data analytics ou rôle similaire. • Expérience avérée dans la livraison de solutions data dans un environnement dynamique. • Maîtrise des technologies et architectures data modernes, telles que les plateformes cloud, les frameworks big data et les solutions de data warehousing. • Expertise en langages de programmation tels que Python, SQL et Spark. • Maîtrise de la modélisation de données, des processus ETL et des techniques de transformation de données. • Expertise des plateformes cloud orientées data (ex. : AWS, Azure, Google Cloud). • Maîtrise des outils de visualisation et de reporting (ex. : Power BI, Tableau). • Connaissance approfondie des bonnes pratiques en matière de sécurité, gouvernance et conformité des données.
Freelance

Mission freelance
Chef de projet Data

Publiée le
BigQuery
Google Cloud Platform (GCP)
Piano Analytics

12 mois
Paris, France
Télétravail partiel
Contexte Une grande direction numérique souhaite renforcer son équipe Data dans le cadre de projets transverses impliquant de multiples directions internes. L’objectif de la direction Data est de faire de la donnée un levier de croissance stratégique via trois axes majeurs : Maximiser la collecte dans le respect des réglementations. Développer la connaissance et l’expérience utilisateur. Fournir outils de pilotage et d’aide à la décision aux équipes internes. Dans ce cadre, la mission consiste à assurer la coordination Data transversale au sein de plusieurs pôles et avec l'ensemble des directions métiers consommatrices de données. Prestations attendues Coordination intra-Data Coordonner les projets transverses entre les pôles Data (Technique, Intelligence, Management, Gouvernance). Identifier les actions attendues par chaque équipe. Assurer le suivi d’avancement et remonter les alertes. Mettre en place et structurer la comitologie, la documentation et les rituels projet. Assurer la remontée d’informations au management. Coordination inter-Data avec les métiers Agir comme point d’entrée principal pour les directions métiers consommatrices de données (Produit, Editorial, Partenariats, Marketing, Publicité…). Qualifier et formaliser les besoins (collecte, tracking, dashboards, analyses, personnalisation…). Représenter la Data dans les instances de coordination des projets transverses. Organiser les ateliers de travail, réunions de suivi, réunions de restitution. Garantir la cohérence entre les équipes Data et les métiers sur l’ensemble des sujets. Assurer la communication sur les livrables Data afin de promouvoir les réalisations. Expertises requises Expérience minimale de 8 ans en gestion de projets Data. Compétences confirmées sur GCP, SQL et BigQuery. Expérience sur les principaux métiers Data : collecte, tracking, dashboarding, analyse, personnalisation, data science. Pratique avérée des données digitales, notamment via Piano Analytics. Capacité à piloter des projets transverses et à gérer plusieurs chantiers simultanément. Capacité à synthétiser des sujets complexes et à présenter des résultats à des interlocuteurs ayant des niveaux de maturité variés.
CDI
Freelance

Offre d'emploi
Data Engineer

Publiée le
Apache Hive
Apache Kafka
Apache Spark

6 mois
Vannes, Bretagne
Télétravail partiel
Dans le cadre des travaux à réaliser, nous recherchons un profil Data Engineer confirmé : Participer à la définition de l'architecture Data (en lien avec les architectes et la Squad) Concevoir, Affiner et Développer les solutions de collecte et de stockage des données (provenant de multiples sources) afin de le rendre disponibles pour les usages métiers Mettre en œuvre les tests unitaires et automatisés Déployer le produit dans les différents environnements Garantir le bon fonctionnement du produit en production et assurer le suivi / l'assistance / la gestion des incidents Accompagner l’évolution des pratiques de l’équipe dans une logique d’amélioration continue de la qualité du code
Freelance

Mission freelance
Architecte Data

Publiée le
Architecture
Azure

4 mois
650-680 €
Rennes, Bretagne
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un Architecte Data(H/F) , pour le compte de l'un de ses clients qui opère dans le domaine de l'industrie. Description 🎯 Contexte de la mission Dans le cadre d’un projet stratégique à forte visibilité, une nouvelle Data Platform doit être conçue sur une infrastructure Kubernetes récemment livrée. 🧩 Missions principales & Rôle Le Data Architecte interviendra sur les activités suivantes : 🏗️ Définition de l’architecture cible de la Data Platform 🗂️ Segmentation et ségrégation des stockages (temps réel, analytique, applicatif) 🐳 Déploiement et orchestration de conteneurs dans un environnement Kubernetes 🔒 Mise en place du socle Data incluant : sécurité, qualité, monitoring, CI/CD Data 🧪 Accompagnement sur les choix technologiques , avec priorité aux solutions open source 🤝 Co-construction avec les équipes métiers , utilisateurs d’outils no-code / low-code 🔍 Participation à la définition des patterns d’architecture et bonnes pratiques 🎯 Objectifs de la mission Mettre en place une architecture Data scalable et sécurisée Assurer la cohérence technologique entre l’infra Kubernetes, les composants Data et les besoins métiers Définir les patterns, standards et bonnes pratiques de la future plateforme Préparer l’intégration des premiers pipelines et cas d’usage métiers
Freelance
CDI

Offre d'emploi
Chef de projet Infrastructure / Project Management

Publiée le
Data governance
SLA

1 an
40k-45k €
330-440 €
Île-de-France, France
Télétravail partiel
Descriptif du poste Dans un contexte international et pour des raisons d'efficacité, il s'agit de suivre et renforcer le suivi de projets transverses principalement sur des sujets de production et sécurité. Mise en place de roadmap avec les équipes, suivi de projet, facilitator, reporting sur plusieurs types de projets BAU et non BAU : Exercice de restoration Implementation des plans des Risk cards Mise en place de roadmap consolidées des équipes APS Mise en place et preparation de Production Steering Committee Renforcement des controles ITIL Préparation des Services Review, SLA Preparation weekly change board Preparation de revue P1/2/PIR
CDI

Offre d'emploi
 Ingénieur Big Data / Bases de Données

Publiée le
AWS Cloud
BigQuery
Cassandra

40k-54k €
Paris, France
Télétravail partiel
Redlab cherche pour le compte d'un client grand compte , un ingénieur big Data /bases de données Expert des architectures data : bases de données SQL & NoSQL, Big Data, pipelines, gouvernance, performance, sécurité. Missions clés Administrer et optimiser bases SQL & NoSQL. Concevoir pipelines ETL/ELT sur données hétérogènes. Travailler sur Hadoop, Spark, Hive, Delta Lake. Mettre en place partitionnement, Mettre en place sharding, caches. Déployer en cloud (AWS/Azure/GCP). Forte maitrise des Bases de données
Freelance

Mission freelance
Chef de projet technique - IaaS et Data

Publiée le
IaaS (Infrastructure-as-a-Service)

12 mois
660 €
Yvelines, France
Télétravail partiel
Notre client, un établissement financier majeur, recherche un CP IaaS et Data pour renforcer son équipe Cette mission est au sein du centre d’expertise pour l’infrastructure, le cloud, la donnée, l’IA et le DevOps. Il accompagne les projets de transformation numérique, garantit la performance, la sécurité et l’innovation, et propose des solutions adaptées aux besoins métiers et applicatifs. La mission consiste à piloter des projets dans le cadre de création d’offre produit, de traitement d’obsolescence ou de mise en conformité (réglementaire, sécurité, amélioration de QoS). - Piloter des projets sur le périmètre IaaS et DATA - Définir les solutions cibles, en collaboration avec les experts, et en lien avec les besoins utilisateurs -Coordonner l’ensemble des parties prenantes -Structurer et animer la gouvernance des projets -Etablir les plans d’investissements et le suivi financier des projets, en lien avec le Contrôle de Gestion - Gérer les risques projets Livrables - Rédaction des notes de cadrage ; présentation aux parties prenantes (sponsors, Chief Platform Officer, PM, PO) et aux différents comités - Animation des comités de suivi - Suivi opérationnel de l’avancement des projets (respect des délais, des jalons …) - Suivi des risques et des plans d’actions associés - Suivi rigoureux des budgets alloués - Garant de la livraison de tous les documents conformément à la méthodologie Projets Environnement technique Cloud Infrastructures (VMWare, OpenStack, Openshift), OS Factory (Windows, Linux, Unix), Containers (Docker, Kubernetes), plateformes Data (Cloudera, MAPR, Data Cloud GCP, …), Data Storage (bloc, fichier, objet)
Offre premium
CDI

Offre d'emploi
Ingénieur DATA / DEVOPS (F/H)

Publiée le
AWS Cloud
Data analysis
DevOps

Nice, Provence-Alpes-Côte d'Azur
Télétravail partiel
Mission sur SOPHIA ANTIPOLIS 4 jours de présentiels (préférable d'habiter la région Alpes maritimes) En vue d'embauche en CDI Notre client, une start-up dans l'énergie, recherche un tech lead pour accompagner les équipes dans le développement de leur solution de prévision météo. Mission principale : Assurer le pilotage technique et la mise en production des solutions de prévision solaire développées, en garantissant la robustesse, la scalabilité et la fiabilité de l’infrastructure data et logicielle. Responsabilités clés : Data Engineering : maintenir et optimiser les pipelines de données (météo, satellite, capteurs PV) pour les modèles de prévision. Infrastructure & DevOps : Déploiement et gestion des environnements cloud (AWS). Mise en place et maintenance de l’Infrastructure as Code (Terraform). Automatisation et optimisation des déploiements via CI/CD (GitHub Actions). Orchestration des tâches : concevoir, monitorer et optimiser les workflows de données et de calcul via Dagster. Opérations métiers : garantir la bonne exécution des codes de prévision (algorithmes, modèles, calculs intensifs) en production. Onboarding & Process : structurer et gérer les procédures d’onboarding technique des nouveaux clients et des PoCs. Qualité & Sécurité : veiller à la résilience, à la sécurité et à la performance des systèmes déployés. Compétences attendues : Solide expérience en Data Engineering et/ou DevOps. Maîtrise de AWS et des outils Terraform. Connaissance des bonnes pratiques CI/CD et expérience avec GitHub Actions. Expérience en orchestration de workflows de données (idéalement Dagster, sinon Airflow ou équivalent). Compétences en scripting (Python, Bash) et monitoring. Capacité à travailler dans un environnement agile, en lien avec des data scientists et des équipes projet. Esprit de structuration et sens des responsabilités pour accompagner la croissance d’une scale-up deeptech.
Freelance

Mission freelance
Data analyst - Alteryx / Power BI

Publiée le
Alteryx

12 mois
600 €
Île-de-France, France
Télétravail partiel
Notre Client bancaire recherche un consultant Data analyst (H/F) pour intervenir au sein d'une équipe de la Direction Finance traitant les besoins liés aux reportings règlementaires Finance et Risques, à savoir industrialisation de processus métiers et création de reportings automatisés. La mission interviendra sur différents processus (risques ou finance) en mode support, évolution et surtout projet : - Création de tableaux de bord sur Power BI - Industrialisation de processus métiers par le développement de workflows Alteryx et leur déploiement sur Alteryx Server - Création d’applications à l'aide de PowerApps. - Accompagner les équipes Finance et Risques dans l’automatisation de leurs reportings - Participer à des projets transverses Finance/Risques en mode projet, évolution ou support Environnement : Power BI, Alteryx, SSIS, SSAS, SQL Server, Sharepoint, PowerApps, Power Automate.
CDI

Offre d'emploi
Data Engineer - Lyon

Publiée le
Databricks
DBT
Snowflake

50k-60k €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Ton quotidien chez Komeet sera rythmé par : Animation des ateliers afin d’étudier et cadrer les besoins clients Préconisation, conception et mise en œuvre des plateformes Data (datawarehouse, datalake/lakehouse ) Rédaction de dossiers d’architecture et spécifications techniques Mise en œuvre des stratégies d’exploitation de plateformes Data Construction et déploiement des pipelines de données (ETL / ELT) à l’aide de langage de programmation ou d’outils de type Low-Code Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. Tests, validation et documentation des développements Réalisation d'audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP
Freelance

Mission freelance
Lead Data Engineer Senior

Publiée le

24 mois
450-900 €
Paris, France
Télétravail partiel
PROPULSE IT recherche un Lead Data Ingénieur ayant près de 10 ans d'expérience pour un de ses clients En tant que Lead Data Engineer, vous travaillerez au sein de l'équipe digitale « data et performance », en charge principalement de l'infrastructure data, et du traitement, de l'intégration et de la transformation de la donnée digitale d'Hermès (hermes.com). Vous serez aussi garant·e de sa qualité et sa sécurité et le respect de la vie privée liée à cette donnée. Vous serez rattaché·e au Data Manager et vous animez et pilotez une équipe de 2 Data Engineer au quotidien. Vous travaillerez principalement sur le Cloud de Google (GCP), mais aussi en partie sur le Cloud Amazon (AWS). Le respect de la vie privée étant au cœur de de votre travail, vous devrez être conscient des problématiques liées à la GDPR. Des connaissances sur les problématiques liées à l'e-Commerce sont un plus. Principales Activités : Industrialisation de l'infrastructure de la Data Platform sous GCP - Vous avez pour principale mission d'accompagner l'équipe Data et Performance dans l'industrialisation de sa plateforme data via : - Mise en place d'environnements dédiés et cloisonnés (Dev / Preprod / Production) - L'automatisation du déploiement et la maintenance des environnements via des outils d'infrastructure as code (Terraform) sous GCP - Mise en place de solutions d'observabilités (monitoring, alerting) au sein de GCP Manipulation/Transformation de données (en batch et stream) - Vous accompagnerez aussi l'équipe Data dans ses activités de transformation de données via : - Maintenance pipelines de données en python (batch et stream) - Des pipelines de transformation en SQL/SQLX dans l'outil DataForm (similaire à DBT) - Mise en place et maintenance d'un outil de data quality (ex : great expectations en python) - Aider au développement des workers dans les Cloud AWS pour récupérer la donnée depuis Kafka et l'envoyer vers PubSub dans GCP. - La connaissance de l'outil DataFlow (Apache Beam) est un plus. Collaboration avec les équipes du pole, centrée sur la donnée de qualité - Standardisation de la base de code de l'équipe (linting, CI/CD, divers tests - Maintien et réalisation de schémas d'architectures et documentation des processus internes - Collaboration avec les autres équipes du pôle Data : data analysts, SEO/SEA et emailing - Aider à la mise en place de bonnes pratiques : - Anonymisation et archivage de la donnée dans le respect du RGPD et de la politique interne du traitement de données - Sécurité de l'infra, de la data et du code
Freelance

Mission freelance
Architecte Data – Expert Azure

Publiée le
Azure
Big Data

3 ans
650-700 €
Paris, France
Télétravail partiel
Architecte Data – Expert Azure L’Architecte Data interviendra en tant que référent transverse sur les études, les cadrages et la conception d’architectures data bâties autour de l’écosystème Azure (Azure Data Lake, ADF, Databricks, Synapse/Fabric, Purview…). Au-delà de l’expertise Azure, il jouera un rôle de conseil , capable de vulgariser les enjeux data et de présenter des solutions claires et impactantes auprès des directions métier et exécutives, dans une posture “cabinet de conseil”. Responsabilités principales : Réaliser des études d’architecture et de chiffrage (DAT, estimations, roadmaps) avec un focus fort sur Azure Data . Concevoir des architectures data modernes sur Azure : ingestion, stockage, modélisation, gouvernance, analytics/AI. Traduire les besoins métier en solutions Azure pragmatiques, sécurisées et alignées sur les standards de l’entreprise. Produire des livrables premium : présentations PowerPoint, supports de cadrage, pitchs d’arbitrage, dossiers de décision. Vulgariser les sujets Azure auprès d’interlocuteurs non techniques (métiers, directions). Conseiller, challenger et proposer des trajectoires data orientées Azure, en réalisant benchmarks et recommandations. Travailler en proximité avec les équipes Data Engineering, BI, IA, Cloud et les autres architectes. Profil recherché : Bac+5 (ingénieur ou équivalent). 5 à 10 ans d’expérience minimum en architecture data , avec une expertise Azure confirmée . Maîtrise des principaux services Azure Data : Data Lake, ADF, Databricks/Fabric, Synapse, Purview, ETL/ELT, sécurité, gouvernance. Excellent relationnel, capacité à adapter son discours selon les interlocuteurs (métiers, DSI, direction). Solide maîtrise de la structuration et mise en scène de l’information (slides, storytelling, cadrage). Expérience en conseil / ESN appréciée (présentation, posture, relation client). Équilibre stratégie / technique : parler d’architecture sans rentrer dans le code. Soft skills clés : Pédagogue, excellent vulgarisateur. Curieux, structuré, orienté impact. Parfaitement à l’aise dans les présentations. Posture de consultant : écoute, influence, crédibilité.
Freelance

Mission freelance
Data engineer senior/Tech lead Migration IDQ Fabric (F/H) - 75

Publiée le
Databricks
Microsoft Fabric
PySpark

12 mois
400-770 €
Paris, France
Télétravail partiel
Notre client migre ses flux ETL d’Informatica vers Microsoft Fabric pour ses besoins en data ingestion et analytics. Le projet concerne principalement le domaine Finance, avec un modèle pivot centralisant contrats, positions, instruments de couverture, flux futurs, contreparties et données de marché. Environnement technique : * ESB (Software AG), * ETL (Informatica), * Data Platform (Fabric/Power BI) Mission En tant que Tech Lead Data, vous serez responsable de : * Définir les standards techniques (Fabric, Spark, Python) et bonnes pratiques de développement. * Piloter la migration des flux Informatica vers Fabric : * Évaluer l’existant (flux, modèles pivots, dépendances). * Concevoir le framework d’ingestion/transformation (Spark, Notebooks). * Mettre en place la CI/CD (Azure DevOps/GitHub). * Assurer le monitoring et la qualité des données. * Encadrer une équipe de 3 Data Engineers (mentorat, optimisation des performances). * Collaborer avec les équipes métiers (Finance/Risque) et l’architecture IT.
Freelance
CDI

Offre d'emploi
Data Engineer (H/F) - Lyon

Publiée le
Apache Airflow
MLOps
PySpark

1 an
40k-45k €
400-500 €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Notre client, acteur majeur du secteur [énergie / distribution], recherche un.e Data Engineer confirmé.e pour renforcer ses équipes Data. Le poste combine Data Engineering et MLOps , avec une implication sur l’ensemble du cycle de vie des pipelines de données et modèles ML. Missions principales : Data Engineering (intervention sur 2 projets) Concevoir, développer et maintenir les pipelines de données pour 2 applications disctinctes. Assurer l’ingestion, la transformation et le stockage de données à grande échelle. Optimiser les traitements pour garantir des performances adaptées aux volumes traités. Mettre en place des mécanismes de qualité des données (contrôles, alertes, monitoring). Collaborer avec le pôle Développement pour définir les interfaces de données (API, bases de données). Documenter les flux de données et maintenir le catalogue de données. MLOps (Intervention sur 1 des 2 projets) Industrialiser l’entraînement des modèles ML pour l’optimisation du dimensionnement des groupes électrogènes. Déployer des pipelines CI/CD pour les modèles ML (versioning des données et modèles, automatisation de l’entraînement). Assurer le monitoring des performances des modèles en production (drift detection, métriques de performance). Collaborer avec les Data Scientists pour faciliter le passage des modèles du développement à la production.
Freelance
CDI

Offre d'emploi
Data Analyst BI H/F

Publiée le
Business Intelligence
Business Object
ETL (Extract-transform-load)

36 mois
50k-60k €
450-550 €
Hauts-de-Seine, France
Télétravail partiel
Amago IT recherche dans le cadre d'une prestation de longue durée pour l'un de nos clients dans le secteur Assurance basé dans le 92 : un Data Analyste BI H/F Missions : · Assurer la maintenance évolutive de l'application existante, en veillant à son bon fonctionnement et à l’intégration des évolutions pour répondre aux besoins internes. · Contribuer à l'amélioration du processus de reporting en travaillant sur l’automatisation de la collecte de données et l'optimisation des traitements, afin de simplifier le processus tout en préservant la fiabilité et la précision des données. · Collaborer avec l’équipe interne pour définir les besoins fonctionnels et techniques, et pour déployer des solutions adaptées à l’amélioration de l'analyse de la performance commerciale. · Apporter une expertise technique et fonctionnelle pour l’optimisation des outils de reporting et pour le développement de nouvelles fonctionnalités. · Prendre en charge la maintenance des solutions déployées en apportant des améliorations continues et en veillant à leur adéquation avec les exigences métiers. · Effectuer une analyse détaillée des données afin d’identifier des axes d’amélioration dans les processus existants et proposer des solutions efficaces et adaptées aux enjeux commerciaux de l’entreprise. · Assistance aux utilisateurs pour les autonomiser. Aide à la gestion du changement.
2920 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous