Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 1 574 résultats.
Freelance

Mission freelance
Data Engineer

Publiée le
Azure Data Factory
Azure DevOps
Databricks

1 an
500-550 €
Paris, France
Télétravail partiel
Intégré(e) aux équipes Data (Data Engineers, BI, Sécurité, Infrastructure), vous interviendrez sur la conception, le développement et l’industrialisation des pipelines data dans un environnement Azure. Vos principales responsabilités : Concevoir des pipelines d’ ingestion et de transformation (batch et near-real-time) Développer et maintenir des flux sous Azure Data Factory Implémenter des traitements Spark via Databricks Mettre en place la qualité des données , le monitoring et la reprise sur erreur Versionner, packager et livrer via des pipelines CI/CD Collaborer avec les équipes BI, sécurité et infra 🛠️ Industrialisation & DataOps Respect des standards de développement et de nommage Mise en œuvre de pipelines CI/CD Documentation et maintien des bonnes pratiques Data Contribution à la performance et à la robustesse des traitements
Freelance
CDD
CDI

Offre d'emploi
Consultant Data Databricks (F/H)

Publiée le
Apache Spark
Databricks
DevOps

3 ans
60k-75k €
550-610 €
Paris, France
Télétravail partiel
🔎 Contexte de la mission Intervention au sein de la Direction des Systèmes d’Information d’un acteur bancaire. Mission réalisée dans une équipe de données transverses opérant en support des directions : Finance Marketing Crédit L’équipe n’intervient pas sur des sujets cybersécurité , mais se concentre sur : Les enjeux réglementaires Le reporting opérationnel et financier La mise à disposition de données à d’autres équipes (dont IA et modernisation Azure) 👥 Organisation Équipe de 10 à 15 personnes (mix France + offshore Inde) 3 internes / plusieurs prestataires externes Encadrement par un IT Lead ⚙️ Environnement technique Cloud & orchestration Azure Azure Databricks Azure DevOps (CI/CD) Data pipeline Python (Airflow, FastAPI) SQL / PostgreSQL Spark DataVault (modélisation) DBT (prochainement intégré) Fichiers via couche FTP Visualisation & automatisation Power BI (rationalisation en cours) Power Automate Azure AI / ML (projets IA à venir en 2026) Gouvernance & data Data Store Domain Atlas Autres informations 📍 Localisation : Paris 8ème 🕒 Durée estimée : 3 ans 🗓️ Démarrage souhaité : ASAP selon disponibilité 🗣 Langue de travail : anglais courant (collaboration avec équipes offshore)
Freelance

Mission freelance
Data Engineer Spark/Scala

Publiée le
Apache Spark
Scala

3 mois
330-420 £GB
Paris, France
Télétravail partiel
Data Engineer Spark/Scala o Expérience dans la mise en œuvre de technologies et frameworks Big Data et NoSQL (Hadoop, Kafka, Spark, Scala, Hive, SolR, HBase, Kerberos) o Spark / Scala : confirmé o A l'aise avec le programmation fonctionnelle (connaissance des librairies ZIO, MONIX, CATS appréciée) o Expérience de travail dans un environnement Agile ; avec outils et méthodologies associés (Confluence, Jira, Scrum, Kanban) Au sein de la DSI Finance de la DSI, le poste recherché porte sur le besoin d’un Data Engineer Spark/Scala confirmé (5-6 ans d’expérience). Objectifs et livrables Objectifs Le prestataire intégrera le projet d’intégration en coordination avec le chantier assiette comptable de référence en tant que Data Engineer. Les développements sur ce chantier s’appuient sur la plateforme Datalake Finance, basée sur la distribution Hadoop HortonWorks qui collecte les données des différents systèmes de synthèse afin de répondre aux nouveaux besoins de reporting Finances & Risques (COREP, calcul RWA, IFRS9, etc.…) Les tâches seront les suivantes : • la mission consistera à prendre part aux développements, au sein du datalake pour acquérir les nouvelles sources de données, les assemblées et les distribuées aux consommateurs, tout en étant garant de la pérennité et la non-régression de l’outillage déjà en place • Vous participerez à la conception et à l’implémentation de ce projet et serez amené, à ce titre, à travailler en méthode Agile avec de nombreux acteurs métiers et les équipes de maintenance Compétences techniques o Expérience dans la mise en œuvre de technologies et frameworks Big Data et NoSQL (Hadoop, Kafka, Spark, Scala, Hive, SolR, HBase, Kerberos) o Spark / Scala : confirmé o A l'aise avec le programmation fonctionnelle (connaissance des librairies ZIO, MONIX, CATS appréciée) o Expérience de travail dans un environnement Agile ; avec outils et méthodologies associés (Confluence, Jira, Scrum, Kanban) Compétences demandéesCompétences Niveau de compétence Apache Kafka Avancé Apache Hadoop Confirmé Apache Hive Avancé SCALA Confirmé Spark Confirmé
Freelance

Mission freelance
Administrateur / Expert Big Data (Cloudera)

Publiée le
Apache Spark
Cloudera
Hadoop

3 ans
500-700 €
Île-de-France, France
Télétravail partiel
Vous serez en charge du déploiement ainsi que du MCO/MCS de l’écosystème Cloudera (Cloudera Manager, services Cloudera Data Platform : HDFS, Vous interviendrez également sur la gestion d’une architecture Lake house , comprenant : Data Security : Apache Ranger Data gouvernance : Apache Atlas Data processing : Spark, Apache Zeppelin Data ingestion : NiFi Data analytics : Apache Impala Data lake : Hadoop, Apache Kudu Data serving : Hue Responsabilités Documenter les procédures d’exploitation et rédiger des rapports synthétiques Garantir le bon fonctionnement des services dans le respect des SLA Opérer en environnement de production en s’appuyant sur les processus ITIL (gestion des incidents, problèmes, changements) Communiquer en anglais avec les éditeurs (dont Cloudera) et les fournisseurs Automatiser les déploiements (fichiers de configuration, certificats, keystores) via Ansible Utiliser les outils DevOps (GitHub, Jenkins) pour le versionning et les pipelines Exploiter les environnements Linux et analyser les logs dans le cadre du traitement des incidents Être force de proposition concernant l’amélioration de l'exploitabilité, la robustesse et la supervision des services Participer aux réunions d’équipe, aux projets et aux différents comités, et assurer un reporting régulier Livrables attendus Dossier d’ingénierie de la plateforme Lake house Fiches et procédures d’exploitation Dossier de mise en production PV de mise en production
Freelance
CDI
CDD

Offre d'emploi
Expert Kubernetes / Openshift – Senior (H/F)

Publiée le
Ansible
Docker
Kubernetes

1 an
Île-de-France, France
Objectif global : Administrer et maintenir les plateformes de conteneurisation (Docker, Kubernetes, Openshift), en assurant la performance, la sécurité et l’automatisation des environnements. Description détaillée de la mission : La mission se déroule au sein de l'équipe Infrastructure CaaS. L’objectif est la prise en charge des plateformes d’orchestration de conteneurs pour les projets Cloud et les initiatives de transformation IT. L’équipe travaille en mode Agile, favorisant l’automatisation et l’amélioration continue des services. Tâches principales : Déployer, configurer et maintenir les plateformes Docker, Kubernetes et Openshift pour assurer l’isolation et la performance des applications. Rédiger et maintenir les playbooks Ansible pour automatiser déploiements et configurations. Collaborer avec les équipes ADM, APS et les partenaires métiers pour tous les sujets liés aux conteneurs. Mettre en place les politiques de sécurité, gérer les vulnérabilités et contrôler l’accès aux conteneurs selon les normes en vigueur. Assurer la maintenance préventive et curative des systèmes conteneurisés, suivi des incidents et disponibilité des services. Suivre les avancées technologiques en matière de conteneurs, stockage et sécurité pour proposer des solutions innovantes. Respecter la gouvernance CIB et ITO et coordonner avec les partenaires mondiaux pour garantir l’alignement sur l’architecture et les principes IT. Compétences techniques : Docker – Expert Kubernetes – Confirmé / Expert Openshift – Confirmé / Expert Linux / Systèmes – Confirmé Automatisation (Ansible, scripts) – Confirmé Sécurité des conteneurs – Confirmé Compétences linguistiques : Anglais professionnel (Impératif)
Freelance
CDI

Offre d'emploi
Business Analyst Data / Expert Data Management - Banque

Publiée le
Data analysis
Data governance
Data Lake

6 mois
45k-60k €
470-700 €
Île-de-France, France
Télétravail partiel
Dans le cadre d’un projet stratégique pour une grande banque européenne , nous recherchons deux profils complémentaires : Business Analyst Data et Expert Data Management. Vous interviendrez sur des sujets clés liés à la migration de Datalake et à la gouvernance des données . Vos responsabilités incluront : Participer à la migration et à la valorisation des données. Implémenter des contrôles de Data Governance (Ownership, Definition, Quality). Gérer les Metadata et le Data Lineage . Superviser le End User Computing (EUC) . Définir et exécuter des plans pour garantir la conformité avec les frameworks Data Management & EUC.
Freelance
CDI

Offre d'emploi
Data Steward (H/F)

Publiée le
Data governance

1 an
45k-50k €
450-480 €
Lyon, Auvergne-Rhône-Alpes
Contexte de la mission Dans le cadre du renforcement de nos activités Data & IA , Winside recherche un Data Steward pour intervenir en régie chez un grand acteur national du secteur des services publics (nom volontairement anonymisé). Rattaché au Responsable Data du client, le Data Steward jouera un rôle clé dans l’ opérationnalisation de la gouvernance, de la qualité et de la valorisation des données , en collaboration avec les équipes IT et les équipes métiers. Le projet prioritaire du client en 2026 est la migration de son système d’information métier . L’enjeu consiste à capitaliser sur les travaux réalisés dans le cadre de cette migration pour structurer et documenter les données, tout en minimisant l’effort demandé aux équipes métiers. Les périmètres de données concernés sont : Les objets métiers impactés par les nouvelles fonctionnalités du SI cible. L’objet métier Client (référentiel client). Missions principales 1. Mise en place d’un Data Catalog & Glossaire métier Définir l’outil et la structure du data catalog dans une approche « juste nécessaire » (Excel, Notion… pas de solution outillée prévue en 2026). Rédiger les définitions fonctionnelles des données (glossaire). Formaliser le cycle de vie des données. Structurer, harmoniser et animer la documentation fonctionnelle et technique des données. 2. Mise en place d’un cadre de Data Quality Management Définir les principes, règles et contrôles de qualité des données. Concevoir les workflows de gestion entre acteurs IT et métiers. Participer à la conception des tableaux de bord de qualité et de l’alerting associé. 3. Appui à la conception du modèle de gouvernance des données Définir processus, rôles, responsabilités et instances de gouvernance. Accompagner la structuration du modèle opérationnel.
Freelance
CDI

Offre d'emploi
Lead Technical Architect – Environnement Finance de Marché (H/F)

Publiée le
Big Data
Finance
Time series

3 ans
46k-58k €
400-550 €
Île-de-France, France
Télétravail partiel
🎯 Contexte Un département stratégique dédié à la recherche quantitative en finance de marché recherche un Lead Technical Architect pour renforcer ses équipes. La mission s’inscrit au cœur d’un environnement global, à forte intensité data et compute, travaillant en étroite collaboration avec des équipes Quant , IT , Research et Ops . Vous interviendrez sur des plateformes critiques liées au pricing , au risk management , aux time-series data et à la performance des systèmes de calcul. 🛠 Vos responsabilités Au sein du groupe en charge des infrastructures compute et market data, vous aurez pour missions : Repenser et optimiser l’architecture des services Compute et Histo . Améliorer la scalabilité , la performance et la résilience de l’infrastructure grid. Fournir des recommandations structurantes sur la stack haute disponibilité. Rewriting / refactoring de composants techniques ne répondant pas aux exigences de performance. Participer à la définition des frameworks pour les services de market data haute demande. Travailler au quotidien avec les équipes quant, recherche et ingénierie.
Freelance

Mission freelance
Data Engineer / Data Analyst Python

Publiée le
Analyse
KPI
Python

3 ans
320 €
Marseille, Provence-Alpes-Côte d'Azur
🔍 Nous recherchons un(e) Data Analyst / Data Engineer pour renforcer une équipe existante et accompagner la transformation digitale et la gestion des données réglementaires du département Chartering , dans un contexte fortement exposé aux enjeux de conformité FUEL EU . 1) Suivre et agir pour la transformation digitale et la gestion/collecte des données réglementaires du département Chartering (état des lieux et mise en place de process) 2) Collecter les informations nécessaires pour le calcul de la compliance FUEL EU et tenir à jour les bases de données spécifiques pour ces calculs et leurs couts 3) Elaborer et comparer les différentes options pour diminuer l’exposition réglementaire 4) Contrôler et challenger les informations et projections communiquées par les armateurs et les lignes exploitantes 5) Mettre en place des outils et KPI’s permettant des prises de décisions opérationnelles 6) Négocier / coordonner avec les armateurs le timing et la nature des mesures pour compenser ou neutraliser les déficits réglementaires 7) Présenter et partager les résultats avec les lignes, plateau IMO, départements/métiers concernés
Freelance

Mission freelance
Expert Cybersécurité – GenAI / Azure

Publiée le
AI
Azure
Cybersécurité

3 ans
400-800 €
Fontenay-sous-Bois, Île-de-France
Télétravail partiel
Nous recherchons un Expert Cybersécurité spécialisé GenAI afin d’accompagner une direction sécurité sur les sujets IA, Cloud et protection des données. Assurer la cybersécurité des projets et plateformes GenAI Définir les règles de sécurité autour des technologies : Microsoft 365, Azure, Copilot, Power Platform, Azure ML Produire les dossiers de sécurité : risques, contre-mesures, blueprints, recommandations Accompagner les équipes projets et centres de compétences (architecture, normes, standards) Réaliser des revues de sécurité du code et des livrables techniques Définir des KPI de gouvernance AI et des tableaux de pilotage des risques
Freelance

Mission freelance
Data Engineering Manager – Data Platform & Transformation H/F

Publiée le
Azure
Snowflake

6 mois
450-580 €
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
Notre client dans le secteur Santé et pharma recherche un/une Data Engineering Manager – Data Platform & Transformation H/F Description de la mission: L’entreprise accélère sa transformation Data & IA et structure son organisation Data autour d’un modèle opérationnel à deux squads : Data Product Squad (orientée métier et création de valeur) Data Engineering Squad (mise à disposition de la plateforme, exploitation et enablement) L’entreprise recherche un(e) Data Engineering Manager expérimenté(e) pour piloter la Data Engineering Squad durant une phase de transition critique. La mission couvre trois objectifs menés en parallèle : Lancer et structurer la future plateforme Data cible , dont le socle technologique est en cours de validation et devrait s’appuyer sur Databricks ou Snowflake sur Microsoft Azure Migrer progressivement les environnements data historiques vers la nouvelle plateforme Assurer la livraison des projets métiers et clients en cours , à la fois sur les stacks existantes et sur la nouvelle plateforme, sans perturber les opérations Ce rôle requiert un fort leadership et une excellente capacité d’exécution . Responsabilités principales Piloter et manager la Data Engineering Squad (équipes internes et partenaires externes) Être responsable de la delivery , de la capacité et de la performance opérationnelle sur les plateformes legacy et cible Garantir la fiabilité , la performance , la scalabilité et l’ optimisation des coûts Structurer et piloter le bootstrap de la plateforme Data cible Planifier et exécuter la migration progressive des stacks legacy vers la plateforme cible Sécuriser la livraison des projets métiers et clients en cours sur les deux environnements Définir et faire respecter les standards Data Engineering et les modes de fonctionnement Agir comme point de contact principal avec les équipes Data Product, Architecture et IT Accompagner et faire monter en compétence les équipes Data locales sur les stacks technologiques Data Compétences & Expérience requises Expérience avérée en tant que Data Engineering Manager / Lead dans des environnements complexes et en transformation Solide expertise en plateformes Data et en Data Engineering Expérience confirmée avec Databricks et/ou Snowflake , idéalement sur Azure Expérience du management d’équipes mixtes (internes, consultants, offshore / AMS) Bonne maîtrise des enjeux de run , de gestion des incidents et de pilotage des coûts Expérience de migration de plateformes legacy vers une plateforme cible Excellentes capacités de leadership et de gestion des parties prenantes Profil senior requis (autonome, pragmatique, orienté delivery) Modalités de la mission Démarrage : janvier 2026 Langues : français & anglais
Freelance
CDI

Offre d'emploi
Incident Manager – Contexte ITIL – Environnement Applicatif Interne

Publiée le
IA
ITIL
Safe

1 an
Île-de-France, France
🎯 Contexte Dans le cadre du maintien opérationnel d’un périmètre applicatif interne utilisé par plusieurs milliers de collaborateurs, nous recherchons un Service Delivery Manager / Incident & Change Manager capable de piloter les processus ITIL, d’assurer la coordination avec les équipes techniques, et de garantir la qualité du service rendu. La mission s’inscrit dans un environnement complexe, fortement ITILisé, avec des enjeux forts de suivi des incidents majeurs , gestion des changements , résolution des problèmes récurrents , et amélioration continue . 📦 Livrables attendus Mise à jour complète des outils ITSM (ServiceNow, outils internes de gestion de crise) Documentation opérationnelle à jour Traçabilité et historiques des modifications Reporting régulier : KPI, SLA, backlog, plans d’actions Participations aux cérémonies Agile & comptes-rendus associés 🛠️ Missions principalesGestion des incidents & crises Piloter le processus de gestion des incidents, incidents majeurs et crises Assurer une résolution rapide et efficace Coordonner les escalades techniques & garantir le respect des SLA Gestion des changements Analyser et valider les demandes de changement Organiser et animer les CAB Superviser les mises en production et la qualité des releases Gestion des problèmes Identifier, analyser et suivre les problèmes majeurs / récurrents Piloter les plans d'actions pour éliminer les causes racines Contribuer à la réduction du backlog Reporting & pilotage Produire les KPI, SLA, états de backlog, suivis des incidents Assurer un reporting clair, structuré, régulier Amélioration continue Collaborer avec l’équipe Process & Tools Contribuer à la standardisation et à l’évolution des processus ITSM Participer aux réunions Agile pour fluidifier la coopération transverse 🧰 Compétences requisesTechniques & ITIL Très bonne connaissance des processus ITIL (certification appréciée) Maîtrise des outils ITSM : ServiceNow, outils internes équivalents Compétences en diagnostic d’incidents complexes Expérience en gestion opérationnelle, exploitation, coordination IT Connaissances IA (requis dans le cahier des charges) Compréhension des concepts : Machine Learning, Générative AI, RAG, LLM, agents, prompts, hallucinations Capacité à formuler des requêtes efficaces pour outils IA Connaissance des enjeux RGPD et éthiques liés à l’IA Langues Français courant (impératif) Anglais courant en contexte professionnel (impératif) Certification Safe obligatoire
Freelance
CDI
CDD

Offre d'emploi
Ingénieur Cloud VMware Senior – Pré-embauche (vSphere / VCF / NSX-T / AVI)

Publiée le
Cloud privé
VMware

1 an
Ivry-sur-Seine, Île-de-France
🎯 Contexte Dans le cadre d’un programme stratégique de construction d’un cloud privé souverain , nous recherchons un Ingénieur Cloud VMware Senior pour concevoir, déployer et sécuriser une plateforme VMware de nouvelle génération. Le projet s’inscrit dans un environnement exigeant, avec des enjeux forts de sécurité , haute disponibilité , résilience , et conformité . 📦 Livrables attendus Conception & développement des plateformes VMware Documentation d’exploitation (Runbook, Architecture, Procédures) Hardening & fiches de conformité sécurité 🛠️ Missions principales Conception & Build Concevoir et optimiser des plateformes VMware (vSphere, NSX-T, AVI, VCF) Définir des services Cloud adaptés aux besoins internes Participer au développement du Cloud privé souverain Administration & Exploitation avancée Administrer les infrastructures VMware : NSX-T, AVI, VCF, BGP Garantir la disponibilité, la performance et la résilience réseau (Cisco/Juniper) Assurer le troubleshooting avancé sur les incidents critiques Sécurité & Conformité Mettre en place des contrôles de sécurité avancés Réaliser audits, hardening et mises en conformité Support & Collaboration Accompagner les équipes internes (Dev, Cloud, Infra) Former et apporter un soutien technique Produire une documentation complète et fiable 🧰 Compétences techniques impératives VCF – Expert NSX-T – Expert AVI (NSX Advanced Load Balancer) – Expert vSphere / VMware Cloud Réseaux & BGP Très bonne connaissance des architectures Datacenter Français courant (impératif) 🎓 Profil attendu Bac+5 en informatique ou équivalent Minimum 6 ans d’expérience sur VMware Cloud Forte expertise architecture VMware / virtualisation / SDN Excellente capacité d’analyse, troubleshooting et sécurisation Goût pour l’innovation, la rigueur et les environnements critiques
CDI
CDD

Offre d'emploi
Chef de Projet Fonctionnel Confirmé – Archivage Numérique & Facture Électronique (H/F)

Publiée le
Pilotage

1 an
Saint-Grégoire, Bretagne
🎯 Contexte Au sein d’une Business Unit spécialisée en Archivage Numérique et Facture Électronique , rattaché(e) à la Direction de Projets, vous serez chargé(e) de piloter des projets de dématérialisation client/fournisseur, depuis la conception jusqu’au déploiement. Le contexte inclut des traitements industriels à forte volumétrie , nécessitant rigueur, coordination et très bonne maîtrise du pilotage. 📦 Livrables attendus Gestion complète de projets informatiques Accompagnement de l’équipe commerciale en avant-vente Dossiers techniques & réponses aux appels d’offres 🛠️ Missions principales Gestion de projets Planifier, organiser et piloter les projets en respectant les processus qualité Coordonner les acteurs internes et externes Suivre les risques, reportings et alertes projet Assurer la relation client & garantir la satisfaction Accompagner les interlocuteurs clients tout au long du projet Avant-vente Soutenir l’équipe commerciale dans les phases d’avant-vente Analyser les besoins techniques des clients Participer aux propositions : dossiers techniques, AO, études de faisabilité Valoriser l’offre auprès des prospects et clients 🧰 Compétences techniques requises 🎯 Impératifs (Confirmé) Analyse fonctionnelle Pilotage de projets 🎯 Autres compétences recherchées Gestion de projet / méthodologies Bonne culture IT Compréhension des architectures SI Maîtrise des outils bureautiques Connaissance de l’EDI (un plus)
Freelance
CDI

Offre d'emploi
Data Scientist LCB-FT

Publiée le
Data science

3 ans
40k-80k €
400-650 €
Île-de-France, France
Télétravail partiel
Contexte : La mission interviendra en appui d’une équipe projet pluridisciplinaire (métier conformité, gestion de projets, informatique, data science) en charge de mener à bien le développement interne d’une nouvelle solution informatique performante et innovante, intégrant notamment des fonctionnalités de machine Learning et d’intelligence artificielle en ligne avec les attentes du régulateur et les standards de place les plus performants. Prestations attendues : - Elaboration de nouveaux modèles de données adaptés à la Conformité, et notamment la révision de l’approche en matière de scoring, de segmentation de la clientèle, et des seuils de déclenchement des alertes sur opérations atypiques. - Réduction des alertes non pertinentes et l’optimisation des analyses et investigations - Sélection et la validation de variables pertinentes (features engineering) pour améliorer la performance des modèles de détection - Utilisation combinée de modèles de machine learning supervisés et non supervisés pour optimiser la détection des comportements suspects et réduire les faux positifs - Choix techniques et stratégiques adaptés aux enjeux et au contexte opérationnel du groupe BRED (typologie clients, offre produits et services, entités multiples…) - Accompagnement des différentes étapes des projets informatiques de la Conformité (études & cadrage, recette, suivi comités) dans le respect des échéances imposées - Contribution à la rédaction des livrables projets (expression de besoin métier, cahiers des charges, procédures) Expérience exigée dans la Lutte Contre le Blanchiment d'argent et le Financement du Terrorisme (LCB-FT)
Freelance

Mission freelance
Concepteur Développeur Big Data

Publiée le
Apache Spark
AWS Cloud
Azure

12 mois
400 €
Courbevoie, Île-de-France
Télétravail partiel
Mission Concepteur Développeur Big Data – Société de l'Énergie Localisation : Courbevoie (3 jours/semaine sur site) Tarif max : 400€/jour Démarrage : 05/01/2026 Durée : 12 mois (fin 04/01/2027) – prolongeable Expérience requise : 4-5 ans minimum Prestations principales : Analyse besoins RH/Finance + rédaction spécifications techniques Conception/développement pipelines ETL/ELT (Spark, Hadoop, Databricks, Snowflake) Intégration sources données/API + contrôle qualité Déploiement cloud (AWS/Azure/GCP) ou clusters Hadoop/Spark Optimisation performances (partitionnement, tuning clusters) Tests unitaires/intégration + revues code Maintenance évolutive, support incidents, veille techno Compétences obligatoires : Big Data, Hadoop, Spark, Python PostgreSQL, Databricks Livrables : Spécifications techniques + diagrammes Code source/scripts + tests complets Documentation exploitation + rapports performances Plan déploiement/rollback Cette mission essentielle vise à confier à un Ingénieur Data expérimenté la responsabilité complète du cycle de vie des solutions de traitement de données pour les domaines RH et Finance . Le professionnel doit maîtriser les technologies Big Data (Spark, Hadoop) , les plateformes analytiques (Databricks, Snowflake) et les environnements Cloud (AWS, Azure, GCP) , afin de garantir la livraison de systèmes ETL/ELT performants, sécurisés et alignés sur les objectifs business.
1574 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous