Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 2 761 résultats.
Freelance

Mission freelance
Lead Cloud Engineer

Keypeople Consulting
Publiée le
AWS Cloud
Azure
Google Cloud Platform (GCP)

6 mois
400-500 €
Île-de-France, France
Nous cherchons un(e) Lead Cloud Engineer – Environnement Cloud & Infrastructures Critiques | 🌍 Environnement international | 💼 +10 ans d’expérience Dans le cadre du renforcement d’une équipe stratégique spécialisée dans les infrastructures digitales critiques, nous recherchons un(e) Lead Cloud Engineer expérimenté(e) pour intervenir sur des environnements Cloud complexes et hautement disponibles. Votre mission : Concevoir, déployer et maintenir des infrastructures cloud résilientes, scalables et performantes, tout en collaborant étroitement avec les équipes de développement, d’exploitation et les partenaires technologiques. Environnement technique : VMware | AWS | Azure | Google Cloud Platform (GCP) 🔎 Vos responsabilités principales : · Piloter le cycle de vie complet des services (design, déploiement, exploitation, optimisation) · Participer à la conception des architectures et à la planification de capacité · Garantir la disponibilité, la performance et la fiabilité des environnements critiques · Mettre en place des solutions d’automatisation pour prévenir les incidents · Superviser et améliorer les processus de gestion des incidents · Contribuer au développement de code optimisé pour les plateformes et solutions · Encadrer et accompagner les équipes sur les bonnes pratiques Cloud & SRE · Promouvoir des évolutions techniques renforçant la robustesse et la vélocité des systèmes Profil recherché : · +10 ans d’expérience en ingénierie Cloud / Infrastructure · Expertise confirmée sur VMware, AWS, Azure et GCP · Expérience en environnements critiques (idéalement secteur financier ou grande entreprise internationale) · Leadership technique et capacité à travailler en transverse · Anglais courant indispensable (évalué en entretien) 📩 Si vous êtes intéressé(e) ou si vous connaissez une personne susceptible de l’être, n’hésitez pas à me contacter pour plus d’informations. Cordialement,
Freelance

Mission freelance
101058/Data Scientist Machine Learning, Prompt engineering, MLOPS Nantes (2 jours TT)

WorldWide People
Publiée le
Data science

9 mois
400-450 €
Nantes, Pays de la Loire
Data Scientist IA GEN, Python, Machine Learning, Prompt engineering, MLOPS Nantes (2 jours TT). - Une base solide en Python pour l'exploration des données, l'évaluation d'un modèle ou la construction d'une API python. - Une Connaissance de SQL - De Solides connaissances de Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Une Maîtrise des frameworks ML distribués modernes tels que TensorFlow, PyTorch Activité principales attendues : Machine Learning / Deep Learning • Évaluer le problème métier et prouver la valeur via l'analyse exploratoire des données pour démontrer la valeur d'une approche ML/DL • Création et production de modèles d'apprentissage automatique industrialisables • Traitement de données à grande échelle pour la création de jeux de données d'entraînement • Appliquer les bonnes pratiques de MLOps et d'explicabilité des modèles • Présenter les résultats aux parties prenantes et aider au suivi à long terme de la performance du modèle pour démontrer la valeur de l'IA IA Générative • Évaluer le problème métier et prouver la valeur via l'analyse exploratoire des données pour démontrer la valeur d'une approche IA Gen • Prompt engineering • Bench via des solutions d'évaluation des modèles d'IA Gen • Optimisation des solutions (paramétrage des modèles) Notre client attend de la candidature que vous proposerez : - qu'elle soit autonome sur l'IA Gen (prompt engineering, context engineering, construction de workflow avec RAG, tool calling, MCP, implémentation de guardrails) - qu'elle dispose d'une expérience significative en Machine/Deep Learning (traitement du langage naturel, traduction automatique, etc.), Vision (vision par ordinateur, reconnaissance, etc.), et sur le cycle de vie des modèles IA (de la conception vers l'industrialisation, puis la supervision en production de sa valeur) Enfin qu'elle ait : - Une base solide en Python pour l'exploration des données, l'évaluation d'un modèle ou la construction d'une API python. - Une Connaissance de SQL - De Solides connaissances de Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Une Maîtrise des frameworks ML distribués modernes tels que TensorFlow, PyTorch
Freelance

Mission freelance
Project Leader SI Finance & Risques

TEOLIA CONSULTING
Publiée le
Big Data
Finance

1 an
400-730 €
Val-de-Marne, France
Au sein d’une tribu dédiée aux domaines Finance, Risques et Recouvrement , vous interviendrez dans une squad d’une dizaine de collaborateurs en charge de : La collecte de la comptabilité mensuelle La production d’indicateurs comptables, financiers et risques La gestion des pistes d’audit La production d’états et flux réglementaires Dans un contexte de transformation du SI , avec une forte orientation data-driven , vous contribuerez à faire évoluer les outils et processus au service des métiers. En tant que Project Leader , vous serez responsable du pilotage de projets SI sur les périmètres Finance & Risques : Piloter des projets de bout en bout (cadrage, conception, réalisation, déploiement) Recueillir et analyser les besoins métiers Traduire les besoins en solutions IT en lien avec les équipes techniques Coordonner les différentes parties prenantes (métiers, IT, data, etc.) Suivre l’avancement (planning, budget, risques, qualité) Organiser et animer les instances projet Garantir la bonne mise en production et l’accompagnement au déploiement Assurer un rôle d’interface clé entre les équipes métiers et la DSI
Freelance

Mission freelance
Chef de projet Data / Référentiels Asset Management

NOVAMINDS
Publiée le
Data governance

9 mois
400-630 €
Belgique
Objectif de la mission Dans le cadre de l’intégration d’activités Asset Management, nous recherchons une expertise en gestion de projets data (dans un environnement de gestion d’actifs), ainsi qu’une connaissance des données de référence / référentiels (instruments financiers et benchmarks). Prestations demandées L’expertise retenue jouera un rôle clé pour assurer la transition des données et des processus vers la nouvelle plateforme data Aladdin . Cela inclut : Accompagner la migration et l’intégration des données de référence Security Master et Benchmark dans Aladdin . Collaborer avec les équipes internes pour définir et valider les besoins data, les mappings et les standards de gouvernance. Garantir l’intégrité et la cohérence des données migrées. Participer aux tests, aux rapprochements (réconciliation) et à la validation des processus. Compétences clés recherchées Expérience passée en gestion de projets data, idéalement en Asset Management. Bonne maîtrise des données référentielles en gestion d’actifs (instruments financiers et benchmarks). Capacité à traiter de grands volumes de données (analyse, conversion, KPI, etc.). Secteur d’activité : Asset Management
Freelance

Mission freelance
Architecte d’Entreprise Senior

ABSIS CONSEIL
Publiée le
API
AWS Cloud
Batch

1 an
740 €
Île-de-France, France
Dans le cadre d’un important programme de transformation digitale , nous recherchons un Architecte d’Entreprise Senior (8+ ans d’expérience) pour accompagner les projets d’évolution du SI, de la phase d’opportunité jusqu’à la mise en production. Objectifs de la mission L’architecte interviendra dans le cadre d’un dispositif structuré d’architecture, incluant processus de gouvernance, revues techniques, rituels transverses et outils de capitalisation. La mission vise principalement à : Produire les analyses d’architecture en phase amont. Formaliser les impacts fonctionnels, applicatifs et data. Garantir la cohérence des évolutions du SI. Accompagner les équipes métiers et IT dans les choix structurants. Assurer la capitalisation dans les référentiels internes. Livrables attendus Diagnostic Express d’Architecture (DEX) destiné aux instances IT. Dossier d’Architecture Fonctionnelle (DAF) incluant état des lieux, scénarios et cibles d’architecture. Contribution à la mesure de conformité en production . Mise à jour des référentiels et dictionnaires de données internes.
Freelance

Mission freelance
Développeur Python / AWS / PostgreSQL / Kafka (h/f)

emagine Consulting SARL
Publiée le

1 mois
550-650 €
92400, Courbevoie, Île-de-France
Introduction & Résumé Nous recherchons un Développeur Python expérimenté avec une expertise en PostgreSQL et Kafka. Le candidat idéal devra posséder un minimum de 10 ans d'expérience en développement logiciel, avec des compétences avérées en gestion technique et une expérience dans des environnements similaires. L'accent sera mis sur le développement de solutions robustes et performantes pour des secteurs tels que la finance de marché, le trading de matières premières ou l'énergie. Principales Responsabilités Développer et maintenir des applications logicielles performantes. Assurer la conception et l’optimisation des bases de données PostgreSQL. Élaborer des architectures logicielles solides basées sur des technologies modernes. Implémenter des systèmes orientés événements et gérer le flux de données. Développer des API et des pipelines de données optimisés. Participer à l’évolution et à l’amélioration continue des processus Agile. Assurer le suivi du cycle de vie du développement logiciel. Exigences Clés 10 ans d’expérience en développement logiciel. Expérience avancée en développement Python (6+ ans). Maîtrise de PostgreSQL et gestion des performances. Compréhension des architectures logicielles modernes. Expérience avec des systèmes de messaging et de streaming comme Kafka. Compétences en mise en œuvre d’API et de pipelines de données. Connaissance des méthodologies Agile. Pratique du cycle de vie du développement avec GitHub. Atouts Complémentaires Expérience dans le secteur de la finance de marché ou de l’énergie. Connaissance des systèmes RabbitMQ. Autres Détails Ce poste est basé dans un environnement dynamique et collaboratif. Les candidats doivent être disposés à participer à des projets intéressants allant du développement à la mise en production.
Freelance

Mission freelance
DATA SCIENTIST

Geniem
Publiée le
Data science
Dataiku
Google Cloud Platform (GCP)

6 mois
Lille, Hauts-de-France
Mission détaillée : Accompagner les projets de Data Science / Data Ingénierie de l’équipe Big Data sur des projets d’entreprise existant ou à développer : NLP, Deep Learning... Comprendre la problématique métier Imaginer les solutions / algorithmes pour y répondre Développer les algorithmes dans le respect des normes de développement de l’entreprise (GitHub) Contribuer à l’industrialisation de ces algorithmes Monitorer leur run Documenter les algorithmes SON ACTIVITE : Applique des techniques (statistiques, text mining, comportementale, géolocalisation, ) d’extraction et d’analyse d’informations, obtenues à partir de gisements de données (Big Data) Obtient des données adéquates, trouve les sources de données pertinentes, fait des recommandations sur les bases de données à consolider, modifier, rapatrier,externaliser, internaliser, conçoit des datamarts, voire des entrepôts de données (data warehouses). Évalue la qualité et la richesse des données, les analyse et en restitue les résultats pour ensuite les intégrer dans le système d’information cible du Métier. Analyse les données pour traduire une problématique Métier en problème mathématiques/statistiques et réciproquement. Environnements techniques Google Cloud Platform (GCS, BigQuery) Github Python Machine Learning Les livrables sont : Algorithmes ML Dashboards Explicabilités d’algorithmes
Freelance

Mission freelance
Generative AI Engineer (H/F) 92

Mindquest
Publiée le
Amazon S3
AWS Cloud
Python

3 mois
La Défense, Île-de-France
Développement IA / Computer Vision: - Concevoir et développer de nouveaux cas d’usage en vision par ordinateur : - Détection de corrosion - Segmentation 2D/3D - Classification d’anomalies - Améliorer les performances et la robustesse des modèles existants MLOps & Industrialisation: - Concevoir et déployer une infrastructure MLOps complète sur AWS - Structurer et automatiser les pipelines de Machine Learning : - Entraînement - Validation - Versioning - Déploiement - Mettre en place le suivi des expérimentations et la gestion des modèles - Définir et appliquer les bonnes pratiques d’industrialisation : - CI/CD - Monitoring des modèles - Gestion des versions Gestion des données: - Gérer et structurer les datasets d’images 2D/3D issus des drones - Contribuer à l’amélioration continue de la qualité des données Collaboration transverse: - Travailler en étroite collaboration avec les équipes techniques et métiers - Assurer la cohérence technique et fonctionnelle des solutions développées
CDI

Offre d'emploi
Tech Lead Java DevOps AWS

ASTRELYA
Publiée le
AWS Cloud
Java
Springboot

Hauts-de-Seine, France
Astrelya est un cabinet de conseil franco/suisse, en très forte croissance depuis sa création en 2017, spécialisé dans la transformation digitale, l’excellence opérationnelle et l’innovation technologique. Il est composé de 300 experts passionnés. Le cabinet accompagne ses clients sur l’ensemble du cycle de transformation, depuis la phase de cadrage jusqu’à la mise en œuvre opérationnelle, avec une expertise forte en Data/IA, Cloud, DevOps et méthodes agiles. Astrelya se distingue par un modèle fondé sur la proximité, la confiance et une culture humaine forte, qui place les collaborateurs au cœur de la création de valeur. Dans le cadre de notre développement, nous recherchons pour un client tertiaire un Tech Lead Java DevOps AWS (H/F). Votre mission : Participation à un programme stratégique de refonte d’une plateforme BtoC à l’échelle internationale Environnement Agile Scrum, collaboratif et multiculturel Objectif : concevoir des solutions cloud innovantes, performantes et hautement scalables sur AWS Mise en œuvre des meilleures pratiques DevOps et CI/CD Concrètement, vous allez : Concevoir et développer des applications Java robustes et performantes Mettre en place des architectures microservices cloud-native sur AWS Contribuer activement au développement : codage revues de code tests optimisation des performances Définir, promouvoir et appliquer les bonnes pratiques en matière de développement, qualité et sécurité Encadrer et accompagner les développeurs Collaborer étroitement avec les équipes produit, architecture et data à l’international Votre futur environnement technique : Langages & frameworks : Java , Spring Boot Cloud & infrastructure : AWS (Lambda, EC2, S3, RDS), Terraform, GitOps Intégration & services : microservices, API Management, Kafka, Redis, PostgreSQL CI/CD & DevSecOps : GitHub Enterprise, JFrog, SonarQube, ArgoCD Observabilité & sécurité : Datadog, Prisma Cloud Outils collaboratifs : Jira, Confluence Qui êtes-vous ? Ingénieur de formation ou équivalent Minimum 10 ans d’expérience Au moins 5 ans d’expérience sur des environnements DevOps / AWS Au moins 4 ans d’expérience en tant que Tech Lead Expérience confirmée en Agile Scrum et sur des projets internationaux Goût prononcé pour le partage de connaissances et l’amélioration continue Leadership et capacité à fédérer une équipe Sens de l’écoute et compréhension des enjeux techniques et métiers Communication claire et capacité à vulgariser des sujets complexes Esprit collaboratif et aisance dans un environnement multiculturel Proactivité, adaptabilité et sens de l’anticipation Pourquoi nous rejoindre ? Un terrain de jeu pour progresser : Formations, certifications, coaching technique , communautés d’expertise (Java, Cloud, DevOps, Data…) et participation à des projets innovants (IA, architectures Cloud, automatisation…). Un cadre de travail motivant : Projets variés et à forte valeur ajoutée , événements internes réguliers, afterworks et ateliers tech et salon (DevopsREX, Devoxx et ParisJUG…). Un engagement RSE : Ecovadis Gold, Signataire de la charte pour la diversité, du Pacte des Nations Unies et mise en place du Mécénat de compétences Votre futur process de recrutement : Entretien RH avec une de nos chargées de recrutement Test technique (test Kata interne ou un échange avec un de nos expert) Entretien final avec un de nos managers Chez Astrelya, nous construisons des solutions innovantes… mais surtout, nous construisons des parcours humains. Prêt(e) à rejoindre l’aventure ? Tous nos postes sont ouverts aux personnes en situation de handicap. #recrutement#TechLead#Java#AWS
Freelance

Mission freelance
Python Software Engineer Senior

Aneo
Publiée le
AWS Cloud
Python
Ray

7 mois
550-700 €
Paris, France
Le projet Le client (finance) utilise AWS depuis quelques années, d’abord sur une stack HPC (librairie permettant de distribuer sur AWS Batch l’exécution d’un DAG), puis avec une stack SageMaker (expérience interactive via l’utilisation de Studio JupyterLab / MLFlow). Ce projet, comme les précédents, prend la forme d’un MAP (Migration Acceleration Program), approche structurée par AWS (Assess - Mobilize - Migrate). La phase Assess a identifié une typologie d’usages (embarassingly parallel map, cross-partition shuffling / window-heavy computation, dataset-level summaries, ML/tensor-preparation, interactive exploration) et 3 technologies-clés : 1) Ray/Daft 2) Spark (via EMR) et 3) Iceberg, comme couche de stockage/accès aux données. La phase de Mobilize doit permettre : ● De valider la capacité de ces outils à adresser les enjeux de feature engineering avec les contraintes ci-dessus exprimées , et une expérience chercheur aussi aisée que possible. ● D’envisager leur exploitation dans un mode “plateforme” / industrialisé ; les aspect self-service, observabilité technique et finops, sont clés. Exprimée aujourd’hui comme un side-topic, l’exploitation unifiée des technologies ci-dessus sur un socle Kubernetes (sur EKS) pourrait devenir un sujet central de la phase Mobilize. Cette phase de mobilize doit durer 7 mois et sera réalisée par une équipe de 3 personnes: Un software engineer (vous), un devOps et un data Engineer. Compétences techniques -> Très bon niveau en python & capacité à expliciter explicites la vision d’ensemble de ses projets, les enjeux, les options techniques et les arbitrages ; -> Avoir travaillé sur des enjeux de traitements distribués & de graph -> Maitrise du cloud AWS (services EMR, S3, Daft serait un plus) et notamment des aspects IAM -> Anglais courant obligatoire Localisation Paris, présence sur site obligatoire à minima 3j/semaine
Freelance

Mission freelance
Data Engineer Senior / Lead Data

Tenth Revolution Group
Publiée le
AWS Cloud
Collibra
Databricks

6 mois
620-660 €
Paris, France
Dans le cadre d'une mission chez un grand acteur du secteur de l'énergie en France, nous recherchons des profils Data Engineer Senior++ / Lead Data disponibles entre mi-mars et mi-mai 2025. Le client, accompagné par un cabinet de conseil top tier, recherche des consultants capables de s'emparer d'un périmètre data, de le cadrer et de le développer en toute autonomie. Plusieurs positions sont à pourvoir. La maîtrise et l'usage quotidien de l'IA dans le travail est un critère indispensable.
CDI

Offre d'emploi
Data scientist (H/F)

█ █ █ █ █ █ █
Publiée le
Big Data

40k-55k €
Île-de-France, France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Manager IT

Castelis
Publiée le
AWS Cloud
Fortinet
Google Cloud Platform (GCP)

6 mois
500-550 €
Levallois-Perret, Île-de-France
Piloter le bon fonctionnement des infrastructures IT (réseau, systèmes, environnements hybrides). Assurer la disponibilité et la performance du SI, et intervenir dans la gestion des incidents critiques si nécessaire. Piloter les environnements cloud et leurs évolutions (résilience, optimisation, fiabilité). Structurer et faire évoluer les standards d’exploitation (process, supervision, documentation). Piloter des prestataires et garantir la qualité de service. Manager une équipe support basée à l’international. Participer à la roadmap IT sur les sujets infrastructures, en lien avec la direction IT. Travailler en étroite collaboration avec le RSSI sur les sujets de sécurité, conformité et gestion des risques.
CDI
CDD

Offre d'emploi
ARCHITECTE CYBER AWS/AZURE

OCTOGONE
Publiée le
AWS Cloud
Azure
Cybersécurité

9 mois
34k-45k €
Sochaux, Bourgogne-Franche-Comté
Contexte Au sein d’une équipe Cloud & Cybersécurité, l’Architecte Cyber Cloud intervient en tant que référent technique sur la construction, l’évolution et la sécurisation d’une plateforme AWS. Il accompagne les projets, challenge les choix techniques et garantit un haut niveau de sécurité, de maîtrise des coûts et de qualité d’architecture. Compétences techniques recherchées Soft skills • Rigueur, esprit critique et sens du détail. • Capacité à vulgariser des sujets techniques complexes. • Leadership technique et pédagogie. • Force de proposition et autonomie. • Esprit d’équipe, sens du service et capacité à challenger en bienveillance. Profil recherché • Expérience significative en architecture Cloud, idéalement AWS. • Solide culture cybersécurité. • Intervention dans des environnements exigeants (banque, assurance, industrie, services). • Anglais. Certifications appréciées AWS SA Pro, Security Specialty, Azure Fundamentals /Security. Missions principales Architecture & Sécurité Cloud • Concevoir, challenger et valider les architectures Cloud AWS (IaaS, PaaS, services managés). • S’assurer de l’application des bonnes pratiques de cybersécurité (CIS, NIST, Well-Architected Framework – Security Pillar). • Contribuer à la définition et à la mise en œuvre de l'infrastructure sécurisée sur AWS : Gestion des identités (IAM) Network security (VPC, segmentation, firewalling, NACL) Supervision, audit & logging (CloudTrail, Config, GuardDuty, Security Hub) Encryption & Key Management (KMS, HSM, Vault) Excellence AWS • Maîtrise d’un large spectre de services AWS : compute, storage, réseau, sécurité, data, serverless, observabilité. • Expérience concrète dans la construction d'une landing zone ou d’une plateforme Cloud sécurisée. • Environnements multi-comptes, gouvernance, tagging, compliance. Connaissances Azure Connaissance des concepts clés : IAM, Resource Groups, Policy, Azure Security, logging. Capacité à challenger des architectures hybrides ou multi-cloud. Cybersécurité Cloud • Standards de sécurité (CIS, ISO 27001, NIST, Zero Trust). • Gestion des identités & RBAC. • Sécurité réseau Cloud. • Outils de supervision & monitoring. Accompagnement des projets • Accompagner les équipes projets dans la définition des architectures cibles. • Porter une vision critique et constructive des designs proposés. • Recommander des architectures résilientes, sécurisées et optimisées. • Participer aux comités d’architecture et valider les patterns d’implémentation. FinOps & optimisation des coûts • Analyse de coûts. • Optimisation d’architectures. • Connaissance des modèles de facturation Cloud. Veille technologique • Maintenir un haut niveau d’expertise sur AWS et un éveil technique sur Azure. • Suivre les évolutions des services, fonctionnalités, bonnes pratiques de sécurité et de compliance. • Proposer des améliorations continues sur la plateforme Cloud.
Freelance
CDI

Offre d'emploi
Ingénieur Plateforme Cloud / Disaster Recovery - AWS Certified Solutions Architect – Professional

CELAD
Publiée le
AWS Cloud
Terraform

1 an
70k-85k €
600-700 €
Paris, France
Contexte de la mission Dans le cadre du renforcement de la résilience d’une plateforme cloud stratégique, nous recherchons plusieurs Ingénieurs Plateforme Cloud pour concevoir et déployer une solution de Disaster Recovery de type Warm Pilot sur AWS. Vous interviendrez sur un environnement à forte criticité, avec des exigences élevées en matière de disponibilité, sécurité, automatisation et excellence opérationnelle . L’objectif : construire une capacité de reprise robuste, testable et industrialisée, au cœur de la plateforme. Vos missions Vous serez au centre de la stratégie de continuité d’activité et interviendrez sur des sujets à fort impact : Analyser et challenger l’architecture DR existante (failover, failback, réplication, orchestration) Concevoir et mettre en œuvre une solution Warm Pilot adaptée aux workloads critiques Industrialiser les déploiements via Infrastructure as Code (Terraform / Terragrunt) et GitOps (ArgoCD) Automatiser les mécanismes de reprise (bascule, synchronisation, validation) Définir les procédures opérationnelles (runbooks, tests DR, scénarios de reprise) Identifier les risques techniques : dépendances, points de défaillance, limites opérationnelles Collaborer avec les équipes plateforme, sécurité et applicatives pour garantir la cohérence globale
CDI

Offre d'emploi
Data Engineer | Databricks

Hexateam
Publiée le
AWS Cloud
Databricks
Python

Île-de-France, France
Contexte Dans le cadre de la mise en place et de l’évolution d’une plateforme DATA centralisée, nous renforcons son équipe avec un Data Ingénieur confirmé. Cette plateforme permet l’intégration, la mise en qualité et la mise à disposition de données brutes ou retravaillées issues de différents producteurs, afin de répondre à des besoins métiers opérationnels et analytiques à grande échelle. Rôle et responsabilités Développement et ingestion de données Concevoir, développer et optimiser des jobs d’ingestion et de transformation de données en Python et Spark sur Databricks , avec gestion de gros volumes. Mettre en place et maintenir des flux de données entre sources externes (ex. bases Oracle) et Delta Lake sur AWS S3 . Orchestration et supervision Créer et orchestrer des workflows avec AWS Airflow et automatiser les traitements. Mettre en place des mécanismes de contrôle qualité et de validation des données pour garantir cohérence et fiabilité. Développer des jobs de monitoring pour détecter et corriger automatiquement les anomalies. Maintien en condition opérationnelle Assurer la disponibilité et la performance des jobs en production. Analyser et corriger les incidents et anomalies détectées. Contribution stratégique Participer aux ateliers de conception technique et fonctionnelle. Promouvoir les bonnes pratiques de développement et d’optimisation Big Data. Documenter les processus, architectures et scripts. Compétences techniques requises MUST : Python Spark Databricks SQL SHOULD : AWS (S3, Glue, Airflow, CloudWatch, Lambda, IAM) COULD : Big Data (gestion et traitement de très gros volumes de données) WOULD : Git Méthodologies et outils : CI/CD avec GitLab JIRA / Confluence Méthodologie agile Scrum
2761 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous