L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 408 résultats.
Offre d'emploi
Data Engineer
Publiée le
Azure Data Factory
Big Data
1 an
49k-55k €
400-550 €
Île-de-France, France
Contexte : Dans le cadre d’un vaste programme de transformation Data, nous recherchons un Data Engineer pour rejoindre une équipe en pleine évolution. Le projet vise à moderniser les infrastructures de données, à industrialiser les flux et à renforcer la valorisation de la donnée au service des métiers (pilotage, relation client, performance opérationnelle, IA et analytique). L’environnement de travail est stimulant, avec une forte culture d’innovation autour du cloud, du Big Data et de l’intelligence artificielle. L’équipe Data est composée de profils complémentaires : data engineers, data analysts, data scientists et experts gouvernance.
Mission freelance
Data Engineer confirmé
Publiée le
Azure Data Factory
6 mois
400-500 €
Paris, France
Télétravail partiel
Hello, Pour le compte de l'un de mes clients parisiens dans le secteur de la sous traitance de services, je suis à la recherche d'un data engineer confirmé. Expériences et/ou skills mandatory : - Expérience en Data Engineering/Data Modelling (Pipelines + structuration Bases de données). -Expérience sur Azure + DataBricks (DB nice to have). -A déjà travaillé sur un ou plusieurs Use Cases Machine Learning et/ou IA (ou bonnes notions/compréhension). -Bon communicant (car proche du business),
Mission freelance
Data Engineer Python / AWS / Airflow / Snowflake
Publiée le
Apache Airflow
AWS Cloud
Python
12 mois
100-550 €
Île-de-France, France
Télétravail partiel
Conception & développement de pipelines Implémenter de nouveaux flux de données batch et streaming . Développer des pipelines ETL / ELT en Python et Airflow pour les traitements planifiés, et via NiFi ou Kafka pour les données en temps réel. Assurer l’intégration et la mise à disposition des données dans Snowflake . Industrialisation & bonnes pratiques Participer aux revues de code , aux tests unitaires et d’intégration . Contribuer à l’ industrialisation des pipelines avec des pratiques CI/CD robustes. Maintenir la documentation technique à jour et contribuer à l’amélioration continue des process. Maintenance & optimisation Garantir la maintenance corrective et évolutive des flux existants. Participer à la mise en place du monitoring , des alertes et des bonnes pratiques d’exploitation. Optimiser les performances, la fiabilité et la qualité des traitements de données.
Mission freelance
Data Engineer AWS - PySpark/Databricks
Publiée le
Amazon S3
Apache Spark
AWS Cloud
12 mois
550-600 €
Paris, France
Télétravail partiel
Contexte : Nous recherchons un Data Engineer pour participer à une mission sur un environnement cloud AWS. Le candidat évoluera au sein d’une équipe digitale internationale et contribuera à la conception, au développement et à la mise en production de solutions data à grande échelle. Profil recherché : Expérience confirmée en tant que Data Engineer ou rôle équivalent. Capacité à collecter les besoins métiers et utilisateurs et à les traduire en architecture de données. Expérience dans la conception et le développement de pipelines de données robustes et évolutifs. Autonomie et rigueur dans la mise en production et la maintenance d’architectures data. Bonnes capacités de communication et aptitude à travailler en équipe multidisciplinaire. Compétences techniques requises : Python – maîtrise avancée (4/4) PySpark – maîtrise avancée (4/4) Databricks – niveau confirmé (3/4) AWS – niveau confirmé (3/4) Anglais – professionnel (3/4) Conditions de travail : Télétravail : 2 jours par semaine Présence obligatoire sur site : 3 jours par semaine Lieu : Paris Début de mission : 08/12/2025 Processus de sélection : Codingame à compléter dans les 48h après réception. Proctoring appliqué pour le codingame. Soutenances techniques prévues après le codingame.
Mission freelance
AI Engineer Azure – IA Générative
Publiée le
Microsoft Copilot Studio
Azure AI Foundry
Azure DevOps
3 mois
Paris, France
Télétravail partiel
Nous recherchons un AI Engineer Azure confirmé pour le compte d’un grand groupe dans le cadre d’un projet stratégique autour de l’IA Générative . La mission consiste à concevoir et développer des solutions d’assistants IA en exploitant les services avancés de la plateforme Microsoft Azure . 🎯 Vos missions principales : Concevoir et développer des solutions IA Générative (LLM, RAG, Agents) dans Azure. Mettre en œuvre et exploiter les services Azure AI Foundry et Copilot Studio . Déployer des assistants IA répondant aux besoins métiers et intégrés aux outils internes. Développer et intégrer des modèles IA/ML personnalisés (fine-tuning, optimisation). Collaborer avec les équipes techniques et métiers pour définir les cas d’usage et maximiser la valeur business. Contribuer à la mise en production et à l’orchestration des pipelines IA via Azure DevOps.
Mission freelance
Data Platform Engineer - Terraform
Publiée le
CI/CD
DevOps
JIRA
6 mois
400-500 €
Paris, France
Télétravail 100%
Bonjour, Nou recherchons pour l'un de nos clients intégrateurs un ingénieur plateforme de données. Description du poste : En tant qu'ingénieur plateforme de données, vous êtes spécialisé dans la conception, le développement et la maintenance de l'infrastructure sous-jacente qui prend en charge les pipelines de données et les applications basées sur les données d'une organisation. Vos responsabilités sont hautement techniques et consistent à créer un écosystème de données robuste, évolutif et fiable.
Mission freelance
Data Platform Engineer – Snowflake / Terraform (Full Remote – Belgique)
Publiée le
Snowflake
6 mois
580 €
Paris, France
Télétravail partiel
Contexte du poste : Dans le cadre du renforcement de ses équipes Data & Cloud, notre client recherche un Data Platform Engineer spécialisé dans la conception, le déploiement et la maintenance d’infrastructures data à grande échelle. L’objectif est de bâtir un écosystème de données robuste, automatisé et sécurisé , supportant l’ensemble des pipelines et applications data de l’entreprise. Le poste est basé en Belgique , mais 100 % remote est possible. Missions principales : Concevoir, développer et maintenir l’infrastructure sous-jacente aux plateformes data (Snowflake principalement). Industrialiser le provisioning et la configuration via Terraform (Infrastructure as Code) . Garantir la scalabilité, la sécurité et la performance de la plateforme data. Mettre en place et maintenir les pipelines CI/CD (Git-based workflows). Gérer la sécurité des secrets et credentials via les outils dédiés (Vault, AWS/Azure/GCP Secret Manager). Collaborer avec les équipes Data Engineering, Cloud et Sécurité pour assurer la cohérence et la fiabilité de la plateforme. Contribuer à la documentation technique, au suivi Jira et à l’amélioration continue du delivery. Compétences techniques requises : Excellente maîtrise de la plateforme Snowflake (architecture, performance tuning, RBAC, best practices). Expertise confirmée en Terraform , notamment pour la création de modules et l’automatisation des déploiements cloud. Expérience sur des workflows CI/CD Git-based (GitHub Actions, GitLab CI, Jenkins...). Maîtrise d’au moins un outil de gestion des secrets : HashiCorp Vault, AWS Secrets Manager, Azure Key Vault ou GCP Secret Manager. Bonne connaissance de l’ écosystème DevOps et des outils de suivi (Jira, Confluence). Profil recherché : 5 à 8 ans d’expérience en ingénierie data ou cloud infrastructure. Solides compétences en Industrialisation et Sécurité des environnements data . Esprit analytique, autonome et rigoureux. Capacité à travailler dans un environnement international et collaboratif. Langue : Anglais courant (obligatoire) .
Offre d'emploi
Tech Lead Data Engineer
Publiée le
Apache Spark
Azure
Databricks
6 mois
45k-55k €
400-520 €
Châtillon, Île-de-France
Au moins 5 ans d’expérience en tant que Tech Lead. Principales missions : - Assurer un leadership technique auprès des équipes de développement. - Conseiller les parties prenantes et traduire les exigences stratégiques en architectures Azure et Databricks sécurisées, scalables et fiables. - Participer activement aux phases de conception, développement et tests. - Porter la vision technique au sein des équipes Agile. - Garantir la qualité des livrables et veiller à la réduction de la dette technique. - Réaliser la modélisation des données. - Assurer une veille technologique et participer aux POCs. - Enrichir la communauté des Data Engineers par le partage de connaissances et la promotion des bonnes pratiques.
Mission freelance
Junior SecOps Engineer
Publiée le
12 mois
350-450 €
75001, Paris, Île-de-France
Télétravail partiel
Junior SecOps Engineer - Mission Freelance Localisation : Paris Disponibilité : Immédiate Type de contrat : Freelance / portage salarial Durée : Longue durée Secteur : Technologies de l'information et cybersécurité Contexte de la mission : Notre client, une entreprise internationale spécialisée dans les solutions technologiques pour les paiements recherche un Ingénieur Junior SecOps. La mission consiste à renforcer les opérations de sécurité IT au sein de l'équipe SecOps, en lien avec le centre des opérations de sécurité (SOC) et les partenaires MSSP. Responsabilités principales : Support IT Security Helpdesk Gestion des tickets ITSec via JIRA Analyse et résolution des demandes de sécurité Escalade des incidents complexes ou critiques Documentation & SOP Rédaction et mise à jour des procédures opérationnelles standard Collaboration avec les analystes seniors pour validation Création de Dashboards & KPIs Conception de tableaux de bord JIRA pour le suivi des activités Définition et suivi des indicateurs clés de performance Optimisation des workflows Analyse des processus existants Proposition d'améliorations et plan de transition vers le Helpdesk IT Amélioration continue Suggestions d'optimisation des outils, documentations et processus Profil recherché : Connaissances de base en cybersécurité et opérations IT Maîtrise des outils de ticketing (JIRA idéalement) Capacité à rédiger des documents clairs et structurés Esprit analytique et sens de l'organisation Proactivité et esprit d'équipe Anglais Pour postuler : Merci d'envoyer votre CV via la plateforme
Mission freelance
POT8706 - Un Data Engineer NoSQL sur Nanterre
Publiée le
Nosql
6 mois
100-550 €
Nanterre, Île-de-France
Télétravail partiel
Almatek recherche pour l'un de ses clients un Data Engineer NoSQL sur Nanterre Contexte et rôle Renforcement d’un pôle d’expertise technique autour des bases de données NoSQL. L’expert contribuera à la conception, l’industrialisation et l’exploitation de plateformes NoSQL, en environnement conteneurisé et cloud hybride Compétences techniques requises Maîtrise ElasticSearch (ELK Stack), configuration, optimisation et monitoring Expertise bases de données Graph (Cypher, RDF, LPG) Connaissance PostgreSQL / Oracle appréciée Maîtrise Docker, Kubernetes, OpenShift, Linux RedHat Bon niveau en scripting Shell, SQL/PLSQL Compréhension des environnements AWS / GCP Connaissance des outils DevOps (GitLab, Jenkins) Bonnes notions de Big Data, datavisualisation et virtualisation de données Bonne capacité de rédaction technique en français Soft skills Autonomie, rigueur, sens du résultat Capacité à communiquer et formaliser Force de proposition et leadership technique Livrables attendus Études techniques, POC et recommandations d’architecture Guides techniques, souches conteneurisées, scripts de déploiement Rapports d’audit et documentation de capitalisation.
Offre d'emploi
Data Engineer T-SQL (Sqlserver 2019) - 6 ans d'expérience minimum
Publiée le
SGBD
SQL
Transact-SQL
6 mois
Paris, France
Télétravail partiel
L’infocentre commercial de la Banque a pour rôle de collecter (depuis les systèmes front, pour tous les produits), normaliser, enrichir les données (depuis des référentiels) et créer/générer des analyses de l’activité commerciale de la Salle des Marchés à l’aide de différents outils décisionnels. L’infocentre présente principalement 5 types de données : La performance commerciale : décomposée en une partie client et une partie vendeur Hit Ratio : les demandes de prix électroniques, récupérées des plateformes La trésorerie : calculée en fonction des opérations effectuées par la Salle des Marchés CRM : données de meeting, contacts, etc. fournies par l’outil CRM interne Réglementaire (post-trade) : afin de lever des alertes au Front Par ailleurs, l’infocentre est branché à de nombreux référentiels et applications, ce qui permet de fournir différents axes d’analyses de la donnée aux utilisateurs. L'équipe est divisée en plusieurs Business Lines : Salle des Marchés ; Commercial ; Conformité ; Onboarding. Ces Business Lines sont composées de profils Business Analyst, Développeur & BI, organisés en équipe Agile. Les équipes sont principalement localisées en France (80%) et au Portugal (20%). ment en C#
Mission freelance
Data Engineer Databricks (F/H)
Publiée le
Databricks
1 an
500-550 €
Saint-Denis, Île-de-France
Concevoir et développer des pipelines de traitement de données (ETL/ELT) sur Databricks. Intégrer et transformer des données issues de différentes sources (API, bases SQL/NoSQL, fichiers, data lakes, etc.). Mettre en place des workflows automatisés et orchestrés (via Azure Data Factory, Airflow, ou Databricks Workflows). Optimiser les performances des jobs Spark et la consommation des clusters. Participer à la modélisation des données (Data Lake / Delta Lake / Data Warehouse). Assurer la qualité, la sécurité et la gouvernance des données (contrôles, documentation, catalogage). Collaborer avec les Data Scientists, Analysts et Architectes pour garantir la cohérence et la fiabilité des environnements data. Surveiller et maintenir la plateforme Databricks en production (monitoring, troubleshooting, coûts).
Offre d'emploi
Data Engineer Python/AWS
Publiée le
AWS Cloud
Flask
Python
3 ans
40k-50k €
400-550 €
Courbevoie, Île-de-France
Télétravail partiel
La Mission à réaliser se déclinera notamment à travers ces activités : • Collecte, ingestion, traitement, transformation et restitution des données • Optimisation des coûts et des performances. • Conception et développement d'outils d'aide à la décision • Maintenance évolutive et support technique / accompagnement des utilisateurs Langages & Frameworks Python v3 — Avancé (5 à 8 ans) Design Patterns / Architecture logicielle — Confirmé (3 à 5 ans) Cloud & Infrastructures AWS — Confirmé (3 à 5 ans) Data & Big Data Lakehouse Fundamentals & Database Systems — Confirmé (3 à 5 ans) Big Data Architecture & Technologies — Confirmé (3 à 5 ans) Data Management Systems — Confirmé (3 à 5 ans) Domaines fonctionnels Marchés des matières premières (Gaz, Électricité, etc.) — Junior (< 3 ans) Soft Skills / Compétences transverses Anglais — Avancé (5 à 8 ans) Esprit d’analyse et de synthèse — Avancé (5 à 8 ans) Proactivité / Prise d’initiative / Orientation solution — Junior (< 3 ans)
Offre d'emploi
Data Engineer – GCP confirmé·e
Publiée le
Google Cloud Platform (GCP)
Python
SQL
3 ans
Rouen, Normandie
Télétravail partiel
Vous aimez relever des défis techniques ambitieux et contribuer à la mise en place d’architectures data performantes et innovantes ? Vous souhaitez évoluer au cœur d’un environnement cloud moderne et collaboratif ? Cette opportunité est faite pour vous ! Nous recherchons un·e Data Engineer – GCP confirmé·e pour accompagner la construction et le déploiement de solutions data pour notre client du secteur de l’assurance. Intégré·e à la DataFabric, vous rejoindrez une équipe agile composée de 5 à 7 Data Engineers, en lien direct avec le Tech Lead. Vous participerez activement au build et au run des traitements livrés en production sur la plateforme Google Cloud Platform (GCP). Vos principales responsabilités : Analyser, concevoir et modéliser les solutions data adaptées aux besoins métiers Développer et maintenir les pipelines de données sur GCP pour l’acquisition, la transformation, le stockage et la mise à disposition des données Rédiger les documents techniques associés (spécifications, cahier de recette, documentation d’exploitation) Réaliser les recettes techniques et assurer la qualité des livrables grâce à des tests de non-régression Participer activement à la maintenance et à l’amélioration continue des traitements data en production Environnement technique : GCP : BigQuery, Cloud Storage, Cloud Composer, Airflow, GKE Langages & outils : SQL, Python CI/CD : maîtrise des outils d’intégration et de déploiement continu Infrastructure as Code : Terraform
Offre d'emploi
Data Engineer Python / AWS
Publiée le
AWS Cloud
PySpark
Python
3 ans
Paris, France
Descriptif du poste Le prestataire interviendra comme développeur senior / Data Engineer sur les différentes applications IT du périmètre : Application de data management : ingestion, stockage, supervision et restitution de time series. Application de visualisation de données de marché et des analyses produites Application de calcul de prévision de prix Le prestataire devra accompagner les évolutions et assurer la maintenance corrective et évolutive sur ces différentes applications dans les meilleurs délais (time to market) tout en garantissant la qualité des livrables. Mission • Conception et développement d'outils d'aide à la décision • Conception et développement de nouvelles architectures data • Collecte, ingestion, traitement, transformation et restitution des données (météo, fundamentales..) • Optimisation des coûts et des performances • La gestion du cycle de développement, de l'infra et des mises en production (DevOps) • Maintenance évolutive et support technique / accompagnement des utilisateurs (analystes, data scientists...) • Coaching de l'équipe autour des thématiques Big Data et AWS : workshops, présentations…
Mission freelance
Cloud Security Engineer – Prisma Cloud Expert (H/F)
Publiée le
Cloud
1 an
400-670 €
Île-de-France, France
Télétravail 100%
Contexte de la mission Dans le cadre du renforcement des activités Cloud & Sécurité d’un grand groupe international, nous recherchons un Expert Cloud Security maîtrisant Prisma Cloud (CSPM, CWPP, Code Security). Vous interviendrez au sein d’une équipe d’experts Cloud pour garantir la conformité, la sécurisation et la performance des environnements multi-cloud. Vos principales missions Administrer la plateforme Prisma Cloud sur ses différents volets : CSPM : intégration de nouveaux cloud providers, suivi du bon fonctionnement. CWPP : intégration de nouveaux clusters Kubernetes, scans de registres. Code Security : supervision des intégrations CI/CD et remontées de vulnérabilités. Gérer les accès, rôles et utilisateurs (RBAC) sur Prisma Cloud. Contribuer à la promotion et à l’adoption de l’outil au sein des équipes internes. Collaborer avec le partenaire Palo Alto Networks et participer aux migrations vers Cortex Cloud . Maintenir et documenter les intégrations techniques (ServiceNow, pipelines Azure DevOps). Assurer la mise à jour de la documentation technique et le suivi de la conformité
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
408 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois