Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.

Mission freelance
Développeur / Data Engineer / DevOPS H/F
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Développeur / Data Engineer / DevOPS H/F à Paris, France. Contexte : Les missions attendues par le Développeur / Data Engineer / DevOPS H/F : L'objectif de la mission est de renforcer l'équipe avec un rôle de Développeur / Data Engineer orienté DevOps au sein de la Squad : - Gestion de la production - Gestion de la dette technique - Revoir l'architecture actuelle et proposer des évolutions - Développements liés aux projets Concrètement : la mission principale de la prestation aura pour but de : - traiter nos obsolescences de Framework (ex : springboot , spark2 ) - moderniser et industrialiser nos pipelines de build en intégrant les bonnes pratiques devsecops : - migration depuis tfs vers jenkins - création directe sur jenkins Le but étant d'optimiser notre code , d'assainir et d'automatiser nos déploiements via xldéploy. Le code concerne nos apis et nos process de transformation hadoop/spark ( en java , python ou.net )

Offre d'emploi
Data Engineer Cyber
Descriptif du poste Dans le cadre du déploiement du SOC ITG et de la collecte des logs sécurité de ses entités métiers, le bénéficiaire souhaite une prestation en ingénierie Data Collect et Data Transformation autour des solutions techniques Elastic Search et Elastic Beats, pour l'enrichissement d'un "puit de donnée sécurité" pour permettre la corrélation d'événements, et la mise en place d'alerting sur des paterns de sécurité. Missions Mise en place et définition des mécanismes de collecte Définition des patterns d'architectures de la collecte Déploiement de ces dispositifs sur le socle d'infrastructure Groupe, et sur les entités opérées dans les filiales ou à l'étranger Définition et mise en œuvre d'une stratégie de collecte uniforme et standardisée Mise en place de pipelines d'enrichissement de la donnée Maintien condition opérationnelle de la plateforme et des agents de collecte Mise en place de processus d'onboarding de nouvelles sources de logs ou d'assets en liens avec les responsables des systèmes monitorés Support et conseil aux entités utilisatrices des services Maintien et contrôle de la donnée collectée (exhaustivité et qualité)

Offre d'emploi
Data Engineer Python / Spark
Dans le cadre d’un projet pour l’un de nos clients dans le secteur de la finance , nous recherchons un Data Engineer avec une forte expertise en Python , Spark , et Git . La mission s’inscrit dans un environnement Big Data et suit une méthode Agile . Objectifs de la mission Le consultant contribuera à : Développer de nouveaux modèles et indicateurs Industrialiser ces développements dans un environnement de production APIser les services Produire une documentation fonctionnelle et technique Livrables attendus Développements en Python et Spark Scripts d’intégration (Shell, éventuellement Perl / PHP) Documentation technique & fonctionnelle Services API Code versionné sous Git / GitHub Méthodologie Travail en mode Agile / Scrum
Mission freelance
Data Engineer AWS / Databricks
Nous recherchons un(e) Data Engineer expérimenté(e) pour intervenir sur une mission de conseil et d’optimisation d’une Data Platform AWS Databricks . ✅ Vos missions principales Auditer l’existant de la Data Platform AWS Databricks Proposer des préconisations techniques & méthodologiques pour renforcer la performance et la fiabilité Conseiller les équipes sur les bonnes pratiques Data & Cloud Contribuer à l’évolution et à la roadmap de la plateforme Accompagner les équipes internes dans la mise en œuvre

Offre d'emploi
Data Engineer Senior AWS H/F
Nous recherchons un(e) Data Engineer Senior AWS pour l'un de nos clients grand compte. La mission contribue dans la mise en place des Core Enablers / Frameworks & Applications communs aux 3 pays. - Mettre en place les flux de données entre les systèmes sources et cibles - Utiliser les services AWS pour la transformation et l’orchestration (Glue, Step Functions, Lambda…) - Superviser le delivery technique des composants applicatifs - Assurer la qualité des données et la traçabilité des échanges - Encadrer les développeurs et analystes dans la mise en œuvre des solutions data Compétences requises : AWS Cloud (Glue, Step Functions, Lambda, etc) Intégration des données & Monitoring de flux DevOps (Git, Azure Devops, …) Scripting Python Services de traitements et d'orchestration

Offre d'emploi
Data engineer BI
Contexte de la mission Dans le cadre d’un projet stratégique de reporting opérationnel , nous recherchons un·e Data Engineer expérimenté·e , orienté·e modélisation BI et performance , pour intervenir de bout en bout : structuration des données, création de modèles, alimentation du Lakehouse, et support à la datavisualisation métier (Tableau). Objectif : construire des tableaux de bord à forte valeur ajoutée tout en optimisant la qualité, les temps de réponse et les coûts liés à la plateforme. Missions principales Modélisation de données BI : modèle en étoile, flocon, Data Vault (si applicable) Manipulation avancée de données avec SQL Création de pipelines Databricks (Delta Lake, Notebooks, optimisation via Z-Order, caching, partitionnement…) Collaboration sur des notebooks pour analyses avancées Optimisation des performances sur environnement Lakehouse Intégration de Databricks avec des environnements cloud (Azure ou AWS) Participation à la conception des dashboards dans Tableau (Salesforce) Contribution active à la qualité de la donnée, documentation et bonnes pratiques

Mission freelance
FREELANCE – Data Engineer Spark/Scala (H/F)
Nous constituons un vivier de freelances spécialisés en data engineering pour anticiper les besoins de nos clients sur des projets Big Data et Cloud. Nous recherchons des Data Engineers expérimentés sur Spark et Scala, capables d’intervenir rapidement sur des missions à Nantes et Rennes, dans des contextes variés (banque/assurance, industrie, retail, services). En tant que Data Engineer Spark / Scala, vos missions pourront inclure : Conception et développement de pipelines de données : ingestion, transformation, nettoyage et enrichissement de données massives. Développement d’applications distribuées avec Apache Spark (Batch et Streaming) en Scala. Industrialisation des traitements Big Data : optimisation des performances, gestion des volumes importants, parallélisation. Mise en place d’architectures data : Data Lake, Data Warehouse, solutions temps réel. Intégration Cloud : déploiement et utilisation des services Big Data sur AWS, Azure ou GCP (EMR, Databricks, Synapse, BigQuery, etc.). Tests, qualité et fiabilité : mise en place de bonnes pratiques de développement (CI/CD, tests unitaires et fonctionnels). Sécurité et conformité : respect des normes RGPD et bonnes pratiques de gouvernance des données. Documentation et partage : rédaction des spécifications techniques, bonnes pratiques et transmission de compétences aux équipes internes. Collaboration transverse : travail étroit avec les Data Scientists, Data Analysts, Product Owners et Architectes pour répondre aux besoins métiers.

Offre d'emploi
Data Engineer
Missions principales : Assurer la sécurité du dispositif de production trimestriel du calcul du shortfall NPL P1 et P2 : veiller à la fiabilité, l’intégrité et la traçabilité des données et des processus liés au calcul de shortfall, en conformité avec les exigences réglementaires et internes. Implémenter le calcul du point mort pour la motivation de la décision de vente des actifs : modéliser, tester et automatiser la méthodologie permettant de déterminer le seuil de rentabilité pour les opérations de cession d’actifs NPL, en apportant une analyse claire et justifiée pour orienter la prise de décision. Assurer la production du NPL calendar pour l’EBA ST 2023 : coordonner et réaliser l’ensemble des travaux nécessaires à la préparation et à la production du calendrier NPL requis dans le cadre du stress test européen organisé par l’EBA, en garantissant respect des délais, conformité et qualité des livrables.

Offre d'emploi
Data engineer MSBI Python Azure (7-8 ans d'exp minimum)
🏭 Secteurs stratégiques : Asset management 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Dans le cadre d'un projet au sein d'un client grand compte, nous sommes à la recherche d'un Data engineer avec une expertise sur la suite MSBI. Le profil recherché, Bac + 4/5 idéalement issu d’une école d’ingénieur, aura une expérience au minimum de 7/8 ans. Passionné par le développement, il aura la capacité de travailler en équipe et saura apporter une vraie valeur ajoutée par ses compétences techniques et humaines
Mission freelance
DATA Engineer - AWS(H/F)
Nous cherchons : Un(e) Data Engineer motivé(e) pour rejoindre notre squad Data Platform et contribuer à la construction, l’exploitation et l’optimisation de notre plateforme Data dans un environnement Cloud (AWS / Azure). Missions principales : Concevoir, développer et maintenir des solutions de Data Lake (Gen 2, S3). Développer des microservices et applications en Python et C# . Mettre en place et maintenir des processus de déploiement automatisé avec Terraform . Participer au RUN et au Build de la Data Platform (support, supervision, optimisation). Automatiser et améliorer les activités d’exploitation (SRE, FinOps). Définir et appliquer les bonnes pratiques de sécurité, qualité, résilience et observabilité. Collaborer avec les Data Officers, Data Architects et Data Engineers dans un cadre Agile . Assurer la documentation et le suivi des livrables (artefacts, mises en production).4 Stack technique : Cloud : AWS (S3, VPC, services Data), Azure (ADLS Gen 2 – un plus). Langages : Python, C#. Infra as Code : Terraform. Data : ETL, Data Lake (Gen 2, S3). Monitoring & Observabilité : Grafana, Azure App Insights. Méthodologie : Agile / SRE / FinOps.

Mission freelance
Data Engineer AWS - La Défense
Un grand groupe international lance plusieurs projets stratégiques autour de la valorisation de la donnée (dashboards internes/clients, vision 360, data products). 🚀 Mission En tant que Data Engineer AWS , vous interviendrez sur : Conception & développement de data pipelines (Python, Glue, Spark) Modélisation et stockage (S3, Iceberg, Redshift) Mise en place de composants réutilisables Accompagnement des équipes locales (co-construction, support technique) Qualité, sécurité (IAM, Lake Formation) et mise en production
Offre d'emploi
Data engineer teradata
Au sein de la Squad Data, vous serez garant des évolutions techniques, de la maintenance et de la performance du Datamart centralisant les données financières du client. Vous interviendrez sur : Développement et optimisation des traitements, modèles de données et flux. Gestion des incidents et actions correctives. Monitoring, alerting et documentation technique. Collaboration étroite avec les Métiers, autres Squads et entités du Groupe 2jours de présence sur site sont requis dans le cadre de cette mission.

Mission freelance
Data Engineer Java/Spark – POC & Industrialisation Data
Nous recherchons un Data Engineer Senior (Java/Spark) pour accompagner un acteur majeur du secteur mutualiste dans la transformation et l’industrialisation de ses environnements data, en lien étroit avec les équipes métiers et techniques. Vous aurez pour mission : Accompagnement technique et fonctionnel : Intervenir en tant qu’expert Data pour soutenir les équipes sur des problématiques de performance, d’optimisation et d’expérimentation de cas d’usage à forte volumétrie. POC et industrialisation : Participer à la conception et à la réalisation d’un POC visant à rapprocher les environnements cloud et on-premise, avec une cible finale on-premise. L’existant cloud servira de base pour des projets d’envergure. Animation et méthodologie : Co-animer le codir mensuel avec la direction métier Data/IA, accompagner la direction dans l’exploration des données et la priorisation du backlog, et apporter une expertise méthodo pour le démarrage des cas d’usage. Collaboration transverse : Travailler en étroite collaboration avec les Tech Leads et référents architecture Data pour garantir la cohérence technique et fonctionnelle des solutions proposées. Développement et optimisation : Apporter un soutien actif au développement Python/Java, résoudre les problématiques de performance et contribuer à l’expérimentation de cas d’usage sur des volumes de données importants.

Mission freelance
Data engineer
Contexte de la mission Dans le cadre de la création d’un nouveau DataHub dédié au Cash Management , nous recherchons un(e) Data Engineer expérimenté(e) pour accompagner une équipe IT spécialisée dans les services financiers, sur un projet stratégique de centralisation et de valorisation des données opérationnelles. L’objectif de ce DataHub est de fournir une infrastructure robuste, évolutive et exploitable pour les différents consommateurs de données (équipes métiers, reporting, analytics…). Vous interviendrez à la fois sur la conception technique , la modélisation des données , les choix d’architecture , ainsi que sur la préparation de la migration vers le cloud . Vos missions Phase 1 – Mise en place du DataHub : Participer aux choix technologiques pour le stockage et l’alimentation des données Concevoir des modèles de données robustes et évolutifs Accompagner les équipes applicatives dans la définition des modèles de données orientés consommateurs Proposer des bonnes pratiques d’exploitation des données (qualité, accessibilité, gouvernance) Phase 2 – Préparation de la migration cloud : Étudier les solutions de base de données cloud proposées (SQL et NoSQL) Analyser les avantages/inconvénients de chaque solution Préparer les stratégies de migration des données Participer à la conception et au développement des pipelines de migration Travailler en coordination avec une équipe offshore basée en Asie pour le développement, les tests unitaires, et les mises en production

Mission freelance
Data Engineer (GCP / Python / DBT)
Nous recherchons un Data Engineer confirmé pour accompagner les produits data de notre périmètre Connaissance Client et Commerce Animation Performance . 🎯 Objectif de la mission Mettre en place une cartographie des données . Concevoir un Datamesh adapté et partagé , incluant son dimensionnement. Déployer un Datamesh avec sondes de contrôle qualité garantissant la fiabilité des données. 🚀 Responsabilités Créer des pipelines robustes et optimisés afin de mettre à disposition les données de manière efficace et avec un coût FinOps maîtrisé. Maintenir et faire évoluer les produits data existants. Collaborer avec les équipes métier dans un environnement Agile (Scrum/Kanban) . 🛠️ Compétences attendues Python (Flask, appels API, Kafka) – Confirmé (impératif). GCP (BigQuery, GCS, Cloud Run, …), DBT – Confirmé (impératif). Github (CI/CD, versioning) – Confirmé (important). Méthodologies agiles (Scrum, Kanban) – Confirmé. Anglais courant – Impératif. ❌ À noter Nous recherchons un Data Engineer , et non un Data Scientist. 📍 Mission longue durée – Démarrage rapide – Contexte stimulant au sein d’une équipe data en structuration.

Offre d'emploi
Data Engineer SQL Server (T-SQL)
Dans le cadre d’un renforcement d’équipe Data notre client recherche un Data Engineer confirmé spécialisé sur SQL Server . Vous serez responsable de : Maintenance évolutive et corrective des flux de données Développement SQL : modélisation, transformation de données, calculs d’indicateurs Gestion des flux de données : fichiers plats, XML, API REST, web services Ordonnancement des traitements via Control-M Optimisation de requêtes SQL et modèles de données Rédaction de documentations techniques Réalisation de tests unitaires et participation aux recettes Support utilisateur et gestion des incidents Participation active à la méthodologie Agile (Kanban) : Daily, poker planning, rétrospectives
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.