Trouvez votre prochaine mission ou futur job IT.

Mission freelance
Data Engineer Databricks
En tant que Data Engineer Databricks, nous vous proposons d’intégrer une équipe d’ingénieurs expérimentés et multi-compétentes. Au sein de nos clients issus de différents secteurs d'activité (Industrie, Services, Transport, Logistique, Banque, Assurances, Énergie), vous jouez un rôle clé dans la migration des données et des tâches de l'environnement Cloudera vers Databricks. Vous êtes également chargé d'automatiser le déploiement des jobs via le CI/CD. Pour réussir ces différents challenges, nous vous proposerons des actions de formation, des parrainages, des certifications sur les outils concernés et un dispositif d’évaluation personnel régulier.

Offre d'emploi
Tech Lead DATA - PUY DE DOME
Pour un gros client industriel nous cherchons, un Tech Lead Data. Il devra maitriser Azure Data Bricks, et avoir de bonnes connaissances sur Power BI. En terme de langages, Python et SQL sont indispensables. Il devra comprendre l'anglais technique au minimum. Mission sur Clermont-Ferrand, démarrage dès que possible, 2 jours de télétravail possibles par semaine. Compétences transverses Niveau d'expérience : 3 à 5 ans minimum Compétences : Azure Data Bricks ; Power BI ; Python ; SQL Langues : Anglais requis Profil : Tech Lead Data ou Ingénieur Data expérimenté Démarrage de mission : ASAP Durée de mission : Longue durée Télétravail : Partiel (2 j par semaine)

Mission freelance
Test Homologation - N4
CONTEXTE Objectif global : Tester Réaliser des tests techniques sur la banque à distance Contrainte forte du projet : Stratégie de tests technique MISSIONS : Sous pilotage d’un responsable d’intégration, la mission consiste à réaliser les tests techniques des changements confiés à l'équipe avant leur mise en production. L’activité de l’équipe est pilotée par la méthodologie Agile (Mode hybride Kanban/Sprint). Sur l’activité « Tests techniques » : - prendre connaissance du changement et de son contexte technique - contribuer au plan de tests proposé (Stratégie de tests) - préparer les infrastructures de tests - réaliser les tests techniques sur des serveurs distribués - réaliser les différents tests sur Néoload / Outils internes / Device Mobile/ Web - analyser les résultats - contribuer au diagnostic en cas de dysfonctionnement - rédiger les rapports détaillés qui aideront à la décision du GO/NOGO pour la mise en production - constituer ou mettre à jour le patrimoine de tests réutilisables pour les intégrations ultérieures - effectuer le reporting vers le Responsable Intégration - contribuer à l’amélioration continue en particulier sur l’activité tests - Industrialiser les tests via des PIC. Environnement technique : Redhat, Tomcat, IHM RIA/RWD, API, JAVA, SpringBoot, DataGrid, Kafka, MySql, MongoDB, SqlServer, Openshift, conteneur, GateWay (AxWay), XL-Release/XL-Deploy, kibana, Grafana, Néoload, Jenkins, BitBucket, Confluence et JIRA. Compétences indispensables : - Connaissance d’un outil de tests de Performance/TNR utilisant le protocole HTTP (HP Perf Center, Neoload, JMeter, OctoPerf, SoapUI, PostMan …) - Connaissance opérationnelle des démarches de tests techniques (installation, fonctionnement, performance, robustesse, exploitabilité, déploiement … ) - Capacité à mettre en œuvre une méthode de diagnostic structuré - Aisance sur les outils d’analyse (Kibana, Grafana …) - Aisance avec une infrastructure réseau complexe et un contexte d’échanges sécurisés - Connaissance des OS Linux/JAVA/conteneur Un plus serait : - Connaissances techniques sur les architectures Web Java JEE - Une approche du DevOps (Langage Python/Jenkins et de l’agilité) - Aptitudes à comprendre le métier bancaire sur lequel portent les changements et les exigences non fonctionnelles à couvrir par les tests techniques - Connaitre un APM (AppDynamics, Dynatrace …) Qualités recherchées : Autonomie, rigueur, dynamisme, ténacité, proactivité. Bon relationnel Capacité à remonter des alertes et proposer des solutions. Très bon esprit d'équipe et d'entreprise Bonne maîtrise de soi et capacité à gérer des priorités et à traiter en parallèle plusieurs sujets.

Mission freelance
Développeur C++ - Marchés financiers
Notre client, un établissement majeur du secteur financier, recherche un consultant pour concevoir un cadre de développement rapide de modèles quantitatifs, incluant backtesting, corrections et exposition d’API dans des environnements Cloud ou sur site. Contexte : Le département de développement quantitatif met en œuvre des modèles pour la valorisation de titres et la gestion des risques. Dans le cadre d’un partenariat stratégique, le client souhaite enrichir son offre analytique. Mission : Développer un framework de modèles, les intégrer et les maintenir, optimiser leurs performances, exposer des API, encadrer des profils juniors, et maintenir l’infrastructure d’intégration et de déploiement continus. Livrables : Framework opérationnel, modèles intégrés et optimisés, API exposées, documentation technique, pipelines CI/CD fonctionnels.

Offre d'emploi
Data Engineer GCP DBT LOOKER (H/F)
En tant que Data Engineer, vous intégrerez une feature team pour participer aux différents projets de développement. Pour cela vous aurez en charge : · Compréhension des besoins métiers · Conception des solutions nécessitant l’utilisation de technologies cloud & data pour répondre aux besoins métier · Déploiement, optimisation et industrialisation au quotidien des pipelines de données dans le Cloud · Travaille avec différents profils data du groupe (Data Scientist, data engineer, data architect, data analyst) · Assurer le monitoring des modèles en production · Contribuer au développement et à l’amélioration continue des outils data interne

Offre d'emploi
Data Engineer | AWS | Databricks
Contexte Dans le cadre de la mise en place et de l’évolution d’une plateforme DATA centralisée, nous renforcons son équipe avec un Data Ingénieur confirmé. Cette plateforme permet l’intégration, la mise en qualité et la mise à disposition de données brutes ou retravaillées issues de différents producteurs, afin de répondre à des besoins métiers opérationnels et analytiques à grande échelle. Rôle et responsabilités Développement et ingestion de données Concevoir, développer et optimiser des jobs d’ingestion et de transformation de données en Python et Spark sur Databricks , avec gestion de gros volumes. Mettre en place et maintenir des flux de données entre sources externes (ex. bases Oracle) et Delta Lake sur AWS S3 . Orchestration et supervision Créer et orchestrer des workflows avec AWS Airflow et automatiser les traitements. Mettre en place des mécanismes de contrôle qualité et de validation des données pour garantir cohérence et fiabilité. Développer des jobs de monitoring pour détecter et corriger automatiquement les anomalies. Maintien en condition opérationnelle Assurer la disponibilité et la performance des jobs en production. Analyser et corriger les incidents et anomalies détectées. Contribution stratégique Participer aux ateliers de conception technique et fonctionnelle. Promouvoir les bonnes pratiques de développement et d’optimisation Big Data. Documenter les processus, architectures et scripts. Compétences techniques requises MUST : Python Spark Databricks SQL SHOULD : AWS (S3, Glue, Airflow, CloudWatch, Lambda, IAM) COULD : Big Data (gestion et traitement de très gros volumes de données) WOULD : Git Méthodologies et outils : CI/CD avec GitLab JIRA / Confluence Méthodologie agile Scrum

Offre d'emploi
Expertise en sécurité Opérationnelle - N4
Accompagner Accompagner la mise en œuvre de la sécurité du cloud GCP Contrainte forte du projet Nous recherchons un consultant spécialisé dans sécurité du cloud GCP (services PaaS; IAM, automation, CI/CD) avec de l'expertise sécurité réseaux Description détaillée Évaluer les services GCP sur les aspects de sécurité selon les règles BPCE IT et identifier les points de contrôle. Implémenter les contrôles de sécurité sur les outils de sécurité (CSPM, Sentinel HashiCorp, outil de gouvernance, …). Qualifier et étudier les évolutions des services GCP de type Private Service Connect et être en mesure de proposer des solutions si des problèmes de sécurité sont signalés. Accompagner les équipes projets et transverses dans la mise en œuvre des recommandations de sécurité. Gérer les incidents et le suivi des non-conformités.

Offre d'emploi
Data Engineer
Nous recherchons un(e) Data Engineer Senior / Expert pour renforcer notre équipe et prendre un rôle clé dans la conception, l’industrialisation et la mise en production de nos pipelines et services de données. Le poste requiert un profil expérimenté, capable d’allier expertise technique, bonnes pratiques de développement logiciel et accompagnement des équipes. Concevoir, développer et optimiser des pipelines de données robustes, performants et scalables. Encadrer et apporter une expertise technique sur les choix d’architecture et de stack. Déployer et orchestrer des traitements distribués (PySpark, Glue). Concevoir et exposer des APIs de données. Industrialiser et automatiser les environnements via Terraform et des pipelines CI/CD. Garantir la fiabilité, la performance et la sécurité des flux et services de données en production. Collaborer avec les équipes Produit, Data et Développement pour intégrer les besoins métiers dans les solutions. Partager les bonnes pratiques et contribuer à la montée en compétences de l’équipe.

Mission freelance
Architecte Applicatif - Architecte Solution
Au sein de la sous-direction des systèmes d'information (SDSI) de la direction du numérique (DNUM) le bureau des ressources de réalisation (BRR) est un bureau technique visant à développer des applications web et à apporter un appui dans les domaines suivants : - Architecture applicative et transverse - Devops - Développement - Captation du besoin via les UX/UI - Assistance à la MOA - Conception de base de données via les DBA L'architecte est en charge de : - définir les critères fonctionnels et métiers - définir l'architecture applicative (description/modélisation des blocs applicatifs, de leurs fonctions et services, etc ...) - définir l'architecture logicielle (couches, middlewares, protocoles) - rédiger et/ou valider le DAG en garantissant la compatibilité avec le SI du ministère - assurer la cohérence et la correspondance entre l'architecture d'infrastructure et l'architecture applicative et logicielle - veiller au respect des bons principes de cohérence et de mutualisation - participer à la sécurisation des systèmes d'information en collaboration avec les équipes SSI - contribuer à la mise en œuvre des principes de gouvernance du SI : participation à la mise à jour du CCT (Cadre de Cohérence Technique) - participer ou mettre à jour le référentiel d'architecture du la DNUM - mener des actions visant au développement de démonstrateurs (POC) - participer au dépouillement d'offres relatives à l'architecture L'architecte travaille dans le contexte d'un hébergement cloud (IaaS ou CaaS) et participe à l'implémentation des méthodes de collaboration (Agile, SAFe). Il aura des connaissances techniques approfondies en urbanisation, architecture et réseaux, protocoles web, résilience, performance, sécurité
Mission freelance
Consultant AMOA Agile (background Développement) – Secteur Aéronautique
Consultant AMOA Agile (background Développement) – Secteur Aéronautique 🎯 Contexte client Notre client, acteur majeur du secteur aéronautique , recherche un Consultant AMOA Agile senior (10 ans d’expérience) avec un background développement pour intervenir sur le projet Twin . Ce projet vise à assurer le suivi de configuration des moteurs aéronautiques tout au long de leur cycle de vie. Deux applications (LEAP Twin et CFM56 Twin) sont déjà en production, avec plus de 600 utilisateurs habilités et une feuille de route ambitieuse incluant une migration vers une dataplateforme AWS à l’horizon 2026. Le projet est mené en méthodologie Agile (sprints mensuels) avec une équipe composée de développeurs et de profils AMOA, et nécessite un accompagnement fort du chef de projet pour garantir la bonne exécution des jalons fixés par le comité de pilotage. 🛠 Missions principales Le consultant interviendra en accompagnement du chef de projet et sera notamment en charge de : Formaliser les besoins métiers complémentaires (application JetLab ). Rédiger les spécifications fonctionnelles . Identifier et qualifier les anomalies, assurer le suivi des correctifs et tests avec l’équipe de développement. Conduire des ateliers utilisateurs et recueillir leurs besoins. Contribuer à la planification et la constitution des sprints , suivi via Kanban (~20 tickets/sprint). Participer à l’ animation des cérémonies Agile . Préparer la stratégie de migration vers AWS et les plannings associés.
Offre d'emploi
Tech Lead NetDevops
Le Tech Lead NetDevops intégrera l'équipe Développement et Automatisation / Réseaux composée de 20 personnes et aura pour mission de : Contribuer aux actions d'automatisation et de fiabilisation Opérer les revues de code Opérer la veille technologique Réaliser des présentations techniques Traiter tant les aspects techniques et fonctionnels et intervenir sur l’ensemble des environnements de l’intégration à la production y compris dans le cadre de projets

Mission freelance
Développeur Fullstack Python / React Expérimenté H/F
📍 Lieu : Antibes 06 (Télétravail 2 jours / semaine) 🏭 Secteurs stratégiques : IA 🕒 Durée : 1 an (renouvelable) 📅 Démarrage : ASAP 🧠 Séniorité attendue : 5 ans minimum 🏢 Contexte de la mission : CBC Consult recrute pour le compte de son client basé à Antibes, un développeur(se) Fullstack Python / React expérimenté(e) pour renforcer l'équipe technique. 🎯 Vos missions principales : Participer aux ateliers de conception technique avec les équipes produit Développer des nouvelles fonctionnalités côté backend (Python/Django) et frontend (React) Optimiser les performances et la qualité du code Participer aux revues de code et à l’amélioration des bonnes pratiques Assurer les tests unitaires, fonctionnels et l’intégration continue
Offre d'emploi
Senior Cloud Data Engineer
Les équipes Data Systems de notre client recherchent un Senior Cloud Data Engineer passionné, basé à Paris, pour accompagner la forte croissance de leurs activités. En rejoignant l'équipe : Vous intégrerez une équipe autonome, impliquée dans un programme de transformation autour de projets de Data Engineering. Vous apporterez votre expertise sur la stratégie data, serez impliqué dans l’architecture et l’implémentation, et aurez l’opportunité d’expérimenter de nouvelles technologies. Vous jouerez un rôle clé en guidant les bonnes pratiques, en garantissant la fiabilité, la maintenabilité et la scalabilité des solutions que nous proposons à nos clients. Vos missions Concevoir, développer et déployer des solutions data sur le cloud (principalement AWS, mais aussi Azure ou GCP). Construire et maintenir des pipelines de données performants, sécurisés et automatisés. Travailler sur des architectures modernes type Lakehouse (Hudi, Iceberg, Delta) et appliquer des optimisations (Compaction, Z-Order, etc.). Orchestrer des pipelines avec Airflow et exploiter des environnements Hadoop / Spark. Développer en Python, SQL, Docker, avec mise en place de CI/CD et principes DevOps. Garantir la performance, la disponibilité et la sécurité des applications. Accompagner les membres moins expérimentés de l’équipe et partager les bonnes pratiques. Participer à des projets innovants et contribuer à l’évolution de notre offre Cloud Data Engineering. Profil recherché 5 ans minimum d’expérience pratique dans la construction de pipelines de données sur le cloud (AWS de préférence, Azure ou GCP acceptés). 3 ans minimum en architecture, conception, développement et support de solutions data. Connaissance des bases de données, ETL, BI, Big Data, Machine Learning et Advanced Analytics. Maîtrise des environnements Hadoop, Spark, Airflow. Expérience des architectures Lakehouse. Solides compétences en Python, SQL, CI/CD, automatisation et gestion de conteneurs (Docker). Connaissances de base en services cloud (réseau, sécurité, stockage, IAM). Bonne compréhension des méthodologies Agile et DevOps. Esprit ouvert, curieux et orienté apprentissage continu. Bon relationnel et capacité à collaborer avec des équipes pluridisciplinaires. Excellente communication écrite et orale en français et en anglais. Expérience souhaitée : infrastructures Linux, applications conteneurisées. Ce que nous offrons Participation à des projets data innovants et stratégiques. Un environnement stimulant, multiculturel et orienté partage de connaissances.

Mission freelance
Développeur Python / Triton
- Participer au développement et à la maintenance évolutive du progiciel Triton. - Travailler en collaboration étroite avec les équipes projet, les utilisateurs métiers et le partenaire courtier. - Contribuer aux revues de code et à l’amélioration continue du codebase. - Participer aux rendez-vous d’alignement avec les parties prenantes. - 1 jour de télétravail par semaine au choix - Mission freelance long terme, possibilité d'évoluer sur de la pré-embauche.
Offre d'emploi
Tech Lead / Senior Data Engineer Python Spark AWS
Je recherche un profil senior Data Engineer avec une évolution rapide vers un poste de Tech Lead. Points clés : • Solides connaissances et pratique en Python (design, tests, processus de développement, etc.) • Data Engineering : architecture big data / modélisation / optimisation / environnement distribué • Connaissance du cloud AWS ; un niveau intermédiaire minimum est requis, avec une expérience pratique • Bon esprit d'équipe et capacité d'adaptation • Bonnes compétences en communication en anglais L'objectif est de développer une plateforme basée sur des technologies Big Data robustes et évolutives. Cette plateforme sera capable de traiter un volume important de données dans les différents pays où le client opère. Son objectif principal est de capturer divers indicateurs dans un référentiel centralisé, permettant d'accéder à des vues standardisées et transversales de ces indicateurs. Outre ses responsabilités techniques, le data engineer veillera au respect des directives du groupe concernant l'utilisation du cadre interne et l'architecture. Il collaborera également avec les autres parties prenantes du projet afin de promouvoir ces directives et de proposer des solutions communes pour la plateforme. Le rôle du data engineer senior dans ce projet consistera à concevoir et à mettre en œuvre les composants suivants de la plateforme : • Ingestion des données • Traitement et normalisation des données. • Distribution des données aux différentes parties prenantes. • Construire et améliorer le cadre commun, notamment en matière de surveillance, de CI/CD, de tests, de performances, de résilience, de pratiques de développement et de qualité du code.

Offre d'emploi
TECH LEAD BIG DATA
Bonjour, Pour le compte de notre client nous recherchons un TECH LEAD BIG DATA Le domaine d’intervention du Tech Lead Data Engineering comprend les études, l’architecture du SI Big Data, le choix des solutions et outils, le pilotage technique du Build et du Run. Comme référent technique Big Data, vous assurez le lead technique de l’équipe de développeurs, avec en responsabilité, la conception et la mise en œuvre des solutions Big Data, ainsi que le pilotage technique de projets. Sous la responsabilité du responsable du SI Big Data, vous piloterez techniquement les activités de Data Engineering : - étude et prise en compte des besoins de traitement de la data, - gestion des priorités et de la cohérence des besoins, - choix des outils et solutions - conception et mise en œuvre des architectures de données évolutives et performantes, sécurisées et résilientes - direction et encadrement technique d’une équipe de data ingénieurs composée d’intervenants externes : suivi, support, adoption des bonnes pratiques de développement sécurisé - suivi de la qualité, de la sécurité des données et des traitements, de la performance opérationnelle des traitements - participation et support au delivery nécessitant l’expertise technique et data - veille technologique pour rester à l’état de l’art en matière de traitement massif des données, et d’utilisation de l’IA pour l’automatisation, la prédiction, la génération de data et de code. - support des équipes Data Science et R&D sur le cycle de déploiement/optimisation et industrialisation des solutions d’IA - conception et mise en place d'API pour l'intégration des solutions Big Data avec d'autres systèmes, - développement et intégration de modèles d'IA générative pour des applications spécifiques, - assurer la maintenance et l'évolution des API et des modèles d'IA générative.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.