Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.

Offre d'emploi
Expertise Denodo
Missions principales Concevoir et mettre en œuvre des architectures de virtualisation de données avec Denodo . Définir les bonnes pratiques de modélisation logique et de consommation des données. Participer à l’intégration de Denodo dans l’écosystème existant (ETL, data warehouse, data lake, API, outils BI, etc.). Optimiser les performances (tuning, caching, monitoring) et assurer la haute disponibilité de la plateforme. Garantir la sécurité, la gouvernance et la conformité des données (politiques d’accès, masquage, traçabilité). Former et accompagner les équipes (Data Engineers, Data Analysts, BI, métiers) à l’usage de Denodo. Assurer la veille technologique autour de la data virtualization et proposer des améliorations continues.
Mission freelance
Data Engineer / Développeur Dataiku
Actuellement en phase d’amélioration de la qualité des données, l’équipe projet souhaite renforcer ponctuellement son dispositif de développement Dataiku. En collaboration étroite avec l’équipe en place, l’objectif est de préparer les données (selon les règles Métier définies) et développer l’ensemble des étapes permettant l’intégration de ces données dans le projet existant. - Montée en compétences : o Appropriation du contexte fonctionnel o Appropriation des bonnes pratiques de développements o Compréhension et maitrise du projet Dataiku existant - Développement Dataiku - Recette des développements réalisées o Tests unitaires o Tests d’intégration dans le projet existant, en lien avec le référent - Documentation du data dictionnaire - Documentation des spécifications techniques et fonctionnelles

Offre d'emploi
Data Engineer
Vous serez intégré dans une équipe pluridisciplinaire de 6 personnes (Data Engineer, DevSecFinOps) En vous appuyant sur la data ARF exposée, vous travaillerez sur un use case dédié en collaboration avec les équipes Data (tech lead, gouvernance et architectes). Vous devrez avoir une approche FINOPS (Maîtrise et diminution des coûts) BUILD - Interlocuteur lors de la contribution à des projets dans le domaine de la Supply - Conception de solutions en respectant les normes et framework data - Développement, Modélisation sous la gouvernance de l'architecture data - Contribution au développement d'appli - Tests - Reporting RUN : - Maintien en condition opérationnelle de notre périmètre de responsabilité (4 référentiels de données opérationnels (RDO) multi sourceurs, 15 applications) - gestion des incidents - mise en production (via Git) - suivi de flux EXPERTISE : - Montée en compétence sur notre SI et notre domaine de responsabilité À la demande du Métier, il analyse, paramètre et code les composants logiciels applicatifs dans le respect des évolutions souhaitées, des normes et des procédures.
Mission freelance
Chef de Projet Digital & Agile H/F/NB
🎯 CONTEXTE DE LA MISSION Nous recherchons pour un grand groupe international un(e) Chef(fe) de Projet Digital & Agile expérimenté(e) pour piloter des projets stratégiques sur une plateforme CRM & Data consommateurs. Vous interviendrez dans un environnement technique complexe, en coordination avec de nombreuses équipes et technologies, dans le cadre d'une organisation Agile mature. 🚀 MISSIONS PRINCIPALES PILOTAGE DE PROJET • Gestion end-to-end de projets digitaux complexes en méthodologie Agile • Coordination multi-équipes (techniques, métiers, partenaires) • Suivi du build solution jusqu'à la mise en production ANALYSE & SPÉCIFICATIONS • Compréhension des besoins business et pain points • Analyse d'impact et étude de faisabilité • Traduction des besoins en spécifications technico-fonctionnelles EXPERTISE TECHNIQUE • Support au build via configuration • Tests IT et validation des critères d'acceptation • Pilotage des tests d'intégration, E2E et UAT DOCUMENTATION & TRANSFERT • Documentation projet complète • Transfert d'expertise aux équipes Build, Run et métiers • Accompagnement en phase d'hypercare

Mission freelance
Développeur Python GenAI (F/H)
Objet de la prestation : Dans le cadre du programme Augmented, une équipe Lab Tech-genAI, en charge d’étudier les capacités des innovations genAI, est en création. Cette équipe vient renforcer les équipes genAI déjà en place. Le Lab Tech-genAI s’appuie sur l’environnement Google Cloud Platform (GCP). Le développement est réalisé en Python. Les composants techniques sont réalisés dans une architecture micro-services. Ils sont à développer, à intégrer dans l’écosystème, à maintenir et à faire évoluer. La prestation concerne principalement : - Le développement de services permettant de tester des nouveautés genAI et comment les utiliser à l’échelle - l’intégration de nouveaux services d’agent dans l’architecture existante, - L’amélioration et l’optimisation des composants d’ingestion de données non structurées - L’évaluation d’outils de dev basés sur l’IA - Le développement de cas d’usage IA innovant et généralisables Livrables : Contribuer au développement des services du Lab Tech-Genai, évaluer et tester des solutions innovantes Genai et proposer des guidelines d’intégration de ces solutions aux autres équipes Genai du Groupe Sont attendus les livrables suivants : - Le code des développements demandés, conçus et mis en œuvre en production de manière satisfaisante - Le code des tests unitaires et d’intégrations automatisés - La documentation du code expliquant les programmes et algorithme - Le développement de l’application est en méthode Agile/Scrum avec des sprints de 2 semaines. - Participation à l’élaboration des User Stories - Conception, développement et mise en production d’applications nécessaires aux fonctionnalités souhaitées - Mise en place de tests unitaires, d’intégration et fonctionnels bout-en-bout - Participation aux discussions d'équipe autour de solutions techniques et d'idées de produits dans les revues de conception, la programmation en binôme et la revue de codes, participation à l’élaboration de bonnes pratiques sur le projet
Offre d'emploi
Expert sécurité cloud GCP H/F
🌍 Langue : Anglais professionnel impératif Profil Recherché Expert Sécurité Opérationnel sur le Cloud Public GCP Expérience significative dans la mise en place, la gestion et le pilotage de solutions de sécurité Expérience dans un grand groupe sur Google Cloud Platform (GCP) Maîtrise des chaînes CI/CD et des outils DevSecOps Connaissance approfondie des outils CSPM (Cloud Security Posture Management) Expertise en sécurité réseau Expérience : 4 à 5 ans minimum sur GCP Anglais professionnel impératif Missions Accompagner les projets pour garantir la sécurité sur GCP Déployer et piloter des solutions de sécurité adaptées Mettre en place techniquement les contrôles de sécurité Suivre et améliorer en continu la sécurité dans le cloud Intégrer des mesures de sécurité aux projets Cloud GCP Gérer les alertes de sécurité et les non-conformités , avec mise en place de plans de remédiation

Offre d'emploi
Expert Spark (Spark /Airflow /Superset )
Dans le cadre de son initiative Big Data FR sur plateforme Open Source , GRDF recherche un Expert Spark afin de renforcer son équipe Data. L’objectif est de contribuer à la conception, à l’optimisation et au déploiement de pipelines Big Data à grande échelle, avec un focus sur la performance et la fiabilité. 🚀 Missions principales: Participer à la conception et au développement de pipelines de données distribués basés sur Spark. Optimiser la performance des traitements et garantir la scalabilité des solutions. Déployer, monitorer et maintenir les workflows de données via Airflow . Créer et améliorer des dashboards et visualisations de données avec Superset . Collaborer avec les équipes Data Engineering, Data Science et métiers pour intégrer les besoins fonctionnels dans la plateforme Big Data. Assurer une veille technologique et proposer des solutions innovantes dans l’écosystème Big Data Open Source.

Offre d'emploi
Senior / Tech Lead Java - Market Risk (Cloud-native, DDD, Event-Driven)
Nous accompagnons notre client pour la refonte d’une application Market Risk afin de passer d’un système historique à une plateforme cloud-native (Java). L’objectif à court terme est de réussir un POC pour poser le socle fonctionnel et technique, puis industrialiser. Ce qui doit être construit : une application structurée en DDD, pilotée par un moteur d’orchestration / workflow, avec une GUI dédiée à la traçabilité des données tout au long des processus métier. La base cible est SingleStore (ou équivalent SQL distribué). Le déploiement se fera sur cloud interne ou Google Cloud Platform (GCP). Pendant la transition, le nouveau système cohabitera avec le legacy : la capacité à réaliser le branchement est donc essentielle pour livrer vite sans perturber l’existant. Pour cela, nous recrutons un profil capable de tenir la vision d’architecture et de livrer le code : un(e) ingénieur(e) expérimenté(e). Il/elle travaillera de concert avec un(e) DevOps pour la chaîne CI/CD et l’environnement cloud-native. Les missions du poste : Architecture cible & transition : définir les bounded contexts (DDD), conduire les ateliers , sélectionner les patterns d’intégration ; orchestrer la transition legacy vers la nouvelle application. Delivery & code : concevoir et développer des microservices Java de production (état de l’art), implémenter la mécanique évènementielle, modéliser et exécuter les workflows métier, contribuer à la GUI. Standards & fiabilité : poser les normes d’ingénierie (sécurité, observabilité, performance, testabilité), mettre en place les contrats de données et le versioning de schémas. Collaboration DevOps : travailler au quotidien avec le/la DevOps pour une chaîne CI/CD robuste, IaC, Kubernetes, observabilité et déploiements progressifs. Branchement au legacy : concevoir/maintenir les adapters, data contracts et synchronisations nécessaires pendant toute la phase de transition.
Offre d'emploi
Développeur Senior Full Stack Java
🎯 Contexte Dans le cadre d’un projet international, nous recherchons un Développeur Senior Full Stack Java avec des capacités de coordination. Vous participerez au développement de micro-services scalables et de solutions de reporting , et aiderez à coordonner les équipes à l'international. 🔎 Missions Intégré(e) à l’équipe projet, vous serez en charge de : Migrer des applications C/C++ vers Java ou Python . Optimiser les pipelines ETL pour la performance et la maintenabilité. Concevoir et développer des services de reporting basés sur des micro-services . Extraire, transformer et publier des données depuis Oracle, PostgreSQL, Kafka, MQ, Pub-Sub, Solace, SFTP, NAS . Développer et maintenir les pipelines CI/CD (Maven, Gradle, Jenkins, Docker, Kubernetes, Ansible). Assurer la qualité, la scalabilité et la résilience des solutions. Collaborer avec les équipes globales et garantir la conformité réglementaire. 🛠 Compétences recherchées Maîtrise de Java et Spring / Spring Boot . Expérience avec SQL/NoSQL et systèmes de messagerie ( Kafka, MQ, Pub/Sub ). Compétences DevOps et CI/CD (Maven, Jenkins, Docker, Kubernetes, Ansible). Connaissance du cloud (GCP de préférence) . Expérience avec au moins un framework de tests ( JUnit, TestNG, Mockito ). Anglais courant. Capacité à travailler en équipe internationale et à coordonner plusieurs régions. 📍 Localisation & Conditions Basé en Ile-de-France Démarrage : dès que possible .

Offre d'emploi
Data Engineer Spark Python
Mettre en place la collecte et la mise à disposition des données au sein de l’entreprise • Industrialiser et mettre en production des traitements sur les données (par exemple : mise à disposition de tableaux de bords, intégration de modèles statistiques) en lien avec les équipes métiers et les équipes qui les analysent Activités et tâches : • Acheminement de la donnée • Mise à disposition de la donnée aux équipes utilisatrices • Mise en production de modèles statistiques • Suivi de projet de développement • Développement job spark • Traitement et ingestion de plusieurs formats des données • Développement des scripts • Développement et Implémentation des collectes de données, des jobs de traitement et Mapping de données • Développement des moyens de restitution via génération de fichier et ou API & Dashboarding • Collecter toutes les données et les fournir aux clients en tant qu'API ou fichiers • Développer de pipelines d'ingestion à partir de différentes sources (streaming et batch) ainsi que des spark jobs le prétraitement des données et calcul des indicateurs de performance (KPI) • Développer des API génériques d’ingestion et de traitement de données dans un environnement HDP • Participer à la conception, mise en place et administration de solutions Big Data • Participation à l’installation, administration et configuration des Hadoop clusters. Mise en place en Spring Boot des services d'extraction de data du système legacy (tera data), la data sera par la suite envoyée au data lake via des topics Kafka • Normalisation et agrégation des données afin de produire les rapports sous forme de Business View
Mission freelance
Expert sécurité cloud GCP/ IAM GCP/ SECURITE, RESEAUX / TERRAFORM / PYTHON (H/F)
Nous recherchons pour le compte de notre client dans le domaine bancaire un expert sécurité GCP afin de les accompagner dans l'évaluation, la mise en œuvre et l'optimisation de leurs pratiques de sécurité Description détaillée : Évaluer l'architecture de sécurité actuelle sur GCP et particulièrement sur les architectures projet de type data Qualifier et étudier les évolutions de services GCP de type Private Service Connect et être en mesure de proposer des solutions si des problèmes sécurité sont remontées Identifier les vulnérabilités et les risques à l’utilisation des services GCP (Vertex AI, Worflow, Dataflow, Apigee, GKE, Composer, …) et proposer des recommandations sécurité Mettre en place des contrôles de sécurité dans les outils de type CSMP Accompagner l'équipe interne projets et transverses dans la mise en œuvre des recommandations. Définition du profil : Mise en application de la Politique de Sécurité. Contrôle de la Politique de Sécurité, notamment par des Contrôles Périodiques de Niveau 1 Valide et instruit les dérogations contrevenant à la Politique de Sécurité. Maintien en Conditions Opérationnelles des Infrastructures de Sécurité (supervision, prise en charge et résolution des incidents/problèmes, installation et configuration) Participation aux audits (internes / externes) Mise en applications des recommandations d'audit et des demandes de remise en conformité Rédaction de guides et standards de sécurité Donne son avis pour l'implémentation des solutions de sécurité Proposition de solutions innovantes pour améliorer la sécurité, la qualité, les performances et les coûts d'exploitation Assure la veille technologique
Offre d'emploi
Senior Data Engineer
Missions principales Concevoir, développer et maintenir des pipelines d’ingestion et de traitement de données à forte volumétrie . Participer à la migration Scala vers Java/Spring et à l’intégration dans Snowflake/Snowpark . Travailler sur l’ architecture et l’optimisation des solutions data (batch & stream). Garantir la qualité du code : tests unitaires et d’intégration, CI/CD, documentation, monitoring. Collaborer avec le Tech Lead et l’équipe , en agile (daily scrums, code reviews, pair programming). Être un référent technique pour l’équipe et contribuer aux choix technologiques. Participer à des projets transverses et assurer la veille technologique sur les nouvelles solutions data. Architecture & concepts Expérience avec architecture medaillon data : Bronze → Silver → Gold. Compréhension des transformations et de la gestion des données selon cette architecture. Capacité à proposer et mettre en œuvre des améliorations pour la performance et la scalabilité. Stack & compétences recherchées Technologies principales : Java (expert, orienté Spark) Spring Snowflake / Snowpark Connaissances attendues : Databricks (full service managé, migration complète) Airflow, GitLab CI SQL Expérience Cloud (préférence GCP, AWS également possible) Compétences complémentaires : Conception de pipelines de données scalables Tests automatisés, monitoring, CI/CD Autonomie et capacité à driver techniquement l’équipe
Offre d'emploi
Data Engineering & BI Expert (H-F)
Nous recherchons un Data Engineer & BI Expert pour un projet de transformation digitale d’envergure visant la modernisation des infrastructures data et la mise en place de solutions BI avancées. Missions principales : Concevoir, mettre en œuvre et maintenir l’architecture technique des solutions Data & BI en garantissant performance, sécurité et évolutivité. Piloter les projets Data & BI de la conception à la livraison, en assurant le respect des délais et budgets. Collaborer avec les équipes métier pour analyser leurs besoins et les traduire en spécifications techniques. Encadrer, former et motiver une équipe de développeurs et consultants BI, en favorisant un environnement collaboratif et innovant. Mettre en œuvre les bonnes pratiques de qualité, de gouvernance et de suivi des données. Assurer la documentation complète des solutions Data/BI, incluant spécifications techniques, guides utilisateurs et supports de formation.

Offre d'emploi
Développeur Back-End PHP/Symfony Sénior- Sophia Antipolis (H/F)
Contexte Notre client final recherche un Développeur Back-End PHP/Symfony Sénior pour intervenir sur des projets stratégiques liés à la GED et à l’identité numérique. La mission inclut la conception et l’implémentation d’API REST sécurisées, l’optimisation des flux de traitement (forte volumétrie, asynchronisme), ainsi que la participation aux choix d’architecture (microservices, performance, observabilité). Le développeur aura un rôle clé dans l’industrialisation (CI/CD, monitoring, tests), la qualité logicielle et l’accompagnement des profils juniors. Missions principales 📌 Développement & architecture Concevoir et implémenter des API REST robustes et sécurisées (JWT, OAuth2). Intégrer et optimiser les systèmes GED (indexation, recherche, archivage, workflows). Mettre en place et optimiser les pipelines de traitement de flux (import/export volumineux, RabbitMQ/Kafka). Contribuer aux choix d’architecture (microservices, découplage, scalabilité). Garantir la qualité du code (clean code, design patterns, DDD). 📌 Qualité & industrialisation Écrire et maintenir les tests unitaires, fonctionnels et end-to-end (PHPUnit, Behat, Postman). Participer à l’industrialisation via CI/CD, Docker, Kubernetes, GitLab/Jenkins. Assurer le monitoring, logging et la performance de la stack technique. Rédiger la documentation technique et fonctionnelle. 📌 Collaboration & leadership technique Accompagner et encadrer les développeurs plus juniors (code review, mentorat). Travailler en équipe pluridisciplinaire (Produit, QA, DevOps, Frontend). Participer à la veille technologique (cloud-native, scalabilité, sécurité). 📦 Livrables attendus Code conforme aux spécifications Documentation technique associée Conception et tests unitaires validés 🛠️ Compétences recherchées PHP 8.x / Symfony 6.4, 7.x – Expert, impératif SQL (PostgreSQL) – Confirmé, impératif Elasticsearch / OpenSearch – Confirmé, souhaité Systèmes de messagerie : RabbitMQ, Kafka, Symfony Messenger Caching : Redis, Varnish, APCu CI/CD, Docker, Kubernetes – Confirmé Tests : PHPUnit, Behat, Postman/Newman Méthodologies : DDD, Clean Architecture, Design Patterns Bonus : standards de dématérialisation et archivage légal
Mission freelance
Data Engineer
Lieu de mission : Orly (94) Type de mission : Prestation longue durée Contexte de la mission : Le client, basé à Orly, cherche à renforcer ses équipes Data en recrutant un Data Engineer confirmé. La mission consiste à mettre en place et industrialiser des pipelines de données dans un environnement Cloud Azure, en garantissant performance, fiabilité et sécurité. Responsabilités principales Concevoir, développer et maintenir des pipelines de données performants et automatisés. Intégrer et transformer des données issues de différentes sources (APIs, bases SQL, etc.). Participer à la mise en place et à l’optimisation des environnements Cloud Data sur Azure. Automatiser le déploiement et l’infrastructure Data à l’aide de Bicep. Garantir la qualité, la sécurité et la traçabilité des données. Collaborer avec les équipes Data, Développement et DevOps pour l’intégration des solutions. Documenter processus et bonnes pratiques. Compétences techniques requises Langage : Python (indispensable) Cloud & Data : Azure Data Factory, SQL Azure Infrastructure as Code : Bicep Intégration & APIs : API REST CI/CD & DevOps : Git, Azure DevOps Architecture : Microservices et bonnes pratiques DevOps

Mission freelance
Architecte Cloud AWS et GCP (H/F) - Freelance
Lieu : Lyon Part-Dieu (hybride possible) Démarrage : 01 novembre Durée : Longue mission (renouvelable) TJ : 650€ (senior) – 800€ (expert) 🎯 Contexte & Mission Nous recherchons un Architecte Cloud spécialisé AWS et GCP pour accompagner un acteur majeur dans sa transformation numérique. Votre rôle consistera à concevoir, déployer et optimiser des solutions cloud sécurisées et performantes, en garantissant leur scalabilité et leur intégration au SI existant, dans un contexte multicloud (AWS, GCP, Azure, cloud de confiance). 🔑 Responsabilités En tant qu’Architecte Cloud, vos principales missions seront : Conception & Développement Concevoir et développer des solutions de platform engineering cloud (AWS, GCP, Azure, clouds de confiance). Participer à la mise en place des futures zones d’hébergement de confiance. Développer/configurer le socle des produits de sécurité cloud. Optimiser la performance et les coûts des services plateformes. Infrastructure as Code, CI/CD & SRE (Lot A) Encadrer la conception et la mise en œuvre des modules Terraform à l’état de l’art. Définir et déployer des pipelines CI/CD en contexte multicloud. Intégrer et configurer les solutions de monitoring & observabilité . Proposer des innovations (ex : prompt-driven development ). Apporter une expertise en stratégie de migration cloud . Sécurisation des pipelines de déploiement (Lot B) Garantir l’intégration des chantiers sécurité dans les cycles agiles (daily, sprint review, etc.). Assurer la surveillance quotidienne des vulnérabilités ( Security Hub, AWS Config, GuardDuty, Inspector… ). Intégrer systématiquement les contrôles sécurité dans les pipelines ( SAST, DAST, revues de code ). Analyser les retours des outils de sécurité et coordonner les remédiations avec les experts cyber. 🛠️ Environnement technique Clouds : AWS, GCP, Azure, clouds de confiance Outils : Terraform, GitLab, GitLab CI, JIRA, Confluence, ServiceNow, Artifactory, Sonar, Harbor, WSL 👤 Profil recherché Expérience confirmée ou expertise en architecture cloud (AWS, GCP, Azure). Maîtrise des pratiques IaC, CI/CD, SRE, DevSecOps . Capacité à travailler en équipe et à collaborer avec les parties prenantes (IT, sécurité, métiers). Anglais technique requis. Une certification est un plus apprécié : AWS Certified Solutions Architect Google Cloud Associate Cloud Engineer Azure Solutions Architect Expert 🎁 Avantages (via le client final / ESN) Prime de Noël, vacances, mariage et naissance Prime de cooptation attractive Aides à la mobilité verte (engagement écologique) Formation continue : 1 formation/an (technique ou fonctionnelle) 👉 Une mission d’envergure pour un expert Cloud souhaitant évoluer dans un environnement multicloud exigeant et innovant , au cœur de la transformation numérique d’un grand compte.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.