Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.

Offre d'emploi
Data Engineer
Contexte : Dans le cadre d’un vaste programme de transformation Data, nous recherchons un Data Engineer pour rejoindre une équipe en pleine évolution. Le projet vise à moderniser les infrastructures de données, à industrialiser les flux et à renforcer la valorisation de la donnée au service des métiers (pilotage, relation client, performance opérationnelle, IA et analytique). L’environnement de travail est stimulant, avec une forte culture d’innovation autour du cloud, du Big Data et de l’intelligence artificielle. L’équipe Data est composée de profils complémentaires : data engineers, data analysts, data scientists et experts gouvernance.

Mission freelance
Cloud engineer
A la recherche d'un Cloud Engineer expérimenté ayant participé à des projets de modernisation d'outils / pratiques et de migration Cloud : - automatisation d'outils et de process, de création / évolution de pipelines CI/CD - déploiement d’environnements applicatifs complets dans le Cloud - accompagnement des équipes sur des sujets DevOps / techniques - formation/acculturation sur les bonnes pratiques. Environnement cloud GCP / Kubernetes GCP/Kubernetes - Confirmé - Impératif CI/CD - Confirmé - Impératif Français Courant (Impératif) Anglais Professionnel (Impératif)

Offre d'emploi
Développeur ORACLE BI Publisher - H/F
À propos du poste : Secteur d'activité : domaine bancaire Contexte : développement et maintenance des solutions éditiques (BI Publisher) / support de production sur des applicatifs à base de technologies SQL Oracle et Linux / accompagnement des équipes opérationnelles Vos missions principales : liste non exhaustive plus de détails par téléphone Développement des solutions éditiques sous Oracle BI Publisher (format RTF) Rédaction des spécifications techniques et dossiers d’exploitation Réalisation de tests unitaires Développement et optimisation des composants base de données (modèles BI Publisher, procédures stockées, vues, indexes…) Déploiement en environnement de production Traitement des demandes de maintenance évolutives et correctives Suivi de production et support de niveau 2 et 3 Assistance aux utilisateurs métiers

Mission freelance
Architecte Sécurité & Réseau Cloud - SRE
Mission Principale : Vous êtes le garant de la posture de sécurité et de la connectivité de nos plateformes. Vous concevez une architecture "Security by Design" et "Zero Trust", en définissant les patterns de sécurité qui permettent à nos équipes de développer et d'opérer des services fiables et sécurisés à grande échelle. Vous déclinez les exigences de la Securité Fonctionnelle dans le SI Responsabilités Clés : Conception d'Architecture Sécurisée sur le Cloud IBM : Produire les HLD (High-Level Design) et les DAT (Dossier d'Architecture Technique) pour les briques de sécurité (IAM, PKI, gestion des secrets, etc.) et réseau (segmentation, peering, firewalling, WAF). Gestion des Identités et des Accès (IAM) : Définir et implémenter la stratégie de gestion des identités (humaines et machines), les politiques de moindres privilèges et les processus de revue des accès sur IBM Cloud et Keycloack. Gestion des flux Nord-Sud et Est-Ouest : Définir et implémenter une strategie des flux dans le SI entre les différentes applications/Layers Sécurité des Flux et Chiffrement : Établir les standards pour la sécurisation des flux réseaux (mTLS, VPN, etc.) et les politiques de chiffrement des données au repos et en transit. Infrastructure à Clés Publiques (PKI) : Piloter la stratégie de gestion du cycle de vie des certificats pour l'ensemble de nos services en s’appuyant sur Secret Manager ou Hashicorp Vault Patterns & Automatisation : Créer et maintenir les patterns d'architecture de sécurité réutilisables, notamment sous forme de modules IaC, en collaboration avec l'Architecte Infra. Test de Sécurité : Concevoir, planifier et superviser les campagnes de test de Sécurité, de l'hypothèse à l'analyse post-mortem, en collaboration avec les équipes SRE, de développement. Et l’Architecte Resilience IT et Chaos Engineering Veille et Conseil : Agir en tant qu'expert et conseiller auprès du Leader des Architectes Sécurité sur les menaces et les stratégies de mitigation.

Offre d'emploi
Data Engineer Stambia (F/H)
CDI/Freelance/Portage 💼 – 3 jours de télétravail/semaine 🏠 – 📍 Lille – 5 ans d'expérience minimum Vous êtes passionné(e) par les nouvelles technologies et souhaitez mettre vos compétences au service de projets innovants pour un acteur majeur du secteur bancaire ? Cette mission est peut-être faite pour vous ! 💼🚀 Vos missions : Concevoir, développer et maintenir des flux d’intégration de données avec Stambia, en lien avec les besoins métiers et les exigences des projets décisionnels. Participer à la modélisation des données, à l'alimentation des entrepôts (Data Warehouse) et au traitement des données issues de sources hétérogènes. Garantir la qualité, la performance et la fiabilité des traitements ETL, tout en contribuant à l’optimisation des chaînes d’intégration et à l’industrialisation des processus.

Offre d'emploi
Software Data Engineer H/F
Nous recherchons un(e) Software Data Engineer pour l'un de nos clients grand compte. Missions : • Concevoir et implémenter les composants/pipelines d’ingestion de données en scala spark • Traiter et normaliser les données • Refactoriser des imports existants pour être compliant avec l'architecture médaillon (silver + gold layers) • Appliquer/challenger les règles métier pour générer la couche gold tout en garantissant les performances, la scalabilité et les coûts cloud • Distribuer les données aux différents consommateurs/Métiers • Implémenter les règles de Data Quality (DataQuality framework) et gérer le data calatog • Développer et améliorer les frameworks communs (monitoring, CI/CD, tests, performance, résilience, standards de développement, qualité du code) • Rédiger et maintenir la documentation technique des développements réalisés : schéma d'architecture, Infra, Flux, … • Garantir le respect des standards du Groupe en matière de qualité, sécurité, partage, usage et architecture des données • Participer au développement et à la maintenance du calculateur en Scala Spark avec l'objectif : - d'optimiser le temps de calculs, - d'optimiser les performances, - de garantir la scalabilité au regard d'un accroissement annuel important du volume des market operations, - de maîtriser et d'optimiser les coûts cloud. • Être force de proposition pour améliorer les processus et les performances des systèmes. Compétences requises : • Expertise en Scala et Spark. • Expérience significative dans le développement d'ETL en contexte Big Data. • Expérience AWS (Glue, Lambda, Step Function, S3, etc.) : niveau intermédiaire avec expérience pratique • Compétences Dev/Ops • Capacité à travailler en équipe et à communiquer efficacement avec les parties prenantes. • Organisation, orientation résultats et intérêt marqué pour le fonctionnel. • Des compétences en Python et REACT seraient un plus pour le candidat

Offre d'emploi
Développeur Java/VueJs (F/H)
CDI/Freelance/Portage 💼 – 2 jours de télétravail/semaine 🏠 – 📍 Lille – 5 ans d'expérience minimum Vous êtes passionné(e) par les nouvelles technologies et souhaitez mettre vos compétences au service de projets innovants pour un acteur majeur du retail ? Cette mission est peut-être faite pour vous ! 🚀 Vos missions : Développer et maintenir des applications web en Java et Vue.js, en lien avec les besoins métiers et les évolutions fonctionnelles. Participer à la conception technique et à l’implémentation d’APIs REST robustes ainsi que d’interfaces utilisateur réactives. Contribuer à la qualité du code (tests, revues, documentation) et à l’amélioration continue de l’architecture logicielle.

Offre d'emploi
Data engineer senior-Nantes-
Tâches : - Développer et réaliser de nouvelles fonctionnalités/usages définis et priorisés (user stories) au sein de l’équipe client, tout en respectant les règles de gestion et les critères d’acceptation associés. Contexte Equipe de 12 personnes composée d'un PO et d'un Scrum Master, a pour objectif de constituer une vision 360 des clients en temps réel afin de servir des usages digitaux communautaires. En plus de contribuer pleinement aux enjeux majeurs de modernisation du système d’information Marketing. L'équipe assure aussi au quotidien le bon fonctionnement de produits à valeur ajoutée L’équipe évolue dans un cadre Scrum basé sur les valeurs et pratiques agiles. Attendu : Contribuer et recueillir les besoins - Définir les architectures des solutions avec le reste de l’équipe - Fabriquer et tester les solutions en mettant l'accent sur l'automatisation des tests - Déployer dans les différents environnements - Garantir le bon fonctionnement en production - Accompagner l’évolution des pratiques de l’équipe dans une logique d’amélioration continue de la qualité du code

Mission freelance
Tech lead data engineer H/F
🎯 Contexte et Environnement Au sein de la Direction Digital & Data , l’équipe Data Lab intervient sur les périmètres Data & Analytics dans le cadre de la transformation du système d’information du groupement. Le/la Tech Lead rejoindra la Data Factory (rassemblant les équipes IT et métiers), dont la mission est de concevoir et déployer des produits analytiques innovants à destination des magasins, de la logistique, des fonctions support et des consommateurs. Face à la montée en puissance des besoins, l’organisation évolue selon un modèle Agile structuré en Domaines et Squads , avec une forte ambition d’industrialisation et de valorisation du patrimoine de données.

Mission freelance
Développeur Java/Vue (H/F)
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Développeur Java/Vue (H/F) à Lille, France. Contexte : Développer en APIs first Participer aux prises de décisions relatives à l’architecture et à la sécurité des solutions dans un environnement Cloud (GCP). Mise en place d’outils de monitoring (DataDog) Assistance des utilisateurs sur le run technique MOB, Pair review Les missions attendues par le Développeur Java/Vue (H/F) : Vous disposez d'une très bonne expérience en développement back en Java Vous avez de l'appétence pour le dev front (vue + JS typescript) Vous maîtrisez les standards et enjeux logiciels d’une plateforme SaaS Vous maîtrisez les patterns d’architecture logiciels modernes (Event Sourcing, CQRS, etc ...) Une première expérience d’utilisation de Terraform et de GO est un plus Vous travaillez dans un contexte Infra, vous maitrisez le cloud (GCP) et avez une experience confirmée en kafka Vous connaissez Google Cloud Platform et K8S Vous êtes curieux et assurez une veille sur les nouvelles technologies, architecture et pratiques internes (Vous suivez les guidelines internes et les pratiques des autres squads / Vous participez aux guilds internes) Les tests unitaires, d’intégration, de non régression, de performance sont pour vous une nécessité. Une automatisation de tous les tests est le graal que vous souhaitez atteindre pour dormir la nuit et le week-end.

Mission freelance
POT8636-Un Data Engineer DBT sur Paris
Almatek recherche pour l'un de ses clients Un Data Engineer DBT sur Paris. Almatek recherche pour l'un de ses clients Un Data Engineer DBT sur Paris. Almatek recherche pour l'un de ses clients Un Data Engineer DBT sur Paris. Almatek recherche pour l'un de ses clients Un Data Engineer DBT sur Paris. Almatek recherche pour l'un de ses clients Un Data Engineer DBT sur Paris. Almatek recherche pour l'un de ses clients Un Data Engineer DBT sur Paris. Almatek recherche pour l'un de ses clients Un Data Engineer DBT sur Paris. Almatek recherche pour l'un de ses clients Un Data Engineer DBT sur Paris.

Mission freelance
Data Steward
Contexte : Au sein du pôle Data Gouvernance , vous interviendrez sur le data domaine “comportements utilisateurs” (visites, vidéos vues, etc.) pour améliorer la qualité, la conformité et l’efficacité de la mise à disposition des données aux équipes métiers. Vos principales missions : Mettre en œuvre la stratégie de gouvernance data Recueillir et suivre les règles de qualité des données Coordonner les contrôles qualité et plans de remédiation Assurer la traçabilité et la transparence des transformations de données Gérer les métadonnées et le glossaire métier Animer le remplissage du glossaire avec les Data Owners Veiller à la cohérence entre dictionnaire de données et glossaire Faire respecter les règles et politiques de gouvernance Contribuer à la politique d’accès et à la conformité RGPD Garantir la sécurité et la conformité des données Jouer un rôle de facilitateur entre les acteurs métiers, IT et RGPD Animer et fédérer autour de la gouvernance data Expliquer et promouvoir les bonnes pratiques de gouvernance Soutenir les Data Owners dans la mise en œuvre des standards Identifier les données sensibles et assurer leur mise sous contrôle

Offre d'emploi
Développeur back end (java/ KAFKA/GCP)
GCP Confirmé KafkaConfirmé AgileExpert java Expert Spring / Spring Boot Expert REST Expert PostgreSQL Skills & Qualifications + 7 années d'expérience, en tant que backend Java Une expérience sur des infrastructures cloud native Connaissances des principes DDD, SOLID Solide expérience dans la mise en place d’une CI/CD intégration toutes les couches de test : Unit Testing, Acceptance Testing, Integration Testing, Load Testing Bonne connaissance des outils de monitoring et d’alerting La maîtrise des architectures distribuées et Event Driven A l'aise avec l'agilité et les groomings techniques Un profil Craftsmanship/Devops est un plus Environnement Technique Back-end: Java, Spring Boot Database : Postgresql Event & Messaging : Kafka Cloud: GCP, K8S Tooling: Git, Github Action, Docker Monitoring: Datadog Qualité : Junit 5, SonarCloud Front-end : React Js Méthodologie: Agile, Scrum
Mission freelance
Data Lead Reconciliation - 8 ans d'expérience
Octopus Group recherche un·e Data Lead Reconciliation - Secteur Assurance. Vous prendrez en charge les activités de rapprochement de bout en bout, incluant la validation de la migration, la mise en œuvre des pistes d'audit et l'assurance de l'exactitude des données, pour garantir l'harmonisation des systèmes client et internes. Expérience avérée en migration et rapprochement de données, dans le secteur de l'assurance et un leadership technique, ainsi qu'une expertise pratique des outils ETL, de SQL et de l'intégration de systèmes existants. Principales responsabilités : Diriger et coordonner les initiatives de réconciliation des données au sein d’équipes interfonctionnelles. Concevoir et mettre en œuvre des cadres de réconciliation pour valider des migrations de données complexes. Effectuer une analyse des causes profondes des incohérences de données et assurer la résolution sur tous les systèmes. Collaborer avec les parties prenantes du client pour aligner les exigences commerciales sur la logique de réconciliation. Guider les équipes (sur site et nearshore) dans la mise en œuvre technique des contrôles de qualité des données. Créez de la documentation, des tableaux de bord et des rapports pour les pistes d’audit et les processus de rapprochement. Soutenir la validation post-migration et l'amélioration continue des flux de travail d'intégrité des données. Valider et mettre en œuvre les règles et les mappages de transformation des données
Mission freelance
Data Engineer / Développeur Dataiku
Actuellement en phase d’amélioration de la qualité des données, l’équipe projet souhaite renforcer ponctuellement son dispositif de développement Dataiku. En collaboration étroite avec l’équipe en place, l’objectif est de préparer les données (selon les règles Métier définies) et développer l’ensemble des étapes permettant l’intégration de ces données dans le projet existant. - Montée en compétences : o Appropriation du contexte fonctionnel o Appropriation des bonnes pratiques de développements o Compréhension et maitrise du projet Dataiku existant - Développement Dataiku - Recette des développements réalisées o Tests unitaires o Tests d’intégration dans le projet existant, en lien avec le référent - Documentation du data dictionnaire - Documentation des spécifications techniques et fonctionnelles

Offre d'emploi
Expertise Denodo
Missions principales Concevoir et mettre en œuvre des architectures de virtualisation de données avec Denodo . Définir les bonnes pratiques de modélisation logique et de consommation des données. Participer à l’intégration de Denodo dans l’écosystème existant (ETL, data warehouse, data lake, API, outils BI, etc.). Optimiser les performances (tuning, caching, monitoring) et assurer la haute disponibilité de la plateforme. Garantir la sécurité, la gouvernance et la conformité des données (politiques d’accès, masquage, traçabilité). Former et accompagner les équipes (Data Engineers, Data Analysts, BI, métiers) à l’usage de Denodo. Assurer la veille technologique autour de la data virtualization et proposer des améliorations continues.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.