Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.

Offre d'emploi
Data Engineer (H/F)
CITECH recrute ! 👌 ✨ Vous souhaitez mettre vos talents au service d’un groupe de renom dans le secteur de l’hôtellerie ? Nous avons LA mission qu’il vous faut ! Nous recherchons un(e) Data Engineer (H/F) pour rejoindre une équipe dynamique. 👈 Vous interviendrez dans le cadre du renforcement des capacités analytiques autour des processus ITSM afin de mettre en œuvre une connectivité entre ServiceNow et Snowflake. Cette mission vise à exploiter les données de ServiceNow ITSM (incidents, demandes, changements, problèmes…) pour alimenter des cas d’usage analytiques à destination de plusieurs départements internes (IT, qualité, gouvernance, opérations…). 🙌🔽 Vos principales missions seront les suivantes : 🔽🙌 🔸 Établir et sécuriser une connexion technique entre ServiceNow ITSM et Snowflake 🔸 Extraire et charger les données des modules ITSM suivants : Request Management, Incident Management, Change Management, Problem Management 🔸 Concevoir une pipeline automatisée d’ingestion (batch ou incrémentale) 🔸 Structurer les données dans Snowflake selon une logique modulaire, réutilisable et exploitable à des fins analytiques 🔸 Mettre en place des métadonnées, logiques de rafraîchissement et suivi de qualité 🔸 Documenter le pipeline, les schémas de données et les points de reprise

Mission freelance
Customer Success Engineering - Architecte GCP - Genie civile - Full remote (H/F)
Pour répondre à une demande croissante et spécifique du domaine applicatif lié au support client, nous recherchons un consultant en ingénierie de la réussite client pour un renfort ponctuel jusqu'à la fin de l'année 2025. ## Missions Assurer le support de niveau 3 et le conseil en architecture GCP pour les utilisateurs internes. Collaborer avec les équipes engineering et customer support pour définir et implémenter des stratégies cloud. Participer aux activités transverses, telles que la sécurité réseau et le cloudsec. Être un interlocuteur clé pour les clients internes, assurant une communication fluide et efficace. Contribuer à la mise en place et au reporting hebdomadaire des différents chantiers en cours. Accompagner les processus d'intégration dans la refonte de l'activité Customer Success Engineering. Participer à des cérémonies trimestrielles de planification des releases. ## Stack technique GCP : architecture et support. Expérience en débuggage de niveau 3. Agile Methodology pour le développement et la gestion de projet. Interaction avec les systèmes de sécurité cloud (CloudSec) et réseaux (CyberSec). CRM pour le suivi client et le reporting

Offre d'emploi
Data Engineer Teradata
Contexte : Nous recherchons des développeurs Teradata pour accompagner notre client, un grand compte bancaire dans le développement d'application sur la base de puissantes plates-formes DATA. Votre environnement de travail en tant de Data Engineer TERADATA : Développement Teradata / SQL Connaissance de Unix Connaissance de Control M La connaissance de la démarche DevOps est un plus Mode de chargement dans l’entrepôt : T3R , BTEQ , Datastage Teradata Mode d’historisation dans l’entrepôt (CRI, CRE, CRO) Chargement par flux MVS (anciens chargements avec TPT MVS) Chargement par flux Big Data Suivi des chargements sous CONTROL-M Formation succincte de Collecte / alimentation de Datastage Environnement UNIX (répertoires principaux, Usage & Entrepôt) SQL sur SGBD relationnel (Teradata) Outils collaboratifs et documentaires : GIT, Jira, Confluence, MEGA, Zeenea L’environnement technique : BTEQ Teradata Datastage Datawarehouse SQL DevOps

Offre d'emploi
CHEF(FE) DE PROJET FLUX DATA AZURE DATABRICKS (H/F)
ACCROCHE SI TU SAIS QUE LES DONNÉES BRUTES NE DEMANDENT QU’À ÊTRE AFFINÉES, VIENS SAISIR CETTE OPPORTUNITE ... CE QUE TU RECHERCHES : Piloter des projets data et big data ambitieux Travailler sur des architectures innovantes et des volumes de données massifs Relever des défis techniques et fonctionnels pour transformer les données en valeur Accompagner les métiers dans leur transformation Rejoins une équipe où ton expertise en gestion de projets data sera un atout Au sein d’un acteur majeur du secteur , tu participeras : Recueil et analyse des besoins métiers, tu réaliseras Conception et pilotage des architectures data et big data, tu assureras Gestion des phases de développement et d’intégration, tu coordonneras Mise en place de pipelines de données performants, tu garantiras Industrialisation et sécurisation des traitements, tu superviseras Accompagnement des équipes techniques et métiers, tu animeras Veille technologique et anticipation des évolutions, tu effectueras QUI TU ES : Diplômé(e) en informatique, data science ou équivalent Tu justifies d’une expérience de ans minimum en gestion de projets data et big data Maîtrise des plateformes Expertise en outils de gestion et traitement des données AU-DELÀ DES COMPÉTENCES TECHNIQUES, TU ES / AS : Analytique, tu sais exploiter les données pour prendre des décisions éclairées Méthodique, tu structures et pilotes les projets avec rigueur Pragmatique, tu proposes des solutions adaptées aux enjeux métier Communicant(e), tu sais vulgariser les concepts data auprès des différentes équipes Autonome, tu es capable de gérer plusieurs projets en parallèle Visionnaire, tu anticipes les évolutions des technologies big data Orienté(e) performance, tu optimises les infrastructures pour garantir efficacité et scalabilité

Offre d'emploi
Ingénieur Data H/F
Nous recherchons pour un de nos clients spécialisé dans le domaine bancaire un Ingénieur Data Custodian H/F pour une mission à pourvoir dès que possible sur le secteur du Luxembourg ville. Vos missions : Définition des standards et suivi de la qualité : Assurer le suivi qualitatif des évolutions des modèles de bases de données, leur documentation et leur maintenance (via SAP Power Designer). Mettre en place des indicateurs et tableaux de bord pour le suivi de la qualité des modèles de données. Accompagner les équipes dans la modélisation de leurs modèles afin de garantir le respect des règles de qualités et de normes internes mises en place. Gestion de la qualité et de la gouvernance : Veiller à l’application des normes et lignes directrices définies et la qualité technique. Assurer la mise en oeuvre technique de la rétention des données structurées conformément aux exigences réglementaires. Pilotage de projets et suivi des pratiques : Apporter un support aux projets liés à la gestion des données tel que le Data Lineage (BCBS 239), la Data Retention (GDPR) et la Data Classification. Maintenance et vérification des données : Cartographier les données de l’organisation. Documenter les métadonnées des données structurées et non structurées (rétention, classification, etc.).

Mission freelance
Lead Python / Dév Agents IA
Description de la mission : Contribuer au développement et à l’évolution de nouveaux agents IA pour enrichir une plateforme interne. Les agents, de type Retrieval-Augmented Generation (RAG), permettent aux utilisateurs métiers de créer, personnaliser et utiliser des assistants et workflows intégrant l’IA générative. La mission inclut le développement, l’intégration, la maintenance et l’optimisation des agents dans un environnement micro-services, avec un focus sur la performance, la scalabilité et la qualité des services. Missions principales : Développer et maintenir des agents IA en Python, garantissant : Couverture fonctionnelle et spécialisation des agents Collaboration entre agents et respect des standards Sécurité et gestion des ACLs Monitoring, reporting et évaluation de qualité Optimisation des performances et coûts Scalabilité et stabilité de la plateforme Remise en marche rapide du SI si nécessaire Piloter la conception et le développement en collaboration avec les équipes DevOps et Solution Architects Challenger et contribuer à la vision produit Prioriser services et sécuriser les dépendances techniques

Mission freelance
POT8592-Un Architecte Opérationnel Cloud Public (ArchOps) – GCP Sur Nanterre
Almatek recherche pour un de ses clients, Un Architecte Opérationnel Cloud Public (ArchOps) – GCP Sur Nanterre. Les livrables sont: -Le Dossier d’Architecture Technique du socle (mise à jour à chaque évolution majeure), -La synthèse des décisions d’architecture avec traçabilité continue, des dossiers d’étude et d’aide à la décision (Confluence/PPT) par release, -Des cahiers de recette avec jeux de tests automatisés lorsque possible. Pour le CSR: des fiches de service (au moins une par trimestre) présentées en comités -(CCOE/Design Authority) avec règles de plan de contrôle. Compétences techniques: -Architecture Infonuagique - Expert - Impératif -Google Cloud Platform - Expert - Impératif -Google Cloud Storage - Expert - Impératif -Google DevOps CI/CD - Expert - Impératif Description détaillée : Contexte et enjeux du projet: La prestation engage un « Architecte Opérationnel Cloud Public (ArchOps) – GCP » pour faire évoluer, cadrer et industrialiser la Landing Zone GCP du client, sécuriser les choix d’architecture et accélérer l’adoption maîtrisée des services managés par les projets internes. L’ArchOps définit la trajectoire technique avec le System Architect de la chaîne de service Cloud Public, challenge l’intégrateur et le fournisseur cloud, et accompagne les équipes via le support à l’exploitation et letransfert de compétences. Enjeux principaux: Élever le design de la Landing Zone selon l’état de l’art (réseau, IAM, sécurité, scalabilité, FinOps). Cadrer/valider les services GCP au CSR et définir les contrôles (Org Policies, tags, gouvernance). Industrialiser l’automatisation (Terraform, GitLab CI/CD, scripts), renforcer le DevEx et réduire les risques d’exploitation. Assurer l’autonomie des équipes (support N3, formation, documentation d’exploitation à jour). Gouvernance outillée et traçable des décisions d’architecture, alignée sur les comités Architecture/Cloud.

Offre d'emploi
Data engineer snowflake / BI (H/F)
Vos missions ? En tant que Data engineer snowflake / BI, vous serez responsable de la conception, du développement et de la maintenance de solutions data au service des différents métiers de l'entreprise . Aux côtés d'experts métiers, et d'un Leader Technique, vous devrez développer des traitements robustes, monitorés et résilients dans un écosystème Cloud. Vos traitements répondront à des besoins spécifiques liés à des problématiques complexes dans divers domaines d'activité de l'entreprise. Vous serez également chargé(e) du traitement des requêtes via des entrepôts virtuels. La stack Technique : - Snow Flake ( indispensable ) - Power BI (indispensable) - Base de données - Datawarehouse - SQL

Mission freelance
Lead developer
Nous cherchons un(e) Lead developer H/F pour un de nos clients situé en région Hauts de France Contexte de la mission Nous recherchons un Lead Dev expérimenté pour mettre en oeuvre les évolutions back du produit sur la base d’un socle micro front-end. Ce recrutement a pour objectif de préparer la relève du tech lead actuel, en accompagnant ce dernier jusqu’à son départ prévu à mi-2026, afin d’assurer une transition fluide et pérenne. Missions Participer activement au développement et à l’évolution de l'application (Front-end et back-end). Collaborer étroitement avec l’équipe produit, design et les autres développeurs pour concevoir des solutions robustes, scalables et performantes. Accompagner le tech lead dans ses missions quotidiennes, partager la responsabilité technique et progressivement prendre en charge le rôle de lead developer. Participer à la définition de l’architecture technique et à l’amélioration continue des processus de développement. Garantir la qualité du code, la maintenance et la documentation des projets (Qualité, sécurité, performances, traçabilité, approche cloud native). Veiller à la montée en compétence de l’équipe, notamment en encadrant les juniors et en diffusant les bonnes pratiques.

Offre d'emploi
Demande de prestation IT en Directeur de projets
Tâches à réaliser : Garantir la disponibilité, fiabilité et performance des applications budgétaires, en particulier lors des périodes critiques Maintenir un niveau conforme en matière de sécurité et conformité (RGPD, ISO 27001…) Gérer les évolutions applicatives et le support utilisateurs Traiter les anomalies et maintenir la documentation opérationnelle Identifier et mettre en œuvre des pistes d’industrialisation · Participer au projet de refonte EPM Pigment Optimiser et moderniser les processus de prévisions budgétaires (automatisation, rationalisation, modularité) Sécuriser et fiabiliser les interfaces et flux entre cycles de planification Renforcer l’agilité métier : ajout d’axes d’analyse, gestion d’organisations évolutives, restitution automatisée Participer à la conception de l’architecture Pigment (data hub, connecteurs, intégration SI, reprise de données)

Offre d'emploi
DATA ENGINEER PYSPARK / PALANTIR / DATABRICKS
Bonjour, Nous recherchons un data engineer pyspark / Palantir pour le compte de notre client. L’organisation Tech & Data est une organisation matricielle Agile reposant sur 4 piliers : Data and System Engineering, composée des équipes suivantes : Data Center of Excellence, Products and Systems Engineering et Enterprise Architecture La société est composée des équipes supportant les Crews et les domaines fonctionnels transverses : Gouvernance, Mise en œuvre du modèle opérationnel T&D, Sécurité & Conformité, Contrôle financier, Sourcing & Vendor Management, Gouvernance et Processus. Technical, composée des équipes dédiées aux IT Operations, Réseau, Cloud, Services Workplace & Cloud Productivity Crews et domaines fonctionnels transverses Contrainte forte du projet : Palantir Foundry Livrable : Data Pipeline Risk Compétences techniques : Palantir Foundry – Confirmé – Impératif Python / Pyspark – Confirmé – Impératif Connaissances linguistiques : Français courant (impératif) Anglais courant (impératif) Description détaillée : Nous recherchons un Data Engineer pour développer des pipelines de données pour nos fondations Risk dans Palantir Foundry. Le Data Engineer devra construire, livrer, maintenir et documenter les pipelines de données dans le périmètre des fondations Risk. Il devra notamment livrer les données dans notre Risk Analytical Data Model (représentation medallion de nos données Risk) selon une approche moderne et performante. Livrables attendus : Pipelines de données pour les fondations Risk, livrés dans les délais Code documenté et testé unitairement Contrôles qualité et santé des données implémentés Expérience et compétences attendues : +5 ans en tant que Data Engineer Expérience solide sur Palantir Foundry, principalement sur les modules orientés Data Engineer (code repository, ontologie…) Maîtrise de Python et Pyspark Bonnes pratiques de développement (gitflow, tests unitaires, documentation) Bonne compréhension de l’architecture data mesh et medallion architecture Expérience sur Databricks un atout Expérience en (ré)assurance ou dans le domaine du risque financier un atout Esprit d’équipe Curiosité et goût du challenge Capacité à communiquer avec différents interlocuteurs Rigueur et sens analytique Définition du profil : Le Data Engineer assure la maîtrise de la donnée et est garant de la qualité de son utilisation afin d’en faciliter l’exploitation par les équipes. Son périmètre d’intervention est axé sur les systèmes applicatifs autour de la gestion et du traitement des données, ainsi que sur les plateformes Big Data, IoT, etc. Il assure la supervision et l’intégration des données provenant de sources multiples et vérifie la qualité des données entrant dans le Data Lake (recette des données, suppression des doublons, etc.).
Mission freelance
Architecte Technique Cloud & API (Apigee / GCP)
Projet de déploiement de la plateforme API Management avec Google APIGEE Dans le cadre de la mise en place d'une solution robuste d'API Management, le client a exprimé le souhait de déployer la plateforme Google APIGEE. Ce déploiement vise à centraliser la gestion des API, à renforcer la sécurité, à améliorer la scalabilité et à favoriser l'innovation digitale au sein de l'organisation. La société prestataire devra assurer la fourniture des prestations suivantes, en veillant à respecter les meilleures pratiques du secteur et à garantir une intégration fluide avec l'infrastructure existante : Analyse des besoins et planification: réalisation d'un état des lieux technique, définition des cas d'usage spécifiques et établissement d'un planning détaillé de déploiement. Configuration initiale et déploiement: installation de la plateforme Google APIGEE sur l'environnement cloud du client, configuration des API, gestion des accès, sécurité et des quotas. Intégration avec les systèmes existants: raccordement aux bases de données, systèmes d'authentification, et autres applications métiers, en garantissant la compatibilité et la performance. Formation et transfert de compétences: formation des équipes techniques du client pour la gestion quotidienne de la plateforme, incluant la création, la publication et le monitoring des API. Support et maintenance: assistance technique post-déploiement, gestion des incidents, mises à jour régulières et optimisation continue des performances.

Mission freelance
Ingénieur OS - Poste de Travail Windows / Expérimenté
Contexte de la mission Au sein de l’équipe DEVICES, la mission sera d’assurer l’exploitation, le bon fonctionnement de nos postes clients Windows 11 sur les différents sites, l'intégration des nouveaux besoins et l’évolution de nos process de mastérisation de postes de travail Windows basés aujourd'hui sur MDT et que nous souhaitons remplacer par une nouvelle solution de provisionning. Ce rôle est à périmètre international pour nos magasins et services. Objectifs et livrables Maintien en condition opérationnelle de l'infrastructure MDT Réaliser les tâches de mises à niveau des Masters selon les remontées des équipes techniques. Validation et intégration au Master des mises à jour système Packaging d'applications (Workspace One, Powershell) Intégration et déploiement des packages en lien avec les Masters et le catalogue d'applications. MCO et intégration du futur catalogue matériel (Laptop/Desktop) avec MDT. Pilotage de la qualité des déploiements (Mesure et communication des indicateurs) Revue et Rédaction de documentation technique. Build de la nouvelle solution de provisionning (WSO, Baremetal, Powershell GUI, DISM, Google Cloud) Windows afin de remplacer MDT. Support Niveau 4 Accompagnement des projets techniques de la feature workstation

Offre d'emploi
DATA ENGINEER SEMARCHY F/H | LILLE (59)
VOTRE QUOTIDIEN RESSEMBLERA A… Vous rejoignez notre client en qualité et serez en charge de : Participer au recueil des besoins en lien avec la MOA et les utilisateurs Analyser et spécifier les besoins Assurer la modélisation et la création de flux sur l'EtL Effectuer la recette Assurer le suivi de production Environnement Technique : Semarchy / Stambia, Vertica, SQL, SAP BO Le poste est basé à Lille (59) . Dans le cadre de vos fonctions, vous pourrez bénéficier de 1 jour de télétravail par semaine après votre période d'intégration.
Mission freelance
Data Engineer Expert - Finance - Assurance)
Data Engineer Expert pour la Modernisation du Système Finance (Assurance) Nous recherchons un Data Engineer Expert pour le compte d’un de nos clients assurance dans le cadre d’un projet de modernisation, de standardisation et d'harmonisation de son système Finance. Contexte Notre client, un acteur majeur du secteur de l' assurance , est engagé dans un projet stratégique visant à transformer son système d'information Finance. Ce programme a pour objectif la modernisation, la standardisation et l'harmonisation des processus et des outils Finance. Dans ce cadre, nous recherchons un profil de Data Engineer Expert pour jouer un rôle clé dans l'ingénierie des données de ce nouveau système. Rôles et Responsabilités Le consultant Data Engineer aura pour principales responsabilités : Concevoir et mettre en œuvre des solutions d'ingénierie des données pour le nouveau système Finance. Participer activement à la modernisation et à la standardisation des flux de données Finance. Assurer l'intégration, le traitement et la qualité des données provenant de diverses sources. Travailler en étroite collaboration avec les équipes métier Finance et les architectes pour garantir l'harmonisation des données. Compétences Clés & Techniques Une expertise de niveau Expert est exigée sur les points suivants : Expertise Technique : Maîtrise des technologies de Big Data et des environnements Cloud. Langages et Frameworks : JAVA (WEB), Spark, Angular, COBOL. Systèmes et Outils : MAINFRAME, VTOM. Visualisation et Reporting : Compétences sur Power BI. Domaine d'Application : Une connaissance approfondie du secteur Finance (idéalement en assurance ou banque) est un atout majeur. Anglais : Capacité à travailler dans un environnement technique et potentiellement international. Détails de la Mission Profil Recherché : Data Engineer Niveau d'Expérience : Expert Localisation : Paris Date de Démarrage : ASAP Durée : 12 mois. Taux Journalier Cible (TJM) : <950€.

Mission freelance
Data Engineer Suite MSBI
Site : Montpellier, 2 jours/ semaine sur site Date de démarrage : 01/10/2025 Mission : Data Engineer sur des activités de run et build Nb années d’expérience : 3 ans Profil : Data Engineer Data Engineer Suite MSBI Attendu : Concevoir et développer des solutions pour la collecte, l'organisation, le stockage et la modélisation des données, Développer un ensemble d'outils d'aide à la décision pour les métiers du client, Enrichissement de données, Production d'indicateurs (KPI), Optimisation et performance, Garantir l'accès aux différentes sources de données et de maintenir la qualité des données, Contribuer à la mise en place d'une politique de données et des règles de bonnes pratiques conformes aux réglementations client en vigueur, Assurer une veille technologique, notamment sur les langages de programmation utilisés afin d’aider à l'avancement des projets. Compétences techniques : ETL SSIS, Cube OLAP SSAS, Requêtage SQL, Connaissance ETL, préparation structuration de données, stockage de fichier (Talend, HDFS, SSIS), Expérience dans la modélisation et dans l’exploitation des bases de données (SQL et NoSQL, Oracle, …), Une connaissance en migration des traitements sous GCP serait un plus (BigQuery)
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.