Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 1 455 résultats.
Freelance

Mission freelance
Cloud Network Expert (Azure / AWS)

Codezys
Publiée le
AWS CloudFormation
Azure
Azure Data Factory

6 mois
Paris, France
Contexte : Transformation digitale / Organisation dirigée par la technologie – Passage au Cloud Environnement international – Maîtrise de l’anglais professionnel requise Séniorité : 7 à 10+ années d’expérience 2) Objectifs & responsabilités principales Conception & déploiement Cloud Network Concevoir, déployer et maintenir des réseaux virtuels Azure & AWS selon une architecture Hub & Spoke Mettre en œuvre des architectures réseau cloud robustes, industrielles et évolutives Assurer la disponibilité et la performance des réseaux pour les applications Support & troubleshooting Supporter et diagnostiquer les incidents liés aux réseaux cloud (VPN, connectivité, performance) Garantir un niveau élevé de service et de disponibilité des environnements Azure/AWS Documentation & standardisation Produire la documentation technique : low-level design (LLD), configurations, plans de migration, procédures opérationnelles (RUN) Maintenir et enrichir en continu les référentiels techniques et documentations Collaboration & accompagnement projets Collaborer transverse avec les équipes internes (sécurité, infrastructure, projets) Recueillir les besoins, accompagner les déploiements et garantir la scalabilité, la sécurité et la conformité Participer à l’industrialisation via des templates et bonnes pratiques réseau Capacité, performance & résilience Contribuer à la planification de la capacité (capacity planning) Participer au tuning de la performance et à la définition de stratégies de résilience Mettre en œuvre les roadmaps d’upgrade, de patching, ainsi que les plans de PRA / Disaster Recovery Sécurité Cloud (rôle clé) Assurer un haut niveau de posture de sécurité des réseaux cloud publics Concevoir et optimiser des architectures réseau sécurisées selon les besoins Collaborer avec les parties prenantes pour réduire les risques et renforcer la sécurité 3) Livrables attendus Designs d’architecture réseau cloud (Hub & Spoke, connectivité hybride) Low Level Design (LLD) et documents d’implémentation Plans de migration réseau et documents de transition Procédures opérationnelles (RUN / exploitation) Templates d’architecture et standards réseau Roadmaps pour upgrades, patching, et plans de PRA / DR Scripts et modules d’automatisation (Terraform, Python, API)
Freelance

Mission freelance
Consultant AI MLOps

RED Commerce - The Global SAP Solutions Provider
Publiée le
AWS Cloud
IA
IA Générative

3 mois
Paris, France
Kajenthi@RED Global – Recherche Consultant IA/ MLOPS – Freelance – 3 mois - Paris intramuros – Hybride RED Global recherche un Consultant IA/ MLOPS, avec une casquette de Product Owner et Project Manager , en Freelance, sur Paris et avec un client final. Votre mission sera d’intervenir dans la delivery, la gestion de projets et la structuration des processus IA et MLOPS Détails du poste: Lieux: Paris – Hybride Type de contrat : Freelance – 3 mois Démarrage : ASAP 1 entretien uniquement Stack technique: AWS, Python et CI/CD Profil recherché : Plus de 5 ans d’experience en tant que Consultant IA/ MLOPS Expérience en Data Science et Machine Learning Expérience poussée sur AWS Cloud data et Python Il faudra: Piloter le projet Collaborer avec les Business Partners IT pour structurer, qualifier et prioriser les nouvelles demandes liées à l’IA Assurer l’intégration des activités et pipelines IA dans les processus et outils CI/CD Langues : Maîtrise du français et anglais (obligatoire) Si vous souhaitez recevoir plus d’information sur le poste ou si vous pouvez recommander un collègue ou un ami, n’hésitez pas à me contacter par mail au
Freelance

Mission freelance
Developpeur Data Engineer

Freelance.com
Publiée le
Big Data
Snowflake

3 mois
400 €
Bordeaux, Nouvelle-Aquitaine
Vous rejoignez l’équipe Data Tech Knowledge au sein de la direction IT Data. La mission s’inscrit dans une dynamique d’innovation autour de l’ IA appliquée aux environnements Data , avec un fort enjeu d’industrialisation et d’optimisation des processus existants. Vous intervenez en proximité avec les équipes métiers et data afin d’améliorer les outils, les flux et les plateformes. 🚀 Missions principales Développer et maintenir des pipelines d’alimentation de données Concevoir et optimiser des transformations via ETL (Talend / DBT) Travailler en binôme avec un Data Analyst sur des cas d’usage IA/Data Participer au développement d’agents IA permettant le requêtage SQL en langage naturel Mettre en place des outils d’aide au développement et de monitoring Contribuer aux bonnes pratiques DevOps et DataOps Réaliser une veille technologique autour des architectures data modernes 🛠 Environnement technique Langages : SQL, Python Bases de données : Snowflake, SQL Server, PostgreSQL Data Processing : DBT, Talend Data Ingestion : DLT, Kafka, Talend DevOps : Git, TFS, Azure DevOps, Docker, Kubernetes, Liquibase Infrastructure as Code : Terraform Data Visualisation : Power BI 🔎 Profil recherché 2 à 5 ans d’expérience en Data Engineering Très bonne maîtrise de Python et Snowflake Expérience confirmée sur des outils ETL (Talend et/ou DBT) Connaissances en IA (1 à 2 ans) appréciées Autonomie, esprit d’équipe et capacité à comprendre les enjeux métiers
Freelance

Mission freelance
Architecte Technique Senior - SI

Codezys
Publiée le
Big Data
DevOps
Java

6 mois
Paris, France
a mission s'inscrit au sein du département Architecture d'un organisme majeur de la protection sociale. Nous recherchons un Architecte Technique Senior (15-25 ans d'expérience) pour rejoindre le pôle Accompagnement et Conformité. Le consultant aura pour responsabilité de faire évoluer l'architecture du SI pour répondre aux besoins utilisateurs tout en assurant l'interopérabilité des nouvelles solutions avec l'environnement existant. Il travaillera en étroite collaboration avec l'Architecture d'Entreprise (Urbanistes) et les équipes d'experts techniques (socles, systèmes, réseaux). Objectifs et livrables Objectifs principaux : La mission consiste principalement à accompagner les projets dans la définition de leur architecture technique en cohérence avec les politiques techniques de l'organisme. Détail des activités : Support aux projets (70% de l'activité) : Accompagner l'élaboration des Dossiers d'Architecture Technique (DAT), contribuer à l'instruction et aux revues d'architecture, et réaliser des études d'impact pour les nouvelles technologies. Démarche d'architecture et conformité : Définir des solutions techniques conformes aux standards et assurer la cohérence avec les briques de production (Gateway, Kubernetes, Middleware...). Collaboration et expertise : Valider les solutions avec les experts techniques et suivre les évolutions des socles. Transformation SI : Accompagner les transformations vers le Cloud et les projets BI / Big Data. Environnement technique : Socle applicatif : JAVA (JEE, Spring, Hibernate), API/SOA (REST, SOAP) Infrastructure & Cloud : Kubernetes, Openshift, Ansible, VMWare, Architecture Microservices. Data (Atout) : Big Data, Spark, Kafka, ELK. Bases de données : PostgreSQL, Oracle, Cassandra. Livrables attendus : Dossiers d'Architecture Technique (DAT). Schémas d'architecture (modélisation Archimate). Architecture Decision Records (ADR) pour la traçabilité des choix. Comptes rendus des comités d'architecture. Analyses de marché et supports de veille technologique.
CDI
Freelance

Offre d'emploi
Chef.fe de projet EDI / Facturation électronique

Atlanse
Publiée le
Gestion de projet
Méthode Agile
Python

3 ans
60k-68k €
500-600 €
Boulogne-Billancourt, Île-de-France
Au sein du pôle Facture et Achats et rattaché.e au Directeur de projet, vous interviendrez sur une solution collaborative de digitalisation des échanges commerciaux. Vous assurerez la coordination, le suivi et le pilotage des projets sur toute la durée. Votre rôle Pilotage client · Participer et animer les comités de projet · Restituer les informations nécessaires lors des comités de pilotage Suivi interne · Veiller à la conformité des livrables (documents et paramétrage de la solution) · Garantir le respect des délais Suivi fonctionnel · Animer les ateliers de cadrage · Rédiger ou s’assurer de la rédaction des spécifications détaillées · Rédiger les PV de spécifications · Valider la recette interne et accompagner le client sur la recette utilisateur Finalisation du projet · Rédiger les PV de recette et les PV de fin de VSR · Organiser la transition du projet vers l’équipe d’exploitation · Assurer le transfert du projet vers les équipes en charge des évolutions et du déploiement si nécessaire · Mettre à jour les fichiers de suivi de l'agence
Freelance

Mission freelance
Product Owner Data GCP

LINKWAY
Publiée le
Apache Airflow
BigQuery
Cloud

12 mois
400-550 €
Paris, France
Nous accompagnons un leader mondial et prestigieux du secteur du Luxe, réunissant un ensemble de Maisons emblématiques de la mode, de la maroquinerie et de la joaillerie. En tant que responsable de la plateforme Data construite sur Google Cloud Platform (GCP), vous porterez la vision produit. Votre mandat est clair : transformer les besoins métier complexes (venant du Retail, de l'E-commerce, du Marketing, de la Finance ou de la Supply Chain) en solutions data robustes, scalables et sécurisées. Vous ne livrez pas simplement de la technique, mais de la valeur business tangible pour l'ensemble des Maisons. Vision Produit et Roadmap Stratégique : Vous définirez et porterez la vision à long terme de la plateforme Data en alignement avec la stratégie digitale du Groupe. Vous construirez et maintiendrez une roadmap évolutive, en priorisant rigoureusement les initiatives selon leur retour sur investissement (ROI) et leur impact business. Vous devrez anticiper les évolutions technologiques du Cloud pour maintenir le Groupe à la pointe de l'innovation. Pilotage du Delivery et Agilité : Vous orchestrerez le travail des équipes techniques (Data Engineers, Architectes Cloud) en appliquant les méthodologies agiles. Votre rôle inclut la rédaction et la priorisation des User Stories avec des critères d'acceptation précis, ainsi que l'animation des cérémonies (Sprint Planning, Reviews, Retrospectives). Vous serez le garant du rythme de livraison et de l'arbitrage constant entre les besoins tactiques immédiats et les investissements structurels nécessaires. Gestion des Parties Prenantes (Stakeholder Management) : Vous agirez comme l'interface centrale pour une grande variété d'interlocuteurs : Data Analysts, Data Scientists, équipes métiers dans les Maisons et responsables Sécurité. Vous devrez recueillir, challenger et consolider les besoins, tout en facilitant l'adoption de la plateforme par les utilisateurs finaux. La communication sera clé : vous partagerez régulièrement les indicateurs de performance (adoption, coûts, efficacité) et les succès de la plateforme. Garantie de l'Excellence Technique et Conformité : Vous devrez comprendre et challenger les choix d'architecture (Data Lake, Data Warehouse, solutions streaming vs batch) pour garantir la performance et la maîtrise des coûts (FinOps). Évoluant dans un secteur exigeant, vous assurerez également que tous les développements respectent les normes strictes de gouvernance des données, de conformité (RGPD) et de cybersécurité (IAM, chiffrement), protégeant ainsi le patrimoine informationnel du Groupe.
Freelance
CDI

Offre d'emploi
Support N°1 finance

VARYNIA EUROPE SAS
Publiée le
Gitlab
Linux
PL/SQL

12 mois
40k-45k €
310-420 €
75007, Paris, Île-de-France
Contexte : Finance de Marché Mission : assistance dans l’implémentation, le support et la maintenance de nos architectures ainsi qu’au développement et à la maintenance des outils de support, pour les applications de trading Missions: • Support niveau 1, qualification, traitement et suivi des incidents et des remontés d’alertes. • Implémentation des nouvelles architectures des flux de données • Détection, suivi et résolution des problèmes techniques et fonctionnels avec les autres équipes IT et les équipes de Recherche. Communication pendant et après les incidents auprès des utilisateurs et du management. • Optimisation de la qualité des flux • Intégration de nouveaux marchés • Suivi et veille technologique sur les évolutions des places boursières : compréhension de l’impact sur nos infrastructures et proposition d’intégration • Astreintes de l’équipe
Freelance

Mission freelance
Data Engineer cloud Google (GCP)

KEONI CONSULTING
Publiée le
API
Google Cloud Platform (GCP)
Python

18 mois
100-500 €
Paris, France
CONTEXTE : Notre stack technique est principalement constitué de Python, Spark, SQL, BigQuery, Dataplex pour la qualité des données, Airflow pour l’orchestration des traitements et Terraform ainsi que Terragrunt pour l’industrialisation. La stack inclut aussi d’autres services de la Google Cloud Platform. mission de l’ équipe 1. Déployer les datasets normés sur un ou plusieurs des data domain 2. Accompagner les utilisateurs des datasets normés dans leurs usages 3. Mettre en place le contrôle qualité sur ces datasets MISSIONS : Dans un premier temps, la prestation consiste à : • Concevoir et réaliser les contrôles qualité sur les données de la plateforme Data, en exploitant Dataplex Universal Catalog • Industrialiser ces contrôles grâce à Terraform et Terragrunt • Concevoir et réaliser les indicateurs nécessaires au pilotage de la qualité des données • Concevoir et réaliser la remontée de ces indicateurs dans notre data catalog Collibra En marge de l’objectif de livraison de livraison précédent et en interaction avec les membres de l’équipe, la suite de la mission consiste à : • Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l’équipe • Participer aux initiatives de gouvernance des données en développant les contrôles de qualité des données • Construire et maintenir de pipelines data robustes et scalables • Accompagner les membres de l’équipe dans l’exploitation et le requêtage des données • Organiser et structurer le stockage des données • Mettre en place et maintenir des infrastructures scalables capable de répondre aux besoins et à l’accroissement rapide du volume de données • Construire et maintenir les workflows de la CI/CD • Partager avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur • Assurer l’évolutivité, la sécurité, la stabilité des environnements • Participer aux différentes instances des data ingénieurs • Contribuer et veiller à la mise à jour de la documentation • Faire de la veille technologique active dans le domaine Expertises demandées pour la réalisation de la prestation : • Au moins 5 ans d’expérience en tant que Data Ingénieur dans un environnement data • Compétences solides en data : structures de données, code, architecture • Expériences dans la conception et la réalisation de pipelines data • Expériences dans un environnement du cloud Google (GCP) • Expériences intégrant BigQuery et Dataplex Universal Catalog • Expériences intégrant les langages Python et SQL • Expériences intégrant Spark • Expériences intégrant des flux avec l’API Collibra • Expériences intégrant Terraform et Terragrunt • Expériences intégrant Gitlab et Gitlab CI/CD • Expériences intégrant les méthodologies Agile : Scrum ou Kanban • Capacité à vulgariser et à communiquer sur des aspects purement techniques • Junior : moins de 3 ans d’expérience significative dans le type d’expertise demandé • Confirmé : 3 à 5 ans d’expérience significative dans le type d’expertise demandé • Sénior : plus de 5 ans d’expérience significative dans le type d’expertise demandé
CDI

Offre d'emploi
Ingénieur DevOps & Back-End Sénior (H/F)

Harry Hope
Publiée le

60k-70k €
Crédit Agricole du Languedoc, Occitanie
Notre client est un éditeur de jeux vidéo majeur, reconnu pour ses licences internationales et sa croissance rapide (plus de 15 studios intégrés depuis 2019). Dans une logique d'innovation et de mutualisation des services, l'entreprise a constitué une cellule R&D, dédiée au développement de solutions transverses et à la modernisation de ses environnements techniques via des pratiques DevOps et Cloud Native. Au sein de cette équipe agile de quatre personnes basée à Montpellier, vous interviendrez sur le projet d'une plateforme SaaS qui fait le lien entre les jeux et les studios. Votre rôle sera clé dans l'évolution de l'architecture logicielle et l'accompagnement technique des équipes internes. Vous aurez notamment pour missions : - Concevoir et maintenir une infrastructure cloud-native sur Google Cloud Platform (GKE & Cloud Run), garantissant performance et scalabilité. - Définir et améliorer les pipelines CI/CD pour des déploiements fiables et automatisés (GitLab CI, FluxCD, approche GitOps). - Gérer la synchronisation sécurisée des secrets et politiques via External Secrets Operator et Kyverno. - Développer des microservices backend en Go (Golang), dans une logique de décomposition du monolithe existant. - Collaborer avec les équipes produit et techniques pour optimiser les workflows et réduire les frictions de livraison. Vous rejoindrez une structure à taille humaine, avec une culture de la liberté et de la responsabilité : un esprit start-up au sein d'un grand groupe. Avantages et conditions : - CDI - statut cadre - forfait jour - 1 jour de télétravail par semaine - 8 jours de RTT - Locaux spacieux, proches de la gare, avec un réfectoire et une ambiance passionnée de développeurs de jeux - Rémunération : 60 à 70 KEUR selon profil - Environnement exigeant mais flexible, offrant une grande autonomie et de réelles perspectives d'impact sur la stratégie technique du groupe
Freelance
CDI
CDD

Offre d'emploi
DEVELOPPEUR BACKEND  Node.js/ Java

KEONI CONSULTING
Publiée le
Framework
Java
OWASP

18 mois
20k-60k €
100-400 €
Évry, Île-de-France
Contexte : Le candidat évolue au sein d’une architecture micro-services ou monolithique modulaire, selon les besoins métiers. Il est responsable de la robustesse, de la sécurité et de la scalabilité des services back. Son périmètre couvre l’implémentation de la logique métier, l’exposition d’APIs (REST/GraphQL), la gestion des données, ainsi que la performance des traitements. Le candidat s'inscrit dans un contexte de développement industrialisé avec Docker/Docker Compose/Kubernetes pour le packaging et la livraison continue. Il collabore étroitement avec les développeurs frontend et les équipes DevOps. MISSIONS Activités principales : • Développement des APIs et services métiers robustes et scalables. • Conception de schémas de données et mise en place d’interactions efficaces avec les bases. • Sécurisation des endpoints (authentification, autorisation). • Mise en place des tests unitaires et d’intégration backend. • Participation à la revue d’architecture, veille technologique, et amélioration continue. • Rédaction de documentation technique et support de production en lien avec les Ops LIVRABLES Services métiers et APIs ; - - - - Schémas de données et scripts SQL ; Pipelines CI/CD pour backend ; Documentation technique et guides d’intégration ; PROFILS & Exigences techniques : • Maîtrise des frameworks backend : Node.js (Express.js, NestJS), Java Spring , Django, Python (voir introduction). • Bonne connaissance des bases de données relationnelles et l'ORM (PostgreSQL, MariaDB) et NoSQL (MongoDB, Redis, Elasticsearch, InfluxDB). • Expérience dans le design et la mise en œuvre d’APIs RESTful : Utilisation de standards comme OpenAPI (Swagger) et/ou GraphQL. • Maîtrise des conteneurs Docker, utilisation de Docker Compose, Kubernetes (bases) pour orchestrer les services. • Connaissance des outils de qualité de code (SonarQube, ...). • Gestion des logs (ELK stack, Graylog) et monitoring (Prometheus, Grafana) et gestion des exceptions, • Intégration dans des pipelines CI/CD avec GitLab CI ou Jenkins. • Connaissance des pratiques DevOps, GitOps, ou SRE est un plus • Sécurité des applications : OWASP Top 10, authentification (OAuth2, OpenID Connect), autorisation, gestion des secrets.
Freelance

Mission freelance
Développeur Full Stack (.NET + Angular)

HAYS France
Publiée le
.NET
Angular
Azure DevOps

1 an
400-450 €
59279, Loon-Plage, Hauts-de-France
Notre client, acteur industriel international, développe des solutions technologiques innovantes pour optimiser ses processus et accompagner ses partenaires dans leur transformation digitale. Dans ce cadre, nous recherchons un Développeur Full Stack (.NET + Angular) expérimenté pour renforcer l’équipe Études et Développement. Vos missions Concevoir, développer et maintenir des applications backend (.NET) et frontend (Angular) . Rédiger la documentation technique du code produit. Mettre en place et optimiser les pipelines CI/CD via Azure DevOps . Participer aux essais industriels avec les fournisseurs pour garantir la qualité des livrables. Contribuer à l’évolution des architectures et à la mise en œuvre des bonnes pratiques.
Freelance

Mission freelance
[SCH] Consultant DevOps Azure / Appétence FinOps - 1222

ISUPPLIER
Publiée le

10 mois
350-380 €
La Garenne-Colombes, Île-de-France
Dans le cadre d’un projet stratégique international, notre client lance la création d’un nouveau Centre de Services (CDS) au Mexique, avec un périmètre couvrant la région LATAM. La mission s’inscrit dans la réalisation d’un Business Case (BCase) et nécessite un Consultant DevOps Azure capable d’adresser à la fois les enjeux techniques, financiers (FinOps) et organisationnels, dans un contexte multiculturel et international. Missions principales : Contribuer à la réalisation du Business Case (BCase) pour le périmètre LATAM Participer à la création et au cadrage du CDS au Mexique Concevoir, déployer et exploiter des solutions sur Microsoft Azure Intervenir sur les sujets DevOps, Cloud et gouvernance Apporter une appétence FinOps (optimisation des coûts, pilotage, recommandations) S’interfacer avec des interlocuteurs variés : Équipes techniques Équipes business Management de haut niveau (CISO, DAF, directions) Participer aux échanges internationaux en français, anglais et espagnol Contribuer à l’amélioration continue des pratiques Cloud & DevOps Profil attendu : Consultant DevOps Azure confirmé Forte capacité de communication et excellente posture client À l’aise dans des environnements internationaux et multiculturels Capacité à dialoguer avec des profils techniques, business et exécutifs Sensibilité forte aux enjeux FinOps Autonomie, maturité et crédibilité professionnelle
Freelance

Mission freelance
Data Product Manager en Data Lab - Rennes

Argain Consulting Innovation
Publiée le
Google Cloud Platform (GCP)
Python
SQL

3 mois
520-570 €
Rennes, Bretagne
Au sein du Data Lab, nous recherchons un Data Product Manager freelance. Nous avons besoin d'un profil pivot, capable de traduire des besoins métier en solutions concrètes. Le poste est résolument hybride : il ne s'agit pas seulement de suivre un planning, mais bien de comprendre ce qui se passe sous le capot pour fluidifier les échanges entre les métiers et l'équipe technique. Les sujets du Data Lab sont divers, Data Science, Data Modelling, Tableaux de bord, IA générative et automatisation des processus métier. Nous ne cherchons pas un gestionnaire de projet classique, mais un profil également capable de faire, de manipuler la donnée et de réaliser des premiers prototypes. • Hybride & Transverse : Pouvoir comprendre les besoins métiers et les traduire en specs fonctionnelles et techniques. Pouvoir "traduire" le besoin vers les équipes de développement. • Technique : Être capable de manipuler la donnée (SQL) et de créer des dashboards simples (type Looker Studio) pour prototyper. • Pragmatique (Esprit Data Lab) : Pouvoir travailler en mode MVP rapide et testable • Relationnel : savoir créer du lien, fluidifier les blocages et avec une véritable aisance relationnelle. Vos responsabilités Cadrage & Spécifications (Le cœur du réacteur) • Traduire le besoin métier en spécifications fonctionnelles claires. • Rédiger les spécifications techniques pour guider les Data Engineers (modélisation, règles de gestion). • S'assurer que ce qui est demandé est techniquement viable sur notre stack. Pilotage & "Faire" • Gérer le backlog et prioriser selon la valeur business. • Effectuer les recettes techniques et fonctionnelles : vous devez pouvoir requêter la base pour valider les livrables avant de les présenter au métier. • Participer activement à la vie du Data Lab et à l'amélioration des processus.
CDI

Offre d'emploi
Expert IAM

CAT-AMANIA
Publiée le
CI/CD
DevOps
Gitlab

Montpellier, Occitanie
Nous recherchons un profil de Développeur intégrateur dans un environnement Agile pour une mission en régie sur des solutions liées à l'IAM (Identity Access Management) : Tâches : - Concevoir, développer, tester et maintenir la solution IAM au sein de la Tribu IT, en respectant les standards de l’entreprise (Back, API) - Accompagner la Squad GuardiAM sur le RUN et le Build de l’IAM Netwrix Identity Manager - Affiner et prendre en charge les récits sur le développement, le paramétrage, l'intégration, les tests du produit IAM - Participer aux rituels Agiles
CDI
CDD
Freelance

Offre d'emploi
DATA  Engineer GCP

KEONI CONSULTING
Publiée le
Google Cloud Platform (GCP)
Python
Scrum

18 mois
20k-60k €
100-550 €
Paris, France
CONTEXTE : L’équipe est composée d’un product owner, d’un data steward et de deux autres data ingénieurs. Le stack technique est principalement constitué de Python, Spark, SQL pour les traitements de données, Airflow pour l’orchestration et Cloud Storage et Delta lake pour le stockage. La stack inclut aussi les services BigQuery, Dataproc, PubSub et Cloud Storage de la Google Cloud Platform et Terraform et Terragrunt pour la gestion de l’infrastructure MISSIONS : 1. Collecter et centraliser les différentes sources de données non homogènes 2. Assurer la conformité et la sécurité des données 3. Participer aux initiatives de gouvernance des données • Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l’équipe • Construire et maintenir de pipelines data robustes et scalables • Accompagner les membres de l’équipe dans l’exploitation et le requêtage des données • Organiser et structurer le stockage des données • Mettre en place et maintenir des infrastructures scalables capable de répondre aux besoins et à l’accroissement rapide du volume de données • Construire et maintenir les workflows de la CI/CD • Partager avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur • Assurer l’évolutivité, la sécurité, la stabilité des environnements • Participer aux différentes instances des data ingénieurs • Contribuer et veiller à la mise à jour de la documentation • Faire de la veille technologique active dans le domaine Expertises demandées pour la réalisation de la prestation : • Au moins 5 ans d’expérience en tant que Data Ingénieur dans un environnement data • Compétences solides en data : structures de données, code, architecture • Expériences dans la conception et la réalisation de pipelines data • Expériences dans un environnement du cloud Google (GCP) • Expériences intégrant BigQuery et Dataplex Universal Catalog • Expériences intégrant les langages Python et SQL • Expériences intégrant Spark • Expériences intégrant delta lake • Expériences intégrant Terraform et Terragrunt • Expériences intégrant Gitlab et Gitlab CI/CD • Expériences intégrant les méthodologies Agile : Scrum ou Kanban • Capacité à vulgariser et à communiquer sur des aspects purement techniques
Freelance

Mission freelance
Database Engineer H/F

HAYS France
Publiée le
AWS Cloud
Azure
DevOps

10 mois
Lille, Hauts-de-France
Dans le cadre du renforcement des équipes Data & Infrastructure d’un groupe international du secteur retail, nous recherchons un Database Engineer pour garantir la performance, la disponibilité et la sécurité des bases de données en environnement hybride (On-Premise & Cloud). Vous interviendrez en collaboration avec les équipes IT et Data sur des enjeux de scalabilité, d’automatisation et d’optimisation des plateformes. Vos missions : Administrer, maintenir et optimiser des bases de données SQL et NoSQL (PostgreSQL, Oracle, Redis, Snowflake, OpenSearch) Assurer la haute disponibilité, les sauvegardes et les PCA/PRA Superviser les performances et réaliser le tuning (requêtes, indexation, partitionnement) Mettre en œuvre des pratiques DevOps et Database as Code Gérer la sécurité des données (accès, chiffrement, conformité RGPD) Participer aux migrations Cloud (AWS RDS, Azure SQL) Automatiser les déploiements et accompagner les équipes de développement sur les bonnes pratiques
1455 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous