Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 755 résultats.
Freelance
CDI
CDD

Offre d'emploi
Administrateur DBA Production Expert

KEONI CONSULTING
Publiée le
AWS Cloud
Nosql
Python

18 mois
20k-60k €
100-520 €
Lille, Hauts-de-France
CONTEXTE l’administrateur de bases de données (DBA) prend en charge des projets techniques tout en contribuant au maintien en condition opérationnelle des environnements SGBD relationnels et NoSQL sur notre Cloud (AWS / MongoDB Atlas). Nous recherchons une personne disposant d’une très bonne maîtrise des concepts SGBD, d’une connaissance approfondie du Cloud AWS, ainsi que d’un solide bagage en développement et en automatisation des systèmes (Python, Terraform, Git). MISSIONS - Être le contact privilégié sur la partie SGBD pour des projets techniques - Mise au point d’outils d’industrialisation, d’automatisation et délégation pour rendre autonome les factories et le pilotage sur des tâches SGBD - Contact régulier avec les architectes, développeurs et chefs de projets - Organisation, réalisation ou délégation des opérations de maintenance technique (type bascule cluster ou architecture répliquée, …) - Optimisations des performances et vigilance sur le capacity planning et la frugalité des environnements - Passage de livraisons applicatives et traitement des demandes courantes - Montée de versions SGBD ; application des patchs de sécurité, upgrade version majeure - Création et duplication d’environnements SGBD (instances / bases / schéma) - Suivi d’incidents avec les supports Editeur (Ex : Oracle Corp, Mongo Inc.) - Suivi des sauvegardes et tests de restauration - Mise en place de la supervision et test d’alerting - Rédaction de procédure pour enrichir la base de connaissances de l’équipe - Assurer une veille technologique : apporter une connaissance des pratiques et technologies émergentes - Astreintes et opérations en heures non ouvrées à prévoir. Astreintes obligatoires à la grille achat (1 semaine / mois lundi>dimanche) Spécificités Cloud - Intégrer de nouvelles solutions Cloud (DynamoDB, DocumentDB, RDS, etc.) au catalogue de service, en mettant au point les parties supervision, sauvegardes, monitoring, mise en production, etc. - Accompagner les factories : conseils sur les traitements applicatifs, le déploiement, l’exploitabilité et le traitement des alertes. Interactions : Equipes d’Exploitation, Factories, Architectes IT, Sécurité, CDP, Observabilité Livrables • Prise en charge des projets techniques tout en participant au maintien en condition opérationnelle des environnements • Mise au point d’outils d’industrialisation, d’automatisation et délégation pour rendre autonome les factories • Passage de livraisons applicatives et traitement des demandes courantes • Suivi d’incidents avec les supports Editeur (Ex : AWS, Mongo Inc.) • Suivi des sauvegardes et tests de restauration • Mise en place de la supervision et test d’alerting • Rédaction de procédure pour enrichir la base de connaissances de l’équipe • Assurer une veille technologique : apporter une connaissance des pratiques et technologies émergentes Le profil recherché ... ... connait le SQL / NoSQL ... connait l’environnement et les différentes technologies de DB sur le cloud AWS … peut nous apporter son expertise technique pour challenger des projets structurants ... est en mesure de nous accompagner dans le développement Infra As Code de nos solutions (Terraform, Ansible, Python) • SQL/noSQL • AWS • InfraAsCode (Python / Terraform / Git) • Architecture applicative • Connaissance en production • Bonne capacité à travailler en équipe • Force de proposition • Capacité de coordination • Autonomie Compétences clés : Obligatoire : Python, Terraform, AWS, Aurora PostgreSQL, Mongodb, Gitlab, Connaissance production.
Freelance

Mission freelance
DBA Oracle EXADATA - Périmètre Paiements

Atlas Connect
Publiée le
Ansible
Exadata
Exadata Cloud@Customer (ExaCC)

12 mois
400-510 €
Île-de-France, France
Objectif du poste Administrer, optimiser et garantir la performance ainsi que la haute disponibilité des SGBD du périmètre Paiements dans un environnement critique à fortes exigences de disponibilité et de performance. 🏢 Contexte Environnement métier hautement critique (Paiements) Forte exigence en performance, résilience et haute-disponibilité Organisation en mode Agile Environnement multi-SGBD avec forte dominante Oracle Participation aux astreintes et interventions hors heures ouvrées 🛠️ Missions principales🔹 Administration & Exploitation SGBD Déploiement et administration des socles SGBD : Oracle (RAC, DataGuard, ASM, Exadata) SQL Server MySQL MongoDB PostgreSQL Maintien en conditions opérationnelles (MCO) Patching, PRA, tests de restauration Gestion des traitements standards d’infrastructure et applicatifs 🔹 Performance & Optimisation Tuning SQL avancé Optimisation des performances applicatives Optimisation des ressources (CPU, stockage, licences) Suivi proactif des performances 🔹 Gestion des incidents Prise en charge des incidents et problèmes Participation aux cellules de crise Coordination avec les équipes de production 🔹 Projets & Amélioration continue Participation aux rituels Agile (daily, sprint planning, rétrospectives) Contribution aux projets SGBD et changements applicatifs Automatisation des tâches d’exploitation Amélioration continue des outils et processus Support et conseil aux équipes études 🔹 Sécurité & Conformité Application des normes et processus de sécurité Respect des standards IT de l’entreprise
Freelance

Mission freelance
Data analyst risque de crédit

Freelance.com
Publiée le
Data analysis
Data quality
Python

1 an
550-650 €
Île-de-France, France
Pour le compte d’un acteur majeur du secteur bancaire , nous recherchons un Data Analyst Senior spécialisé en risque de crédit afin de renforcer les équipes risques dans un contexte de transformation data et réglementaire. Vous interviendrez sur des problématiques à fort enjeu business et réglementaire (pilotage du risque, modélisation, reporting prudentiel) en lien étroit avec les équipes Risk, Finance et IT. Description de la mission En tant que Data Analyst Risque de Crédit , vos principales responsabilités seront : Analyse et exploitation de données liées au risque de crédit (portefeuilles, défauts, provisions, notations internes) Conception et maintenance d’indicateurs de pilotage du risque (PD, LGD, EAD, coût du risque, etc.) Contribution aux travaux réglementaires et prudentiels (IFRS 9, stress tests, reporting risques) Développement et optimisation de traitements de données en Python et SQL Participation à l’industrialisation des analyses et à l’amélioration continue des outils data Collaboration avec les équipes Risk Management , Finance et IT
CDI
Freelance

Offre d'emploi
AI ENGINEER - DATA SCIENTIST

SMILE
Publiée le
Data science
Pilotage
Python

6 mois
Paris, France
Au sein de la DSI Corporate d’un grand groupe bancaire, le département Développements Tactiques de la direction Fast Delivery Solutions recrute un Expert Leader Data & IA . Cette direction a pour but de mettre en place des solutions rapides au service de l'ensemble des directions métiers et des fonctions supports, en réponse à des besoins ponctuels ou pérennes. En lien avec les DSI métiers, elle en assure la maintenance et participe à leur éventuelle intégration dans le SI. Pour ce faire, elle met au service des filières métiers une équipe de proximité multi solutions afin de les aider dans leurs travaux ponctuels, la réalisation de POC (Proof Of Concept), de reportings ou bien encore l’automatisation de tâches récurrentes. La mission se situe au sein du département Développements Tactiques qui a pour mission de : Développer des outils en mode commando et en proximité directe avec le métier. Mettre en œuvre des solutions faisant appel à de l’IA générative pour répondre à des besoins métier. Accompagner l’industrialisation de ces solutions dans le parc applicatif des DSI filières. Étudier la possibilité de mise en œuvre de solutions innovantes, au travers d’une veille technologique et d’études d’opportunités. Participer à des évènements et animations de démo ou d’ateliers autour de l’IA ou de la data. L’équipe, actuellement constituée de 19 membres (Data Engineers, Data Scientists et Développeurs FullStack), fonctionne entièrement en mode agile et en proximité avec les métiers. Jeune, dynamique, motivée et très proactive, l’équipe valorise l’entraide et la bonne ambiance. Le candidat devra donc avoir la personnalité permettant de conserver cette dynamique intacte. Les soft skills sont donc autant essentielles que les compétences techniques : bon communiquant, motivé, force de proposition et sociable. Compétences techniques déjà présentes dans l’équipe : Développement autour de l’IA Générative. Développement Python / Pycharm. Développement Front Angular. Développement de cas d’usage IA générative à destination du business. Développement PySpark / Spark / Scala. Connaissance des plateformes Cloud. Mise en œuvre de workflows sous Alteryx. La mission : L’équipe se voit confier un nouveau programme visant à mettre en œuvre un ensemble de Use Cases faisant appel à de l’IA générative ou consistant à automatiser des traitements. Pour faire face à ce nouveau programme, nous souhaitons renforcer nos compétences avec un AI Engineer confirmé Data & IA . Principales missions : Innovation et réalisation de POCs : assurer la faisabilité technique des cas d’usage, développer des POCs autour de projets IA générative, proposer des solutions innovantes (LLM, prompts, RAG, traitement de données complexes). Industrialisation : en collaboration avec la production applicative et les contributeurs DSI, industrialiser les sujets dont les POCs s’avèrent concluants. Expertise Data & IA Générative : leader techniquement les projets, en s’appuyant sur les technologies internes (plateforme cloud, outils IA, modèles de langage type Gemini). Force de proposition : identifier des axes d’amélioration et proposer des solutions innovantes. Partage de connaissances : contribuer à la montée en compétences collective au sein de l’équipe. Suivi des sujets : assurer une communication claire et synthétique au responsable de l’équipe et aux Product Owners.
Freelance
CDI

Offre d'emploi
MLOps Engineer

VISIAN
Publiée le
AWS Cloud
OVHcloud
PostGIS

1 an
40k-70k €
400-700 €
Paris, France
Contexte L'équipe détecteur travaille sur des algorithmes de détection d'objets sur des images satellites. Pour produire les détecteurs, l'équipe s'appuie sur une stack d'outils internes permettant l'industrialisation du travail des Deep Learning Scientist. La stack se divise en : Une stack d'outils génériques (AI Platform) servant toutes nos lignes de produit, développée par l'équipe AI engineering. Une stack d'outils spécifiques à la ligne de produit IMINT, développée par l'équipe AI IMINT elle-même. La personne travaillera en binôme avec un MLEng de l'équipe.
Freelance

Mission freelance
Team Leader Data Engineering (H/F)

Freelance.com
Publiée le
Apache Kafka
Confluence
Data management

3 mois
400-430 €
Bordeaux, Nouvelle-Aquitaine
Intitulé : Team Leader Data Engineering Localisation : Bordeaux Expérience : 2 à 5 ans Démarrage : ASAP jusqu’à fin 2026 Deadline réponse : 9 mars 🎯 Mission générale Sous la responsabilité du Head of Engineering Logistique, le Team Leader est responsable de l’équipe Data Engineering C-Logistics. Il intervient en tant que : Facilitateur d’équipe Coach technique Acteur de la performance Il s’appuie sur les principes Lean afin de : Optimiser les processus de delivery Analyser et traiter les causes racines des incidents de production Favoriser l’autonomie de l’équipe Garantir performance, scalabilité et fiabilité des solutions Assurer l’alignement avec la vision produit du Product Manager 🧭 Périmètre Production et pilotage des données & KPI pour les collaborateurs C-Logistics Partage de données avec les autres filiales du groupe Partage de données avec des clients B2B 👥 Équipe 4 développeurs 1 Lead Developer
Freelance

Mission freelance
MLOps - SageMaker

Celexio
Publiée le
Amazon SageMaker
Apache Airflow
AWS Cloud

3 mois
400-550 €
Paris, France
Au sein d'une équipe de 7 ML Engineers , vous serez l'expert Infrastructure dédié au pôle ML. Votre mission est de bâtir, maintenir et faire évoluer la stack technique permettant de propulser des systèmes de Machine Learning scalables et fiables. Vous ferez le pont entre le monde du DevOps et celui de la Data Science pour garantir l'efficacité opérationnelle des pipelines de production. Missions : Gestion de l’Infrastructure : Maintenir et optimiser la stack infrastructure dédiée au ML en respectant l'état de l'art et les bonnes pratiques AWS. Automatisation (IaC) : Provisionner et gérer les ressources via Terraform pour assurer la reproductibilité des environnements. Orchestration de Workflows : Piloter et configurer les pipelines de données complexes et les workflows ML via Apache Airflow (MWAA). Support Projets Spécifiques : Collaborer avec l'équipe sur l'intégration d'outils avancés comme les bases de données vectorielles (Vectiroeilles), Open Search et l'indexation. Cycle de vie ML : Mettre en place des serveurs dédiés MLFlow pour le suivi de l'entraînement des modèles et optimiser les phases de prédiction. Exploitation SageMaker : Utilisation intensive d'Amazon SageMaker pour l'entraînement et le déploiement de modèles.
CDI

Offre d'emploi
Développeur Full Stack expérimenté - PHP Symfony & Angular F/H - Informatique de gestion (H/F)

█ █ █ █ █ █ █
Publiée le
Angular
AngularJS
Bootstrap

Civrieux, Auvergne-Rhône-Alpes

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDI
Freelance

Offre d'emploi
Ingénieur de production Linux

VISIAN
Publiée le
Bash
CI/CD
Kubernetes

3 ans
43k-58k €
350-450 €
Lyon, Auvergne-Rhône-Alpes
Contexte Dans le cadre de l’exploitation d’une plateforme critique d’authentification et de signature électronique du secteur bancaire, nous recherchons un Ingénieur de Production Senior pour renforcer le pôle RUN . La plateforme gère plusieurs milliards d’opérations annuelles et repose sur un environnement Linux étendu (plusieurs centaines de serveurs). L’équipe assure l’exploitation, la supervision, la gestion des incidents N2/N3 ainsi que l’amélioration continue de l’industrialisation et de la sécurité. Missions principales 🔧 RUN – Exploitation & Continuité Assurer le maintien en conditions opérationnelles des applications Gérer les incidents N2/N3 techniques et fonctionnels Participer activement aux cellules de crise Assurer la communication technique avec les fournisseurs Contribuer aux comités opérationnels Optimiser la supervision (proactivité sur détection d’incidents) Participer à l’ordonnancement des traitements (création et suivi de chaînes) 🚀 BUILD – Contribution transverse Participer aux déploiements applicatifs (Hors Prod → Prod) Contribuer au suivi et à la planification des changements Participer à la construction des chaînes CI/CD Anticiper l’exploitabilité dès la phase projet Participer aux validations techniques (GO/NOGO) 🔐 Sécurité & Amélioration continue Contribuer aux sujets liés à l’authentification et à la signature électronique Renforcer les pratiques sécurité (certificats, cryptographie, PKI) Proposer des optimisations techniques (scripts, procédures, automatisation) Participer aux astreintes et interventions HNO Environnement technique Systèmes Linux RedHat Bases de données Oracle Middleware Apache Tomcat Containers OpenShift / Kubernetes Supervision Zabbix Grafana AppDynamics ELK Déploiement & CI/CD XLDeploy XLRelease Jenkins Ansible Ordonnancement VTOM Ticketing ServiceNow Scripting / Langages Bash Python Java Outils projet Jira Confluence Sécurité HSM PKI / gestion certificats Firewall applicatif Cryptographie Compétences requises Impératif Linux RedHat – Confirmé Oracle SQL – Junior OpenShift / Kubernetes – Junior Anglais professionnel Français courant Souhaitable CI/CD Scripting (Bash / Python)
Freelance

Mission freelance
Intégrateur CRM

CAT-AMANIA
Publiée le
API
CI/CD
Cycle en V

3 mois
100-400 €
Bordeaux, Nouvelle-Aquitaine
En tant qu'Intégrateur, vous serez amané à réaliser des activités de run (Maitien en conditions opérationnelles, livraisons, suivi et gestion des incidents en production) mais également de : - Apporter son support au métier et la MOA via la connaissance de l’outil UNICA v12 (Campaign, Interact, etc…) et ACOUSTIC - Vérifier que les travaux et leur mise en œuvre des contributeurs et partenaires (les adhérences) - Intégrer les correctifs Unica dans la solution CRM (intégration de nouvelles images, construction d'images à partir de jars, modification de helmchart, ...) sur le socle DCS (OpenShift) - Mettre en œuvre les phases d'intégration (ouverture de flux, routage IP, ...) et vérifier que l'ensemble de la chaîne de liaison CI/CD est opérante - Développer des scripts shell et/ou python - Effectuer les tests de non-régression avant et après migration - Accompagner les recettes fonctionnelles ainsi que les phases de mise en production - Accompagner les équipes DICO (production info. et réponse aux incidents)
CDI

Offre d'emploi
Data Analyst - CDI Uniquement

AEROW
Publiée le
Grafana
Python
SQL

40k-50k €
Bruxelles, Bruxelles-Capitale, Belgique
ATTENTION, CDI UNIQUEMENT, POUR PERSONNE HABITANT OU SOUHAITANT S'ETABLIR A BRUXELLES OU PROCHE BRUXELLES: Dans le cadre de ses activités opérationnelles, l’organisation recherche un Data Analyst capable de soutenir les équipes métiers et IT dans l'analyse de la performance, la qualité des données, le reporting et la génération d’insights. La mission est orientée vers l’amélioration continue, la fiabilité opérationnelle et la valorisation des données issues de multiples systèmes. 2. Responsabilités principales A. Cas d’usage analytiques Analyse de la performance et de la fiabilité des processus opérationnels. Reporting sur les actifs et la maintenance (utilisation, disponibilité, temps d’arrêt). Analyse de tendances en sécurité , incidents et anomalies. Suivi des coûts et de l’efficacité opérationnelle dans différents domaines. B. Gestion & qualité des données Structuration et harmonisation de données issues de multiples systèmes opérationnels . Mise en place de processus de contrôle qualité pour assurer la fiabilité des analyses. Support à l’intégration des résultats analytiques dans les systèmes de reporting existants . C. Reporting & visualisation Conception et mise en œuvre de tableaux de bord dédiés aux utilisateurs opérationnels. Développement de KPI standardisés et cadres de reporting. Optimisation continue des rapports pour améliorer la lisibilité et la génération d’insights. D. Transfert de connaissances Coaching des Data Analysts internes (meilleures pratiques, storytelling, visualisation…). Documentation des processus analytiques, modèles de données et guidelines de gouvernance.
Freelance

Mission freelance
Data Engineer Senior F/H

SMARTPOINT
Publiée le
Apache Spark
CI/CD
Data Lake

12 mois
400-530 €
Île-de-France, France
Nous recherchons un Data Engineer Senior pour rejoindre une équipe spécialisée dans la gestion et l’exploitation des données au sein d’une grande organisation numérique. L’équipe intervient au cœur de la plateforme Data et collabore étroitement avec les différentes directions techniques pour transformer la data en levier stratégique et opérationnel. L’équipe actuelle est composée d’un Product Owner, d’un Data Steward et de deux autres Data Engineers. La mission s’inscrit dans un contexte de traitement de volumes de données importants et de projets transverses autour de la connaissance utilisateur et de la mise à disposition d’outils de pilotage internes. Missions de l’équipe Collecter et centraliser des sources de données hétérogènes. Assurer la conformité, la sécurité et la qualité des données. Participer aux initiatives de gouvernance des données. Missions du Data Engineer En interaction avec les membres de l’équipe, le Data Engineer aura pour responsabilités de : Participer aux phases de conception, planification et réalisation des projets data. Construire et maintenir des pipelines de données robustes et scalables. Accompagner l’équipe dans l’exploitation et le requêtage des données. Organiser et structurer le stockage des données pour en faciliter l’accès et l’usage. Mettre en place et maintenir des infrastructures scalables capables de gérer l’augmentation rapide du volume de données. Développer et maintenir les workflows de CI/CD pour les pipelines data. Partager les bonnes pratiques et contribuer à la montée en compétences des autres data engineers. Garantir l’évolutivité, la sécurité et la stabilité des environnements de données. Participer activement aux instances techniques de l’équipe. Contribuer à la mise à jour et à la qualité de la documentation technique. Effectuer une veille technologique proactive sur les outils et méthodes data. Stack technique Langages & traitements : Python, SQL, Spark Orchestration : Airflow Stockage : Cloud Storage, Delta Lake Cloud & services associés : Google Cloud Platform (BigQuery, Dataproc, Pub/Sub) Infrastructure & IaC : Terraform, Terragrunt CI/CD & versioning : GitLab, GitLab CI/CD Méthodologie : Agile (Scrum ou Kanban) Profil recherché Minimum 7 ans d’expérience en Data Engineering. Expertise solide en structuration et traitement de données, code et architecture data. Expérience significative dans la conception et la maintenance de pipelines data . Expérience dans un environnement Google Cloud Platform et utilisation de BigQuery et Dataplex Universal Catalog. Maîtrise des langages Python et SQL et du framework Spark . Expérience avec Delta Lake , Terraform, Terragrunt. Maîtrise des outils GitLab et GitLab CI/CD. Capacité à vulgariser et communiquer sur des sujets techniques complexes. Autonomie, rigueur et capacité à travailler en équipe dans un contexte Agile. Qualités personnelles Esprit d’équipe et collaboration. Proactivité et sens de l’initiative. Curiosité technologique et veille active. Capacité à documenter et partager les bonnes pratiques.
CDI

Offre d'emploi
Ingénieur linux H/F

DSI group
Publiée le
Ansible
Python
Red Hat Linux

40k-50k €
Angers, Pays de la Loire
Missions principales: Administrer, maintenir et optimiser des systèmes Linux RedHat (RHEL) Concevoir, développer et maintenir des automatisations via Ansible et AWX Développer des scripts Python pour : L’automatisation de tâches spécifiques L’intégration d’outils tiers Intervenir sur des infrastructures systèmes et virtualisées Participer à l’ industrialisation et à la standardisation des processus d’automatisation Garantir la performance , la disponibilité et la conformité des environnements Travailler en collaboration étroite avec les équipes techniques et projets
Freelance

Mission freelance
Ingénieur NetDevOps

SKILL EXPERT
Publiée le
Ansible
API
CI/CD

1 an
550-580 €
Paris, France
Missions En tant qu’ingénieur NetDevOps, vous interviendrez pour un client grand compte afin de moderniser et d'automatiser la gestion de leurs infrastructures réseau mondiales. Votre mission principale consiste à réaliser des projets d'automatisation visant à fiabiliser les données d'inventaire et à simplifier l'administration du réseau. Sous une logique NetDevOps, vos tâches seront les suivantes : ● Évolution et Intégrité des outils : Assurer la mise à jour de la solution NetBox vers la dernière version stable, incluant la réalisation de tests de non-régression. ● Synchronisation et Supervision : Automatiser la mise à jour de l'outil de supervision Zabbix (ajouts, modifications, suppressions) en utilisant NetBox comme "Source of Truth". ● Réconciliation d'IPAM : Garantir la cohérence des adressages IP entre les entités en automatisant la synchronisation de l'IPAM vers celui du Groupe. ● Intégration API Opérateurs : Développer des connecteurs via API pour automatiser la mise à jour des circuits télécoms Orange dans NetBox. ● Ingénierie Meraki : Étudier et concevoir une solution de remplacement des modèles de configuration du tableau de bord Meraki par une approche programmatique s'appuyant sur l'API Meraki.
Freelance

Mission freelance
Cloud Engineer Lead Expert

Codezys
Publiée le
Ansible
Conception
ISO 27001

12 mois
Paris, France
Le service comprendra : A. Gestion de l'Infrastructure de Stockage Conception et déploiement de solutions de stockage en réseau (NAS) et de solutions cloud adaptées aux besoins. Configuration des volumes et des niveaux de stockage en fonction des exigences de performance. Optimisation des performances du stockage par des ajustements et un équilibrage de la charge. Fourniture d'un service 24/7 avec une organisation dédiée aux heures creuses pour une disponibilité continue. Élaboration et partage de documentation technique, comprenant des Dossier de Conception Technique (LLD), des procédures et des processus. B. Protection des Données & Sauvegarde Mise en œuvre de stratégies de sauvegarde et de récupération d'urgence afin de prévenir toute perte de données. Utilisation et gestion des solutions de sauvegarde adaptées aux besoins spécifiques. Développement de stratégies de réplication inter-sites pour garantir la continuité des activités. C. Sécurité et Conformité du Stockage Application de mécanismes de chiffrement, de contrôles d'accès et de permissions basées sur les rôles pour sécuriser les données stockées. Assurance de la conformité aux normes GDPR, HIPAA, ISO 27001 et autres réglementations applicables. Supervision et prévention contre les ransomwares et les accès non autorisés aux systèmes de stockage. Participation à la résolution des non-conformités identifiées lors des audits. D. Planification de la Capacité & Optimisation Analyse de l'utilisation du stockage et anticipation des besoins futurs. Amélioration de l'efficacité grâce à des fonctionnalités telles que la déduplication, la compression, et la gestion à approvisionnement fin (thin provisioning). Mise en place d'automatisations de la gestion du stockage via des scripts (Python, Bash, PowerShell). E. Résolution de Problèmes & Optimisation des Performances Identification et résolution des problèmes de latence, de limitations en IOPS ou de défaillances de disques. Réalisations de mises à jour du firmware, de correctifs et de vérifications de l'état général des systèmes. Collaboration étroite avec les équipes réseau et base de données pour optimiser le flux de données end-to-end. Gestion des incidents, y compris leur résolution et leur coordination avec les interfaces concernées.
Freelance

Mission freelance
ALSL - Data Engineer (GCP) – Plateforme Data

Pickmeup
Publiée le
Apache Airflow
Google Cloud Platform (GCP)
PySpark

3 mois
400-540 €
Paris, France
On cherche un(e) Data Engineer pour renforcer une équipe qui fait tourner la plateforme data au quotidien. Le sujet est très concret : ramener des données qui viennent de partout , les centraliser proprement , les rendre fiables , et garder une plateforme qui tient la charge (et qui ne casse pas en prod au premier pic). Vous travaillerez avec un Product Owner, un Data Steward et d’autres data engineers. On est sur une logique : ingestion, standardisation, stockage, et tout ce qui va avec côté run (monitoring, reprise, sécurité, doc). Vos missions : Collecter et centraliser des sources hétérogènes (API, fichiers, bases, événements). Construire des pipelines robustes : gestion des erreurs, reprises, backfills, alerting, qualité. Développer les traitements en Python / SQL / Spark (volumes en hausse, donc on fait attention à la perf et aux coûts). Orchestrer les flux avec Airflow . Structurer le stockage sur Cloud Storage avec une approche Delta Lake (évolution de schémas, merge/upsert, partitionnement, rétention). Industrialiser l’ensemble : Terraform / Terragrunt , GitLab CI/CD , environnements propres (dev/staging/prod). Contribuer à la gouvernance et à la conformité : catalogage et métadonnées via Dataplex + documentation utile (pas un wiki fantôme). Environnement technique : Python, SQL, Spark Airflow (orchestration) GCP : BigQuery, Dataproc, Pub/Sub, Cloud Storage Delta Lake Terraform + Terragrunt GitLab + GitLab CI/CD Méthodes : Agile (Scrum/Kanban)
755 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous