Trouvez votre prochaine offre d’emploi ou de mission freelance ETL (Extract-transform-load)

Votre recherche renvoie 268 résultats.
Freelance

Mission freelance
Business Analyst – Intégration de systèmes informatiques

HAYS France
Publiée le
Confluence
JIRA
Middleware

1 an
360-500 €
Île-de-France, France
Nous recherchons pour un de nos clients basés en IDF, un Business Analyst – Intégration de systèmes informatiques pour une mission freelance (longue visibilité) Mission principale : Garantir la bonne intégration des assets informatiques dans le nouveau SI, en assurant la cohérence fonctionnelle et technique entre les applications et les processus métiers. Contribuer à la migration de la France sur la nouvelle plateforme. Responsabilités clés Recueillir et analyser les besoins métiers Rédiger les spécifications fonctionnelles et techniques Participer à la conception des solutions d’intégration (API, middleware, ETL) Réceptionner et tester les composants développés Coordonner / Réaliser les tests d’intégration et la validation des flux Assurer la documentation et la traçabilité des échanges inter-systèmes Collaborer avec les équipes de Production informatique, d’architecture et de la sécurité
Freelance

Mission freelance
Consultant SAP Datasphere

Nicholson SAS
Publiée le
Data visualisation
Gouvernance
Hortonworks Data Platform (HDP)

8 mois
680 €
Paris, France
Localisation : Paris / Remote Démarrage : ASAP Durée : Mission longue jusqu’au 31/12/2026 Contexte:Dans le cadre du développement d’une plateforme data basée sur SAP Datasphere , nous recherchons un consultant confirmé afin de contribuer à la conception, la modélisation et la gouvernance des données destinées aux équipes métiers (finance, supply chain, production, etc.). Vous interviendrez au sein d’une équipe data composée d’architectes, data engineers et experts SAP, sur des sujets d’intégration, de structuration et de valorisation des données. Missions: Analyse et cadrage Recueillir et analyser les besoins métiers. Identifier les indicateurs clés (KPI) et les besoins de reporting. Rédiger les spécifications fonctionnelles et techniques. Conception et modélisation Concevoir et structurer les modèles de données dans SAP Datasphere . Organiser les Spaces et structurer les modèles analytiques. Mettre en place des modèles dimensionnels (Star Schema / Snowflake). Intégration et transformation des données Configurer les connexions vers les différentes sources SAP et non-SAP. Mettre en place les Data Flows et Replication Flows . Réaliser les transformations, mappings et contrôles de qualité des données. Modèle sémantique et valorisation Définir les mesures, hiérarchies et relations entre les données. Structurer les datasets pour leur exploitation par les outils de reporting. Contribuer à la mise à disposition des données pour les équipes BI. Gouvernance et bonnes pratiques Participer à la gestion des métadonnées et à la documentation des modèles. Contribuer à la mise en place des bonnes pratiques de gouvernance et de qualité des données. Optimisation et amélioration continue Surveiller les performances des modèles et des flux de données. Optimiser les pipelines et la consommation des données. Participer aux évolutions fonctionnelles et techniques de la plateforme. Environnement technique: Data Platform SAP Datasphere SAP Business Technology Platform (BTP) Écosystème SAP SAP S/4HANA SAP BW / BW4HANA Data Engineering SQL (indispensable) ETL / ELT Modélisation dimensionnelle BI / Analytics SAP Analytics Cloud Power BI ou Tableau Profil recherché Expérience : 5 à 7 ans d’expérience sur des projets data / SAP. Compétences techniques Bonne maîtrise de SAP Datasphere . Solide connaissance de SQL et des concepts de transformation de données. Expérience en modélisation de données analytiques et dimensionnelles . Connaissance de l’écosystème SAP (S/4HANA, BW, BTP) . Expérience avec un outil de visualisation de données . Compétences fonctionnelles Capacité à traduire un besoin métier en modèle de données. Bonne compréhension des enjeux de qualité, structuration et gouvernance de la donnée . Soft skills Bon niveau de communication avec les équipes métiers et techniques. Esprit analytique et sens de la structuration. Autonomie et capacité à être force de proposition. Travail en équipe dans un environnement data.
CDI

Offre d'emploi
Data Engineer (F/H)

CELAD
Publiée le

Montpellier, Occitanie
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ 3 jours de télétravail par semaine – Montpellier (34) – Expérience de 4/5 ans min Envie de rejoindre une équipe où la tech et les projets stimulants sont au rendez-vous ? Cette opportunité est faite pour vous ! Voici un aperçu détaillé de vos missions : Dans le cadre de l'industrialisation des migrations de données d'un ERP vers un autre, l'équipe Data renforce son pôle ETL / ELT. Le poste s'inscrit dans un environnement industriel, orienté delivery, avec des contraintes fortes de qualité, reproductibilité et traçabilité. Le Data Engineer interviendra au cœur de la plateforme de migration et travaillera en étroite collaboration avec : Le Tech Lead Data et un data engineer Les équipes produit Les équipes métier (migration / fonctionnel) Les équipes infra / DevOps 1. Modèles de données (dbt) Concevoir et maintenir des modèles dbt (RAW → REFINED → TRUSTED) Implémenter les règles métier de façon explicite et documentée Centraliser les règles communes (mapping, normalisation, référentiels) 2. Robustesse & fiabilité des pipelines Pipelines reproductibles, OS-agnostiques, déployables via CI/CD Tests dbt (schéma, unicité, volumétrie), contrôles de cohérence inter-modèles Alertes sur écarts ou régressions, optimisation des performances 3. Contributions applicatives Maintenir les endpoints API (FastAPI) et les interfaces (Vue.js 3 / Quasar) liés aux flux de migration et d'import Contribuer au système IA de suggestions en cascade (pattern matching, embeddings, LLM) Gérer les migrations de schéma (Alembic) et les connecteurs de données (ODBC / SQL Server) 4. Documentation & collaboration transverse Documenter modèles, règles de transformation, conventions de nommage Participer aux code reviews et aux ateliers de validation fonctionnelle post-migration Collaborer avec les équipes métier, produit et infra Transformation : dbt, SQL avancé, Python Bases de données : SQL Server, PostgreSQL (+ pgvector), Snowflake / équivalent Orchestration : Airflow (ou équivalent) Application : FastAPI, Vue.js + TypeScript + Quasar IA : scikit-learn, embeddings vectoriels, NLP, LLM Infra / CI/CD :Docker, AWS ECS , ECR, S3, Bitbucket & Azure Pipelines Data quality :Tests dbt, Pytest
Freelance

Mission freelance
Data Engineer (F/H)

CELAD
Publiée le

1 an
450-550 €
Montpellier, Occitanie
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ 3 jours de télétravail par semaine – Montpellier (34) – Expérience de 4/5 ans min Envie de rejoindre une équipe où la tech et les projets stimulants sont au rendez-vous ? Cette opportunité est faite pour vous ! Voici un aperçu détaillé de vos missions : Dans le cadre de l'industrialisation des migrations de données d'un ERP vers un autre, l'équipe Data renforce son pôle ETL / ELT. Le poste s'inscrit dans un environnement industriel, orienté delivery, avec des contraintes fortes de qualité, reproductibilité et traçabilité. Le Data Engineer interviendra au cœur de la plateforme de migration et travaillera en étroite collaboration avec : Le Tech Lead Data et un data engineer Les équipes produit Les équipes métier (migration / fonctionnel) Les équipes infra / DevOps 1. Modèles de données (dbt) Concevoir et maintenir des modèles dbt (RAW → REFINED → TRUSTED) Implémenter les règles métier de façon explicite et documentée Centraliser les règles communes (mapping, normalisation, référentiels) 2. Robustesse & fiabilité des pipelines Pipelines reproductibles, OS-agnostiques, déployables via CI/CD Tests dbt (schéma, unicité, volumétrie), contrôles de cohérence inter-modèles Alertes sur écarts ou régressions, optimisation des performances 3. Contributions applicatives Maintenir les endpoints API (FastAPI) et les interfaces (Vue.js 3 / Quasar) liés aux flux de migration et d'import Contribuer au système IA de suggestions en cascade (pattern matching, embeddings, LLM) Gérer les migrations de schéma (Alembic) et les connecteurs de données (ODBC / SQL Server) 4. Documentation & collaboration transverse Documenter modèles, règles de transformation, conventions de nommage Participer aux code reviews et aux ateliers de validation fonctionnelle post-migration Collaborer avec les équipes métier, produit et infra Transformation : dbt, SQL avancé, Python Bases de données : SQL Server, PostgreSQL (+ pgvector), Snowflake / équivalent Orchestration : Airflow (ou équivalent) Application : FastAPI, Vue.js + TypeScript + Quasar IA : scikit-learn, embeddings vectoriels, NLP, LLM Infra / CI/CD :Docker, AWS ECS , ECR, S3, Bitbucket & Azure Pipelines Data quality :Tests dbt, Pytest
CDI

Offre d'emploi
Data Engineer (F/H)

CELAD
Publiée le

45k-55k €
Montpellier, Occitanie
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ 3 jours de télétravail par semaine – Montpellier (34) – Expérience de 4/5 ans min Envie de rejoindre une équipe où la tech et les projets stimulants sont au rendez-vous ? Cette opportunité est faite pour vous ! Voici un aperçu détaillé de vos missions : Dans le cadre de l'industrialisation des migrations de données d'un ERP vers un autre, l'équipe Data renforce son pôle ETL / ELT. Le poste s'inscrit dans un environnement industriel, orienté delivery, avec des contraintes fortes de qualité, reproductibilité et traçabilité. Le Data Engineer interviendra au cœur de la plateforme de migration et travaillera en étroite collaboration avec : Le Tech Lead Data et un data engineer Les équipes produit Les équipes métier (migration / fonctionnel) Les équipes infra / DevOps 1. Modèles de données (dbt) Concevoir et maintenir des modèles dbt (RAW → REFINED → TRUSTED) Implémenter les règles métier de façon explicite et documentée Centraliser les règles communes (mapping, normalisation, référentiels) 2. Robustesse & fiabilité des pipelines Pipelines reproductibles, OS-agnostiques, déployables via CI/CD Tests dbt (schéma, unicité, volumétrie), contrôles de cohérence inter-modèles Alertes sur écarts ou régressions, optimisation des performances 3. Contributions applicatives Maintenir les endpoints API (FastAPI) et les interfaces (Vue.js 3 / Quasar) liés aux flux de migration et d'import Contribuer au système IA de suggestions en cascade (pattern matching, embeddings, LLM) Gérer les migrations de schéma (Alembic) et les connecteurs de données (ODBC / SQL Server) 4. Documentation & collaboration transverse Documenter modèles, règles de transformation, conventions de nommage Participer aux code reviews et aux ateliers de validation fonctionnelle post-migration Collaborer avec les équipes métier, produit et infra Transformation : dbt, SQL avancé, Python Bases de données : SQL Server, PostgreSQL (+ pgvector), Snowflake / équivalent Orchestration : Airflow (ou équivalent) Application : FastAPI, Vue.js + TypeScript + Quasar IA : scikit-learn, embeddings vectoriels, NLP, LLM Infra / CI/CD :Docker, AWS ECS , ECR, S3, Bitbucket & Azure Pipelines Data quality :Tests dbt, Pytest
Alternance

Offre d'alternance
Data Engineer

█ █ █ █ █ █ █
Publiée le
Big Data
DevOps
Github

Strasbourg, Grand Est

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDI
Freelance

Offre d'emploi
Ingénieur Sécurité Data (H/F)

AVA2I
Publiée le
AWS Cloud
Cybersécurité
FortiGate

3 ans
Île-de-France, France
Dans le cadre de l’évolution d’une plateforme Data stratégique au sein d’un grand acteur du secteur de l’énergie, nous recherchons un Ingénieur Sécurité Data pour renforcer la sécurisation d’un environnement multicloud AWS & GCP . L’objectif est de protéger l’ensemble de la chaîne de valeur Data : ingestion, stockage, transformation et exposition des données, tout en garantissant conformité, traçabilité et résilience des infrastructures. 🏗️ Environnement Technique Cloud : AWS & GCP (environnement multicloud) Plateforme Data : Data Lake / Data Warehouse ETL / ELT Orchestration de flux data Sécurité réseau : Firewalls Fortinet / FortiGate Segmentation réseau & sécurisation des flux inter-VPC / inter-projets CI/CD & approche DevSecOps Supervision & monitoring sécurité 🛠️ Missions principales🔒 Sécurité Cloud & Data Sécurisation des architectures Data sur AWS et GCP Mise en place et contrôle des politiques IAM Gestion des accès aux environnements Data Sécurisation des flux d’ingestion et d’exposition des données Application des standards sécurité groupe 🌐 Sécurité Réseau Administration et configuration des firewalls FortiGate Gestion des règles de filtrage, VPN, NAT, IPS Segmentation réseau et sécurisation des flux inter-environnements Analyse et traitement des incidents sécurité réseau
Freelance

Mission freelance
DATA ENGINEER DDL ( profil habilitable)

Signe +
Publiée le
Python

12 mois
610 €
Issy-les-Moulineaux, Île-de-France
Contexte Ouverture d’une nouvelle entité chez le client. Le Data Engineer interviendra dans un environnement IA / Big Data avec forte dimension cloud et DevOps. Missions Identification et analyse des besoins Participation aux ateliers d’idéation Rédaction de documentations techniques détaillées Définition des spécifications projets IA Proposition de solutions algorithmiques adaptées Interaction avec les infrastructures data Intégration et maintenance de solutions d’IA Gestion d’environnements Big Data, cloud et on-premise Mise en place DevOps / DevSecOps / MLOps Implémentation de pipelines CI/CD Mise en place de dépôts de code Contribution à une culture agile et sécurisée Communication et partage Partage de connaissances au sein de l’entité Communication sur les avancées et retours d’expérience Accompagnement à la montée en compétence de l’équipe Compétences techniques attendues Développement : Python, SQL, Spark, Scala Frameworks ML : pandas, numpy, scikit-learn ETL / pipelines : Apache Nifi, Talend, Kafka Big Data / Cloud : S3, Hadoop, MapReduce Bases de données : PostgreSQL, MySQL, MongoDB, Cassandra DevOps / MLOps : Docker, Gitlab, Kubernetes Profil recherché Expérience confirmée en environnement Data / IA Forte capacité d’analyse et de structuration À l’aise dans un contexte de création d’entité
CDI
Freelance

Offre d'emploi
Data Analyst Sénior

Inventiv IT
Publiée le
Batch
BigQuery
ClickHouse

1 an
Casablanca, Casablanca-Settat, Maroc
Mission Principale Rattaché au pôle Data/IA Fabric, votre objectif est de résoudre les divergences de données entre les différents environnements, notamment le On-Premise et le Cloud. Vous définissez les standards de mesure pour une zone internationale multi-pays et jouez un rôle moteur dans la transition vers une architecture unique, robuste et fiable. Responsabilités Audit et Réconciliation : Analyser les flux provenant de Firebase, Batch et Clickhouse pour identifier l'origine des écarts de KPIs, comme le nombre d'utilisateurs actifs, entre BigQuery et Clickhouse. Standardisation des Métriques : Définir des règles de gestion communes et des mappings JSON/HTTPS unifiés pour garantir la cohérence des données, quel que soit le canal d'émission, tel que App Kiph ou Sent Apk. Optimisation de l'Architecture : Collaborer avec les ingénieurs pour migrer progressivement les traitements vers une architecture cible, avec une préférence pour GCP et BigQuery, tout en assurant l'intégrité de la donnée historique. Architecture cible robuste Gouvernance et Qualité : Mettre en place des dashboards de monitoring de la qualité de données et instaurer des alertes sur les seuils de divergence entre les sorties. Mise en place d'une modern Data Platform robuste Compétences Techniques Requises Maîtrise SQL Expert : Capacité à requêter et optimiser des volumes massifs sur BigQuery (GCP) et Clickhouse. Stack Data Mobile : Expérience significative avec l'écosystème Firebase et les outils de push notification comme Batch. Ingestion & Formats : Excellente compréhension des flux JSON/HTTPS et des problématiques de collecte de données via SDK ou APK. Modélisation : Maîtrise des principes d'ETL/ELT et de la construction de modèles de données robustes (la connaissance de dbt est un plus). Profil Recherché Formation : Diplôme d'Ingénieur ou Master en Data/Statistiques. Expérience : 5 ans minimum Soft Skills : Esprit analytique poussé, capacité à vulgariser des problématiques techniques complexes auprès d'interlocuteurs métiers et excellente communication pour coordonner plusieurs pays. L’indispensable INVENTIV IT Expérience avérée sur des projets de Data Platform & Data Market Place. Capacité à évoluer dans un contexte technologique mature incluant Databricks, Snowflake, Power BI et l'IA. Poste basé à Casablanca, Maroc Mode : Forfait/Régie Rythme : Hybride/à distance Profil sénior : 5 ans d’expérience minimum
Freelance

Mission freelance
Team Leader Data Engineering (H/F)

Freelance.com
Publiée le
Apache Kafka
Confluence
Data management

3 mois
400-430 €
Bordeaux, Nouvelle-Aquitaine
Intitulé : Team Leader Data Engineering Localisation : Bordeaux Expérience : 2 à 5 ans Démarrage : ASAP jusqu’à fin 2026 Deadline réponse : 9 mars 🎯 Mission générale Sous la responsabilité du Head of Engineering Logistique, le Team Leader est responsable de l’équipe Data Engineering C-Logistics. Il intervient en tant que : Facilitateur d’équipe Coach technique Acteur de la performance Il s’appuie sur les principes Lean afin de : Optimiser les processus de delivery Analyser et traiter les causes racines des incidents de production Favoriser l’autonomie de l’équipe Garantir performance, scalabilité et fiabilité des solutions Assurer l’alignement avec la vision produit du Product Manager 🧭 Périmètre Production et pilotage des données & KPI pour les collaborateurs C-Logistics Partage de données avec les autres filiales du groupe Partage de données avec des clients B2B 👥 Équipe 4 développeurs 1 Lead Developer
Freelance
CDI

Offre d'emploi
Administrateur Système et Réseau Linux

VISIAN
Publiée le
Dynatrace
IBM DataStage

1 an
40k-45k €
400-620 €
Île-de-France, France
Offre d'emploi Description du poste La mission consiste à : Installation/administration Système/Réseau Linux : unix, linux, windows...etc Analyse des logs systèmes et propositions d'amélioration: performances, sécurité Clusters LINUX, Virtualisation, Cybersécurité Kubernetes; docker, DevOps Big Data technologies: MapR, AbInitio Stockage Orienté Objet à gros volumes de données Forte experience sur les ETL (DataStage, AbInitio,...) Mise en place Monitoring via Dynatrace/BAM Accompagnement des projets + forte contribution Contribution à la formation des équipes et documentations Expertise et états des lieux des serveurs
CDD
CDI
Freelance

Offre d'emploi
SCRUM MASTER trasverse

KEONI CONSULTING
Publiée le
DevOps
Oracle
Reporting

18 mois
20k-60k €
100-450 €
Paris, France
Contexte Au sein du Département SI Pilotage Financier, vous intégrez le service SI COMPTABLE / SI ACHAT / PILOTAGE BUDGETAIRE consituait de plusieurs équipes AGILES SCRUM permettant le maintien et les évolutions autour de la solution Oracle ERP/EPM CLOUD. La ou le prestataire sera intégré(e) dans des équipes PRODUITS au sein de la DSID sous la responsabilité de 2 projects manager. L’objectif étant d’accompagner les Prodcut Owner et les équipes de DEV afin traiter les besoins définit dans la ROAD MAP et matérialisés dans la backlog. L’objectif étant de garantir et d’optimiser le delivery via la méthodologie AGILE SCRUM Mission : Missions et Responsabilités : - Organiser et animer les cérémonies agiles des différentes équipes PRODUIT (Sprint planning, Sprint review, rétrospectives) - Prendre part à l’affinage des backlogs - Accompagner les Product Owner et les équipes de developpement vers l’atteinte de l’objectif des sprints - Pilotage opérationnel - Mettre en place les indicateurs permettant le suivi des réalisations et identifier les axes d’améliorations - Être l’interlocuteur privilégié entre les équipes de DEV et les différents acteurs : BA, OPS, PO, PM - Identifier les obstacles, mettre en œuvre les actions et assurer le reporting - Contribuer à la conduite du changement agile et au déploiement à l’échelle (SAFe). - Favoriser la collaboration entre équipes techniques et métiers. Profil recherché • Minimum 5 ans d’expérience en tant que Scrum Master dans un environnement agile technique. • Leadership, posture de coach, excellentes capacités relationnelles. • Sens du service client, capacité à fédérer et accompagner les équipes. • Autonomie, rigueur et organisation. Environnement & Outils • Outils agiles : Jira, Confluence • DevOps & CI/CD : GitLab, Hawaii • Méthodologies : Scrum, Kanban, SAFe • Cloud : GCP (Langage DBT), ORACLE ERP EPM CLOUD (avec module OCI) • ETL : ISIE (interpréteur comptable), SEMARCHY Xdi, • DATAVIZ / REPORTING : QLIKSENSE, FDI (Oracle), BI Publisher
Freelance

Mission freelance
Support Engineer / Dev Java

Nicholson SAS
Publiée le
Azure
Hyperion
IBM i

6 mois
350 €
Clermont-Ferrand, Auvergne-Rhône-Alpes
Missions : Ingénieur Support et Developpeur Java/Hyperion. Affecté(e) à une équipe Agile pluridisciplinaire, l’activité principale consiste à délivrer des projets Finance, de petites évolutions, ainsi qu’à assurer le support L3 de nos solutions ETL, en étroite collaboration avec les Key Users et représentants métiers, dans un environnement international où la majorité des utilisateurs sont situés en Europe. Capacité à challenger les besoins, à les formaliser, à analyser les données, à concevoir et mettre en œuvre la solution basée sur les logiciels utilisés dans le Domaine, à réaliser des tests de bout en bout et des tests de performance, à rédiger la documentation nécessaire à la bonne exploitation de la solution, à former les Key Users et à accompagner le métier lors du déploiement et de la mise en production.
Freelance

Mission freelance
Consultant SAP BW4HANA - Toulouse

Signe +
Publiée le
SAP BW
SAP S/4HANA

4 mois
400-600 €
Toulouse, Occitanie
Dans le cadre du développement de son activité Data & BI, notre client basé à Toulouse renforce ses équipes et recherche un Consultant SAP BW/4HANA. En tant que Consultant SAP BW/4HANA, vous serez amené(e) à : Participer aux projets BW/4HANA Analyser les besoins métiers et rédiger les spécifications fonctionnelles et techniques Modéliser les données Développer et maintenir les flux de données (ETL, transformations) Optimiser les performances et assurer la qualité des données Accompagner les utilisateurs (recette, support, amélioration continue) Travailler en lien étroit avec les équipes fonctionnelles, techniques et métiers Démarrage : 2 Mars Localisation : Remote + Toulouse (Le consultant devra venir sur site 2 jours toutes les 2 semaines) TJM : Selon profil
Freelance

Mission freelance
Développeur Python .NET

JobiStart
Publiée le
.NET
Agile Scrum
Python

2 ans
400-540 €
Île-de-France, France
Tâches principales : Développer des librairies Python pour le pricing, la valorisation et l'analyse de risques d'instruments financiers (dérivés de taux, crédit, actions) Concevoir et maintenir des API RESTful en Core / .NET 6+ pour l'exposition des services métiers aux applications Front Office et Risk Construire et optimiser des pipelines de données (ETL/ELT) en Python avec Pandas, NumPy, PySpark pour le traitement de flux de market data ( Bloomberg B-PIPE, Refinitiv Elektron ) Développer des connecteurs et intégrations via des protocoles de messaging financier ( Apache Kafka, RabbitMQ, Solace ) Implémenter des modèles de machine learning (Scikit-learn, TensorFlow) appliqués à la détection d'anomalies de marché ou à l'optimisation de portefeuilles Contribuer aux projets réglementaires FRTB, SA-CCR, EMIR Refit en développant des modules de calcul et de reporting conformes Rédiger et maintenir les tests unitaires et d'intégration ( PyTest, NUnit, xUnit ) dans une logique TDD / BDD Participer aux pipelines CI/CD (GitLab CI, Jenkins, Docker, Kubernetes) et aux pratiques DevSecOps Assurer la revue de code, la documentation technique ( Confluence, Swagger / OpenAPI ) et le respect des standards de développement Collaborer en mode Agile (Scrum / SAFe) avec les équipes pluridisciplinaires dans un contexte international, en anglais
Freelance

Mission freelance
Profil Devops ( Expert / Senior) H/F

Cheops Technology
Publiée le
DevOps

12 mois
400-490 €
Longpont-sur-Orge, Île-de-France
Grâce à sa compréhension du Système d’information (SAP, PIM, DAM, PSP, RCU, ERP …) et sa capacité à discuter avec les métiers, les architectes et les Engineer Squad Lead, il conçoit, implémente, plannifie les ETL, Flux, pipelines à implémenter afin de répondre aux enjeux business. Il fait de même sur les pipelines qui permettent aux squads de déployer sereinement et en autonomie. Objectifs de l'équipe : Gestion d’ETL et de flux de bout en bout depuis la prise du besoin jusqu'à la maintenance, l'évolution et le maintien en conditions opérationnelles Qualification et intégration CI/CD : Intégration du déploiement des Tests unitaires et fonctionnels Intégration des outils de qualité type SonarQube, SAST, autres Gitlab / AWS Pipeline Monitoring & Observabilté : Création de dashboards, ouverture automatique de tickets… Implémentation et configuration des outils groupes Datadog & New Relic Étude, préparation et budgétisation de l’utilisation des infrastructures et services cloud AWS et Azure Automatisation des tâches via scripting Apport d’un support technique aux équipes transverses (développeurs, QA, production, autres équipes) Debug, résolution d’incidents et optimisation Cloud (AWS) Création, maintien, amélioration et documentation des pipelines de déploiement automatique CI/CD.
268 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous