Trouvez votre prochaine offre d’emploi ou de mission freelance ETL (Extract-transform-load)
Votre recherche renvoie 268 résultats.
Mission freelance
Architecte Technique | Massy - Habilitable obligatoire
5COM Consulting
Publiée le
Administration linux
Ansible
Openshift
3 ans
400-630 €
Massy, Île-de-France
Architecte Technique | Massy Nous recherchons un Architecte Technique pour accompagner la DSI d'un grand groupe industriel dans la conception et la rédaction de dossiers d'architecture technique (DAT) dans le cadre d'un projet de modernisation et de sécurisation du Système d'Information. Missions • Conception de l'architecture technique des solutions (HLD / LLD) • Rédaction de 12 DAT en français et/ou anglais • Étude de l'impact sur l'architecture existante et future • Participation aux comités d'architecture technique et sécurité (COPROJ hebdo / COPIL trimestriel) • Garantir la cohérence technique et la maintenabilité du SI Environnement technique Linux Red Hat, Unix Sun Solaris, OpenShift (conteneurisation), VMware, Active Directory, clustering, Cloud AWS, Ansible, Satellite Red Hat, AlgoSec, MSSQL, ETL, webservices, IDM
Offre d'emploi
Data Engineer F/H
VIVERIS
Publiée le
40k-45k €
Belgique
Contexte de la mission: Dans le cadre du développement de nos activités data et de la montée en puissance de nos plateformes analytiques, nous recherchons un Data Engineer pour concevoir, construire et optimiser les pipelines de données alimentant nos applications métiers, nos plateformes analytiques et nos modèles d'intelligence artificielle.Vous rejoindrez une équipe Data pluridisciplinaire (Data Engineers, Data Scientists, Data Analysts, Architectes) et interviendrez sur toute la chaîne de traitement de la donnée : ingestion, transformation, structuration, optimisation, industrialisation et monitoring. Vos responsabilités: Vous serez en charge de: - Concevoir, développer et maintenir des pipelines de données robustes (batch & streaming) - Industrialiser la collecte, la transformation et la mise à disposition des données (ETL/ELT) - Assurer la qualité, la fiabilité et la disponibilité des datasets critiques - Participer à la modélisation et à la structuration des données (Data Lake, Data Warehouse) - Collaborer avec Data Scientists & Analysts pour fournir des données fiables et exploitables - Contribuer aux choix techniques et à l'évolution de l'architecture data - Documenter les pipelines, les schémas et les bonnes pratiques d'exploitation
Mission freelance
Responsable d’Applications Supply Chain
ESENCA
Publiée le
Google Cloud Platform (GCP)
Java
SQL
1 an
Lille, Hauts-de-France
Contexte de la mission Dans un environnement international, nous recherchons un Responsable d’Applications expérimenté afin d’assurer la maintenance et l’évolution de plusieurs produits digitaux liés aux activités Transport et Entrepôts au sein d’un périmètre Supply Chain. Vous interviendrez au sein d’une équipe Build & Run en collaboration étroite avec les utilisateurs métiers, les équipes IT (développement, architecture, sécurité, infrastructure) ainsi que différents partenaires externes. L’objectif principal est de garantir la disponibilité, la performance et la qualité de service des applications tout en accompagnant leur évolution. Vos missions Assurer le maintien en conditions opérationnelles (MCO) des applications du périmètre. Suivre et piloter l’activité via des indicateurs de performance , et mettre en place des plans d’actions préventifs et correctifs. Gérer les demandes d’évolution et de service dans le respect des engagements de service (SLA). Collaborer avec les équipes IT (Product Owner, développeurs, autres responsables applicatifs). Mettre en production les nouvelles versions et participer aux projets de sécurisation du SI. Garantir la qualité de service et la satisfaction des utilisateurs . Maîtriser le paramétrage, les flux applicatifs et les plans de production des solutions maintenues. Maintenir une documentation technique et fonctionnelle à jour . Proposer et mettre en œuvre des améliorations continues pour optimiser les solutions et les processus. Compétences techniques requises Talend et SQL (niveau confirmé – impératif). Connaissance des métiers Transport et Entrepôts (confirmé – impératif). Environnements data et cloud : GCP, BigQuery, Kafka, DataDog, Ordonnanceur AWA (confirmé – important). Connaissances en Java et Python (niveau junior – apprécié).
Offre d'emploi
Développeur Informatica Expérimenté H/F
TOHTEM IT
Publiée le
36k-45k €
Toulouse, Occitanie
Le contexte Tu rejoins une équipe en charge de deux applications clés de notre SI. Ton rôle : concevoir, faire évoluer et sécuriser les flux de données qui alimentent les outils métiers. Tu interviens au cœur de l’intégration entre les systèmes et tu participes directement à la qualité des données utilisées au quotidien. Ce que tu feras Concevoir et développer des flux ETL sous Informatica (PowerCenter / IICS) Intervenir sur deux applications : analyse des besoins avec les équipes métier création et évolution des mappings et workflows optimisation des performances Participer aux recettes et mises en production Assurer le support niveau 2/3 et la correction d’incidents Documenter tes développements Travailler main dans la main avec les équipes data, métier et production
Mission freelance
Développeur Senior Python - Paris
Signe +
Publiée le
CI/CD
Cloud
Data Lake
6 mois
410-430 €
Paris, France
Dans le cadre d’un projet mené chez un client du secteur de l’assurance, ATOS souhaite renforcer son équipe en intégrant un Développeur Senior Python. Aujourd’hui, plusieurs développeurs Python seniors disposant d’une dizaine d’années d’expérience interviennent déjà sur ce projet. Nous recherchons donc un profil encore plus expérimenté, capable d’apporter une vision globale, de challenger l’existant et de proposer une véritable expertise technique. Ci dessous le besoin : Conception & Développement Backend Développer des fonctionnalités backend complexes en Python (APIs, services, moteurs de calcul, pipelines). Concevoir des architectures modulaires, performantes et maintenables. Optimiser les performances : temps d’exécution, consommation, robustesse, gestion d’erreurs. Data & Traitement avancé Intégrer et manipuler des données issues de différents environnements (bases SQL/NoSQL, data lakes, APIs). Développer des scripts d’automatisation, de transformation ou de scraping avancé. Participer à la mise en place ou l’évolution de pipelines Data/ETL.
Mission freelance
Azure Data Architect (Maroc)
AVALIANCE
Publiée le
Azure
Azure AI
Azure Data Factory
3 ans
Maroc
Contexte : Définition des besoins assistance au design / rédaction TAD (functional/Non Functional) Accompagner les squads projets dans la mise en place d’architectures data sécurisées et scalables sur Azure Collaborer avec les architectes data, sécurité, entreprise et les DevOps dans chaque squad. Garantir la bonne intégration et l’usage des composants Azure liés à la data. Assurer l’isolation, la sécurisation et le bon routage des accès aux données. Compétences attendues : Expertise Cloud Azure (Infrastructure), notamment : Azure Data Factory Azure Databricks Azure Data Lake Storage Azure Synapse Analytics Connaissances approfondies des problématiques d’architecture sécurisée, d’accès aux données, et de segmentation des environnements. Expérience dans l’intégration Power BI avec des ressources Azure (via Data Gateway, par exemple). Capacité à travailler en environnement agile multi-squad Périmètre technique : Ingestion de données depuis différentes sources (bases relationnelles, fichiers, APIs). Stockage des données dans un Data Lake et modélisation dans un Data Warehouse. Orchestration et transformation via Azure Data Factory et Databricks, intégration potentielle de modèles Machine Learning. Mise en place de pipelines ELT : structuration des données pour les rendre exploitables par les métiers. Restitution des données via Power BI (connexion entre Power BI SaaS et bases PaaS via Data Gateway)
Mission freelance
Technico fonctionnel SAP ECC - SD ET MM - Talend - RFE
CAPEST conseils
Publiée le
Facturation électronique
SAP ECC6
SAP MM
3 jours
Paris, France
3 jours par semaine pour commencer. Nous recherchons une ressource technico-fonctionnelle SAP SD/MM sur SAP ECC dans le cadre du projet RFE. Nous recherchons une personne en capacité de réaliser un projet de bout en bout. Sa mission sera d'analyser et de mettre en place les processus dans SAP et l'ETL Talend pour répondre aux exigences de la RFE. Il devra : Rédiger les dossiers de conception fonctionnelle et technique Réaliser le paramétrage nécessaire dans SAP Suivre les développements Accompagner les métiers dans la recette Préparer et effectuer le Go Live Prendre en charge la période d'hypercare. La mission sera de l'ordre de 3 jours par semaine (évolutif en fonction des 1ères analyses) dans les bureaux de notre client à Paris. Du distanciel sera possible après une phase d'immersion qui reste à déterminer avec le client.
Mission freelance
Consultant FME - confirmé - freelance - Rouen H/F
GROUPE ARTEMYS
Publiée le
1 mois
76000, France
Qui sommes-nous ? ESN : +35 ans d’existence. Expertise ARTEMYS AGIL-IT : Ingénierie logicielle | BDD | BI | Big Data. 800 collaborateurs | 80M€ CA (2024). Entreprise humaine : ProximITé, ConvivialITé, SolidarITé, EsprIT d’équipe, Partage, Respect et Accompagnement. Engagement responsable : Adhésion Global Compact, Planet Tech’Care, Label SILVER EcoVadis Sustainability, Charte de la Diversité. En savoir plus : | L’ IT chez ARTEMYS AGIL-IT combine la technologie et l’humain ! Nous sommes convaincus que les compétences, le savoir-être et l’épanouissement de nos Talents sont les clés de notre réussite . Avant tout, nous recherchons chez ARTEMYS AGIL-IT des personnalITés passionnées. Des valeurs ? Oui, et pas qu’en théorie Convivialité , parce que bosser dans une bonne ambiance, ça change tout Proximité , pour que chaque membre de l’équipe ait sa place et une voix Écoute , parce qu’on est convaincus que vos idées comptent autant que votre travail. Dans le cadre d’une mission chez l’un de nos clients grands comptes, nous recherchons un Consultant FME avec expertise confirmée — compétence obligatoire pour le poste. Vous intervenez au cœur de la chaîne de traitement des données géographiques et techniques. Votre mission (si vous l’acceptez) : Concevoir, développer et maintenir des workflows ETL avec FME (desktop / server) Administrer, maintenir et exploiter les bases de données géospatiales Mettre en place des chaînes automatisées de transformation et de contrôle qualité Gérer les droits, créer des tables, fonctions, vues et serveurs liés Exploiter les logs, gérer sauvegardes et restaurations Assurer le support technique auprès des bureaux d’études et des géomaticiens Créer et maintenir des projets sous QGIS Participer à l’industrialisation et à la fiabilisation des flux de données L’environnement technique : Expertise confirmée FME (développement de workflows complexes exigé) Solides compétences SQL PostgreSQL / PostGIS Environnement SIG et data géographique Expérience opérationnelle en contexte géomatique / data géospatiale Scripting bash Python Administration de bases de données Bonnes pratiques d’industrialisation des flux ETL Vous, notre perle rare : Consultant autonome Forte culture data / géomatique Sens du service et du support technique Bon relationnel avec équipes métiers et techniques Esprit d’initiative et rigueur Motivation et engagement projet Le process pour nous rejoindre : simple et clair ! Échange RH : On discute de vos motivations et de l’adéquation avec nos valeurs (promis, pas de robotisation ici). Entretien opérationnel : Un échange approfondi pour clarifier vos missions. Proposition d'embauche : Si tout colle, on vous accueille officiellement chez Artemys ! Rémunération : TJ : 320€ à 380€ Bienvenue dans l’aventure ARTEMYS Chez nous, chaque talent compte. Peu importe votre âge, vos origines, votre identité, votre religion ou votre orientation : ce qui nous intéresse, c’est vous et ce que vous avez à apporter. Et ici, l’inclusion n’est pas qu’un mot : tous nos postes sont ouverts aux personnes en situation de handicap, et on fait tout pour créer un environnement où chacun peut s’épanouir. Prêt, feu, candidatez !
Mission freelance
Data Engineer Semarchy ou stambia xDI Full remote ASAP
WorldWide People
Publiée le
Semarchy
6 mois
330-350 €
France
Data Engineer Semarchy ou stambia xDI Full remote ASAP Missions Développer et industrialiser les flux Data Integration avec Semarchy xDI. Assurer la qualité, la fiabilité et la gouvernance des données. Automatiser les traitements (CI/CD, DataOps) et collaborer avec les équipes IA et Data Science. Participer aux rituels Agile et rédiger la documentation technique. Profil Bac+5 en informatique / Data, 3 à 5 ans d’expérience en Data Engineering. Maîtrise Semarchy xDI , SQL avancé, Python/Java, ETL/MDM, Git, Docker, Kubernetes. Connaissance des bases SQL / NoSQL et orchestration (Kafka, Airflow…). Autonomie, travail en équipe, force de proposition.
Mission freelance
Ingénieur Data à Niort (3 jours sur site)
NEO SOFT SERVICES
Publiée le
Agile Scrum
Dataiku
Modèle Conceptuel des Données (MCD)
24 mois
400-550 €
Niort, Nouvelle-Aquitaine
Présentation de l’organisation Au sein d’une organisation spécialisée dans les services financiers et l’assurance vie, la Direction des Systèmes d’Information Métier est en charge du maintien en conditions opérationnelles et de l’évolution stratégique du système d’information dédié aux activités d’épargne et de finance. Enjeux stratégiques La valorisation de la donnée constitue un axe majeur de la stratégie de transformation pour les années à venir. Dans ce cadre, l’organisation recherche un Ingénieur Data expérimenté (niveau III) afin de rejoindre l’équipe de développement Data. Le consultant intégrera une équipe Data récemment constituée, avec pour objectif de construire, maintenir et optimiser les plateformes et pipelines de données , afin de garantir la fiabilité, la qualité et l’accessibilité des données pour l’ensemble des métiers de l’entreprise. Missions principales Le consultant Data sera rattaché au chef de projet de l’équipe et interviendra comme contributeur technique clé dans le cycle de vie de la donnée . Il participera activement à la mise en œuvre du modèle Data de l’organisation. Les principales missions seront les suivantes : Conception de pipelines de données (ETL / ELT) Concevoir, développer et optimiser des flux de données robustes et performants. Alimenter les entrepôts de données et les DataMarts. Modélisation des données Participer à la conception et à la mise en œuvre de modèles de données (MCD, modélisation dimensionnelle). Adapter ces modèles aux besoins métiers du secteur financier et de l’assurance. Industrialisation des processus Data Industrialiser les processus de préparation, de transformation et de gouvernance de la donnée. Utiliser des outils spécialisés de data science et de data engineering pour automatiser les flux. Visualisation et reporting Assurer l’intégration des données dans les outils de Business Intelligence pour leur exploitation par les équipes métiers. Maintenance et optimisation Garantir la performance et la qualité des flux de données. Maintenir l’infrastructure data en conditions opérationnelles. Compétences techniques recherchées Profil technique disposant d’une forte appétence pour les outils d’industrialisation et de traitement de la donnée . Compétences clés Niveau de prestation : Niveau III exigé Maîtrise avancée du langage SQL Expérience dans la conception et l’implémentation de processus ETL / ELT Expertise en modélisation de données (MCD, dimensionnelle) Capacité à challenger les solutions techniques , estimer les charges et piloter les phases de qualification Connaissance des outils de Business Intelligence (ex : Tableau ou équivalent) Compétences appréciées Maîtrise d’un outil de data science / data préparation (ex : Dataiku ou équivalent) Expérience sur des outils historiques de reporting ou d’analyse de données Connaissance du secteur assurance / finance Organisation de la mission Présence sur site : minimum 3 jours par semaine Télétravail possible le reste du temps Mission nécessitant une bonne autonomie et une capacité d’intégration dans une équipe Data
Offre d'emploi
DEVELOPPEUR PYTHON AZURE DEVOPS
BEEZEN
Publiée le
Python
3 mois
40k-45k €
400-550 €
Île-de-France, France
Ingénieur Python senior chargé de concevoir, développer et maintenir des applications Python hautes performances dans un environnement cloud natif et conteneurisé. Ce poste implique une collaboration étroite avec les équipes DevOps pour mettre en œuvre des pipelines CI/CD robustes et garantir des déploiements automatisés et fiables. Développement d'applications Concevoir, coder, tester et maintenir des services/API Python évolutifs. Appliquer les meilleures pratiques et les normes de revue de code. Un atout : expérience en intégration d’API Salesforce et en ETL Ingénierie CI/CD Créer et optimiser les pipelines Azure DevOps et GitLab (build, test, analyses de sécurité, publication - Sonar, Fortify, etc.). Mettez en œuvre les workflows Azure DevOps pour les déploiements K8s automatisés. Un atout : connaissance d’ArgoCD et d’OpenShift Gestion des conteneurs et des plateformes Conteneurisez vos applications avec Docker ; définissez les limites de ressources et les contrôles d’intégrité. Déployez et gérez des charges de travail sur Kubernetes/OpenShift à l'aide de graphiques Helm. Excellence opérationnelle Diagnostiquer et résoudre les problèmes dans les environnements conteneurisés (réseau, stockage, mise à l'échelle). Collaborer avec les équipes SRE/DevOps pour améliorer l'observabilité, la journalisation et les alertes.
Mission freelance
CONSULTANT MOE BI ORIENTE DATA
PROPULSE IT
Publiée le
BI
MOE
24 mois
275-550 €
Nanterre, Île-de-France
Consultant MOE BI / Domaine Socle Data Expérience ciblée : 3-4 ans minimum Compétences impératives - Compétences techniques : Conception / Modélisation BI (Flux & modèles de données) Expériences significatives sur la mise en place complète de projets BI Data ETL (conception, modélisation, réalisation) et sur le RUN en environnement Full Microsoft (SSIS, SQL Server : Modélisation, procédures stockées, optimisation SQL, etc.). Connaissance et mise en œuvre de la suite Microsoft AZURE DEVOPS (Git, Board Agile, Pipeline de déploiement CI/CD). Anglais professionnel courant - Compétences organisationnelles Expérience significative sur l'implémentation de projets BI d'intégration de données (datawarehouse & datamarts) Avoir la capacité de mener des mini-projets en autonomie tout en étant accompagné par un(e) maitrise d'ouvrage et/ou le métier. Capacité à s'organiser, à s'adapter sur les priorités, à synthétiser l'état d'avancement de ses activités et à remonter les alertes si besoin. - Compétence(s) appréciée(s) : Outils de reporting BI : TABLEAU, IBM Cognos, Power BI Habitué aux relations avec des partenaires offshore Certifications sur la suite MSBI - Descriptif détaillé de la mission : Assurer le RUN des applications existantes (ETL, Bases de données, support niveau 3) Comprendre les enjeux métier, problématiques à résoudre et opportunités à concrétiser. Echanger et challenger les besoins métiers avec les équipes AMOA BI en tenant compte des contraintes techniques. Proposer, concevoir et spécifier des solutions techniques viables, évolutives et tenant compte de l'existant. Rédaction des documents techniques (spécification techniques, document d'exploitation…etc). Conseiller, proposer des axes d'amélioration, alerter si besoin. - Environnement technique de la mission : Socle Data : SSIS, SQLServer (2016), procédures stockées, Azure DevOps (Git, Board Agile, Pipeline de déploiement CI/CD) Reporting : COGNOS BI 10.2 et 11 & Tableau Date début de mission : ASAP Durée estimée de la mission : longue - 3 mois (renouvelables)
Mission freelance
Responsable d’Applications (Expert) – Supply Chain / Transport & Entrepôt
HAYS France
Publiée le
BigQuery
Google Cloud Platform (GCP)
Java
3 ans
100-480 £GB
Lille, Hauts-de-France
Nous sommes à la recherche d’un profil type Responsable d’applications expérimenté pour renforcer l’équipe déjà en place sur le périmètre de la Supply Chain pour les achats internationaux Dans le cadre de cette mission, il travaillera dans une équipe « Build&Run » en lien étroit avec nos utilisateurs en France et à l'étranger, les équipes d'organisation métier, les administrateurs métier, les experts IT (infrastructure & production, sécurité, architecte, ) et nos partenaires externes (partenaires logistiques, éditeurs de solution SaaS,...) La durée de cette mission est à minima d’un an et se déroule sur le site de Ronchin: Terradeo Sur les produits digitaux qui lui seront confiées, la mission proposée sera de : - Assurer le maintien en conditions opérationnelles. La satisfaction utilisateur est primordiale. - Suivre et piloter l’activité : partage d’indicateurs, plan d’actions préventives, correctives et gestion des demandes d’évolutions et de service, respect des SLAs. - Travailler en collaboration avec les autres membres de la team IT et plus particulièrement le Product Owner, les développeurs et les Responsables d’applications sur d’autres périmètre que le sien. - Proposer et mettre en place des solutions afin d’améliorer la qualité de service rendue aux utilisateurs - Mettre en production des nouvelles versions et ou des projets de sécurisation du SI avec des enjeux de disponibilité et de performance. - Maîtriser le paramétrage et les flux des solutions à maintenir et leur plan de production. - Être en proximité des collaborateurs métiers qu’il dessert. Voir fe fichier en pièce jointe pour connaitre les compétences exactes recherchées.
Mission freelance
Business Analyst Data (F/H)
CELAD
Publiée le
1 an
410-460 €
Nantes, Pays de la Loire
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ Freelance / Portage - 3 jours de télétravail / semaine - Nantes - Expérience de 4 ans minimum Nous poursuivons notre développement et recherchons actuellement un.e Business Analyst intervenir sur un projet d’un de nos clients, dans le secteur bancaire. Contexte : Dans le cadre d’un projet de migration, vous interviendrez sur des activités telles que la rédaction de spécifications, l’analyse des impacts liés à la migration du système ainsi que la participation aux processus de certifications dynamiques. Vos principales missions : En lien avec les équipes métier et techniques, vous serez le trait d’union qui transforme les idées en solutions concrètes. - Comprendre les besoins des utilisateurs : animation d’ateliers pour challenger et prioriser les besoins - Rédiger les fonctionnalités / spécifications et les règles de gestion - Anticiper les besoins en termes de migration : anticipation, préparation et déroulé optimal de recette - Former et accompagner : vous aidez les métiers à s’approprier les outils et les usages - Conseiller les managers métiers : vous les guidez dans l’évolution de leur organisation et de leurs process - Partager et convaincre : animation de comités, restitution des analyses, recommandations stratégiques Ce que vous apportez : - Vous comprenez le fonctionnement d’un ETL et êtes capable de lire et analyser un flux ou un programme idéalement sous Semarchy - Maîtrise du langage SQL (Requêtes complexes pour rentrer en base) - Vous êtes à l’aise dans les environnements agiles, avec une bonne maîtrise des rituels - Vous savez rédiger avec clarté, parler avec impact et surtout convaincre - Vous êtes capable de vous adapter à vos interlocuteurs
Offre d'emploi
Développeur Talend / Data Analyst H/F
ADSearch
Publiée le
40k-50k €
Villeneuve-Loubet, Provence-Alpes-Côte d'Azur
[En Bref] CDI - Développeur Talend / Data Analyst H/F - Cagnes-sur-Mer - Télétravail 3 jours/sem Je recrute pour une entreprise historique qui a su évoluer avec son temps, un Développeur Talend / Data Analyst H/F pour accompagner sa transformation data-driven. TON POSTE Avec pour objectif de structurer, analyser et valoriser la donnée au service des métiers, au côté d'une équipe spécialisée en analyse de données et Business Intelligence, tu participeras à l’ensemble du cycle de vie de la donnée, en lien étroit avec les équipes métiers, IT, data et BI. Ton rôle consistera à transformer la donnée brute en indicateurs fiables et exploitables pour le pilotage et la prise de décision. En claire : - Accompagner les équipes métiers dans la formalisation de leurs besoins décisionnels, - Analyser les données issues de différentes sources internes et externes - Concevoir, développer et optimiser des tableaux de bord et rapports à forte valeur ajoutée (Power BI, SAP BO WebI), - Participer à la modélisation et à la transformation des données via des processus ETL (notamment SAP BODS), - Contribuer aux projets de fiabilisation, de gouvernance et d’évolution du datawarehouse, - Suivre l’avancement des projets data et assurer le reporting associé, - Participer à l’amélioration et à l’industrialisation des méthodes et outils décisionnels, - Réaliser les évolutions dans le respect des normes et standards de développement en place.
Mission freelance
247533/Ingénieur DataOps Ordonnanceur (Control M) Niort
WorldWide People
Publiée le
Control-M
6 mois
320-330 €
Niort, Nouvelle-Aquitaine
Ingénieur DataOps Niort Ordonnanceur (Control M) Confirmé (***) Monitoring (Dynatrace) Élémentaire (*) ETL Powercenter / ELT DBT Élémentaire (*) SQL (Oracle, MySQL, PostgreSQL) Élémentaire (*) Hadoop (HDFS, Spark) Élémentaire (*) Google Cloud Platform (Big Query) Avancé (**) Déploiement continu (Gitlab, Openshift, CICD, Terraform) Avancé (**) Scripts (shell, ksh) Élémentaire (*) Python Élémentaire (*) Certification Agile / DevOps Avancé (**) Jira, Confluence, Easyvista, Google Workspace Élémentaire (*) Certification ITIL Élémentaire (*) Légende : Élémentaire (*), Avancé (**), Confirmé (***), Expert (****) Le Data Office de mon client définit les orientations stratégiques dans le domaine de la donnée et assure l'homogénéité et la performance de l'écosystème Data. L'équipe Data OPS de Services Delivery Data est responsable de l'unification des pratiques d'exploitation, du déploiement continu (Gitlab Cloud & On-Prem) et de l'industrialisation des usages. Des compétences d'autonomie, de force de proposition tout en ayant une bonne connaissance des contraintes de production sont indispensables. Le candidat doit avoir une posture d'amélioration continue. Le poste d'Ingénieur DataOps a pour objectif de garantir la disponibilité, la stabilité et la fiabilité des environnements de la plateforme data. Son rôle se concentre sur l'exploitabilité, l'industrialisation et l'automatisation des services. Les missions principales consistent à : ● Assurer la disponibilité et la stabilité des environnements (Test, Prod). ● Exécuter et superviser l’installation (déploiement, bon démarrage). ● Automatiser les déploiements et les pipelines (CI/CD) dans un but de fluidifier et de fiabiliser la réalisation. ● Collaborer à la mise en place de la supervision incluant la documentation des dépendances. ● Analyser, résoudre les incidents et suivre les plans de remédiation. ● Participer à la définition des Exigences Non Fonctionnelles (sécurité, performance, scalabilité) et s'assurer de leur implémentation en projet et en production. ● Garantir la conformité et la qualité des livrables (tests, documentation) et anticiper les risques. Compétence Niveau Souhaité Ordonnanceur (Control M) Confirmé (***) Monitoring (Dynatrace) Élémentaire (*) ETL Powercenter / ELT DBT Élémentaire (*) SQL (Oracle, MySQL, PostgreSQL) Élémentaire (*) Hadoop (HDFS, Spark) Élémentaire (*) Google Cloud Platform (Big Query) Avancé (**) Déploiement continu (Gitlab, Openshift, CICD, Terraform) Avancé (**) Scripts (shell, ksh) Élémentaire (*) Python Élémentaire (*) Certification Agile / DevOps Avancé (**) Jira, Confluence, Easyvista, Google Workspace Élémentaire (*) Certification ITIL Élémentaire (*) Légende : Élémentaire (*), Avancé (**), Confirmé (***), Expert (****
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
268 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois