Trouvez votre prochaine offre d’emploi ou de mission freelance ETL (Extract-transform-load)
Votre recherche renvoie 268 résultats.
Mission freelance
Consultant Expert Adobe Campaign H/F
OUICODING
Publiée le
1 mois
650 €
Courbevoie, Île-de-France
Votre rôle sera central dans l'exécution technique des campagnes et l'évolution de la plateforme : -Développement & Data : Création de requêtes de ciblage complexes, automatisation de workflows (JS serveur/SQL) et extension de schémas de données (XML). -Intégration & Écosystème : Connexion de la plateforme aux outils tiers (CRM Salesforce, Web via API SOAP/REST) et interface avec le Data Lake (compréhension des flux ETL via Talend). -Expérience Client : Création de templates d'emails robustes (HTML/CSS responsive) et déploiement de scénarios automatisés (Panier abandonné, Welcome pack, etc.). -Gouvernance : Garantir la délivrabilité, le respect du RGPD et la gestion de la pression commerciale.
Mission freelance
Développeur Senior Python sector Assurance Paris/su
WorldWide People
Publiée le
Python
6 mois
400-450 €
Paris, France
Développeur Senior Python sector Assurance Paris Aujourd’hui, plusieurs développeurs Python seniors disposant d’une dizaine d’années d’expérience interviennent déjà sur ce projet. Nous recherchons donc un profil encore plus expérimenté, capable d’apporter une vision globale, de challenger l’existant et de proposer une véritable expertise technique. Ci dessous le besoin : Conception & Développement Backend Développer des fonctionnalités backend complexes en Python (APIs, services, moteurs de calcul, pipelines). Concevoir des architectures modulaires, performantes et maintenables. Optimiser les performances : temps d’exécution, consommation, robustesse, gestion d’erreurs. Data & Traitement avancé Intégrer et manipuler des données issues de différents environnements (bases SQL/NoSQL, data lakes, APIs). Développer des scripts d’automatisation, de transformation ou de scraping avancé. Participer à la mise en place ou l’évolution de pipelines Data/ETL. Qualité & Bonnes pratiques Écrire un code propre, testé, documenté, conforme aux normes (tests unitaires, CI/CD). Améliorer en continu l’existant : refactoring, gestion technique de la dette, optimisation. Participer activement aux revues de code et partager les bonnes pratiques. Intégration DevOps Contribuer aux chaînes CI/CD (GitLab, Jenkins, GitHub Actions…). Packager et déployer les applications (Docker, Kubernetes, OpenShift selon contexte). Travailler étroitement avec les équipes Cloud (AWS / Azure / On-prem) pour assurer la cohérence des environnements. Expertise & Support Technique Accompagner les développeurs moins expérimentés, apporter du mentorat technique. Challenger les décisions d’architecture et proposer des solutions pertinentes. Analyser et résoudre les incidents complexes, optimiser les flux et performances. Le client est très exigeant ; le profil recherché doit être résolument technophile, avec une véritable culture du développement et, idéalement, des compétences en IA.
Offre d'emploi
Responsable RUN/Data
OBJECTWARE
Publiée le
Master Data Management (MDM)
3 ans
40k-78k €
400-590 €
Île-de-France, France
Objectif de la mission Profil technico fonctionnel : Suivi du RUN et gestion des incidents Conception d'achitecture applicative Conception technique Maitrise des batchs Stratégie de test et test fonctionnel Garantie du bon fonctionnement des applications, leur maintenabilité et leur évolutivité Réponse et analyse aux incidents Env technique : - APIs Rest et Web Services SOAP - Applications web en java - Base de données Oracle - XML - Ordonnanceur control-M - ETL Informatica - Git - Outils : service now, JIRA, … - Un plus : MDM EBX Tibco et MDM Semarchy
Offre d'emploi
Data Engineer Azure
VISIAN
Publiée le
Azure
Azure Data Factory
Azure Synapse
2 ans
40k-60k €
400-550 €
Paris, France
Bonjour, Dans le cadre de ses projets clients, Visian est à la recherche d'un Data Engineer Azure avec une très bonne maîtrise d'Azure Data Factory et d'Azure Devops pour la CI/CD Nous recherchons un consultant capable de mettre en place les flux d'interface entre SAP Concur et les différentes applications Finance au travers de l'ETL Microsoft Azure Data Factory et d’en assurer le RUN/ CI/CD avec Azure Devops. Il est nécessaire d'avoir une capacité à être force de proposition et travailler en autonomie.
Offre d'emploi
Développeur Backend C# - .Net Expérimenté
AGH CONSULTING
Publiée le
.NET
Python
6 mois
Toulouse, Occitanie
Nous recherchons pour l'un de nos clients, un Développeur Backend expérimenté en C# / .NET pour participer au développement et à l'évolution de notre plateforme web ainsi qu'à l'intégration et à l'optimisation des données utilisées par notre chatbot. Le candidat interviendra à la fois sur le développement backend, la gestion des données et la supervision des performances du chatbot, en collaboration étroite avec les équipes techniques. A ce titre, vos principales missions seront les suivantes : 1) Développement Backend : -Concevoir, développer et maintenir l'architecture backend d'un site web dynamique. -Implémenter des fonctionnalités performantes et évolutives en C# / .NET. -Concevoir et exposer des API robustes pour la communication avec les applications frontend et les services tiers. -Assurer l'intégration avec des APIs internes et externes. -Concevoir, optimiser et maintenir des bases de données SQL. -Garantir la sécurité, la scalabilité et la maintenabilité des applications backend. -Participer aux revues de code, aux tests unitaires et d'intégration, et aux bonnes pratiques de développement. 2) Préparation et gestion des données pour le chatbot : -Développer des scripts et pipelines de traitement de données en Python pour l'extraction, la transformation et le chargement des données (ETL). -Nettoyer, structurer et enrichir les données afin de les rendre exploitables par le chatbot. -Mettre en place des mécanismes assurant la qualité, la cohérence et l'intégrité des données. -Gérer le cycle de vie des données (mise à jour, suppression, ajout). -Optimiser les traitements afin de garantir des temps d'intégration rapides et fiables. 3) Supervision et automatisation du chatbot : -Mettre en place des solutions de supervision et de monitoring pour suivre les performances du chatbot. -Développer des tests automatisés (tests de régression, tests de performance). -Concevoir des mécanismes permettant de vérifier automatiquement la pertinence des réponses du chatbot à partir de scénarios prédéfinis. -Identifier et corriger les dégradations de performance ou de qualité des réponses.
Mission freelance
DATA ENGINEER / TECH LEAD
Codezys
Publiée le
Conception
Informatica
Power BI Desktop
12 mois
450-550 €
Toulouse, Occitanie
Contexte de la mission Nous recherchons un(e) chef de projet technique / ingénieur data expérimenté(e), possédant des compétences avérées en SQL, ETL et outils de reporting. La mission concerne le domaine du datawarehouse de cargaison, spécialisé dans le chargement et la transformation de données pour les filiales AF&KL. La personne sélectionnée devra accompagner l’équipe dans la gestion des projets en cours ainsi que dans le développement de nouvelles fonctionnalités, en apportant son expertise pour les corrections et améliorations futures. Le poste s’inscrit au sein d’une équipe composée de huit membres, et la présence à Toulouse est obligatoire. Objectifs et livrables Contribuer à la maintenance et à l’évolution du datawarehouse cargo, en garantissant la qualité et la performance des données. Participer à la conception, au développement et à la mise en œuvre des nouvelles fonctionnalités et corrections. Collaborer étroitement avec l’équipe pour assurer la cohérence et l’efficacité des processus de chargement et de transformation des données. Fournir une documentation claire et précise des livrables réalisés. Conditions particulières Localisation : obligatoire à Toulouse. Veuillez fournir la matrice jointe détaillant les niveaux de compétence pour chaque profil proposé. Nous demandons uniquement la soumission de candidats correspondant strictement aux compétences requises, notamment pour les niveaux 3/4 ou 4/4 dans les compétences clés mentionnées.
Offre d'emploi
Data Engineer & API Automation (H/F)
Link Consulting
Publiée le
50k-60k €
Montaigu-Vendée, Pays de la Loire
Notre client est un groupe industriel européen spécialisé dans la fabrication de compléments alimentaires, présent sur plusieurs sites en France, Belgique, Italie et Pays-Bas. Acteur engagé à l'intersection de la santé et du bien-être, il accélère aujourd'hui la structuration et la modernisation de son système d'information. Dans ce cadre de transformation, la DSI renforce son équipe avec un profil Data & Integration Engineer — rôle transverse et stratégique, au cœur de la fiabilisation des données, de l'intégration applicative et de l'automatisation des processus. Vos missions : ? Data Engineering & Qualité des données (cœur du poste, ~70%) * Concevoir, développer et maintenir des pipelines ETL / ELT fiables et industrialisés * Assurer les transformations, validations et migrations de données dans le cadre des projets ERP * Mettre en œuvre les mécanismes de qualité : contrôles, règles de gestion, historisation, traçabilité * Garantir l'intégrité, l'unicité et la cohérence des référentiels de données (MDM / PIM) * Travailler sur des modèles relationnels et analytiques (étoile, snowflake) * Contribuer au dictionnaire de données et à la documentation fonctionnelle et technique ? Intégration & Interopérabilité (~15%) * Concevoir et opérer les flux inter-applications via des solutions EAI / iPaaS (n8n, Boomi ou équivalent) * Maintenir le catalogue de flux (SFTP, API REST, GraphQL) et en assurer la documentation * Tester et déboguer les API avec des outils dédiés (Postman ou équivalent) ? APIs & Services Data pour les métiers (~10%) * Exposer des API et services data sécurisés pour faciliter l'accès aux données d'entreprise * Permettre aux équipes de construire des POC, prototypes et cas d'usage IA rapidement * Veiller à la gouvernance, à la sécurité et à la traçabilité des accès aux données ? Automatisation & IA (~5%) * Développer ou intégrer des automatisations via scripts, workflows EAI ou solutions low-code / RPA * Contribuer à l'intégration de cas d'usage IA et aider à industrialiser les prototypes métiers Les compétences techniques * * SQL avancé — indispensable (transformations complexes, optimisation, gouvernance) * Solides bases en Data Engineering : pipelines, ETL/ELT, qualité et modélisation des données * Maîtrise des API REST ; GraphQL appréciée * Pratique de Git et sensibilité aux principes DevOps * Expérience ou forte appétence pour Go, Python ou Node.js * Familiarité avec les environnements cloud — idéalement Microsoft Azure (Functions, App Services, Logic Apps) * Connaissance ou intérêt pour les outils EAI / automatisation (n8n, Boomi ou équivalents) * Sensibilité aux enjeux d'urbanisation du SI et de gouvernance des données
Mission freelance
Lead Data Engineer
LIANEO
Publiée le
Big Data
Dataiku
Google Cloud Platform (GCP)
12 mois
500-600 €
Niort, Nouvelle-Aquitaine
Le contexte Lianeo Lianeo, ESN et cabinet de recrutement spécialisé en logiciel embarqué et systèmes d'informations complexes, recrute pour le compte d'un grand acteur du secteur de l'assurance, reconnu pour sa culture data mature et ses investissements soutenus dans la modernisation de ses systèmes d'information. Le contexte client Le·la candidat·e rejoindra une squad data d'une vingtaine de personnes, responsable du socle data de l'organisation : ingestion, transformation, gouvernance et exposition des données métier. L'environnement technique est centré sur GCP, avec Dataiku comme plateforme IA/data centrale, Tableau pour la couche BI, et Oracle Data Integrator (ODI) en ETL legacy assurant l'intégration avec les pipelines GCP. La squad opère dans un environnement exigeant en termes de volumétrie, de qualité de données et de conformité. Le·la Lead aura un rôle structurant : garant·e de la vision technique, référent·e des choix d'architecture, et interface entre les équipes métier, les product managers et les développeur·euses data. Le projet se déroule à Niort, avec 2 jours de télétravail par semaine. Une présence de 3 jours sur site par semaine est obligatoire. Vos missions Définir et faire évoluer la vision technique du socle data en cohérence avec la stratégie produit Assurer le leadership technique d'une équipe d'une vingtaine de personnes (revues de code, normes, montée en compétences) Piloter les choix d'architecture sur GCP et les intégrations avec les outils data de la stack (Dataiku, Tableau, ODI) Garantir la qualité, la robustesse et la performance des pipelines de données Contribuer activement aux rituels agiles et à la priorisation technique des backlogs Être l'interlocuteur·trice technique de référence pour les équipes métier et les parties prenantes non techniques Identifier et traiter la dette technique, proposer des améliorations continues
Offre d'emploi
Chef de projet Data (Expert Power BI)
AVALIANCE
Publiée le
Agile Scrum
Alteryx
DAX
3 ans
40k-75k €
400-680 €
Nanterre, Île-de-France
Description de la mission : Globalement votre mission pourra être de plusieurs niveaux : - Participer aux différents sujets ayant traits à Power BI - Accompagner les métiers dans l’assistance, avec animation formation au besoin, sur Power BI - Organiser des ateliers de best practices avec les métiers sur Power BI - Contribuer à enrichir et consolider le socle Power BI Et plus précisément : - Maîtrise et pratique de SQL sous Oracle indispensable - Participer et réaliser les développements sur Power BI (où vous serez également force de proposition) - Développement des Datasets sous Power BI - Modélisation des tables de faits/Dimensions et optimisation de scripts et modèles de données - Utilisation du langage DAX pour l’ajout des champs calculés et le calcul des mesures (KPI) - Gestion des sécurités et des habilitations dans Power BI - Collaborer au quotidien avec les autres développeurs de notre équipe - Rédaction des documents des spécifications techniques et livrables - Assister les utilisateurs internes pour gérer leurs demandes (analyse et traitement de données, rapports…) Compétences en Chefferie de Projet & Gouvernance DATA : - Proposer et Harmoniser un cycle de vie des développements sur power BI - Coordonner et animer réunions, ateliers et comités liés à la DATA - Concevoir des supports (présentations, synthèses, reportings) - Gérer l’organisation complète des réunions et le suivi d’actions - Faire preuve d’autonomie et être force de proposition - Participer activement à la gouvernance DATA et promouvoir les bonnes pratiques
Mission freelance
Consultant (e) SAP FICO tech-fonc - 92
Signe +
Publiée le
SAP FICO
4 mois
600-780 €
Clamart, Île-de-France
Dans le cadre d’un projet de migration ECC → S/4HANA chez un client du secteur Défense, nous recherchons un(e) consultant(e) qui interviendra au sein de l’équipe technico-fonctionnelle pour définir et formaliser les règles de transformation et de mapping des données financières et de contrôle de gestion, en lien avec les équipes Data Migration et les key-users. Missions : Analyser les modèles de données FI/CO dans ECC et S/4HANA. Définir et documenter les règles de transformation, de nettoyage et de mapping des données. Participer aux ateliers métiers Finance, Controlling, PS et PPM. Accompagner les équipes dans la compréhension fonctionnelle des structures FI/CO / PS / PPM. Supporter les phases d’ETL et les validations des cycles de tests (Unit, SIT, UAT). Garantir la cohérence et la conformité des données reprises dans S/4HANA. Informations complémentaires : Démarrage : 30 Mars 2026 Durée : 4 mois (renouvelable) - Longue visibilité projet Localisation : IDF (92) - 3 jours de présence sur site TJM : 600€ - 775€ selon profil
Offre d'emploi
Chef de Projet Data / Flux (F/H)
CELAD
Publiée le
50k-55k €
Lyon, Auvergne-Rhône-Alpes
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ 3 jours de télétravail / semaine - Lyon - Expérience de 5 ans minimum Envie de piloter des projets stratégiques autour de la data et des plateformes SI ? Dans le cadre de l’évolution de ses plateformes, l’un de nos clients grands comptes renforce son centre de solution métier dédié aux Flux Data et recherche un.e Chef.fe de Projet pour piloter plusieurs chantiers structurants. Vous interviendrez dans un environnement technique riche, en coordination avec les équipes SI, les DevSecOps et les différentes parties prenantes. Voici un aperçu détaillé de vos missions : - Piloter des projets de migration d’outils collaboratifs vers des environnements Cloud - Superviser le déploiement d’une plateforme d’API Management - Identifier les différents chantiers et sous-chantiers liés aux projets - Construire la timeline projet et les jalons clés - Suivre l’avancement des travaux et gérer les incidents éventuels - Coordonner les phases de recette et TNR avec les équipes métiers - Contribuer à la définition des stratégies de tests - Assurer la communication projet auprès des équipes SI - Suivre le budget, les charges et les délais - Identifier et gérer les risques et retards potentiels - Piloter les études autour des plateformes ETL, Bus de Services et solutions d’autorisation - Accompagner les ESN et experts techniques en charge des études - Organiser les ateliers de recueil des besoins et de restitution - Superviser la production et la validation des livrables - Challenger les études produites et proposer des axes d’amélioration - Assurer la coordination avec les équipes DevSecOps et les différentes parties prenantes
Mission freelance
Paramétreur de progiciels (H/F)
Pickmeup
Publiée le
API
Axway
ELK
8 mois
280-380 €
Châtillon, Île-de-France
À la demande du Métier, il analyse et conseille celui-ci sur la meilleure utilisation possible du ou des progiciels. Il assiste et apporte sa maîtrise sur le module progiciel dont il a l'expertise et les processus de modélisation associés. Il prototype et paramètre les nouveaux composants progiciels pour répondre aux évolutions souhaitées dans le respect des normes et procédures. Domaine API : o Vous êtes garant du respect de la gouvernance du domaine « échange de données » (API, échange de fichier, ETL) o Vous intégrez les API dans la plateforme d’API management et implémentées des règles au niveau de la gateway API ( policies Axway ) o Vous accompagnez les clients de la plateforme dans leur réflexion sur les API et également sur leur mise en oeuvre o Gérer les échanges entre les applications dans le SI o Gérer les échanges applicatifs avec d’éventuels partenaires o Design des API o Échanges et support aux équipes de développement interne et les équipes clients o Faire des études d’impact / interdépendance avec le SI L’outil groupe pour l’API management est Axway API Management (formation possible). Les services sont majoritairement développés en Java. Des connaissances sur la mise en oeuvre de la solution ELK (paramétrage de nouveau monitoring) serait très apprécier car notre client a dans le périmètre opérationnel les deux applications et il souhaite organiser un partage de connaissance pour fiabiliser les niveaux de service.
Mission freelance
Consultant décisionnel BI
Codezys
Publiée le
Git
Informatica
Java
12 mois
Lyon, Auvergne-Rhône-Alpes
Contexte de la mission Le projet iPilot offre aux utilisateurs des fonctionnalités de reporting et d’analyse de données, permettant de consolider et de restituer de manière fiable les données de CCMA. Il s’agit d’une équipe d’environ dix personnes composée d’un chef de projet Scrum Master, d’un Product Owner (Business Analyst), de développeurs BI, DevOps, et d’un Lead Technique. L’application iPilot existe depuis plus de six ans. Les deux dernières années ont été consacrées à des travaux de nature technique. Nous souhaitons effectuer une refonte de nos tableaux de bord afin d’améliorer l’application. Cette démarche consistera à partir de l’existant, à le challenger en collaboration avec les représentants des utilisateurs, et à proposer des évolutions pour mieux répondre à leurs besoins. Objectifs et livrables Le consultant décisionnel en Business Intelligence intervient principalement selon trois axes : Analyser les besoins fonctionnels et techniques afin de concevoir une architecture de données adaptée et performante. Modéliser et enrichir les datawarehouses et datamarts. Produire des rapports destinés aux métiers, en accompagnant ou formant les utilisateurs dans leur exploitation. Il peut, si nécessaire, s’appuyer sur des référents techniques pour les composants sortant d’un cadre BI classique—tels que les clusters Big Data, NoSQL, ou l’absence d’ETL pour l’intégration des données. Ses qualités personnelles essentielles incluent : Autonomie, rigueur et capacité à proposer des solutions. Adaptabilité et esprit d’équipe. Compétences analytiques et synthétiques. Spécialisé en datavisualisation, il sera chargé de créer ou d’améliorer des tableaux de bord, ainsi que d’interagir avec les utilisateurs pour affiner leurs besoins. Une expérience d’au moins 5 ans dans le domaine est requise. La maîtrise de Tableau constitue un atout supplémentaire. Activités principales : Analyser les besoins fonctionnels et techniques. Localiser les sources de données pertinentes pour répondre aux besoins. Développer les processus d’intégration de données. Modéliser et enrichir les datawarehouses et datamarts. Produire des rapports et tableaux de bord clairs, compréhensibles et adaptés aux exigences métier. Vérifier la qualité et la performance des livrables. Participer aux activités et cérémonies de l’équipe de développement en mode Agile. Activités secondaires : Mettre à jour la documentation applicative.
Offre d'emploi
Senior Data Engineer – Data Platform
Clostera
Publiée le
Cloud
Google Cloud Platform (GCP)
Java
1 an
Essonne, France
Qui sommes-nous ? Clostera est une société de conseil & intégration de solutions IT à taille humaine et localisée à Paris, résolument tournée vers l'humain et l’innovation : l’innovation génératrice de valeur ! CLOSTERA place le bien-être de ses CONSULTANTS au cœur de la stratégie de réussite des projets IT sur lesquels nous intervenons au travers d’une approche « employee centric » individualisée. Nos domaines d’expertise : Cloud et Infrastructures Systèmes, Réseaux & Cybersécurité ; Service Management & ITSM ; Project management ; Data & IA ; Services Applicatifs métiers & Digitaux. Rejoignez-nous ! Aujourd’hui nous recherchons un Senior Data Engineer F/H pour intégrer un grand groupe du retail qui renforce ses équipes data afin de soutenir une architecture data-centric . Ce que vous ferez : Développement de la Plateforme Data Développer et maintenir des pipelines de données au sein de la plateforme Participer à la mise en œuvre de projets métiers basés sur l’ETL interne Intervenir sur les traitements ELT via DBT Développement et maintenance Développer et documenter du code data robuste Corriger les incidents et anomalies liés aux traitements data Appliquer les bonnes pratiques de développement Architecture et traitement de données Travailler sur des volumétries importantes de données Participer à la conception et à l’évolution des architectures data Contribuer à l’automatisation des processus de livraison DevOps & industrialisation Mettre en œuvre les pratiques DevOps Participer à l’automatisation du delivery Contribuer aux chiffrages techniques et aux releases Collaboration & méthodes Travailler en équipe Scrum Collaborer avec les équipes data, plateforme et métiers Participer à la montée en compétence de l’équipe
Mission freelance
Chef de Projet Data / Flux (F/H)
CELAD
Publiée le
1 an
450-500 €
Lyon, Auvergne-Rhône-Alpes
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ 3 jours de télétravail / semaine - Lyon - Expérience de 5 ans minimum Envie de piloter des projets stratégiques autour de la data et des plateformes SI ? Dans le cadre de l’évolution de ses plateformes, l’un de nos clients grands comptes renforce son centre de solution métier dédié aux Flux Data et recherche un.e Chef.fe de Projet pour piloter plusieurs chantiers structurants. Vous interviendrez dans un environnement technique riche, en coordination avec les équipes SI, les DevSecOps et les différentes parties prenantes. Voici un aperçu détaillé de vos missions : - Piloter des projets de migration d’outils collaboratifs vers des environnements Cloud - Superviser le déploiement d’une plateforme d’API Management - Identifier les différents chantiers et sous-chantiers liés aux projets - Construire la timeline projet et les jalons clés - Suivre l’avancement des travaux et gérer les incidents éventuels - Coordonner les phases de recette et TNR avec les équipes métiers - Contribuer à la définition des stratégies de tests - Assurer la communication projet auprès des équipes SI - Suivre le budget, les charges et les délais - Identifier et gérer les risques et retards potentiels - Piloter les études autour des plateformes ETL, Bus de Services et solutions d’autorisation - Accompagner les ESN et experts techniques en charge des études - Organiser les ateliers de recueil des besoins et de restitution - Superviser la production et la validation des livrables - Challenger les études produites et proposer des axes d’amélioration - Assurer la coordination avec les équipes DevSecOps et les différentes parties prenantes
Mission freelance
Technicien d’Exploitation Applicative – Infrastructures & Réseaux
Zenith Rh
Publiée le
12 mois
Marne, France
Nous recherchons pour notre client, un(e) Technicien d’Exploitation Applicative, pour une mission en freelance au sein d'un acteur majeur de son marché. Au sein du service Exploitation Applicative de la DSI, vous rejoignez une équipe en charge du maintien en condition opérationnelle (MCO) et de l’évolution d’un patrimoine applicatif critique. Votre mission s'articule autour d'un projet industriel d'envergure lié à la modernisation de réseaux de sécurité, ainsi qu'à un appui opérationnel quotidien sur les activités du service. Les enjeux majeurs de votre intervention incluent : 🔹 Le paramétrage et la configuration d'équipements de communication dans le cadre d'une migration technologique 4G. 🔹 La coordination étroite avec les équipes terrain pour respecter un planning de déploiement strict. 🔹 La garantie de la remontée des flux de télésurveillance et de la disponibilité des services. 🔹 La surveillance et l'administration des échanges de données via des outils de transfert (MFT) et processus ETL. 🔹 La gestion des incidents de niveau 1 et 2 selon les procédures établies. Cette mission est prévue pour une durée de 6 mois renouvelable.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
268 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois