L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 5 709 résultats.
Offre d'emploi
Data Architect Senior / Data Analytics Lead - Supply Chain
Clostera
Publiée le
BigQuery
Data analysis
Looker Studio
1 an
Essonne, France
Qui sommes-nous ? Clostera est une société de conseil & intégration de solutions IT à taille humaine et localisée à Paris, résolument tournée vers l'humain et l’innovation : l’innovation génératrice de valeur ! CLOSTERA place le bien-être de ses CONSULTANTS au cœur de la stratégie de réussite des projets IT sur lesquels nous intervenons au travers d’une approche « employee centric » individualisée. Nos domaines d’expertise : Cloud et Infrastructures Systèmes, Réseaux & Cybersécurité ; Service Management & ITSM ; Project management ; Data & IA ; Services Applicatifs métiers & Digitaux. Rejoignez nous ! Aujourd’hui nous recherchons un Data architect Senior / data Analytics Lead F/H pour renforcer les équipes data d’un grand groupe retail, et accompagner la transformation analytique de ses activités. Ce que vous ferez : Au sein de l’équipe dédiée à la Data Supply Chain , vous interviendrez comme référent data senior pour accompagner les équipes métiers Supply Chain dans l’exploitation de la donnée afin d’optimiser la performance opérationnelle. Vous serez le pivot entre les équipes métier et les équipes data (data scientists, data engineers, data viz, data governance). Vos missions principales : Analyse et exploitation de la donnée Structurer et conduire des analyses data complexes de bout en bout Extraire, traiter et analyser des volumes importants de données Identifier des insights permettant d’améliorer les processus Supply Chain Construction d’outils d’aide à la décision Définir et suivre des KPI métiers Concevoir des reportings et dashboards interactifs Formaliser les résultats et recommandations business Interface métier / équipes data Interagir étroitement avec les équipes Supply Chain Traduire les besoins métiers en problématiques analytiques Collaborer avec les équipes Data Science, Data Engineering et Data Viz Communication et restitution Présenter les analyses et résultats aux équipes métiers Intervenir dans des restitutions auprès du top management Supply Chain Challenger les demandes analytiques et proposer des améliorations
Mission freelance
Architecte IT transverse Infrastructure / Production
PROPULSE IT
Publiée le
Infrastructure
Production
24 mois
450-900 €
Paris, France
PROPULSE IT recherche un ARCHITECTE INFRASTRUCTURE avec une très bonne expertise de la production. - accompagner des experts techniques et des chefs de projet Infrastructure dans la mise en œuvre de projets Build, qui peuvent couvrir l'ensemble de l'environnement technique du client. - Réfléchir aux préconisations, et challenger les différentes options - Communiquer, et accompagner l'adoption des solutions Connaissances et expériences en Architecture, et de projet production de bout en bout, sur les domaines suivants - les technologies en datacenter : • stockage : EMC, Netapp, • sauvegarde : CommVault • Réseau : CISCO, Checkpoint, Fortinet, F5 - les systèmes d'exploitation serveurs : RedHat Linux et Microsoft Windows - les technologies de virtualisation : VMware, OpenStack, Container Docker - les technologies de bases de données : Oracle, PostgreSQL, MongoDB, SQL Server - les technologies de serveurs d'applications : Weblogic, Tomcat, Apache - les technologies d'orchestration et d'ordonnancement : VRO / VRA, Kubernetes, XOS-Axway - les technologies de Devops : GitLab, Gitub, Ansible, Terraform - les technologies de Provider Cloud : Microsoft Azure, AWS - les technologies de gestion de la sécurité : PKI - les technologies de gestion des identités : LDAP, Active Directory, Bastion - les technologies de supervision et de métrologie : BMC Patrol, Centreon, Nagios
Offre d'emploi
Administrateur Outils & Systèmes H/F
Le Groupe SYD
Publiée le
Ansible
Datadog
Docker
36 mois
34k-40k €
320-350 €
Nantes, Pays de la Loire
🌟 Quel sera ton poste ? 🌟 💼 Poste : Administrateur Outils & Systèmes – Orientation Salesforce / Web / DevOps H/F 📍 Lieu : Paris / Île‑de‑France 🏠 Télétravail : Flexible 📝 Contrat : Portage ou CDI 👉 Contexte client : Tu rejoins un acteur national majeur disposant d’un écosystème digital omnicanal à forte volumétrie, dédié à fluidifier l’expérience utilisateur sur un large réseau. En tant qu’ Administrateur Outils & Systèmes , tu interviens au cœur de cet écosystème, sur l’ensemble du pôle applicatif, à la jonction des sujets Web , CRM , téléphonie et DevOps . Tu auras pour missions : Administration & Exploitation Administrer l’org Salesforce Service Cloud mutualisée Gérer les solutions SVI : routage, scénarios d’appels, paramétrage Eloquant / Diabolocom Assurer le MCO, le diagnostic d’incidents, et le support transverse Gérer les environnements DEV → PROD , contrôles, habilitations, droits Participer au maintien des applications Web (NodeJS / React / VueJS) et des flux API Sécurité & Conformité Gestion MFA, certificats, OAuth2 , sécurisation des flux DKIM / SPF / DMARC Application des standards d’architecture et participation aux comités techniques Veille sécurité & bonnes pratiques Industrialisation & DevOps Automatiser les chaînes CI/CD (Ansible, Jenkins, GitLab, Autorabbit) Participer à la conteneurisation (Docker) Gérer et documenter les APIs (APIMAN, Swagger, Postman) Suivre la supervision via Datadog / PianoAnalytics Coordonner les déploiements applicatifs et les mises en production Support transverse & Facility Management Gérer les licences (Jira, Confluence, Autorabbit…) Administrer les habilitations & équipements techniques Contribuer aux POC et aux migrations Participer aux audits et à l’architecture applicative 🧰 Stack technique : Web & Architecture : Java, NodeJS, React, VueJS, APIs REST, OAuth2, TLS, Active Directory, flux réseau, load balancing, ActiveMQ Salesforce : Administration Service Cloud, intégration API, notions APEX, compréhension des architectures hybrides WebSalesforce DevOps & Outils : GitLab, Jenkins, GitHub, Ansible, Autorabbit, Docker, Datadog, APIMAN, Swagger, SoapUI, Postman, Jira, Confluence Téléphonie / SV : Eloquant, Diabolocom, configuration scénarios & routage
Offre d'emploi
Expert /Administrateur Hadoop H/F
OCSI
Publiée le
Ansible
Apache Kafka
Big Data
40k-60k €
Île-de-France, France
Contexte Dans le cadre du développement et de la maintenance d’une plateforme Big Data stratégique , notre client grand compte renforce ses équipes techniques et recherche un(e) Administrateur Hadoop / Data Engineer confirmé(e) . Vous interviendrez au sein d’une équipe experte, sur une infrastructure Big Data critique, afin d’assurer sa disponibilité, son évolution et sa performance , dans un environnement à forts enjeux métiers et techniques. Missions En tant qu’ Expert Hadoop / Data Engineering , vos missions principales seront : Administrer, maintenir et optimiser les clusters Hadoop (Cloudera) Garantir la disponibilité, la performance et la sécurité de la plateforme Big Data Participer aux task forces techniques pour résoudre des incidents complexes Réaliser les montées de versions majeures des composants Hadoop Automatiser les déploiements, patching et configurations via Ansible et Terraform Gérer les incidents, changements et tickets d’infrastructure Contribuer aux évolutions du socle technique et au déploiement de nouvelles fonctionnalités Rédiger et maintenir la documentation technique Travailler en lien étroit avec les équipes internes et l’éditeur Cloudera Participer au suivi du planning global de production
Mission freelance
Data Steward (H/F)
Insitoo Freelances
Publiée le
BI
SAP BW
2 ans
350-450 €
Lyon, Auvergne-Rhône-Alpes
Les missions attendues par le Data Steward (H/F) : Dans le cadre d’une transformation vers une plateforme data moderne (migration d’un environnement décisionnel type SAP BW vers Snowflake), nous recherchons un Data Steward spécialisé Finance pour accompagner les équipes métier et IT dans la structuration et l’évolution de ses environnements data. Le rôle se situe dans une phase de structuration du dispositif data et combine gestion de projet, expertise fonctionnelle Finance, et coordination transverse. Missions principales : Pilotage & Coordination Cadrer les besoins métiers et définir les périmètres projet. Coordonner les acteurs Finance, IT, Data Engineering et BI. Suivre l’avancement, identifier les risques et garantir l’alignement global. Assurer la production d’une documentation claire et structurée. Expertise fonctionnelle Finance Recueillir, formaliser et challenger les besoins Finance / Contrôle de Gestion. Rédiger les spécifications fonctionnelles et les traduire en exigences techniques. Participer aux phases de tests (IT & UAT). Accompagner les utilisateurs: recette, formation, support.
Offre d'emploi
Consultant Data Snowflake
AGH CONSULTING
Publiée le
Qlik
Snowflake
6 mois
38k-45k €
280-400 €
Île-de-France, France
Dans le cadre de projets Data chez l’un de nos clients grands comptes, nous recherchons des consultants Data orientés Qlik disposant d’un vernis sur Snowflake, pour renforcer des équipes BI/Data existantes. Missions principales ▪ Concevoir, développer et maintenir des tableaux de bord sous Qlik Sense / QlikView ▪ Analyser les besoins métiers et les traduire en solutions BI pertinentes ▪ Exploiter des données issues de Snowflake (requêtes, compréhension du modèle, optimisation basique) ▪ Participer à l’amélioration des modèles de données et des performances des reportings ▪ Collaborer avec les équipes Data (BI, Data Engineers, métiers) Environnement technique ▪ BI / Data Viz : Qlik Sense / QlikView ▪ Data Warehouse : Snowflake (niveau compréhension / usage) ▪ Langages & outils : SQL, notions ETL, environnements Data modernes ▪ Méthodologie : projets BI, travail en équipe agile ou hybride
Offre d'emploi
DATA ANALYST- Trade Finance
AVA2I
Publiée le
SQL
Xray
1 an
Île-de-France, France
Compétences fonctionnelles • Expérience en banque d'investissement et Trade finance indispensable • Capacité à appréhender les principes d'architecture et problématiques IT • Expérience en implémentation Agile • Connaissance des tests automatiques • Connaissances des portails Trade Finance (Swiftnet, Vialink, Konsole, etc.) Compétences comportementales • Travail en équipe et sens du service • Communication aisée à l'oral comme à l'écrit en environnement multiculturel • Capacité d'analyse et de synthèse • Organisation, dynamisme et rigueur Langues • Anglais opérationnel (usage régulier avec des équipes anglophones) • Français courant IT : SQL, si outils d'automatisation de tests comme selenium ou xray ou autre serait un plus
Mission freelance
CP Data Migration SAP - MDM
Atlas Connect
Publiée le
Coupa
CRM
Data governance
12 mois
580-690 €
Paris, France
🎯 Contexte de la mission Dans le cadre d’un vaste programme de transformation finance et digitalisation, notre client renforce son dispositif autour des sujets Data Model & Data Migration sur les périmètres : Performance Opérationnelle Finance Run des applications Finance (P2P et CRM) Programme Source-to-Pay Déploiement de Sirion (France & USA) Harmonisation des outils Migration et transformation des modèles de données Intégration future dans un référentiel MDM Projet S/4HANA Environnement international avec fort enjeu de coordination. 🚀 Missions principales Le Chef de Projet Data Migration sera responsable de la coordination et du pilotage des sujets liés au modèle de données et à la migration dans un environnement multi-outils. 📌 Pilotage Data Migration Définir et piloter la stratégie de migration des données Superviser la qualité, la transformation et la cohérence des données Garantir l’alignement avec les modèles cibles Anticiper l’intégration future dans le MDM 📌 Coordination transverse Mettre autour de la table les équipes métiers, IT et intégrateurs Animer les comités projets Arbitrer et prioriser les chantiers Assurer la cohérence entre P2P, CRM, Sirion et S/4HANA 📌 Programme & Outils Contribution au programme Nexus Pilotage data sur le périmètre Source-to-Pay Harmonisation des outils finance et procurement Compréhension des enjeux autour des outils de type StoS ⚠️ Le poste n’est pas orienté technique d’implémentation : → Pas de mise en place d’interfaces → Pas de déclenchement technique d’outils → Rôle orienté pilotage, coordination, gouvernance data 🧠 Profil recherché🎓 Expérience Minimum 8 ans d’expérience en gestion de projet data / transformation Expérience confirmée en migration de données dans des environnements complexes Expérience sur des programmes internationaux fortement structurants 💻 Compétences techniques Bonne connaissance de : SAP (idéalement S/4HANA) Coupa Environnements P2P / Source-to-Pay Connaissance de Tibco : un plus Compréhension des problématiques MDM Vision data model & gouvernance 🌍 Langues Anglais obligatoire
Mission freelance
Data Engineer
MLMCONSEIL
Publiée le
Dataiku
Python
SQL
6 mois
100-460 €
Rennes, Bretagne
Nous recherchons un Data Engineer confirmé pour industrialiser et optimiser les traitements de données via Dataiku et une architecture AWS (S3, Redshift, Glue, Athena) . Le rôle inclut la collecte via API , la modélisation des données , ainsi que la qualité, sécurité et gouvernance des flux en lien avec les équipes métier. Profil attendu : 5 ans d’expérience minimum , maîtrise SQL/Python , Dataiku, environnement Cloud, anglais professionnel requis.. . ... ... ... ... ... ... ... ... ... ... ... ... ... .. .
Mission freelance
Consultant développement et support ESB Boomi
CAT-AMANIA
Publiée le
Apache Kafka
Boomi
Data integrity
1 an
100-460 €
Lille, Hauts-de-France
Intégrée dans le sous domaine Value Chain engineering Cross, notre équipe Data Exchange est chargée de la gestion des échanges de données. En plus de permettre au SI de communiquer entre les différents domaines de l’entreprise et d’assurer le maintien en conditions opérationnelles de nos plateformes, nous prenons en charge les nouveaux besoins flux et travaillons sur l’optimisation des échange pour répondre techniquement de la manière la plus cohérente aux besoins utilisateurs. nous recherchons un consultant développement et support expérimenté sur notre ESB Boomi. Autonome, rigoureux, organisé, méthodique et aimant travailler en équipe. Vous nous accompagnerez sur : L’analyse et le support (N3) de nos incidents La prise en charge et la réalisation de développements de flux (création, évolution, mapping et configuration de flux) Les tâches d’exploitation sur nos plateformes (arrêts / redémarrage de serveurs, connexions, composants, flux, ..) La participation aux projets techniques L’accompagnement de nos utilisateurs Le suivi de l’activité au travers nos outils de monitoring La rédaction et la mise à jour de nos documentations techniques La participation active à tous les points de stand up et autres La participation au roulement d’astreinte
Mission freelance
DevOps Engineer (+ FinOps) – Profil Intermédiaire / Senior – Mission longue
DUONEXT
Publiée le
AWS Cloud
DevOps
Terraform
6 mois
Île-de-France, France
Démarrage : ASAP Durée : 5 à 8 mois, mission de conseil / freelance / portage salarial Rythme : 3 jours sur site / 2 jours en télétravail Expérience : Intermédiaire / Senior Type de mission : Prestation Contexte de la mission Dans le cadre d’un programme stratégique de mise en œuvre d’une Nouvelle Plateforme Digitale (nouveau site e-commerce, nouveaux flux, nouvel ETL), au sein d’un grand acteur du Retail, nous recherchons un DevOps Engineer expérimenté , avec une sensibilité FinOps , pour encadrer une équipe de 4 DevOps . Vous interviendrez dans un contexte à forts enjeux techniques et business, en lien étroit avec les équipes IT, Digital, QA et Métiers. Missions principales 1. Pilotage et leadership DevOps Vous animerez et coordonnerez l’équipe DevOps. Le consultant attendu est un leader opérationnel , capable de : Réaliser, Challenger, Documenter, Montrer l’exemple sur le terrain. 2. CI/CD & automatisation Intégrer et qualifier les chaînes CI/CD Créer, maintenir, améliorer et documenter les pipelines de déploiement automatique Mettre en place et maintenir les tests automatisés (site et application web responsive) en collaboration avec l’équipe QA Automatiser les tâches via scripting 3. Cloud, FinOps & exploitation Étudier, préparer et budgétiser l’utilisation des infrastructures et services cloud AWS et Azure Optimiser les coûts et l’utilisation des ressources cloud (FinOps) Assurer le support technique aux équipes transverses (développeurs, QA, production, autres équipes) Debug, résolution d’incidents et optimisation des environnements AWS 4. Monitoring & observabilité Mettre en place le monitoring et l’observabilité Créer des dashboards Mettre en œuvre l’ouverture automatique de tickets et l’alerting
Mission freelance
[FBO] DevOps Engineer – GenAI Platform
ISUPPLIER
Publiée le
DevOps
IA Générative
3 ans
640-990 €
Île-de-France, France
La mission du projet Group Employee Companion est de concevoir et déployer une plateforme backend de chatbot intelligente et sécurisée pour accompagner les collaborateurs dans leurs activités quotidiennes. Le service doit offrir une expérience conversationnelle fluide, multilingue, conforme aux exigences RGAA et sécurité du groupe, tout en permettant l’intégration de solutions métiers (assistants, fichiers, prompts, contextes, KPIs). La solution vise à centraliser et personnaliser l'assistance digitale, accessible à l'ensemble des entités, via une orchestration flexible et évolutive des fonctionnalités. Devops & SysOps - Déploiement automatisé de l’API et des modules backend. - Mise en place de la surveillance LLM & IA Generative (monitoring, alerting). - Configuration de la sécurité (authentification, autorisation, RGAA). - Documentation technique d’exploitation et d’intégration. - Scripts CI/CD pour build, tests et releases. - Sauvegarde/restauration des données et des contextes. - Scalabilité & gestion du load-balancing pour montée en charge. - Gestion et rotation des secrets et credentials. - Politique de gestion des incidents et du support (SLA). - Monitoring et reporting des KPIs de performance et d’usage.
Mission freelance
Consultant SAP Master Data
EBMC
Publiée le
SAP
6 mois
400-800 €
Paris, France
Dans le cadre d’un projet de transformation autour de la gestion du cycle de vie des produits et des activités de maintenance/réparation, nous recherchons un consultant SAP expérimenté afin de piloter les travaux de migration de données et d’intégration entre un système PLM et SAP. La mission porte dans un premier temps sur la migration d’un référentiel article important, représentant environ 600 000 références distinctes, avec un enjeu fort de qualité et de cohérence des données. Le consultant interviendra également sur la mise en place des interfaces nécessaires côté SAP afin d’assurer la communication entre les systèmes. Ce rôle s’inscrit dans la durée et comporte une dimension stratégique, avec une implication progressive dans le paramétrage et l’évolution du système SAP en fonction de l’avancement du projet.
Mission freelance
Un Data Analyst Confirmé Sur Boulogne Billancourt
Almatek
Publiée le
Data analysis
4 mois
400-500 €
Boulogne-Billancourt, Île-de-France
Almatek recherche pour l'un de ses clients, Un Data Analyst Confirmé Sur Boulogne Billancourt. Profil recherché : Data Analyst > à 5 ans 5+ years in log analytics, observability, or web platform monitoring • Experience with enterprise-scale websites • Strong analytical mindset and ability to translate data into actionable recommendations • Able to work autonomously and advise at both technical and strategic levels Contexte : We seek a consultant to design and implement a monitoring and analytics framework that enables proactive detection, analysis, and mitigation of traffic spikes, anomalies, and performance or cost risks across our web platform. Environnement The platform includes: • Adobe Experience Manager (AEM) as a Cloud Service • Cloudflare (edge protection & bot management) • CDN layer (Fastly) • Google Analytics 4 • Log analysis via Splunk (or Microsoft Fabric in the future) Scope of Work : Dashboard & Monitoring • Analyse the needs for the case at hand • Build unified dashboards correlating AEM, CDN, Cloudflare, and analytics data • Visualize traffic trends, cache performance, request types, and error patterns Alerting • Configure proactive alerts for spikes, anomalies, bot surges, and abnormal API usage • Implement threshold-based and anomaly-based detection Analysis & Optimization • Interpret log data and traffic events • Identify causes of spikes or anomalies • Recommend improvements (caching, rate limiting, WAF rules, log enrichment, etc.) Knowledge Transfer • Provide documentation and walkthroughs to ensure internal teams can operate and extend the solution Required Expertise : • Strong experience with AEM logs and request flows • Experience analysing Cloudflare logs and CDN behaviour • Solid knowledge of Google Analytics 4 data structures • Advanced skills in Splunk SPL and dashboarding (or equivalent experience with Microsoft Fabric/KQL) • Deep understanding of: o HTTP, caching, and CDN architectures o Bot detection and traffic segmentation o Large-scale web traffic analysis
Mission freelance
Tech Lead DevOps CIAM (AWS / SAP CDC Gigya / Cybersécurité)
Gentis Recruitment SAS
Publiée le
API
API REST
AWS Cloud
6 mois
Paris, France
1. Contexte de la mission Notre client déploie une plateforme CIAM basée sur SAP Customer Data Cloud (Gigya) afin de gérer l’authentification et la gestion des identités clients B2B et B2C . La plateforme actuelle comprend : Une base utilisateurs B2C Une base utilisateurs B2B Des bases en marque blanche pour des cas d’usage spécifiques Les enjeux stratégiques de la plateforme sont les suivants : Mise en place d’une expérience SSO unifiée , inspirée de FranceConnect Respect strict des exigences RGPD et cybersécurité Passage à l’échelle pour atteindre 13 millions d’utilisateurs à horizon 2028 Personnalisation des parcours utilisateurs sans impact sur le socle commun (master site) 2. Objectifs de la mission Le Tech Lead CIAM interviendra sur les axes suivants : Pilotage des évolutions techniques de la plateforme SAP CDC (Gigya) Définition et formalisation des standards d’intégration pour les applications B2B et B2C Garantie de la conformité réglementaire (RGPD) et des exigences cybersécurité Accompagnement et montée en compétence des équipes techniques internes 3. Périmètre d’intervention Architecture & Design Revue de l’architecture existante Conception et optimisation des parcours d’authentification Intégration des protocoles OIDC, OAuth2 et SAML Sécurité & Authentification Mise en œuvre de MFA granulaire Intégration OTP (SMS, email) Gestion des mécanismes anti-fraude (Captcha, protection des APIs) Performance & Scalabilité Automatisation des processus RUN Optimisation des performances et de la résilience Raccordement et onboarding applicatif à grande échelle Support & Expertise Rôle de référent technique CIAM Support aux équipes projet et applicatives Contribution à la formation et à la documentation technique 4. Livrables attendus Audit technique détaillé de la plateforme CIAM existante Roadmap d’évolution couvrant : Personnalisation des parcours MFA / OTP APIs et intégrations Procédures standardisées d’intégration applicative Plan de sécurisation conforme aux directives cybersécurité et RGPD 5. Profil recherché Compétences techniques requises Expertise confirmée sur SAP Customer Data Cloud (Gigya) et les architectures CIAM Maîtrise des protocoles d’identité : OIDC, OAuth2, SAML Solide expertise en cybersécurité et conformité RGPD Maîtrise du Cloud public , en particulier AWS Expérience d’intégration multi-applications à grande échelle Compétences en automatisation et scripting (Python, JavaScript) Maîtrise des API REST et des webhooks Connaissance des outils CI/CD et des extensions compatibles avec SAP CDC Mise en œuvre des bonnes pratiques DevOps (déploiement, monitoring, RUN automatisé) Compétences transverses Capacité à évoluer dans un environnement international Travail en contexte multi-projets et multi-équipes Forte capacité de structuration, de standardisation et de transmission
Mission freelance
Data Engineer Experimenté/Senior
Nicholson SAS
Publiée le
Apache Airflow
Apache Kafka
Apache NiFi
24 mois
400 €
Île-de-France, France
Bonjour, Nous cherchons pour notre client un Data Engineer Experimenté/Senior . Site : Ile de France Proche paris ; 2/3 jours/semaine obligatoire sur site Date de démarrage : ASAP Date de fin : 31/12/2028 Le Contexte : Rejoignez une équipe de 14 passionnés pour relever un double défi technologique ! Nous recherchons un Data Engineer Senior pour piloter l'évolution d'un écosystème Big Data On-Premise (DataStore) tout en ouvrant la voie vers le Cloud. Vous serez au cœur d’une transformation stratégique : assurer l'excellence opérationnelle actuelle tout en préparant la migration progressive vers GCP . Vos Missions : Piloter l’excellence technique : Superviser les flux, garantir la qualité des données et optimiser les performances du DataStore. Innover et Maintenir : Faire évoluer les pipelines critiques (Spark, Kafka, NiFi). Expertise de pointe : Résoudre les incidents de niveau 3 avec une approche analytique (JIRA/ITZMI). Accélérer la migration : Être un acteur clé des chantiers transverses vers le Cloud.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
5709 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois