L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 6 912 résultats.
Mission freelance
Data Engineer
STHREE SAS pour COMPUTER FUTURES
Publiée le
Apache Spark
Scala
6 mois
Paris, France
Le rôle du Data Engineer dans ce projet consistera à : • Concevoir et implémenter les composants/pipelines d’ingestion de données en scala spark (glue jobs, sans utilisation de solutions managées type Databricks) • Traiter et normaliser les données • Refactoriser des imports existants pour être compliant avec l'architecture medaillon (silver + gold layers) et notre modèle uniformisé/harmonisé à toutes les plateformes (aggrégateurs, market exchanges) • Appliquer/challenger les règles métier pour générer la couche gold tout en garantissant les performances, la scalabilité et les coûts cloud • Distribuer les données aux différents consommateurs/Métiers • Implémenter les règles de Data Quality (DataQuality framework : great expectation) et gérer le data calatog • Développer et améliorer les frameworks communs (monitoring, CI/CD, tests, performance, résilience, standards de développement, qualité du code) • Rédiger et maintenir la documentation technique des développements réalisés : schéma d'architecture, Infra, Flux, … • Garantir le respect des standards du Groupe en matière de qualité, sécurité, partage, usage et architecture des données • Participer au développement et à la maintenance du calculateur en Scala Spark avec l'objectif : - d'optimiser le temps de calculs, - d'optimiser les performances, - de garantir la scalabilité au regard d'un accroissement annuel important du volume des market operations, - de maîtriser et d'optimiser les coûts cloud. • Être force de proposition pour améliorer les processus et les performances des systèmes.
Mission freelance
FREELANCE – Business Analyst (H/F)
Jane Hope
Publiée le
Business Analysis
3 mois
Cagnes-sur-Mer, Provence-Alpes-Côte d'Azur
Notre client, basé à Cagnes sur Mer (06), est à la recherche d’un Business Analyst (H/F) freelance dans le cadre de l’accompagnement des utilisateurs métier à la prise en main de nouveaux systèmes et modèles de données. MISSIONS · Comprendre les besoins métiers et les problématiques de reporting, les modèles et données en place · Accompagner les clients pour les faire monter en compétence et en autonomie : accompagner la conduite du changement vers les nouveaux outils · Organiser des ateliers métiers pour comprendre leurs besoins et les accompagner dans la prise en main des nouvelles solutions
Mission freelance
Analytics Engineer – Data & BI
SKILLWISE
Publiée le
Azure Data Factory
Azure DevOps
Databricks
3 mois
100-600 €
Paris, France
Nous recherchons un Analytics Engineer pour rejoindre une équipe dédiée à la centralisation et à la fiabilisation des données dans un environnement data-driven. Votre mission consistera à concevoir et maintenir des pipelines de données (Azure Data Factory, Databricks, Spark SQL) pour alimenter un datamart utilisé par les métiers via des outils self-BI (Power BI, BusinessObjects). Vos missions principales : Concevoir et développer des pipelines d’ingestion via Azure Data Factory , en assurant leur robustesse et leur évolutivité. Transformer et optimiser les données en utilisant Spark SQL (Databricks) pour répondre aux besoins métiers. Maintenir et améliorer les indicateurs de qualité des données , en garantissant leur cohérence et leur fiabilité. Implémenter des tests unitaires pour sécuriser les pipelines et assurer la stabilité des solutions. Collaborer avec les équipes techniques et métiers pour affiner les besoins et proposer des améliorations continues. Participer à la maintenance des outils de monitoring pour suivre les performances et la santé des applications. Ce poste est idéal pour un professionnel souhaitant impacter directement la stratégie data d’une organisation en pleine transformation digitale.
Offre d'emploi
Analyste d'exploitation F/H
Experis France
Publiée le
25k-32k €
Niort, Nouvelle-Aquitaine
Analyste d'exploitation F/H - Niort Analyste d'Exploitation F/H Rejoignez EXPERIS et participez à la performance des systèmes critiques ! Nous accompagnons nos clients dans la gestion et l'optimisation de leurs infrastructures. Nous recherchons un Technicien d'Exploitation pour assurer la supervision et la continuité des opérations dans un environnement technique exigeant. Votre rôle En tant que Technicien d'Exploitation, vous serez garant du bon fonctionnement des traitements et des systèmes en production. Votre mission : assurer la disponibilité, la qualité et la fiabilité des services. Vos principales responsabilités : Analyse et résolution des incidents pour garantir la continuité des opérations. Suivi du plan de production et reprise des traitements si nécessaire. Planification des traitements et optimisation des flux. Rédaction de consignes et modes opératoires pour fiabiliser les processus. Mises en production et suivi des changements. Rectification de données et modification de scripts en cas de besoin. Votre profil Expérience confirmée en exploitation informatique et gestion de production. Maîtrise des environnements Linux/Unix et des outils de supervision. Connaissance des outils de planification (Control-M) et des bases SQL. Rigueur, sens de l'organisation et capacité à travailler en équipe.
Mission freelance
Data Engineer / Développeur Python Cloud
Intuition IT Solutions Ltd.
Publiée le
Python
6 mois
Toulouse, Occitanie
Mission Assurer le maintien en conditions opérationnelles des applications existantes, qu’il s’agisse de prototypes ou de solutions déjà déployées en production, en garantissant leur stabilité, performance et disponibilité. Concevoir, développer et faire évoluer des solutions de traitement de données couvrant l’ensemble de la chaîne : collecte, transformation, stockage, agrégation et restitution. Participer à la définition des besoins techniques, à la rédaction des spécifications et à la conception des architectures applicatives et data. Développer et maintenir des services, APIs et outils internes en Python, dans un environnement cloud AWS industrialisé. Mettre en place, optimiser et superviser des pipelines data fiables et robustes, en veillant à la qualité, l’intégrité et la traçabilité des données. Intervenir en support technique avancé pour analyser, diagnostiquer et résoudre les incidents ou anomalies applicatives et data. Accompagner les équipes lors des déploiements et assurer l’assistance aux utilisateurs internes. Rédiger et maintenir la documentation technique (spécifications, procédures, scripts, guides d’exploitation). Participer aux rituels Agile, au suivi des tickets, au reporting d’avancement et à l’amélioration continue des processus et outils. Garantir le respect des standards techniques, de sécurité, de qualité et de conformité propres à l’environnement industriel du client.
Offre d'emploi
Consultant Confirmé en Data gouvernance Collibra
R&S TELECOM
Publiée le
Microsoft Access
12 mois
40k-48k €
400-480 €
Paris, France
Contexte de la mission : Dans le cadre du déploiement et de l’industrialisation de notre démarche de gouvernance des données, nous recherchons un consultant expert technique Collibra. La mission s’inscrit dans un programme structurant visant à renforcer le catalogage des données et la traçabilité (data lineage). Le consultant intégrera l’équipe Data en lien direct avec les architectes de la DSI qui ont une vision sur l’ensemble de la chaîne de valeur de la donnée, de l’acquisition à la restitution. Tâches à réaliser : · L’operating model de Collibra et la capacité à modifier les settings sur sa partie OOTB ou custom (asset type, attributs, relations…) selon un scope puis mesurer les impacts sur l’existant DEV/PROD et le déployer en PROD · L’asset model du Data Product · Les rôles et permissions (globale, ressources, …) · Les fonctionnalités de migration import/export (par ex. pour les vues) · Le paramétrage des vues de diagramme · Savoir lancer et interpréter les résultats des connecteurs EDGE (technologies Datalake Azure/AWS, Databricks unity) et technical lineage (Databricks, Power BI) · Savoir manipuler les assets en masse (modification d’attributs, déplacements, suppressions), si besoin par import/export · Connaitre les fonctionnalités liées à Edge pour le sampling, profiling, data notebook · Scripting / APIs / Workflow · Trouver et savoir tester les APIs Collibra du portail développeur · Savoir comprendre et modifier un workflow existant (script : Groovy), le rendre paramétrable, le versionner si besoin et déployer DEV/PROD · Scripter des validations rules sur les assets Livrables attendus · Expressions de besoins et documents de cadrage · Workflows Collibra configurés · Catalogues de données alimentés · Lineage modélisé et documenté · Toute l’implémentation est en langue EN, éventuelle doc. technique succincte à réaliser sur les actions menées Compétences recherchées : Obligatoires : Maîtrise avancée de Collibra (Catalog, Lineage, Workflows) Solide expérience en Data Gouvernance et Data Management Bonnes connaissances des environnements Azure/ AWS / Databricks / Power BI /API/ BDD Expérience nécessaire : 5 années minimum Langues : Anglais et français
Mission freelance
Expert Senior Google Workspace & Data/IA – Freelance – Niort (79)
Wekey
Publiée le
Google Workspace
6 mois
600-700 €
Niort, Nouvelle-Aquitaine
Hello ! Nous c’est WEKEY ! Nous ne sommes ni une ESN, ni un cabinet de recrutement. Aaah mais qui sommes-nous alors ? 😁 Pour découvrir qui nous sommes et surtout votre future mission , c’est juste ici 👇 Vous êtes Expert Google Workspace / Data / IA , freelance, et à la recherche d’un projet à forte valeur ? Nous avons exactement la mission que vous cherchez, pour l’un de nos clients majeurs du secteur assurantiel, basé à Niort. 👀 CE QUI VOUS ATTEND Dans le cadre de sa grande transformation digitale, notre client recherche un Expert Senior hybride , capable d’assurer le lien entre : les enjeux métiers, la donnée, les usages collaboratifs, et l’IA générative (Gemini). Votre rôle sera stratégique et transversal. Rien que ça 😎 Vous interviendrez sur l’ensemble de l’écosystème Google Workspace et son extension Data & IA. 🎯 VOS MISSIONS Volet Data & Analytics – Looker & BigQuery Conception et maintenance de modèles LookML avancés . Création de dashboards stratégiques : adoption, performance, RSE. Requêtage SQL BigQuery (optimisation des coûts, structuration des datasets). Définition d’indicateurs RSE : infobésité, hyperconnexion, sobriété numérique. Volet IA Générative – Gemini & Innovation Participation active au Centre d’Expertise IA du client. Référent technique et fonctionnel sur Gemini . Animation de la communauté IA : webinars, guides, cas d’usage. Déploiement de solutions IA : assistants virtuels, synthèses, automatisations rédactionnelles. Volet Google Workspace – Administration & Fonctionnel Administration avancée : sécurité, DLP, Context-Aware Access, supervision. Automatisation des processus via AppSheet et Apps Script . Accompagnement de la migration Office → GWS (Excel/VBA → Sheets/Apps Script/BigQuery). Support AMOA/PO : roadmap produit, user stories, conduite du changement.
Offre d'emploi
Senior Consultant / Expert Technico-Fonctionnel Informatica MDM (H/F) – CDI
CAPEST conseils
Publiée le
Informatica
Master Data Management (MDM)
12 mois
Paris, France
A pourvoir de préférence en CDI chez le client final mais je regarderai également les profils des candidats qui souhaitent rester indépendants (je vais avoir d'autres besoins sous peu). Pour ce poste , des déplacements réguliers devront être effectués en Province. Dans le cadre du renforcement de notre plateforme data et de notre stratégie de gouvernance des données , nous recherchons un Consultant Senior Technico-Fonctionnel Informatica MDM . Vous rejoindrez une équipe de 5 experts data dédiée au Master Data Management , responsable de la gestion et de la fiabilisation des données de référence (Customer, Partner, Product, etc.). Vous interviendrez sur l’évolution et l’exploitation de la plateforme Informatica Master Data Management , au cœur des enjeux de data governance, data quality et data integration . Vos missionsExpertise et évolution de la plateforme MDM Apporter votre expertise sur la solution Informatica MDM . Concevoir et faire évoluer les modèles de données de référence (Customer / Party / Product / Organization) . Paramétrer et configurer les composants MDM (data model, match & merge, survivorship rules). Participer à l’architecture et aux évolutions de la plateforme MDM. Conception technico-fonctionnelle Animer des ateliers avec les équipes métiers et les data owners. Traduire les besoins en spécifications fonctionnelles et techniques . Participer aux phases de développement, configuration et intégration. Piloter les phases de tests, recette et déploiement . Gouvernance et qualité des données Contribuer à la mise en œuvre des pratiques de data governance et data quality . Définir et suivre les règles de matching, déduplication et consolidation des données . Participer à l’amélioration des processus de gestion des données de référence. Leadership et collaboration Être référent technique MDM au sein de l’équipe. Accompagner les équipes métiers dans l’usage et la compréhension des données. Participer à la montée en compétence des membres de l’équipe.
Mission freelance
Expert Réseau Sécurité Senior
PROPULSE IT
Publiée le
24 mois
450-900 €
Paris, France
PROPULSE IT recherche un Expert Réseau & Sécurité Infrastructure pour être lead dans une équipe BUILD+Run. Dans un environnement Réseau Datacenter + Cloud privé, le client recherche un profil tres expérimenté Fortes compétences Réseaux + F5 + Checkpoint + Fortinet + Zscaler Avoir la capacité de faire, mais aussi de réfléchir en prenant du recul, et de proposer des solutions en soutien des équipes d'experts côté réseau et sécurité des socles d'infrastructure. Les compétences techniques attendues sont les suivantes : • Expertise avancée des infrastructures Cisco VXLAN, EVPN, L2VNI • Expertise des infras de Sécurité : Checkpoint, Fortinet, F5 • Expérience dans le domaine des solutions de sécurité dans le cloud (Proxy ZScaler, Idp OKTA ...) • Expérience SIEM Splunk • Expérience Système : Redhat linux 8, Windwos 2019 • Connaissance en Scripting Shell, Ansible Network Automation, Terraform Les compétences fonctionnelles attendues sont les suivantes (par ordre de priorité) : • Expérience de conception des architectures réseaux et sécurité • Réalisation de projets techniques sur son domaine d'activités • Expérience de suivi & reporting de l'activité au management
Mission freelance
EXPERT DATA BI SSIS SQL SERVER AZURE DEVOPS
PROPULSE IT
Publiée le
Azure
BI
DevOps
24 mois
325-650 €
La Défense, Île-de-France
Pour l'un de nos client basé à La Defense, nous recherchons un expert Microsoft BI très orienté Data sur l'ETL SSIS et T/SQL pour une mission très orientée optimisation et Run avec cependant quelques projets en parallèle : Consultant MOE BI / Domaine Socle Data / Domaine : Etudes et Intégration / Ingénierie d'Etude / Conception ▪ Descriptif détaillé de la mission : ➢ Assurer le RUN des applications existantes (ETL, Bases de données, support niveau 3) ➢ Comprendre les enjeux métier, problématiques à résoudre et opportunités à concrétiser. ➢ Echanger et challenger les besoins métiers avec les équipes AMOA BI en tenant compte des contraintes techniques. ➢ Proposer, concevoir et spécifier des solutions techniques viables, évolutives et tenant compte de l'existant. ➢ Rédaction des documents techniques (spécification techniques, document d'exploitation…etc). ➢ Conseiller, proposer des axes d'amélioration, alerter si besoin. ▪ Environnement technique de la mission : ➢ Socle Data : SSIS, SQLServer (2016), procédures stockées, Azure DevOps (Git, Board Agile, Pipeline de déploiement CI/CD) ➢ Reporting : COGNOS BI 10.2 et 11 & Tableau
Offre d'emploi
Data Scientist Senior (Machine Learning, MLOps & IA Générative) - Lille (H/F)
STORM GROUP
Publiée le
MLOps
Pandas
Python
3 ans
50k-57k €
500-600 €
Lille, Hauts-de-France
Contexte du poste : Un acteur bancaire souhaite renforcer sa stratégie d’Intelligence Artificielle en développant des solutions avancées de Machine Learning, Deep Learning, NLP et IA Générative. L’objectif est de valoriser les données, optimiser les processus internes et améliorer l’expérience client grâce à des modèles robustes, explicables et industrialisés. Missions principales : 1. Modélisation Risque & Scoring Concevoir, optimiser et challenger les modèles de scoring d’octroi et de comportement. Explorer des approches innovantes pour améliorer la performance et la stabilité des modèles. Déployer les modèles en production et assurer leur monitoring (dérive, performance, stabilité). Travailler en étroite collaboration avec les équipes Risque, Validation et les experts métier. 2. Développement de Solutions IA Intégrer les modèles ML/AI en temps réel dans les parcours digitaux (scoring instantané, personnalisation des offres…). Participer à la conception de l’architecture technique (Cloud, MLOps, API, pipelines). Collaborer avec les équipes IT et Produit pour industrialiser les solutions et garantir leur scalabilité. 3. IA Générative & Agents Prototyper et déployer des solutions d’IA Générative (LLM, RAG, agents intelligents) pour transformer les processus internes (Marketing, Audit, Risque, Support…). Mettre en place des architectures agentiques pour automatiser des tâches complexes : analyse documentaire, octroi de crédit, interaction client. Évaluer et monitorer les performances des agents (cohérence, diversité, RAGAS, LLM-as-a-Judge…).
Mission freelance
Data Engineer - Vannes
VISIAN
Publiée le
Apache Kafka
Apache Spark
Scala
3 ans
450-500 €
Vannes, Bretagne
Localisation : Bretagne Présence sur site minimum 3 jours par semaine Candidatures locales privilégiées Contexte Au sein d’un Chapitre Data intervenant en transverse dans l’entreprise, vous contribuez à la fabrication des cas d’usage Data portés par différentes Squads métiers. Vous évoluez dans un environnement collaboratif avec des interlocuteurs variés et participez activement aux échanges avec les membres du Chapitre présents sur d’autres sites en France. Missions Participer à la définition de l’architecture Data avec les architectes et les Squads Concevoir et développer des solutions de collecte, transformation et stockage de données issues de multiples sources Développer des pipelines Spark batch et Spark Streaming Mettre en place les tests unitaires et automatisés Déployer les solutions dans les différents environnements Assurer le suivi en production et la gestion des incidents Être force de proposition et contribuer à l’amélioration continue Environnement technique Spark (batch et streaming) indispensable SQL indispensable Scala apprécié Kafka apprécié Java et Shell appréciés Stack Hadoop Cloudera HDFS, Hive, HBase, Phoenix, MongoDB Git, Jenkins, Artifactory, XL Release ELK, Grafana Méthodologie Scrum Connaissances appréciées Outils de data visualisation tels que MicroStrategy, Power BI ou Tableau Profil recherché Expérience confirmée en Data Engineering Big Data Solide maîtrise de Spark dans un environnement Hadoop / Cloudera Capacité à évoluer en contexte transverse Soft skills attendues Autonomie Adaptabilité Bonne communication Capacité à challenger les besoins Prise de lead et force de proposition
Mission freelance
Expert sécurité Office 365 (H/F)
Signe +
Publiée le
Cybersécurité
Office 365
Prévention des pertes de données (DLP)
6 mois
280-440 €
Paris, France
Expert sécurité O365, pour aider notre client sur deux couches de sécurité que nous souhaitons faire évoluer : AIP et DLP. Nous avons déjà implémenté ces deux technologies lors de la souscription des licences E3 de manière très basique. Nous avons basculé sur des licences E5 récemment et souhaitons déployer les nouveaux modules dont nous disposons dorénavant et mettre en place un reporting sécurité pourtant sur le périmètre Office 365 dans un premier temps. ✓ Onboarding Accelerator : Information Protection : Accompagnement dans la prise en main du framework Microsoft Information Protection : Mise en place d’un reporting Sensitivity Labels Déploiement de l’auto-labelling avec établissement d’une règle de base définie avec l’équipe SSI Bonnes pratiques de mise en œuvre (accompagnement, communication, sensibilisation, etc.) ✓ Onboarding Accelerator : Data Loss Prevention (DLP) : Accompagnement sur la solution DLP, en tenant compte de nos cas d’usage actuels (gestion des postes Identifier et classifier les informations sensibles au sein de votre organisation (abordé en partie dans AIP, voir la question des documents sur le serveur de fichier) Monter en compétence des équipes Infra et SSI sur Microsoft Data Loss Prevention (DLP) Concevoir et déployer des politiques DLP, y compris les fonctionnalités avancées Surveiller et analyser les alertes et incidents DLP à l’aide des outils disponibles dans les portails Microsoft Purview ou Microsoft Defender Ce n’est pas une liste exhaustive des sujets, nous aimerions bénéficier de conseils également de la part de l’expert sur ce qui est notamment mit en place sur des structures sécurisées.
Offre d'emploi
Architecte Data
VISIAN
Publiée le
Architecture
Data governance
1 an
40k-45k €
400-690 €
Paris, France
Descriptif du poste Le bénéficiaire souhaite s'appuyer sur une expertise en architecture data ou data modeling afin de : Accompagnement des équipes Métier et IT dans la mise en œuvre de solutions Data alignées avec la stratégie Data de l'entreprise, fondée sur les principes Data Mesh et une gouvernance renforcée. Définition et application des principes d'architecture et de gouvernance Data, en lien avec la Design Authority et le Centre d'expertise Data. Le périmètre d'intervention pourra évoluer en fonction des besoins et des domaines métier à adresser.
Mission freelance
Développeur(euse) Big Data
CAT-AMANIA
Publiée le
Apache Spark
Hadoop
Python
12 mois
400-550 €
Lyon, Auvergne-Rhône-Alpes
Description du poste : Dans le cadre de l'activité Big Data de notre client, nous recherchons un profil en développement Data, Python, SQL, Shell, Spark (+ de 5 ans d'expérience) pour nous accompagner dans nos actions sur notre plateforme Cloudera Hadoop. L'objectif de la prestation est de réaliser et maintenir les développements nécessaires à l'alimentation de la plateforme Hadoop, à la mise en place d'extractions et à l'accompagnement des utilisateurs.
Mission freelance
PRODUCT MANAGER CLOUD SENIOR H/F
AXONE BY SYNAPSE
Publiée le
AWS Cloud
Azure
Cloud
6 mois
Paris, France
Axone by Synapse, cabinet de conseil IT innovant, recherche pour l’un de ses clients pour une mission de longue durée un(e) Product Manager Cloud Senior H/F afin d’accompagner un programme stratégique de convergence cloud. Le contexte est celui de la construction d’une factory cloud de nouvelle génération, pensée from scratch, mais devant composer avec un existant riche, hétérogène et déjà exposé à différents usages. Le poste vise à apporter la vision produit qui manque aujourd’hui entre les équipes techniques, les responsables produit et les entités métier/marketing. La personne attendue devra structurer les priorités de services, orienter les choix d’offres, assurer la cohérence des trajectoires de compatibilité avec le legacy et contribuer à positionner les futurs services dans un environnement interne complexe, multi-entités et fortement stratégique. Objectif et livrable: L’objectif principal est de définir, prioriser et cadrer l’offre de services cloud à construire au sein de la nouvelle factory, en articulation avec les équipes techniques, produit et marketing. Le consultant devra clarifier les services à lancer, leur ordre de priorité, leurs dépendances avec les offres existantes et les contraintes de compatibilité/migration. Livrables attendus: vision produit consolidée sur le périmètre cloud ; cartographie des services cibles et des services legacy à rapprocher ; matrice de priorisation des offres et fonctionnalités ; recommandations de positionnement, de cohérence catalogue et de trajectoire d’exposition API ; contribution au cadrage des interactions entre product management, product owners, architecture et équipes marketing. Compétences attendues: Le poste requiert une combinaison rare de vision produit et de compréhension profonde des environnements cloud. La personne devra savoir analyser un portefeuille de services, comprendre un paysage technologique complexe, arbitrer les priorités et dialoguer avec des profils d’architectes, d’ingénieurs et de responsables produit. Une bonne lecture des enjeux de compatibilité, de migration, de standardisation et de compétitivité est indispensable. Compétences techniques attendues : Product Management senior appliqué à des offres technologiques complexes ; Expérience sur des produits cloud / infrastructure ; Solide maîtrise d’au moins 3 des environnements suivants : IaaS, PaaS, CaaS (OpenStack, Kubernetes, OpenShift) et bonne connaissance des hyperscalers AWS, Azure, GCP ; Storage cloud et appliance (ex. NetApp) ; Bare metal et orchestration / provisioning des ressources bare metal ; Solutions de provisioning déclaratif (SOM/ROM) et intent-based (K8S/CRD, Crossplane, etc.) ; Gestion d’IP Fabric et architecture réseau niveau 2, avec appréciation de la connaissance de switches de vendors spécifiques ; IAM pour clients internes, externes et administration ; Outils cloud couches 3 à 7 : reverse proxy, forward proxy, WAF, NAT Gateway, firewall, etc. ; Outils Ops transverses : Vault, Bastion, DNS, NTP, chaînes CI/CD, etc. ; Composants de chiffrement : KMS, HSM, gestion des certificats ; Outils d’observabilité. Capacité à définir une stratégie produit , piloter une roadmap et produire des livrables structurés ( PRD, PRFAQ, user stories ) ; Analyse de legacy et stratégie de convergence ; Construction de catalogue de services / offres cloud ; Exposition de services et d’API ; Compréhension des environnements d’infrastructure, provisioning et automatisation ; Expérience des méthodologies agiles : Scrum, SAFe, Kanban ; Bilingue français / anglais impératif ; Formation Bac+5 (ingénieur, informatique ou business). Atouts complémentaires : Passage chez un cloud provider, un hébergeur, un éditeur SaaS ou un opérateur télécom.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
6912 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois