Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 6 469 résultats.
CDI

Offre d'emploi
Responsable d'équipe Réseau (H/F)

Experis France
Publiée le

75001, Paris, Île-de-France
Responsable d'équipe Réseau (H/F) - Paris Dans un environnement multi-sites et international, la DSI recherche un(e) Responsable d'équipe Réseau pour garantir la qualité, la disponibilité et la performance des services réseaux en production. Le périmètre couvre les infrastructures réseau et sécurité en production : LAN, WAN, Internet (dont Wi-Fi et 5G) Sécurité périmétrique (firewalls, proxy, IPS…) Support réseau des applications et services métiers Missions principales: Exploitation & service en production Assurer le MCO des infrastructures réseau Garantir la disponibilité, performance et qualité de service Gérer les incidents majeurs et problèmes complexes Superviser les changements en production Interface avec les projets et l'architecture Assurer la transition des projets vers l'exploitation Garantir l'exploitabilité et la supportabilité des solutions Être le lien entre équipes architecture, projets et RUN Amélioration continue Améliorer les processus ITIL (incident, problem, change) Réduire les incidents récurrents et renforcer la stabilité des services Contribuer à l'évolution du catalogue de services Management Encadrer une équipe de 2 à 4 experts réseau Organiser les priorités RUN et garantir la continuité de service Intervenir en support sur incidents critiques
Freelance

Mission freelance
Data Governance Specialist - Data Catalog

Codezys
Publiée le
Apache Airflow
Collibra
Databricks

6 mois
Lille, Hauts-de-France
Contexte de la mission Le Data Governance Specialist rejoint l’équipe Expertise du Centre d’Expertise (CoE) Data Governance . Cette équipe a pour mission d’élaborer des principes communs, de favoriser la transversalité des rôles et des processus de gouvernance des données, ainsi que d’industrialiser l’utilisation de l’expertise afin de résoudre les problématiques rencontrées par les Digital Units lors de l’exécution des processus de gestion des données. La mission consiste à assurer une expertise à la fois fonctionnelle et technique concernant la solution de Data Catalog de Decathlon ( Collibra ) et son intégration dans l’écosystème de la Data & Agentic Platform . Elle inclut également une participation active aux chantiers stratégiques de transformation, tels que le AI Governance Framework , la Trust AI et la Data Quality by Design . Objectifs et livrables Développement produit / Configuration du Data Catalog Collibra : Conception de solutions pour répondre aux problématiques des utilisateurs de Collibra et mise en œuvre de ces solutions dans l’outil (administration, configuration, développements spécifiques si nécessaire). Validation des spécifications, développement et déploiement des workflows. Assistance pour la collecte des demandes et des requêtes des utilisateurs, ainsi que leur tri. Intégration du Data Catalog (Collibra) avec l’écosystème technologique de la donnée : Participer à la conception, à la mise en œuvre et à l’exploitation du système d’échange de métadonnées entre le Data Catalog, les solutions composant la Data Platform de Décathlon et les différents référentiels de métadonnées de l’entreprise. Collaborer avec l’équipe d’architecture pour assurer une intégration fluide. Configurer les capacités Edge en vue de la collecte des différentes zones de données. Développer et maintenir les connexions (crawling, APIs, connecteurs), assurer l’échange d’informations entre les systèmes IT et le Data Catalog (en interaction avec le support technique de Collibra). Intégrer le Data Catalog au sein du Data Quality Metrics Store. Participer activement au programme de Data Contract.
Freelance

Mission freelance
Architecte Data Plateforme AWS / Snowflake (H/F)

ALLEGIS GROUP
Publiée le
Agent IA
AWS Cloud
DBT

1 an
Paris, France
Teksystems recherche pour l’un de ses clients grands comptes un Architecte Data AWS / Snowflake (H/F) pour construire, structurer et sécuriser la plateforme data du client basée sur Snowflake et AWS , et accompagner les équipes pour garantir une plateforme performante, scalable et prête à accueillir des fonctionnalités IA . Ce rôle est structurant, durable , et s’inscrit au cœur de la transformation data. Vos missions : 1. Définir et faire évoluer l’architecture de la plateforme Architecture cible Snowflake/AWS Patterns d’ingestion (batch, CDC, near real-time) Modélisation (Data Vault, modèles analytiques) Exposition (BI, APIs, data apps) 2. Industrialiser le delivery data Standards CI/CD (dbt, ingestion, artefacts ML) Automatisation des déploiements Intégration Git / pipelines / qualité Réduction du time-to-market 3. Mettre en place une observabilité complète Suivi fraîcheur, volumétrie, succès/échec des pipelines Tests & qualité de données Performance Snowflake (temps, coûts, consommation) Dashboards RUN, alertes, SLAs 4. Sécuriser la plateforme RBAC, rôles Snowflake, data masking, row-level security RGPD, auditabilité, traçabilité Catalogage, lineage, ownership 5. Accompagner les équipes Support aux devs, pair programming, arbitrages techniques Challenge des choix existants Coordination avec infra / cloud / sécurité 6. Préparer et soutenir le RUN Normes de reprise, diagnostic, alerting Réduction de la dette technique Support N2/N3 Conception orientée exploitabilité
Freelance
CDI

Offre d'emploi
Senior Consultant Business Data Analyst

VISIAN
Publiée le
Data analysis
Python

1 an
Lille, Hauts-de-France
Contexte Nous recherchons un(e) Expérimenté ou Senior Consultant Business Data Analyst pour analyser notre base client afin d’orienter les décisions stratégiques de l’entreprise. Vous jouerez un rôle clé dans l’étude de la connaissance client, et dans la propagation de celle-ci au sein de l’entreprise. Pour ce faire, vous devrez à la fois être doté d’une forte appétence métier, du bagage méthodologique et technologique adéquat. Missions Animer le recueil de besoins métiers, le challenger puis le cadrer afin de s’assurer que les prérequis au développement sont bien réunis Analyser le portefeuille clients (segmentation, comportements, valeur, churn, fidélisation) Concevoir et piloter des études ad hoc à visée stratégique sur nos clients directs et ceux recrutés via nos partenaires afin d’apporter à l’entreprise une vision globale de son portefeuille Identifier des opportunités de croissance, d’optimisation et de ciblage Formuler des recommandations actionnables aux équipes métiers et à la direction Restituer les travaux en s’adaptant à l’audience (chef de projet, CODIR, COMEX), en faisant preuve de vulgarisation et d’impact, en ayant une posture adaptée au travers de supports de qualité Garantir la qualité, la fiabilité et la cohérence des données utilisées Construire et maintenir des tableaux de bord Power BI orientés exécutif (KPI stratégiques, storylines, pages synthèse) et animer des revues de performance auprès du COMEX/CODIR Assurer la maintenance et la documentation des travaux réalisés
Freelance

Mission freelance
Business Analyst (Nantes) H/F

LeHibou
Publiée le
Business Analyst

3 ans
400-500 €
Nantes, Pays de la Loire
Notre client dans le secteur Banque et finance recherche un/une Business Analyst H/F Description de la mission: Profil recherché : Nous recherchons un Business Analyst expérimenté, disposant d'une expertise confirmée en mainframe, d’une excellente maîtrise du cadrage fonctionnel et d’une solide expérience des méthodes Agile / SAFe. Expérience : 8 ans minimum, dont une part significative en tant que développeur Mainframe (langage Cobol) Attendus du poste : Compréhension et analyse du besoin métier Conception de solution applicative complexe et prise de hauteur par rapport à une solution transverse Centraliser et répondre aux besoins Clarifier, analyser d’un point de vue critique et constructif et le cas échéant challenger le besoin formulé par le Métier aux regards des objectifs d’optimisation IT et/ou métiers Analyser des impacts fonctionnels et techniques Participer à l’élaboration et au cadrage des solutions fonctionnelles, aux devis & chiffrages, études d’impact, dossiers d’opportunité Construire la solution globale en réponse au besoin, en restant pragmatique et exigeant sur la pérennité de cette solution Contribuer à la définition de la stratégie de de tests et recettes Mettre à jour le backlog produit avec le PO Participer aux différentes cérémonies agiles Rédiger les spécifications fonctionnelles générales et détaillées et maintenir les documents spécifiques Assurer le cas échéant le suivi post MEP et le suivi financier : budget, consommés, projections Run & Support : Maximum 10% du temps consacré au Run : Gestion des incidents, Analyse des dysfonctionnements, Réponses métiers, Petites évolutions et améliorations continues. Outils de gestion de projet et méthodologies : Environnements Agile : Scrum, SAFe. Outils : JIRA, Confluence, ServiceNow, SharePoint. Maîtrise des outils bureautiques avancés : Excel, modèles, suivi budgétaire. Connaissance des technologies : Mainframe, COBOL, CICS, JCL, DB2, Armide, API, WebServices, Kafka, FileMQ, CTG Communication & relationnel : Excellente capacité à expliquer, convaincre, et de façon générale, à communiquer avec les équipes métier, les développeurs, la production, les architectes et la direction. Sens de la pédagogie, capacité à vulgariser Capacité à transformer les données brutes en informations exploitables, à analyser, critiquer et négocier Rigueur et précision Adaptabilité, aptitude à travailler en transversal dans un environnement multi-projets.
Freelance
CDI

Offre d'emploi
📩 Data Governance Specialist – Data Catalog & Integration

Gentis Recruitment SAS
Publiée le
Apache Airflow
Collibra
Data governance

6 mois
Paris, France
Contexte de la mission Dans le cadre du renforcement de son Center of Expertise Data Governance , notre client recherche un Data Governance Specialist pour intégrer l’équipe “Expertise”. Cette équipe joue un rôle transverse clé et intervient sur : la structuration des standards de gouvernance data l’industrialisation des pratiques la résolution des problématiques rencontrées par les équipes métiers et data (Digital Units) La mission s’inscrit dans un environnement data platform avancé , avec des enjeux forts autour de : Data Catalog Data Quality AI Governance Data Contracts Objectifs de la mission 1. Data Catalog (Collibra) – Configuration & amélioration produit Concevoir et implémenter des solutions dans Collibra Configurer l’outil (workflows, administration, évolutions spécifiques) Recueillir et prioriser les besoins utilisateurs Valider et implémenter les spécifications fonctionnelles 2. Intégration dans l’écosystème data Participer à l’intégration du Data Catalog avec la Data Platform Concevoir les flux d’échange de métadonnées Développer et maintenir les connecteurs (API, crawling, etc.) Collaborer avec les équipes architecture Gérer l’interaction avec le support éditeur 3. Gouvernance & transformation Contribution au programme Data Contracts Participation aux sujets stratégiques : AI Governance Framework Trust AI Data Quality by Design Environnement technique Data Catalog : Collibra Data Platform : Databricks Transformation : dbt Orchestration : Apache Airflow Intégration : APIs, connecteurs, metadata exchange Data Quality : Metrics Store / framework interne Compétences attendues Must have Data Governance (confirmé) Data Catalog (idéalement Collibra) Intégration data / metadata / APIs Databricks (avancé) dbt (avancé) Apache Airflow (avancé) Nice to have Expérience sur des programmes de Data Contracts Connaissance des enjeux AI Governance Expérience en environnement data platform à grande échelle Soft skills Capacité à travailler en transverse Bon relationnel avec équipes métiers et techniques Approche structurée / orientée solution Capacité à gérer des sujets complexes
Freelance

Mission freelance
Développeur Backend Data – Elasticsearch

Codezys
Publiée le
Elasticsearch
ELK
Grafana

6 mois
Paris, France
Contexte de la mission Au sein de la Direction des Systèmes d'Information (DSI), le service "systèmes connectés" pilote un portefeuille de projets liés à plusieurs applications, dont certaines en phase de BUILD et d'autres en phase de RUN . Dans ce cadre, nous recherchons un profil expérimenté pour assurer la responsabilité technique d’un projet existant. Ce projet, récemment mis en production, vise à fournir des indicateurs via une interface Grafana, permettant un suivi précis des modules de télérelève et de radio-relève. Il comprend notamment une couche d'ingestion qui permet d'enregistrer les données dans une base ElasticSearch, avec un format adapté. L'ingestion est pilotée par du code Java. Les indicateurs ainsi produits permettent au métier de suivre environ 1 million de modules clients, avec des index quotidiens sur une période de 3 ans. La mission principale consiste à : Maintenir l’existant en assurant la stabilité et la performance du système Analyser et résoudre les incidents ainsi que répondre aux questions remontées par le métier, en expliquant et en corrigeant les résultats affichés Ajouter de nouveaux objets en fonction des besoins métiers Le projet "Supervision Télérelève" s’appuie sur un socle technique composé de Java, ELK (ElasticSearch, Logstash, Kibana) et Grafana, visant à fournir une solution de reporting performante pour les experts et les collectivités. Bien que le socle technique soit en place, il nécessite un maintien ainsi que le développement de nouveaux objets. Une collaboration avec d’autres équipes sera nécessaire pour travailler sur des questions d’authentification, en intégrant la solution dans d’autres projets. Par ailleurs, une migration vers Databricks peut être envisagée à moyen terme, ce qui impliquera une adaptation technique future. Le candidat retenu occupera un rôle de TechLead / Développeur : il devra analyser l’existant, assurer le débogage, suivre le backlog, et échanger avec le métier, le Product Owner (PO) et, éventuellement, avec les architectes. En tant que seul acteur technique sur ce projet, il doit faire preuve d'une grande autonomie et d’une capacité à gérer l’ensemble des sujets techniques. Profil recherché : Expérience confirmée en gestion de projets techniques similaires Maîtrise de Java, ELK Stack et Grafana Capacité à analyser, diagnostiquer et corriger les incidents Autonomie et initiative dans la gestion de projet Bonnes qualités de communication pour échanger avec différentes équipes techniques et métiers
Freelance

Mission freelance
Lead Test Data Management

Axysse
Publiée le
TDMA

1 an
400-550 €
Île-de-France, France
📅 Démarrage ASAP | Mission longue durée (fin 2026) Dans le cadre d’un programme de transformation majeur autour d’un système de réservation de nouvelle génération, nous recherchons un Lead Test Data Management pour structurer et industrialiser la gestion des données de test à grande échelle. 👉 Un rôle clé, transverse, au cœur des enjeux de qualité, de performance et de sécurisation des parcours métiers. 🎯 Votre rôle Vous prenez la responsabilité complète de l’activité Test Data Management (TDM) avec un double objectif : structurer et accélérer. Vos principales responsabilités : 🔹 Pilotage de l’activité TDM Définir la stratégie de gestion des jeux de données de test Prioriser les besoins (backlog data) et garantir un service fiable aux équipes Mettre en place des KPI (qualité, disponibilité, délais, couverture) 🔹 Gouvernance & catalogue de données Construire et maintenir un catalogue centralisé de jeux de données Définir les standards (naming, versioning, usage) Assurer la traçabilité entre besoins métiers et datasets 🔹 Support aux équipes & campagnes E2E Accompagner les Feature Teams dans leurs besoins data Sécuriser les campagnes end-to-end et les parcours critiques Coordonner la configuration des données complexes 🔹 Gestion des partenaires Piloter les prestataires et structurer le cadre opérationnel Suivre la qualité de service et les engagements 🔹 Industrialisation & amélioration continue Identifier les leviers d’automatisation (génération, anonymisation, duplication…) Optimiser les délais de mise à disposition des données 🔹 Communication & onboarding Formaliser les processus et bonnes pratiques Accompagner les équipes dans l’adoption Assurer un reporting régulier
Freelance

Mission freelance
Data Engineer GCP H/F

LOMEGARD
Publiée le
Ansible
Apache Airflow
Google Cloud Platform (GCP)

6 mois
400-480 €
Île-de-France, France
Dans le cadre d’un accroissement d’activité et afin de renforcer l’équipe Data d’un grand acteur bancaire, notre client recherche un Data Engineer GCP expérimenté. La mission s’inscrit dans un environnement Big Data / Cloud GCP en pleine transformation, avec des enjeux forts autour de l’industrialisation des pipelines, de la qualité de données et de la mise à disposition de datasets fiables pour les équipes métiers et analytiques. La mission est basée en Île-de-France (IDF) avec 2 jours de TT par semaine. Votre rôle consiste à: Mettre en place les chaînes d’ingestion, validation, croisement et enrichissement des données. Alimenter et exploiter le Data Lake GCP (GCS) et produire des agrégats (J/H/M). Développer des pipelines batch & streaming (Spark, Kafka, Scala). Industrialiser les traitements via Airflow / Composer et CI/CD. Mettre à disposition les données (API, fichiers, dashboards). Participer à la mise en production de modèles statistiques. Documenter, corriger les anomalies, assister les équipes d’exploitation. Travailler en mode Agile (Scrum/Kanban) .
Freelance
CDI

Offre d'emploi
Consultant Data Engineer Informatica

VISIAN
Publiée le
AWS Cloud
Informatica

1 an
Île-de-France, France
Contexte L'un des objectifs majeurs du plan de transformation DATA d'un grand groupe média est de développer les applications DATA qui permettent aux métiers business (pilotage, marketing, commerce, ...) d'être autonomes dans l'analyse des données et des KPI, et de déployer des applications. Dans ce cadre, ce groupe a déployé les outils : AWS, Gitlab, Terraform, Informatica, DBT, Snowflake, Braze, AI, Scala, Spark, Python, POWERBI, etc. Architectures sophistiquées pour ingérer plus de 100 To de données par jour : Datalake, Event-Driven, Streaming, etc. Des exemples de projets sont nombreux : Plateforme agentique Socle vidéo, navigation et calcul des audiences AI pour recommandation des programmes Feature Store Moderniser les flux financiers Content Platform Mise en place Kubernetes Plateforme pour le traitement des données CRM et usage Partager des informations sur les clients à des partenaires Piloter plus efficacement l'activité des marchés professionnels Mettre à disposition des applications de data-selfservice
Freelance

Mission freelance
DATA ARCHITECTE

Coriom Conseil
Publiée le
Collibra
KPI
Modélisation

12 mois
460-610 €
Lille, Hauts-de-France
Modèles conceptuels de données par contexte métier Dossier de de conception de KPI Analyse de la conformité des API et Data Set Compétences techniques Modélisation de données - Expert - Impératif Modélisation de KPI - Confirmé - Important Collibra - Confirmé - Souhaitable Data governance - Confirmé - Souhaitable Connaissances linguistiques: Anglais Professionnel (Impératif) Description détaillée ATTENTION LE POSTE EST UN POSTE DE DATA ARCHITECT Nous cherchons un data architect pour intégrer la plateforme Ressources Humaines: Data architecture * Conception de modèles conceptuels de données par contexte métier. * Identification des évènements métier par contexte métier. * Définition et formalisation des Business Terms, Business Attributes et Business Event dans Collibra. * Définition des Indicateurs Clés de Performance par contexte métier. * Définition des règles de qualité des Business Terms. * Analyse de la conformité des API avec la data architecture. * Analyse de la conformité des Data Set avec la data architecture. * Réalisation du data lineage. * Rédaction de dossier d'architecture data répondant aux demandes business exprimées en quarter plan * Participation à la data governance de la plateforme
CDI

Offre d'emploi
Développeur Python, C++, Java et Big Data

CELAD
Publiée le

36k-42k €
Bordeaux, Nouvelle-Aquitaine
CDI / Freelance / Portage Salarial - Pas de télétravail - Bordeaux - Expérience de 3 ans minimum Nous poursuivons notre développement et recherchons actuellement un(e) Développeur python pour intervenir chez un de nos clients. Vos missions Vous interviendrez sur plusieurs volets : Data & exploitation Gestion des données d’essais dans les outils internes Correction des anomalies de chargement Gestion et suivi de la documentation associée Réalisation de tests sur les évolutions des outils et des formats de chargement Développement & scripting Développement de scripts en Python (obligatoire) Correction de bugs et maintenance des applications existantes Contributions en C++ et/ou Java API & interconnexions Développement et maintien en conditions opérationnelles des API Interconnexion des applications métiers (ex : outils internes, PLM) Participation à l’industrialisation pour limiter le Shadow IT Rationalisation et amélioration des outils existants Innovation & Data avancée Participation à des sujets Big Data Intégration et connexion de LLMs aux outils existants Collaboration avec les équipes client sur les problématiques data
Freelance

Mission freelance
Business Analyst (h/f)

emagine Consulting SARL
Publiée le

1 mois
500-530 €
92250, La Garenne-Colombes, Île-de-France
Localisation: La Garenne-Colombes avec 50% de télétravail par semaine. Durée de la mission: 3 ans. Introduction & Résumé: Ce poste de Business Analyst est axé sur l'analyse et la spécification fonctionnelle des besoins métiers afin d'assurer la bonne implémentation des fonctionnalités requises dans le progiciel au sein de l'organisation. Les candidats doivent avoir une expertise avérée dans l'analyse fonctionnelle, ainsi qu'une connaissance des systèmes de gestion de transactions. Principales responsabilités: Analyse et spécifications des besoins métiers. Suivi des développements et validation des fonctionnalités. Coordination des travaux et réalisation des migrations de données. Rédaction et exécution des tests en collaboration avec les développeurs. Documentation et assistance aux utilisateurs. Résolution d'incidents niveau 2 et suivi post-release. Compétences requises: Compétences en analyse fonctionnelle. Connaissance des systèmes de gestion de transactions (Orchestrade, MUREX, etc.). Compétences en rédaction technique et communication adaptative. Expérience en gestion des incidents et support aux utilisateurs.
Freelance

Mission freelance
POT9141 - Un Data Ingénieur DevOps / AWS sur Plaisir

Almatek
Publiée le
AWS Cloud

6 mois
Plaisir, Île-de-France
Almatek recherche pour l'un de ses clients Un Data Ingénieur DevOps / AWS sur Plaisir. Contexte de la mission Dans le cadre de la mise en place d’une dataplateforme d’entreprise, la DSI du client souhaite intégrer un expert Data Ingénieur & DevOps AWS afin de : Mettre en place l’ingestion de différents types de données (structurées, semi?structurées, non structurées) Industrialiser l’ingestion des données depuis un datalake existant vers la nouvelle dataplateforme Automatiser l’intégration des données dans la couche standardisée AWS (RAW DATA vers STANDARDIZED) Réaliser la documentation et assurer le transfert de connaissances L’objectif principal est de finaliser un premier use case incluant l’ingestion de plus de 100 tables issues d’un ERP, tout en accompagnant la montée en compétences des équipes internes (équipe data et Data Engineer). Environnement Technique Data Engineering & Cloud AWS Services AWS Data : S3, Glue, Redshift, Athena, EMR, Lambda Pipelines et orchestration : Step Functions, Airflow, Lambda Python Patterns d’architecture data : Data Lake, ETL / ELT, Data Mesh Transformation data : dbt DevOps & Industrialisation Infrastructure as Code : Terraform CI/CD : GitLab CI/CD Gestion des environnements DEV / PREPROD / PROD Versionning du code et de la data : Git, DVC, LakeFS Sécurité & Gouvernance IAM, gestion des accès, chiffrement Gouvernance et catalogage : Glue Data Catalog, Collibra ou équivalent
CDI

Offre d'emploi
Data Engineer - Semarchy xDI (H/F)

Degetel
Publiée le
ETL (Extract-transform-load)
PowerBI
Sap BO

Strasbourg, Grand Est
💼 À propos de l’entreprise Créée en 2008, Technology & Strategy est une société de conseil franco-allemande qui accompagne ses clients sur des projets d’engineering, de digital et de consulting. Avec plus de 3 500 collaborateurs , répartis dans 27 agences et plus de 10 pays , nous évoluons dans un environnement international 🌍 Ce qui fait notre force : Une expertise technique reconnue Des valeurs fortes : Respect, Partage, Initiative, Excellence Une vraie diversité avec plus de 45 nationalités Des équipes engagées, communicantes et solidaires Un accompagnement clair pour faire évoluer votre parcours Un environnement de travail certifié #HappyAtWork Des projets innovants, concrets et à impact 💼 À propos du poste – Data Engineer (H/F) – Strasbourg Dans le cadre de nouveaux projets data, nous recherchons un Data Engineer pour rejoindre notre équipe strasbourgeoise et intervenir sur des projets dans le domaine bancaire . Vous évoluerez dans un contexte orienté data décisionnelle / BI , avec des enjeux forts autour de l’intégration, de la structuration et de la valorisation des données. 🛠️ Vos missions Concevoir, développer et maintenir des flux d’intégration de données ( ETL / ELT ) Intervenir sur des outils d’intégration, idéalement Semarchy xDI (ex-Stambia) Participer à la modélisation des systèmes décisionnels Travailler sur les bases de données et rédiger des requêtes SQL performantes Contribuer à l’alimentation et à l’exploitation des outils de Business Intelligence Collaborer étroitement avec les équipes data, BI et métiers Garantir la qualité, la fiabilité et la performance des données 🚀
Freelance
CDI

Offre d'emploi
Expert Data Cloud

ONSPARK
Publiée le
AWS Cloud
Azure
Docker

4 ans
Paris, France
Contexte OnSpark est un cabinet spécialisé dans la GMAO/EAM et l'intégration SI, en forte croissance (40 collaborateurs, CA 3,3 M€). Dans le cadre de la diversification de son offre vers la Data et l'Intelligence Artificielle, nous recherchons un Expert Data Cloud pour accompagner nos clients grands comptes. Vous interviendrez sur des projets de migration et d'exploitation de plateformes data vers le cloud, dans des contextes on-premise en cours de transformation, avec de fortes exigences en matière de sécurité et de conformité. Responsabilités Concevoir et déployer des architectures data sur le cloud Accompagner la migration des workloads data vers le cloud Optimiser les coûts et les performances des environnements cloud Assurer la sécurité et la conformité des données dans le cloud (RGPD, ISO 27001) Collaborer avec les équipes infrastructure, sécurité et data

Déposez votre CV

  • Fixez vos conditions

    Rémunération, télétravail... Définissez tous les critères importants pour vous.

  • Faites-vous chasser

    Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.

  • 100% gratuit

    Aucune commission prélevée sur votre mission freelance.

6469 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous