L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 5 156 résultats.
Mission freelance
Chef de Projet DATA / IA – Innovation & Transformation
JobiStart
Publiée le
Data science
IA
1 an
400-550 €
Île-de-France, France
Cadrer le périmètre du POC (objectifs, hypothèses, livrables, KPIs) Analyser l’existant (architecture, flux DATA, outils, maturité IA) Réaliser un audit des systèmes et des processus concernés Collecter les besoins métiers auprès des différentes directions Organiser des ateliers avec les équipes DATA, IT et métiers Identifier les cas d’usage IA prioritaires et à forte valeur ajoutée Évaluer la faisabilité technique (algorithmes, modèles, data quality) Définir l’architecture cible pour l’intégration IA Mettre en place et piloter le développement du POC Tester et mesurer la performance des modèles (KPIs, ROI potentiel) Documenter les résultats et formaliser les retours d’expérience Élaborer des préconisations stratégiques et techniques Construire un dossier argumenté pour demande de financement Présenter les conclusions auprès des instances décisionnelles Piloter la mission en méthodologie Agile / Lean Préparer la feuille de route d’industrialisation en cas de validation
Mission freelance
Collibra Senior Support & Configuration
Nicholson SAS
Publiée le
AWS Cloud
Collibra
Databricks
3 mois
600 €
Paris, France
Missions : Assurer le support technique de niveau 3, la configuration et l'administration de la plateforme Collibra. Le rôle couvre la gestion des métamodèles, la conception et l'optimisation des flux de travail, l'intégration avec les systèmes internes ainsi que l'accompagnement des entités dans leur intégration et leur adoption de la plateforme. Administration avancée de la plateforme : Gérez les utilisateurs, les rôles, les groupes, les autorisations et les domaines. Maintenir et faire évoluer le métamodèle. Surveillez les performances de la plateforme. Diagnostiquer et résoudre les incidents complexes (support niveau 3). Assurer le suivi technique auprès de l'éditeur si nécessaire. Intégration et automatisation : Intégrez Collibra aux systèmes internes. Configurer et maintenir les connecteurs. Tirer parti des API REST de Collibra pour automatiser les processus. Développer des scripts Python pour automatiser l’ingestion et la mise à jour des métadonnées. Configurer et maintenir les flux de travail. Mettre en œuvre des mécanismes d'automatisation et d'optimisation continue (Exemple : automatiser le chargement des données Collibra Insights sur CDH). Accompagnement des entités : Assurer le support fonctionnel et technique N3 via JIRA . Adapter les aménagements et le modèle opérationnel . Création de tableaux de bord personnalisés (avec HTML) . Diriger des sessions d'intégration, des démos et des formations ciblées . Accompagner les entités dans leur onboarding . Être le référent technique Collibra pour les entités et les équipes Data Gouvernance
Mission freelance
POT8868 - Un Ingénieur de Prod $U / DevOps Azure sur Blois
Almatek
Publiée le
Dollar Universe
6 mois
310-430 €
Blois, Centre-Val de Loire
Almatek recherche pour l'un de ses clients, un Ingénieur de Prod $U / DevOps Azure sur Blois. Les objectifs de la mission incluent : - La conception et le déploiement des plans batch $U sur des infrastructures Windows ou Linux. - La maintenance et l’évolution de l’outillage de déploiement et de lancement de batch. - Le support aux utilisateurs BATCH (MOE/MOA, équipe Tests et suivi exploitation). - La participation aux projets dans le cadre des recettes en tant qu'assistance technique. - L’accompagnement et le transfert de connaissances aux équipes internes. Les livrables attendus sont : - Un système applicatif opérable et documenté. Les compétences requises pour ce poste sont : - Une expérience de conception d'ordonnancement sur l'outil Dollars Universe (V6 et V7). - Une expérience d’intégration sur les plateformes Windows serveur (à partir de 2012). - Une expertise technique dans le déploiement des technologies : $U, C#, .Net, IIS (7.0 ou supérieur), et des scripts PowerShell (5.0 ou supérieur). - Une rigueur et méthodologie avérées. Les compétences clés incluent : - Obligatoire : Conception Dollar Universe, Scripting PowerShell. - Important : CI/CD (Azure DevOps), exploitation Ordonnanceur.
Offre d'emploi
Ingénieur DevOps / Expert Technique Cloud
VISIAN
Publiée le
Ansible
Terraform
1 an
40k-45k €
400-700 €
Île-de-France, France
Descriptif du poste Le bénéficiaire souhaite une prestation technique pour une installation/migration/support/automatisation sur nos applications Phase d'étude Accompagnement et orientation des différents intervenants (CDP, l'architecture et la sécurité) en apportant son expertise sur les technologies utilisées, comprendre les résultats de scan de sécurité sur les diverses vulnérabilités. Contribuer/Comprendre un schéma d'architecture afin d'être force de proposition. Notions de Sécurité: scan Xray, Sysdig, Tanium Connaissance des diverses techno: Nginx, Drupal PHP, Apache Tomcat, Java. Phase d'implémentation Contribution à la mise en œuvre du projet technique sur les environnements de production et non production. Réalisation des tests et validation des environnements avant de donner la main aux Etudes. Mise en place Pipeline CI/CD via les toolschains du groupe. Agile/Organiser car plusieurs projets à gérer en même temps. Gestion des espaces Devops avec les CI/CD, GitLabCI, Digital AI, Jenkins, ArgosCD, IBM CLOUD (PaaS/IaaS), Kubernetes (pods, déploiements, cronjob, etc...), Openshift, CHART HELM, Docker, HVAULT (pour les gestion des secrets, certificats, authentification). Notion databases en mode asservice (PostgreSQL, Oracle, SQL Server et MongoDB).
Offre d'emploi
Storage DevOps
Codezys
Publiée le
autonomie
Azure
CI/CD
6 mois
Paris, France
Dans le cadre de son nouveau programme de transformation cloud, l’organisation a décidé avec ses entités de moderniser l’ensemble des infrastructures encore hébergées dans les datacenters régionaux, afin de prendre en charge des charges de travail non éligibles au Cloud Public. Objectifs et livrables 1. Gestion des pipelines CI/CD : Conception et mise en œuvre : Créer et maintenir des pipelines CI/CD pour automatiser la construction, les tests et le déploiement des partages de stockage. Optimisation : Améliorer en continu l’efficacité et la fiabilité des pipelines. 2. Infrastructure as Code (IaC) : Automation : Utiliser des outils tels que Terraform ou CloudFormation pour gérer l'infrastructure par le biais de code. Scalabilité : Assurer une montée en charge efficace de l’infrastructure pour répondre à la demande. 3. Monitoring et journalisation : Mise en place : Déployer des outils de surveillance pour suivre la performance des systèmes. Analyse : Analyser les logs afin d’identifier et de résoudre proactivement les problèmes. 4. Sécurité : Meilleures pratiques : Intégrer des mesures de sécurité et des vérifications de conformité dans les pipelines CI/CD. Gestion des incidents : Élaborer et maintenir des plans de réponse aux incidents. 5. Collaboration : Équipes transverses : Collaborer étroitement avec les équipes de développement, assurance qualité et opérations pour assurer un flux de travail fluide. Communication : Faciliter la communication entre les équipes afin de résoudre rapidement les problématiques. Documentation : Rédiger des plans de tests, des procédures et des documents de transfert pour permettre l’automatisation et assurer la transmission des connaissances aux experts et à l’équipe Q&A. Compétences et expériences requises Connaissance des systèmes de stockage est un plus. Une certification Cloud DevOps est un avantage. Maîtrise des plateformes cloud telles qu'AWS ou Azure, indispensable. Expérience confirmée en environnement IT (gestion d’incidents, rotation 24/7, organisation matinale, assurance qualité). Compétences en scripting et automatisation avec Python, Ansible, Terraform. Expérience avec Docker appréciée. Documentation : Maintenir une documentation claire et complète, comprenant procédures, processus, supports de formation et plans de test.
Mission freelance
Data Model Architect
Phaidon London- Glocomms
Publiée le
Architecture
Data governance
Data quality
6 mois
400-550 €
Arcueil, Île-de-France
Concevoir le modèle de données Salesforce (objets, champs, relations) pour l'ensemble des flux de travail du projet. Définir et appliquer les conventions de nommage et les normes de modélisation. Examiner et valider toutes les demandes de nouveaux objets ou champs personnalisés. Gérer l'évolution du modèle pour l'ensemble des flux de travail, en garantissant la rétrocompatibilité. Concevoir la stratégie de migration et de chargement des données pour les jeux de données existants. Garantir la pleine compatibilité du modèle de données avec Agentforce. Documenter et maintenir le dictionnaire de données du projet. Accompagner les équipes concernant la gestion des hiérarchies, les objets à volume élevé et les structures de comptes complexes.
Mission freelance
[LFR] Expert sécurité Cloud AWS/GCP à Guyancourt - 1253
ISUPPLIER
Publiée le
10 mois
300-545 €
Guyancourt, Île-de-France
Vous travaillerez en lien étroit avec l’équipe d’expertise Cyber et les équipes qui gèrent les offres Landing Zones en Cloud Public GCP et AWS ainsi que les utilisateurs métiers qui y déploient et opèrent leurs applications. Ceci afin d’accompagnerez la révolution #devops #Cloud des entreprises du groupe Crédit Agricole avec la mise en place sécurisée de briques technologiques innovantes autour des patterns d'architecture #Container, #Hybridation, #Cloudpublic. Vous participez à la mise en place de mesures et de pratiques de cybersécurité liées aux évolutions du système d’information ou à sa règlementation. Au jour le jour, votre rôle sera d’assister CA-GIP sur les missions Run Sécurité suivantes : Lutter contre les vulnérabilités Cloud : • Administrer l’outil CNAPP qui permet de gérer les vulnérabilités, les audits de configuration et les comportements à risque de nos environnements cloud publics. • Assurer l’adoption de l’outil auprès des utilisateurs : Documentation, formation, accès, amélioration, suivi des bugs, suivi des licences • Aider à maintenir tous les contrôles, politiques et procédures à jour en fonction des normes de l'industrie dans un objectif d'amélioration continue. Bâtir une gouvernance sécurité transverse : • Assurer le pilotage global des risques opérationnels détectés sur ce périmètre par les différents outils en place. • Coordonner les parties prenantes (dev, secops, infra, référents sécurité) • Produire des indicateurs de suivi de la sécurité opérationnelle afin d’apporter de la visibilité et de la confiance. • Surveiller, gouverner et valider le niveau de maturité et de conformité aux référentiels (ISO, NIST, RGPD, IA Act.) Accompagner les équipes techniques : • Animer des atelier pour aider les équipes techniques à qualifier les vulnérabilités et à répondre aux alertes sur leurs actifs projets. o Contextualiser les vulnérabilités découvertes selon l’environnement CA-GIP o La participation et le soutien technique à la résolution des vulnérabilités o L’assistance des équipes techniques à la mise en place des bonnes pratiques de cybersécurité pour les clouds publics o L’affectation des vulnérabilités aux bonnes équipes, automatiquement ou manuellement • Former les développeurs et data scientists aux bonnes pratiques de sécurité Participer à la vie de l’équipe sécurité : • Analyser les risques liés aux projets. • Rédiger des expressions de besoins de sécurité • Transmettre la connaissance et montée en compétence de la sécurité cloud des équipes. • Coopérer avec les pairs et la communauté de la cybersécurité au sein de CA-GIP pour établir une relation de travail collaborative globale, créer une adhésion et une base solide pour les décisions des parties prenantes. Compétences recherchées Compétences métiers : Création, intégration & administration d’infrastructure Cloud Public (AWS/Google Cloud Platform) de façon sécurisée. Familier de la méthodologie de déploiement en continu (Gitlab, infrastructure as code, CI/CD, Terraform) [DevOps] Compétences système et en développement (Linux, Python, Javascript, ..) Connaissance dans l’intégration des contrôles de sécurité dans la chaine de développement et les plateformes d’exécution cloud native (audit de code, security as code). Outils de protection des applications cloud natives (CNAPP, KSPM, CWPP, Dome9, Wiz, ...) Connaissances des normes et technologies propres à la cyber sécurité Connaissances des bonnes pratiques d’audit IT Connaissances des normes liées à la gestion des risques de conformité réglementaire. Vous êtes capable de promouvoir les bonnes pratiques sécurité sur les sujet Cloud. Capacité à créer et présenter des sujets complexes à différentes populations de personnes (Techniques, Manageurs…) Compétences comportementales : • Autonome et organisé ; • Bonne capacité à travailler en équipe ; • Bon relationnel et réactif; • Capacité à fédérer et entraîner derrière soi ; • Une bonne gestion des priorités ; • Force de proposition et amélioration continue ; • Un grand sens de l'analyse afin de gérer les projets de transitions, et d'anticiper les problèmes techniques potentiels. • Aptitude à s’adapter à ses interlocuteurs dans la communication Langues Anglais opérationnel
Offre d'emploi
Data Analyst Sénior F/H - Système, réseaux, données (H/F)
█ █ █ █ █ █ █
Publiée le
Data management
Scrum
SQL
Montpellier, Occitanie
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Offre d'emploi
Data Engineer
INFOGENE
Publiée le
40k-45k €
Lille, Hauts-de-France
Vous justifiez d’au moins 5 ans d’expérience en tant que Data Engineer dans un environnement technique exigeant. Vous avez une forte capacité d’analyse, aimez résoudre des problèmes complexes et construire des solutions scalables et durables. Vous êtes curieux(se), autonome et doté(e) d’un bon relationnel pour travailler efficacement avec des profils variés (techniques et métiers). Votre maîtrise de l’environnement cloud et votre esprit d’amélioration continue vous permettent de contribuer activement à l’évolution de la plateforme data de l’entreprise. Votre niveau d’anglais vous permet d’évoluer dans un contexte international et de lire de la documentation technique sans difficulté
Offre d'emploi
Développeur Back-End .NET Sénior – Expert Paiement / PSP (H/F)
OCSI
Publiée le
.NET
Azure
CI/CD
1 mois
50k-54k €
400-550 €
Paris, France
Contexte & Mission Pour un acteur majeur du retail / e-commerce , nous recherchons un Développeur Back-End .NET sénior , expert des systèmes de paiement (PSP) , pour intervenir au sein d’une Digital Factory à forts enjeux business. Le contexte est celui d’une plateforme e-commerce à fort volume , avec des objectifs clairs d’ industrialisation , de fiabilité transactionnelle , d’ amélioration continue de la qualité et de modernisation des interfaces et services . Vous interviendrez sur un produit en production critique , directement lié au parcours de paiement et au taux de transformation . Responsabilités Concevoir, développer et maintenir des services de paiement robustes, sécurisés et résilients Garantir la fiabilité des flux transactionnels : autorisation, capture, refund, 3DS, tokenisation, middle states, erreurs, retries, idempotence Améliorer en continu la fluidité du parcours de paiement et le taux de succès transactionnel Contribuer fortement à l’ observabilité : suivi des indicateurs transactionnels analyse des comportements en production détection proactive des signaux faibles Assumer la responsabilité du service en production : analyse et traitement des incidents garantie de la stabilité et de la performance Travailler en étroite collaboration avec les équipes : Produit, Sécurité, QA, DevOps, Cloud, Architecture Participer activement à l’ amélioration continue : performance, sécurité, conformité, résilience, refactorings ciblés, réduction de la dette technique S’inscrire dans une approche orientée résultat et valeur business
Offre premium
Mission freelance
Data Analyst - Expert Excel VBA
Keros group
Publiée le
Microsoft Access
Microsoft Excel
VBA
12 mois
300-450 €
Paris, France
Secteur : immobilier Dans le cadre d’un programme stratégique d’intégration de sociétés récemment acquises, nous recrutons un(e) Analyste Préparation de Données & Migration . Intégré(e) à la direction en charge des projets d’intégration, vous jouez un rôle clé dans : L’analyse et la compréhension des données sources Leur normalisation et préparation Leur migration vers les systèmes internes cibles Vous intervenez en interaction étroite avec les équipes IT, comptables, chefs de projets et équipes locales. Rattachement hiérarchique Poste rattaché à la Direction des Projets d’Intégration. Vos missions 1️⃣ Analyse, structuration et préparation des données Analyse des exports issus des outils métiers des sociétés intégrées Identification des spécificités et cas particuliers propres à chaque environnement Nettoyage, normalisation et organisation des données selon les standards internes Vérification de la complétude et de la cohérence des jeux de données 2️⃣ Réalisation des opérations de migration Préparation des jeux de données destinés aux imports Constitution des fichiers structurés par lots fonctionnels Réalisation des transcodages et enrichissements nécessaires Génération des fichiers destinés aux outils/kits de migration Tenue d’un journal des corrections et ajustements Contrôles post-migration : Rapprochements volumétriques (lots, contrats, interventions…) Rapprochements comptables (budgets, quittancement…) Contrôle de cohérence des références métiers Établissement d’une check-list finale et recensement des écarts 3️⃣ Contrôle qualité & sécurisation des données Mise à jour des tableaux de bord de contrôle Suivi des indicateurs qualité (taux de complétude, erreurs, écarts avant/après mapping) Identification, correction et documentation des anomalies Tenue d’un registre des écarts et actions correctives 4️⃣ Collaboration transverse Coordination avec les équipes IT, comptabilité et chefs de projets Interaction avec les agences locales pour clarifier et collecter les données Accompagnement et vulgarisation des besoins data 5️⃣ Standardisation & amélioration continue Documentation des règles, processus et modèles utilisés Optimisation continue des méthodes de transformation Proposition d’améliorations pour réduire les délais et fiabiliser les traitements Participation aux retours d’expérience post-migration Mise à jour des guides et templates opérationnels 6️⃣ Partage & montée en compétence Transmission des bonnes pratiques Contribution à la montée en compétence des équipes Modalités Déplacements ponctuels en agence possibles (audit et migration)
Mission freelance
Expert CyberArk
CAT-AMANIA
Publiée le
Azure
ISO 27001
RGPD
3 ans
200-700 €
Le Mans, Pays de la Loire
ISP (Intégration Sécurité Projets) : Accompagner projets IT/stratégiques en AMOA/AMOE cyber ; définir exigences sécurité (Secure by Design), analyser risques (ISO27005/EBIOS), valider architectures, établir dossiers sécurité. Gestion risques : Cartographie menaces/vulnérabilités, suivi remédiations, patch management, pentests/bug bounty. Opérations cyber : Support SOC/CSIRT (détection incidents, réponse crises), audits techniques, contrôles permanents. Gouvernance : Mise à jour PSSI, conformité RGPD/NIS2/DORA/ISO27001, reporting KRI/KPI, sensibilisation équipes. Veille/innovation : Menaces émergentes (IA, cloud souverain), outils McAfee/Defender, Azure/O365 sécurisés. Participez aux comités projets/gouvernance, force de proposition pour maturité cyber. Environnement agile, haut niveau sécurité.
Mission freelance
Proxy Product Owner Data – Corporate Finance Transformation
Freelance.com
Publiée le
Data management
ERP
P2P
1 an
540-600 €
Île-de-France, France
Dans le cadre d’un ambitieux programme de Finance Transformation au sein d’un grand groupe international, la Direction Data recherche un Proxy Product Owner Data pour piloter les initiatives Finance à forte composante data. Le périmètre couvre notamment les processus P2P (Procure-to-Pay) , O2C (Order-to-Cash) ainsi que les projets d’ automatisation des processus Finance dans un environnement structuré et exigeant. Description du poste Rattaché(e) au Data Office Groupe, vous intervenez en véritable interface stratégique entre les équipes Finance, IT et Data . À ce titre, vous : Identifiez et priorisez les initiatives Finance à fort impact data Traduisez les besoins métiers en exigences fonctionnelles et techniques Garantissez l’alignement avec les standards data et l’architecture groupe Validez les modèles de données et les choix d’architecture Contribuez aux cas d’usage d’automatisation (ex : Dataiku ou outil équivalent) Coordonnez les équipes Finance, IT et Data dans une logique transverse Assurez le suivi projet (jalons, risques, dépendances, reporting) Veillez au respect des exigences de gouvernance, qualité et sécurité des données Vous jouez un rôle clé dans la réussite de la transformation en garantissant que la donnée soit pleinement intégrée, exploitée et conforme aux standards du groupe.
Mission freelance
ingénieur DevOps et SRE
Codezys
Publiée le
Ansible
Automatisation
Azure
3 mois
350-400 €
Niort, Nouvelle-Aquitaine
Nous recherchons un ingénieur DevOps et SRE spécialisé dans un périmètre comprenant le Socle Outillage (impliquant le socle Java, les outils IA, ainsi que les sites PHP). Mettre à disposition et faire évoluer les outils ainsi que les pratiques associées dans un contexte DevSecOps. Administrer et superviser les solutions hébergées sur OpenShift et nos environnements Cloud Azure / Scaleway . Accompagner les équipes Scrum (squads) en matière de performance, de robustesse, de sécurité et de fiabilité tout au long du cycle de vie des produits SI. Participer à la mise en place et à la gestion des environnements de développement, de testing et de production. Automatiser et industrialiser les processus dans une optique DevOps afin de favoriser le déploiement continu. Contribuer à garantir l’exploitabilité et l’observabilité des produits. Proposer des recommandations pour le Capacity planning . Assurer la complétude du dossier d'exploitabilité . Participer à l'amélioration continue des produits. Maintenir à jour le dossier d'architecture intégrant les éléments liés à l'exploitabilité, à l'observabilité et à la performance. Créer et gérer des dashboards d'observabilité . Réaliser des supports d'accompagnement concernant "Modalités d'usage des dashboards" . Rédiger et communiquer des rapports d'incidents aux parties prenantes. Compléter les matrices Qualité-Performance . Objectifs et livrables Connaissances requises : Expérience en hébergement applicatif sous OpenShift/Kubernetes ainsi qu'une expérience sur un Cloud (Azure, Scaleway ou autres). SOLIDES connaissances en observation (supervision, traces, etc.). Bonne maîtrise des bonnes pratiques DevOps et/ou SRE . Connaissance des méthodes et outils de gestion de configuration . Une appétence pour le développement en Java et pour les outils d' IA (notamment MLFlow ) serait un atout supplémentaire.
Offre d'emploi
Data Analyst
Atlanse
Publiée le
Dremio
ETL (Extract-transform-load)
SQL
3 ans
45k-55k €
400-500 €
Issy-les-Moulineaux, Île-de-France
Dans le cadre d’un projet de simplification et d’optimisation des données, vous intervenez sur l’analyse et l’amélioration des flux de données transactionnelles et géographiques. Vous analysez l’usage des données, identifiez les incohérences et contribuez à la mise en place d’un cadre de gouvernance des données. Votre rôle Analyse des flux et structures de données Analyser la structure des flux de données transactionnelles, les données échangées et leurs usages Identifier les incohérences, redondances ou données inutilisées Proposer des simplifications et optimisations des flux de données Amélioration de la qualité et optimisation des données Réaliser des analyses détaillées de jeux de données pour détecter anomalies, incohérences et problèmes structurels Mettre en place des indicateurs et contrôles de qualité des données pour suivre et piloter les améliorations Contribuer aux actions de nettoyage et de fiabilisation des modèles et structures de données Documentation et structuration des référentiels de données Documenter les flux transactionnels : modèles de données, règles métier, cas d’usage et guidelines Mettre à jour et clarifier le Data Catalog, les modèles de données et les spécifications de flux Définir et formaliser les règles d’utilisation et d’alimentation des données Gouvernance et collaboration Partager les résultats d’analyse avec les parties prenantes Accompagner les équipes dans la définition de plans d’action pour corriger les anomalies détectées Contribuer à la mise en place du cadre de gouvernance des données : rôles, responsabilités, règles de gestion et suivi de la qualité des données Participer aux routines de gouvernance et à l’analyse des impacts IT liés aux évolutions des données
Offre d'emploi
Architecte Big Data
KLETA
Publiée le
Apache Kafka
Apache Spark
ELK
3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Architecte Big Data pour définir et piloter l’évolution des plateformes de données à grande échelle. Vous analyserez les architectures existantes, identifierez les limites techniques et proposerez des trajectoires cibles adaptées aux enjeux métiers, techniques et opérationnels. Vous guiderez la conception de nouvelles architectures distribuées en intégrant des technologies telles que Hadoop, Spark, Kafka, Iceberg/Delta Lake ou équivalents, ainsi que des principes modernes de lakehouse et de data mesh lorsque pertinent. Vous serez responsable des choix structurants en matière de stockage, de traitement, de gouvernance et de sécurité des données, en veillant à la performance, à la scalabilité et à la résilience des plateformes. Vous travaillerez étroitement avec les équipes Data Engineering, Cloud et DevOps pour garantir une mise en œuvre industrialisée, alignée avec les standards d’entreprise et les contraintes d’exploitation. Vous aurez également un rôle clé dans l’animation d’ateliers techniques, la formalisation de patterns d’architecture et l’accompagnement des équipes dans l’adoption des meilleures pratiques Big Data et data engineering.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
5156 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois