L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 608 résultats.
Offre d'emploi
Data Governance Lead
Publiée le
Data governance
Gouvernance, gestion des risques et conformité (GRC)
KPI
Boulogne-Billancourt, Île-de-France
Télétravail partiel
Dans le cadre du déploiement d’un domaine majeur de conformité réglementaire lié au partage de données, une organisation internationale recherche un consultant senior pour accompagner la structuration, la gouvernance et le pilotage des dispositifs de conformité Data. La mission vise à apporter un support méthodologique, organisationnel et opérationnel afin d’aligner les pratiques, processus et gouvernances existantes avec les exigences réglementaires européennes relatives au Data Sharing. Le consultant interviendra en interface avec des équipes pluridisciplinaires (Data, IT, Sécurité, Juridique, Conformité et Métiers) et évoluera dans un environnement complexe et international. Il contribuera à la définition des modèles de gouvernance, animera et coordonnera des groupes de travail transverses, produira les livrables nécessaires à la prise de décision (roadmaps, plans d’action, supports de gouvernance) et accompagnera la transformation des pratiques liées à la gestion et au partage des données.
Mission freelance
Administrateur Base de données
Publiée le
24 mois
350-700 €
Paris, France
Télétravail partiel
PROPULSE IT recherche un consultant DBA Senior Cette prestation concerne un administrateur technique sénior en: 1.Bases de données Oracle, Posgresql, SQL Server et MongoDB 2.Serveur d'application TOMCAT et Oracle Application 3.Serveur WB Apache Important : Contexte de migration de BDD de serveurs physiques vers VM L'expérience dans ce type de contexte est donc nécessaire Cette prestation concerne un administrateur technique ayant des compétences en LinuxoRedhat Langages de scripts shell-Windows -Expérience d'exploitation indispensable -Bon esprit de synthèse -Bonne capacité relationnelle- Aptitude rédactionnelle -Expérience du contexte d'exploitation Linux
Offre d'emploi
Ingénieur DevOps Confirmé Projet CKISA - Sophia Antipolis(H/F)
Publiée le
CI/CD
GED (Gestion Électronique des Documents)
Jenkins
1 an
Sophia Antipolis, Provence-Alpes-Côte d'Azur
🎯 Contexte & Mission Dans le cadre du lancement d’un nouveau logiciel destiné à la gestion de crise dans le secteur médical, nous recherchons un Ingénieur DevOps Confirmé pour intégrer une équipe de 5 à 10 personnes . La solution inclura plusieurs modules : Communication en situation de crise Gestion des patients Services bureautiques Consultation & GED Services applicatifs innovants Le DevOps sera fortement sollicité au début du projet pour installer les outils, configurer les environnements et mettre en place les CI/CD. 🛠️ Missions principales Mettre en place les pipelines CI/CD (Jenkins) Automatiser les processus de build, test et déploiement Concevoir et gérer l’orchestration Docker / Kubernetes Gérer les environnements et l’infrastructure technique Contribuer aux spécifications et à la documentation Participer aux cérémonies Agile (Scrum) Surveiller et optimiser les performances Documenter, partager et améliorer les bonnes pratiques DevOps 📦 Livrables attendus Code, scripts & charts Documentation technique Spécifications techniques 🧰 Compétences techniques indispensables 🔥 Impératives Kubernetes – Confirmé Jenkins – Confirmé ⭐ Importantes Docker / Containers – Confirmé Nexus – Junior 🔧 Autres compétences appréciées Git / Maven Splunk – OpenSearch OpenID Connect – Keycloak Bases de données relationnelles Jira – Confluence Agile Scrum Normes qualité & sécurité Expérience dans le domaine médical → plus apprécié 🌍 Langues Français courant (impératif) Anglais lu/écrit 👤 Profil recherché Bac+2/3 à Bac+5 (école d’ingénieur, master) Minimum 4 ans d’expérience en DevOps Expérience déjà prouvée en : Automatisation et pipelines CI/CD Gestion de configuration Infrastructure Docker/Kubernetes Excellent communicant, autonome, collaboratif Esprit agile, adaptabilité, curiosité technique Capacité à monter en compétence rapidement
Offre d'emploi
Data Analyst Dataiku/Tableau/SAS
Publiée le
Dataiku
SAS
Tableau software
3 ans
40k-67k €
400-550 €
Île-de-France, France
Objectif de la mission Au sein du Pole Data & Analytics, dans l’équipe Data Monitoring Réseaux, dont la fonction principale est de délivrer les reportings et les Dashboard pour le réseau d’agence, nous étoffons notre équipe de data Analysts pour répondre aux demandes du Plan Stratégique 2026-2030. Prestations demandées Les missions sont : - Analyse, création, évolution et modification des traitements de données (création d'indicateurs & des codes références) - Uniformisation technique des processus de traitement de données - Supervision du bon déploiement des nouveaux processus de traitement - Vérification de la bonne intégration des données et de leurs référencements (mise à jour des glossaires associés) - Mise en place, maintenance et test des jeux de données - Automatisation des programmes avec DataIku - Prise en charge à la réalisation de la Visualisation avec Tableau (Desktop / Serveur) La maitrise de DataIku et de SQL sont indispensables. La maitrise de Tableau et SAS seraient de vrais plus.
Mission freelance
Data analyst
Publiée le
SQL
12 mois
400-500 €
Paris, France
Télétravail partiel
Cherry pick est à la recherche d'un Data analyst pour l'un de ses clients dans le secteur de l'énergie. 🎯 Objectifs de la mission Travailler en collaboration directe avec le Data Lead TGP , les BPO , les Data Domain Owners et les équipes achats afin de : Développer et maintenir le backlog des cas d’usage Data Quality . Paramétrer l’outil Tale of Data pour identifier les anomalies, rapprocher les données provenant de différents systèmes achats et produire les outputs attendus. Suivre et améliorer en continu le niveau de qualité des données à l’aide d’indicateurs fiables et automatisés. Accompagner les équipes dans la conduite et le pilotage des campagnes de nettoyage . Être force de proposition sur l’amélioration des processus, formats et traitements des données. 📌 Responsabilités & Livrables attendus 1. Gestion des cas d’usage Data Quality Identifier et co-construire les cas d’usage avec les BPO et Data Domain Owners. Maintenir et prioriser le backlog (nouveaux besoins, évolutions, corrections). 2. Paramétrage de l’outil Tale of Data Configurer les règles de contrôle qualité (contrôles automatiques, seuils, business rules). Réaliser les rapprochements de données entre les différents outils achats. Produire les livrables opérationnels : listes d’erreurs, fichiers de référentiels, exports de données, emails d’alertes automatiques. 3. Production de KPI Data Quality Définir et documenter les indicateurs de qualité par périmètre. Construire des dashboards permettant le suivi régulier de la qualité des données. 4. Support aux campagnes de nettoyage Préparation et communication des jeux de données à nettoyer. Suivi de l’avancement et relances auprès des équipes concernées. Consolidation des résultats et reporting. 5. Amélioration continue & Expertise Recommander des améliorations sur la structuration des données, les processus de traitement ou la gouvernance. Proposer des optimisations sur l’utilisation de l’outil Tale of Data.
Mission freelance
Manager Data / R&D (H/F) - 81
Publiée le
Big Data
3 mois
460-750 €
Castres, Occitanie
Télétravail partiel
Context Dans le cadre d’un programme de transformation data au sein de la R&D, notre client souhaite être accompagné dans la définition de sa stratégie data avec un focus fort sur la modélisation. La mission vise à établir un état des lieux précis, à définir une vision cible réaliste et ambitieuse, puis à construire une roadmap priorisée sur les 12 à 24 prochains mois. Mission 1. Diagnostic & analyse * Réaliser un état des lieux rapide et structuré des usages actuels de la donnée et des pratiques de modélisation au sein de la R&D. * Identifier les forces, faiblesses, opportunités et irritants dans les processus, outils et interactions. 2. Vision & stratégie * Définir une vision cible data claire couvrant : * La gestion et l’exploitation de la donnée, * Les pratiques de modélisation et de data science, * Les besoins associés : compétences, organisation, méthodes, technologies. * Proposer un cadre stratégique cohérent avec les ambitions R&D du groupe. 3. Roadmap Data * Construire une roadmap data 12–24 mois comportant : * Les initiatives prioritaires, * Les projets structurants liés à la modélisation et à la donnée, * Les quick-wins permettant un impact rapide, * Les critères de priorisation et de pilotage. 4. Animation & restitution * Animer des ateliers avec les équipes R&D (scientifiques, data, IT). * Faciliter la convergence vers une vision commune. * Produire des recommandations concrètes, opérationnelles et priorisées. * Restituer les livrables à la direction R&D et/ou Data.
Mission freelance
INGENIEUR DATA BI - GENIO
Publiée le
BI
24 mois
250-500 €
Paris, France
Télétravail partiel
INGENIEUR DATA BI GENIO / SQL / BIG QUERY / TERADATA / GCP nous recherchons un Data Engineer entre 3 et 7 ans d'expérience qui aura la capacité de gérer à la fois les aspects MCO/TMA mais également la partie projets pour les différentes directions du groupe en collaboration avec le reste de l'équipe. À la suite d'une passation avec notre centre de service, il devra également être en mesure d'innover et d'améliorer les processus existants pour perfectionner l'efficience de l'équipe au quotidien dans ses différentes tâches. DESCRIPTION DE LA MISSION • Participe à l'analyse du besoin avec la supervision du PPO ou Manager et à la conception du modèle de données permettant de répondre aux enjeux. • Utilise l'analyse des données pour fournir des éléments significatifs et éclairer la conception/mise en œuvre des projets • Conçois, développe et maintien les pipelines de données pour l'acquisition, la transformation, le stockage et la mise à disposition des données. • Optimise les performances des développements pour assurer une disponibilité et une fiabilité maximale • Identifie et résout les goulots d'étranglement et les problèmes de performances dans les flux de données • Met en place des processus et des contrôles pour garantir la qualité des données • Conçoit et met en œuvre des systèmes d'alerte, de monitoring et de reprise automatique efficaces. • Réalise la recette technique et anime la recette fonctionnelle avec les utilisateurs • Rédaction des documents associés au projet (Spécification Fonctionnelles, Spécifications Techniques, Cahier de recette Technique, Document d'exploitation) • Être force de proposition sur l'amélioration de notre stack Data • Faire le reporting d'avancement des travaux • Support au déploiement • Assure la maintenance corrective ou évolutive • S'assure de la cohérence des livrables avec les règles et bonnes pratiques définies au sein de l'équipe ENVIRONNEMENT TECHNIQUE L'environnement Data dans le cadre de cette mission est actuellement constitué principalement d'une base de données Teradata (Cloud) ainsi qu'un environnement BigQuery. • Langages/Framework : SQL, BigQuery, Python, Java, Shell • Outils : OpenText GENIO, Talend • Base de données : Teradata, BigQuery, SQL Server, IBM DB2 PLANIFICATION ET LOCALISATION Démarrage ASAP / PARIS
Mission freelance
Consultant Migration base de données (H/F)
Publiée le
Oracle Database
PostgreSQL
3 mois
400-550 €
Toulouse, Occitanie
Télétravail partiel
Notre client dans le secteur Agroalimentaire recherche un/une Consultant Migration base de données H/F Description de la mission : Dans le cadre de l'un de ses programmes, notre client souhaite faire appel à un freelance expérimenté sur la migration de base de données. Vous intégrerez ainsi l'équipe de notre client pour l'accompagner sur les différentes étapes de la migration de ses bases de données d'Oracle vers PostgreSQL. Vous serez en charge des activités suivantes : - Analyser les impacts des migrations - Définir les scénarios de migrations - Accompagner le client et ses équipes dans chaque étape du projet
Offre d'emploi
Data Analyst BI H/F
Publiée le
Business Intelligence
Business Object
ETL (Extract-transform-load)
36 mois
50k-60k €
450-550 €
Hauts-de-Seine, France
Télétravail partiel
Amago IT recherche dans le cadre d'une prestation de longue durée pour l'un de nos clients dans le secteur Assurance basé dans le 92 : un Data Analyste BI H/F Missions : · Assurer la maintenance évolutive de l'application existante, en veillant à son bon fonctionnement et à l’intégration des évolutions pour répondre aux besoins internes. · Contribuer à l'amélioration du processus de reporting en travaillant sur l’automatisation de la collecte de données et l'optimisation des traitements, afin de simplifier le processus tout en préservant la fiabilité et la précision des données. · Collaborer avec l’équipe interne pour définir les besoins fonctionnels et techniques, et pour déployer des solutions adaptées à l’amélioration de l'analyse de la performance commerciale. · Apporter une expertise technique et fonctionnelle pour l’optimisation des outils de reporting et pour le développement de nouvelles fonctionnalités. · Prendre en charge la maintenance des solutions déployées en apportant des améliorations continues et en veillant à leur adéquation avec les exigences métiers. · Effectuer une analyse détaillée des données afin d’identifier des axes d’amélioration dans les processus existants et proposer des solutions efficaces et adaptées aux enjeux commerciaux de l’entreprise. · Assistance aux utilisateurs pour les autonomiser. Aide à la gestion du changement.
Offre d'emploi
Business Analyst Data Management - Nantes
Publiée le
Business Analyst
Data management
JIRA
1 an
40k-45k €
400-550 €
Nantes, Pays de la Loire
Nous recherchons un consulant(e) Business Analyste Data confirmé(e) pour intervenir chez notre client dans le secteur bancaire à Nantes. Informations sur la mission Tâches Recueil et analyse des besoins Déclinaison des besoins en récits Préparation des supports Animation des ateliers avec différents interlocuteurs (pôle utilisateur / pôle produit...) Embarquement sur les données essentielles Gestion du run Communication sur les produits Attendu : Qualité des récits Adapatabilité du discours en de l'interlocuteur Transcription claire pour la fabrication des besoins collectées Ecoute active Sens des responsabilité
Offre d'emploi
Consultant Data - Gestion d'Actifs
Publiée le
Gestion de projet
1 an
40k-45k €
400-610 €
Paris, France
Télétravail partiel
Consultant Data - Gestion de Projets Un gestionnaire d'actifs recherche un consultant disposant d'une solide expertise dans la gestion de projets Data (au sein d'un gestionnaire d'actifs), ainsi que d'une bonne connaissance des données référentielles (instruments financiers et benchmarks). Le profil sélectionné jouera un rôle clé dans la transition des données et des processus vers la plateforme Data du groupe — une solution de gestion intégrée. Ses responsabilités incluront notamment : Soutenir la migration et l'intégration des données référentielles du Security Master et des benchmarks dans la plateforme. Collaborer avec les équipes internes afin de définir et valider les besoins en données, les mappings et les standards de gouvernance. Garantir l'intégrité et la cohérence des données migrées. Participer aux activités de tests, de rapprochement et de validation des processus.
Mission freelance
Data Analyst Senior – Contexte International (h/F)
Publiée le
Data analysis
1 an
400-550 €
Neuilly-sur-Seine, Île-de-France
Télétravail partiel
Dans le cadre d’un programme international de déploiement de systèmes vente, un acteur majeur du secteur média recherche un Data Analyst expérimenté (h/f)pour accompagner les équipes IT et les Business Units. La mission s’inscrit dans un environnement complexe et international, avec un fort enjeu de maîtrise des flux de données end-to-end, de sécurisation des migrations de données et d’industrialisation des processus de chargement. Missions principales Comprendre et piloter les flux de données de bout en bout entre systèmes Corporate et locaux Analyser les sources de données des Business Units et en évaluer la qualité Organiser et piloter les actions de data migration dans le cadre des projets de rollout Définir et formaliser des stratégies de migration de données claires et robustes Piloter les chargements de fichiers dans le respect des délais projet Collaborer étroitement avec les équipes produit sur les aspects techniques Animer les comités de restitution (avancement, risques, plans de mitigation) Contribuer à l’industrialisation des processus de data loading Assurer un reporting régulier auprès des chefs de projet
Mission freelance
Expert Qualité des Données CRM
Publiée le
CRM
24 mois
450-900 €
Paris, France
Télétravail partiel
PROPULSE IT recherche un Expert Qualité des Données CRM, avec une expérience significative en projet CRM en mode agile (salesforce) et en projet de migration. L'Expert CRM Data Quality sera intégré à l'équipe qui déploie des produits destinés aux Collaborateurs du client (y compris Salesforce, mais aussi des outils satellites, comme DocuGen / Docusign pour la signature électronique, Hubspot pour l'automatisation du marketing, Medallia pour les enquêtes, MayDay pour les connaissances, Genesys pour distribution de flux omnicanal). Objectifs de la mission : 1. Gestion de la qualité des données : Superviser et maintenir la qualité des données dans Salesforce CRM, en étroite collaboration avec les architectes pour définir et appliquer les normes, les procédures et les processus de contrôle qualité. 2. Expertise Salesforce CRM : Posséder une connaissance approfondie de l'architecture de données Salesforce, des objets standards et personnalisés, des objets relations et les meilleures pratiques en matière de modélisation des données. 3. Gestion de l'intégration : Collaborer avec les équipes techniques pour assurer des intégrations transparentes entre Salesforce CRM et des outils satellites tels que le marketing automation (Hubspot), la signature électronique (DocuGen/DocuSign), enquêtes de satisfaction (Medallia), etc. 4. Migrations de données : - Concevoir et exécuter des projets complexes de migration de données, en travaillant en étroite collaboration avec diverses unités commerciales pour garantir l'intégrité et la cohérence des données. - Assister et diriger les filiales de distribution lors de l'extraction des données. - Identifier les données à nettoyer (individuellement et en masse) et animer les filiales de distribution en nettoyage efforts. - Mettre en place des indicateurs de progression du nettoyage des données. - Expliquer le format pivot utilisé pour la migration des données. - Identifier les améliorations nécessaires aux différentes étapes de la validation des données. - Mettre en place des indicateurs pour suivre les progrès de la migration des données. -Fournir une description détaillée des livrables attendus. 5. Partenariat avec les Business Units : Travailler en partenariat avec différentes équipes métiers pour comprendre leurs besoins, proposer des données solutions et prendre en charge les déploiements de solutions CRM. 6. Documentation et formation : Développer et maintenir une documentation détaillée des processus, des normes de qualité et des meilleures les pratiques. Organiser des formations pour garantir l'adoption et la conformité.
Mission freelance
Data Engineer Senior
Publiée le
SAS
6 mois
Bruxelles, Bruxelles-Capitale, Belgique
Télétravail partiel
Nous recherchons un profil Senior Data Engineer très opérationnel, disposant d’une bonne compréhension du métier bancaire. Notre mission principale est de fournir des solutions digitales orientées métier (tableaux de bord, reporting ad hoc) pour les utilisateurs de la banque Corporate (Sales, Métiers, Management, etc.). Après la phase de staging, les données nécessaires sont fédérées dans un environnement de préparation destiné à alimenter les différentes solutions de visualisation via des flux Alteryx. Après avoir acquis une vue complète des systèmes existants, des flux de données et des objectifs métier de l’équipe, le Data Engineer Senior devra : - Améliorer et rationaliser les workflows Alteryx existants en appliquant les principes de clean code, en centralisant la logique, en supprimant les redondances et en améliorant la maintenabilité à long terme. -Mettre en œuvre ces améliorations de manière progressive à travers les environnements, en validant les impacts, en collaborant avec les utilisateurs et en garantissant l’absence de régression sur les tableaux de bord en aval. Description de la fonction : Les principaux axes d’amélioration porteront sur : -Intégration et qualité des données : Collaborer avec l’équipe Data Engineering pour ingérer les données provenant de différents systèmes, en assurant une intégration rapide des nouvelles sources avec un haut niveau de fiabilité et d’exactitude. -Simplification de la conception (design) : Simplifier les flux de données et les processus de conception existants afin d’améliorer l’efficacité, réduire la complexité et optimiser les performances globales du système. - Nettoyage (cleanup) : Identifier les jeux de données obsolètes, les fichiers inutilisés et les workflows abandonnés ; les refactoriser ou les supprimer et contribuer à l’harmonisation des règles d’historisation et de rétention afin de maintenir un paysage data propre et durable. -Conception de macros et de composants : Concevoir et maintenir des macros Alteryx réutilisables pour centraliser les schémas de transformation récurrents, garantir une logique cohérente entre les workflows et réduire la dette technique, tout en documentant et validant les changements avec les utilisateurs impactés. -Harmonisation des processus legacy : Rationaliser la coexistence SAS et Alteryx en supprimant les composants SAS obsolètes et en migrant les transformations utiles vers une logique Alteryx cohérente et maintenable. Réduire les duplications et la complexité multi-plateformes. -Opérations de release : Soutenir et améliorer les processus de déploiement et de mise en production en augmentant l’automatisation et les contrôles qualité afin de rendre les déploiements plus sûrs, plus rapides et plus prévisibles. -Documentation : Appliquer et renforcer les standards de documentation des jeux de données et des workflows, en assurant un nommage cohérent et des descriptions claires pour une compréhension partagée, une découverte facile et une utilisation efficace par tous les membres de l’équipe. -Monitoring : Mettre en place et maintenir des systèmes de surveillance robustes pour suivre la qualité des données et les performances, permettant une identification et une résolution rapides des incidents. -Gestion multi-instances : Superviser la gestion des batchs quotidiens afin d’assurer la cohérence, la synchronisation et une utilisation efficace des ressources à travers les différents environnements.
Mission freelance
CONSULTANT MOE BI ORIENTE DATA
Publiée le
BI
MOE
24 mois
275-550 €
Nanterre, Île-de-France
Télétravail partiel
Consultant MOE BI / Domaine Socle Data Expérience ciblée : 3-4 ans minimum Compétences impératives - Compétences techniques : Conception / Modélisation BI (Flux & modèles de données) Expériences significatives sur la mise en place complète de projets BI Data ETL (conception, modélisation, réalisation) et sur le RUN en environnement Full Microsoft (SSIS, SQL Server : Modélisation, procédures stockées, optimisation SQL, etc.). Connaissance et mise en œuvre de la suite Microsoft AZURE DEVOPS (Git, Board Agile, Pipeline de déploiement CI/CD). Anglais professionnel courant - Compétences organisationnelles Expérience significative sur l'implémentation de projets BI d'intégration de données (datawarehouse & datamarts) Avoir la capacité de mener des mini-projets en autonomie tout en étant accompagné par un(e) maitrise d'ouvrage et/ou le métier. Capacité à s'organiser, à s'adapter sur les priorités, à synthétiser l'état d'avancement de ses activités et à remonter les alertes si besoin. - Compétence(s) appréciée(s) : Outils de reporting BI : TABLEAU, IBM Cognos, Power BI Habitué aux relations avec des partenaires offshore Certifications sur la suite MSBI - Descriptif détaillé de la mission : Assurer le RUN des applications existantes (ETL, Bases de données, support niveau 3) Comprendre les enjeux métier, problématiques à résoudre et opportunités à concrétiser. Echanger et challenger les besoins métiers avec les équipes AMOA BI en tenant compte des contraintes techniques. Proposer, concevoir et spécifier des solutions techniques viables, évolutives et tenant compte de l'existant. Rédaction des documents techniques (spécification techniques, document d'exploitation…etc). Conseiller, proposer des axes d'amélioration, alerter si besoin. - Environnement technique de la mission : Socle Data : SSIS, SQLServer (2016), procédures stockées, Azure DevOps (Git, Board Agile, Pipeline de déploiement CI/CD) Reporting : COGNOS BI 10.2 et 11 & Tableau Date début de mission : ASAP Durée estimée de la mission : longue - 3 mois (renouvelables)
Mission freelance
Ingénieur Big Data / Infrastructure en Île-de-France
Publiée le
Big Data
Cloud
Infrastructure
6 mois
Île-de-France, France
Télétravail partiel
Au sein d’une DSI ou d’une équipe Data/Cloud en pleine transformation numérique, l’ingénieur Big Data / Infrastructure intervient pour concevoir, déployer et maintenir des plateformes de traitement de données à grande échelle. Il joue un rôle clé dans la fiabilité, la performance et la sécurité des environnements Big Data utilisés par les data engineers, data scientists et équipes métier. Responsabilités principales 1. Conception et mise en place de l’infrastructure Big Data Concevoir des architectures de données distribuées (Hadoop, Spark, Kafka, HDFS, NoSQL, S3…). Participer au dimensionnement des clusters, à la définition des SLA et des bonnes pratiques d’industrialisation. Déployer et configurer les services Big Data dans un contexte On-premise, Cloud (AWS/GCP/Azure) ou hybride. 2. Administration et exploitation des plateformes Assurer l’administration quotidienne des clusters : gestion des ressources, supervision, montée de version, tuning des performances. Implémenter des mécanismes de haute disponibilité, d’équilibrage de charge et d’optimisation du stockage. Réaliser des diagnostics avancés en cas de dysfonctionnement et mettre en place des correctifs durables. 3. Automatisation, CI/CD et industrialisation Développer et maintenir des pipelines d’automatisation (Terraform, Ansible, Jenkins, GitLab CI…). Standardiser les déploiements via Infrastructure as Code. Contribuer à l'amélioration continue de la plateforme, en proposant des optimisations de performance et des outils de monitoring. 4. Sécurité, conformité et gouvernance Intégrer les contraintes de sécurité : gestion des accès (Kerberos, IAM, Ranger), chiffrement, segmentation réseau. Participer à la mise en œuvre de la gouvernance Data (catalogue, lineage, qualité, traçabilité). Veiller au respect des politiques RGPD et des normes internes. 5. Support aux équipes Data et accompagnement technique Accompagner les data engineers, développeurs et data scientists dans l’utilisation des ressources Big Data. Optimiser les jobs Spark/Kafka/Hadoop pour réduire les coûts et améliorer la latence. Participer à la rédaction de documentation technique, guides d’usage et bonnes pratiques.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Entretiens et tests techniques developpeurs Java Angular junior
- Freelance : peu de retours sur mes candidatures – vos stratégies ?
- Gestion d’entreprise : astuces pour freelances IT
- Traitement fiscal des cotisations sociales payées en 2025 sur CA micro-BNC 2024
- L'EI à l'IS est-elle toujours plus intéressante qu'à l'IR ?
- ESN qui cherche à trop marger
2608 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois