Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 4 138 résultats.
Freelance

Mission freelance
Product Manager Referentiel et data

Freelance.com
Publiée le
Confluence
Gherkin
JIRA

1 an
580-600 €
Île-de-France, France
Dans le cadre d’un programme stratégique au sein d’un grand acteur du financement et de l’assurance, nous recherchons un Product Manager Data & Référentiel pour intervenir sur un environnement SI métier complexe et transverse . La mission s’inscrit dans un train SAFe dédié aux applications métiers , avec une forte interaction entre plusieurs équipes produits et data. Le Product Manager interviendra sur deux domaines structurants : Référentiel et composants transverses Data / Infocentres Ces équipes couvrent les besoins mutualisés de plusieurs produits métiers et participent à la transformation des plateformes data. Vous serez amené à piloter des initiatives transverses impliquant différentes équipes et trains agiles, notamment autour de projets de modernisation data et d’amélioration continue des solutions. Une attention particulière est portée à l’intégration de l’IA dans les pratiques produits et dans la chaîne de delivery , afin d’améliorer la performance collective des équipes. En tant que Product Manager , vous serez garant de la vision produit et de la valeur délivrée : Définir des solutions désirables, viables et réalisables répondant aux besoins métiers Construire et porter la vision produit et la roadmap Élaborer et maintenir : la Roadmap Solution (vision pluriannuelle) la Roadmap PI (planification des features sur les Program Increment) Identifier et initier les Features et Enablers dans le backlog Gérer la priorisation du backlog produit Collaborer étroitement avec les métiers et les équipes Agile Animer des ateliers de recueil de besoins Traduire les besoins métiers en solutions livrables par les équipes techniques Piloter des projets transverses impliquant plusieurs équipes Contribuer à l’amélioration continue des pratiques produit et data
CDI

Offre d'emploi
Consultant SAP FI/CO (H/F)

IA Soft
Publiée le
SAP FICO

1 an
40k-45k €
400-550 €
Île-de-France, France
Le Consultant SAP FI/CO est chargé de l’analyse des besoins métiers, du paramétrage, du déploiement et du support des modules SAP Finance (FI) et Controlling (CO) . Il accompagne les équipes financières et de gestion dans l’optimisation des processus comptables, financiers et de contrôle de gestion via SAP. Il intervient sur les projets d’implémentation, d’évolution, de migration ou de support, en garantissant l’adéquation entre les besoins métiers, les solutions proposées et les standards de l’entreprise. . Responsabilités principalesAnalyse et cadrage des besoins Recueillir et analyser les besoins des équipes finance, comptabilité et contrôle de gestion. Traduire les besoins métiers en spécifications fonctionnelles. Participer aux ateliers de cadrage et à la définition des processus cibles. Conseiller les métiers sur les bonnes pratiques SAP FI/CO. Paramétrage et déploiement Réaliser le paramétrage des modules SAP FI et CO selon les besoins du projet. Participer à l’implémentation de nouvelles fonctionnalités et aux évolutions du système. Rédiger les spécifications fonctionnelles pour les développements spécifiques. Collaborer avec les équipes techniques et les développeurs ABAP pour la mise en œuvre des solutions. Assurer les tests fonctionnels, les recettes et le support au démarrage. Support et maintenance Assurer le support fonctionnel de niveau 2/3 sur les modules FI/CO. Analyser et corriger les incidents ou anomalies fonctionnelles. Participer à la maintenance évolutive et corrective du système SAP. Garantir la qualité et la fiabilité des flux financiers et de gestion. Coordination et accompagnement Former et accompagner les utilisateurs sur les processus SAP FI/CO. Rédiger la documentation fonctionnelle et les procédures utilisateurs. Participer aux projets transverses impliquant d’autres modules SAP (MM, SD, PP, BW, etc.). Assurer un rôle d’interface entre les équipes métiers, IT et les partenaires externes. Profil recherchéFormation Bac+4 / Bac+5 en finance, comptabilité, contrôle de gestion, systèmes d’information ou équivalent. Une spécialisation SAP ou ERP est un plus. Expérience Expérience de 3 à 7 ans minimum sur SAP FI/CO. Expérience significative sur des projets d’implémentation, de migration ou de support SAP. Une expérience en environnement international ou multisociétés est appréciée. Compétences requisesCompétences techniques Bonne maîtrise des modules SAP FI (comptabilité générale, fournisseurs, clients, immobilisations, banque) et SAP CO (centres de coûts, ordres internes, analyse de rentabilité, contrôle budgétaire). Bonne connaissance des processus financiers et de contrôle de gestion. Capacité à réaliser le paramétrage fonctionnel dans SAP. Connaissance des intégrations avec les autres modules SAP. Compréhension des interfaces, reprises de données et tests d’intégration. La connaissance de S/4HANA est un atout. Des notions en ABAP, SAP Query, Fiori ou reporting sont appréciées. Compétences comportementales Esprit d’analyse et sens du détail. Rigueur et méthode. Bon relationnel et capacité à interagir avec des interlocuteurs métiers et techniques. Capacité à résoudre des problématiques complexes. Autonomie, pédagogie et sens du service. Bonne communication écrite et orale. Objectifs du poste Garantir le bon fonctionnement et l’évolution des modules SAP FI/CO. Optimiser les processus financiers et de contrôle de gestion. Sécuriser les données et les flux comptables. Assurer la satisfaction des utilisateurs et la qualité du support apporté.
Freelance

Mission freelance
POT9070 - Un Architecte Technique Infrastructure Sur Paris 12

Almatek
Publiée le
VMware

6 mois
Paris, France
Almatek recherche pour l'un de ses clients, Un Architecte Technique Infrastructure Sur Paris 12. Description et localisation -En qualité d’architecte technique infrastructure et transverse vous êtes chargé : sur la base des dossiers d’architecture fonctionnelle et applicative de spécifier les infrastructures informatiques mutualisées ou dédiées (serveurs, LAN, WAN, SSI, socles techniques et middlewares) à mettre en œuvre en cohérence avec les directives techniques, dans le respect des coûts, des délais et des objectifs de performances et de qualité de service ; d’évaluer la pertinence et la cohérence des projets d’infrastructures de virtualisation (Vmware, Proxmox, Cloud) et transverse (IA, outillage, services) par rapport à l’architecture cible et aux systèmes existants (par des études d’opportunité, de définition des besoins, de choix d’architecture du système fonctionnel etc); de collaborer aux projets d’évolution et de rénovation des infrastructures mutualisées et dédiées: consolidation de l’infrastructure, capacité planning, analyse sécurité, ainsi que de l’optimisation des performances et de la résilience ; de participer ou piloter des ateliers techniques pour la réalisation de POC afin de faire des études comparatives en vue d’acquérir de nouvelles solutions ; d’élaborer les dossiers d’architecture technique des équipements stockage/sauvegarde et d’installation en relation avec les autres acteurs techniques ; d’élaborer et piloter le planning de mise en œuvre de ces infrastructures ou d’approvisionnement des ressources informatiques sur les plates-formes d’hébergement existantes ; de coordonner les acteurs chargés de l’installation des équipements ou de l’approvisionnement des ressources informatiques et vérifier la mise en œuvre de ce qui a été spécifié ; de démontrer dans les activités listées une maitrise des architectures et problématiques des infrastructures stockage/sauvegarde , incluant les PRA et PCA, dans un environnement Datacenter; de participer à l’élaboration du programme d’emploi des crédits et de gérer les budgets relatifs à l’acquisition des infrastructures du domaine d’expertise. Activités : Elaborer et formaliser l’expression de besoin Assurer la négociation et argumenter les choix effectués Concevoir et proposer des projets en adéquation avec les budgets et les plannings Assurer une veille technologique sur l'ensemble des évolutions du marché Participer à des salons professionnels, conférences, diverses manifestations susceptibles d'enrichir sa connaissance du marché Participer à la mise à jour du catalogue de services Contribuer à l’évolution des normes et standards Animer la relation avec les différentes parties prenantes (DTNUM, clients) Porter ou contribuer aux procédures d’appels d'offres ministériels et interministériels, en rédigeant des cahiers des charges, en dépouillant les offres des sociétés candidates. Compétences requises : Architecture d'Infrastructure / Wallix PAM / VMware
Freelance

Mission freelance
Data Engineer Informatica Talend Power B.I SQL (F/H)

CELAD
Publiée le
Big Data
Informatica
Microsoft Power BI

12 mois
400-460 €
Paris, France
Envie d’un nouveau challenge... CELAD vous attend ! 🚀 Nous poursuivons notre développement et recherchons actuellement un Data Engineer – Plateforme Epargne Financière pour intervenir chez un de nos clients du secteur bancaire. 💻💼 Voici un aperçu détaillé de vos missions 🎯 : - Sécuriser la gestion de l’actualisation de l’offre Epargne Financière en lien avec les équipes partenaires distributeurs et producteurs. - Faire évoluer la solution en respectant les standards à jour : implémentation de changements à valeur ajoutée pour le business et traitement de la dette technique. - Contribuer à la gestion du RUN et renforcer la robustesse de la solution. - Renforcer la supervision et la qualité des données.
Freelance

Mission freelance
WebApp Developer React / Node.js – Intégration GenAI (H/F)

HOXTON PARTNERS
Publiée le
Agent IA
GenAI
Node.js

12 mois
Paris, France
Dans le cadre du renforcement d’une équipe digitale, nous recherchons un WebApp Developer Fullstack afin de contribuer au développement d’une application web intégrant des fonctionnalités d’intelligence artificielle générative. Le rôle du consultant est centré sur l’intégration concrète de composants GenAI (LLM, APIs IA) au sein d’une application existante, avec un impact direct sur les parcours utilisateurs. Ce poste ne correspond pas à un rôle fullstack classique : une expérience réelle en intégration d’IA générative est indispensable.
Offre premium
Freelance

Mission freelance
Administrateur Système DevOps (F/H)

ODHCOM - FREELANCEREPUBLIK
Publiée le
Administration système
Docker
Monitoring

7 mois
300-430 €
Gradignan, Nouvelle-Aquitaine
Nous recherchons pour notre client, (Référencement direct FreelanceRepublik depuis 2019), un(e) Administrateur Système DevOps . Objet de la prestation : La prestation se déroulera dans le service « Socle Développement » ayant en charge la gestion de l’ensemble des outils de développement sur les technologies Systèmes Ouverts de l'entreprise : - IDE Java : Eclipse VSC - Fabrication : Maven - Gestion de sources : Svn / GIT - Gestion des livrables : Artifactory - Bug Tracker : JIRA / Kanboard - Gestion documentaire : Confluence / XWiki - Qualimétrie : SonarQube / Xray / CASR - Tests fonctionnels : Squash TM - Tests automatisés : Squash Autom - Intégration Continue : Jenkins - Industrialisation / GCL : Jenkins - Infrastructure : VM / Kub L’activité sur les outils est de 2 types : - administration technique (installation, montée de version, gestion des incidents, …) - administration fonctionnelle (administration, guide d’utilisation, bonnes pratiques, ...)
Freelance
CDI

Offre d'emploi
Architecte DATA CMDB SERVICE NOW

OBJECTWARE
Publiée le
ServiceNow

2 ans
Île-de-France, France
Dans le cadre de la mise en conformité avec les recommandations de la Banque Centrale Européenne (BCE) sur la fiabilité des référentiels IT, notre client engage un programme d’amélioration et de gouvernance de sa CMDB Groupe et de ses référentiels techniques . L’objectif de cette mission est de concevoir et mettre en œuvre une architecture de données robuste et gouvernée , permettant d’assurer la qualité, la cohérence et l’exploitabilité des informations relatives aux actifs IT. Le consultant interviendra au cœur du dispositif pour structurer et améliorer le modèle de données CMDB , industrialiser l’intégration des sources d’inventaire et renforcer la gouvernance des données techniques. Architecture et modélisation des données CMDB Concevoir et optimiser le modèle de données des référentiels IT techniques (Configuration Items, relations et métadonnées). Simplifier et rationaliser les structures existantes afin d’améliorer la lisibilité et la maintenabilité du modèle. Garantir l’évolutivité de l’architecture des données pour intégrer de nouvelles sources d’inventaire et répondre aux besoins futurs. Identification et réconciliation des données Définir et implémenter les règles d’identification et de réconciliation (IRE) au sein de ServiceNow CMDB . Déterminer les clés d’identification des Configuration Items afin d’assurer l’unicité et la cohérence des données. Mettre en place des mécanismes de consolidation des informations issues de multiples sources d’inventaire. Gestion des sources d’inventaire Identifier et qualifier les sources de données techniques alimentant les référentiels IT . Définir les sources de vérité pour chaque type d’information. Cartographier et structurer les flux d’alimentation des référentiels IT . Qualité des données et gouvernance Définir et mettre en œuvre une stratégie de Data Quality pour la CMDB : déduplication fiabilité des données complétude fraîcheur des informations gestion de l’obsolescence. Mettre en place des indicateurs de qualité et des tableaux de bord de suivi . Gouvernance des référentiels IT Appliquer les principes de Master Data Management (MDM) au contexte des référentiels IT. Définir les rôles et responsabilités autour des données (Data Owner, Data Steward). Structurer un cadre de gouvernance des référentiels IT documenté et partagé. Collaboration transverse Travailler en étroite collaboration avec les équipes : ITSM / CMDB ServiceNow Discovery équipes MDM sécurité IT infrastructures et exploitation. Accompagner les équipes responsables des inventaires techniques et outils de découverte . Reporting et produits de données Développer des produits de données exploitant les référentiels IT pour répondre aux besoins de reporting et d’audit. Contribuer à la production d’indicateurs et de tableaux de bord permettant de piloter la qualité et la fiabilité des données.
CDI

Offre d'emploi
DATA ENGINEER GCP

Peppermint Company
Publiée le
Apache Spark
Google Cloud Platform (GCP)
Hadoop

Sophia Antipolis, Provence-Alpes-Côte d'Azur
🎯 Contexte Dans le cadre d’un projet stratégique de transformation data, nous recherchons un Data Engineer orienté développement , capable d’intervenir sur une migration d’envergure d’Azure vers GCP . 🛠️ Missions principales Participation active à la migration des pipelines data d’Azure vers GCP Développement et optimisation de traitements data Conception d’architectures data robustes et scalables Collaboration avec les équipes data et métiers Contribution aux bonnes pratiques data engineering 🔧 Stack technique Google Cloud Platform (GCP) – niveau confirmé requis Apache Spark / Scala Hadoop ecosystem Forte orientation développement (profil Data Engineer "DEV")
Freelance

Mission freelance
Consultant Azure Data Factory/SQL Server

OAWJ CONSULTING
Publiée le
Azure Data Factory
Microsoft Power BI
Microsoft SQL Server

1 an
500-550 €
Paris, France
BESOIN URGENT!! Dans le cadre du renforcement de son équipe data, notre client recherche un consultant senior orienté data engineering avec une forte expertise bases de données. Secteur immobilier. Missions Conception et développement de pipelines avec Azure Data Factory Gestion et optimisation des bases de données Microsoft SQL Server Modélisation et structuration des données Optimisation des performances (requêtes, index, traitements) Mise en place de bonnes pratiques DevOps / CI-CD Collaboration avec les équipes techniques et métiers Profil recherché 7 à 10 ans d’expérience en Data Engineering Excellente maîtrise d’Azure Data Factory Forte expertise en Microsoft SQL Server Bonne connaissance des problématiques de performance et modélisation Culture DevOps appréciée Autonome, rigoureux et orienté résultats
Freelance
CDI

Offre d'emploi
TECH LEAD DATA – PALANTIR / PYSPARK / PYTHON

OCTOGONE
Publiée le
PySpark
Python

6 mois
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Dans le cadre d’un projet stratégique chez l’un de nos clients grands comptes, nous recherchons un Tech Lead Data disposant d’une forte expertise sur l’écosystème data moderne et les technologies Palantir. En tant que référent technique, vous interviendrez sur la conception, l’industrialisation et l’optimisation de pipelines data à forte volumétrie, tout en accompagnant les équipes dans la mise en œuvre des bonnes pratiques de développement et d’architecture. Responsabilités principales • Concevoir et piloter l’architecture des pipelines data • Développer et optimiser des traitements distribués en PySpark • Développer des composants et scripts en Python pour le traitement et l’orchestration des données • Intervenir sur les environnements Palantir (Foundry ou équivalent) • Encadrer techniquement les équipes data (data engineers / analysts) • Garantir la qualité, la performance et la fiabilité des pipelines • Participer aux choix d’architecture et aux décisions techniques • Collaborer avec les équipes métiers et les architectes data Compétences requises • Forte expertise Python et PySpark • Expérience confirmée sur des architectures data distribuées • Expérience sur la plateforme Palantir (Foundry idéalement) • Maîtrise des problématiques d’industrialisation data (ETL, orchestration, performance) • Expérience en rôle de Tech Lead ou référent technique • Bonne compréhension des enjeux data à grande échelle
Freelance
CDI

Offre d'emploi
Data Analyst

KLETA
Publiée le
PowerBI
Reporting

3 ans
Paris, France
Dans le cadre d’un programme de transformation data et décisionnelle, nous recherchons un Data Analyst pour analyser, structurer et valoriser les données au service des décisions métiers. Vous travaillerez étroitement avec les équipes métiers pour comprendre leurs besoins, définir des indicateurs pertinents et proposer des analyses adaptées. Vous serez responsable de l’exploration des données, de la construction de modèles analytiques simples et de la création de tableaux de bord lisibles et actionnables via des outils tels que Power BI, Tableau, Qlik ou équivalents. Vous participerez à la définition et à la fiabilisation des KPIs, en collaboration avec les équipes Data Engineering pour garantir la qualité et la cohérence des données sources. Vous réaliserez des analyses ad hoc, identifierez des tendances et formulerez des recommandations basées sur les données. Vous contribuerez également à la documentation des analyses, à la structuration des reportings et à l’amélioration continue des usages data au sein de l’organisation.
Freelance

Mission freelance
Data Engineer Nantes/pa

WorldWide People
Publiée le
Scripting

12 mois
340-360 €
Nantes, Pays de la Loire
Data Engineer Nantes Le Data Engineer est un expert en gestion des données, qui est chargé de la conception et de la maintenance de l’infrastructure data du périmètre en responsabilité Compétences Technique : •Langages de programmation et scripting (ex : SQL, Python, Java, Bash/Shell scripting, …) •Bases de données (ex : Base, Data Warehouse, Data Lake, Data Platform / Lakehouse, …). •Traitement des données (Frameworks Big Data, comme Apache Spark, Pipelines ETL/ELT, Streaming, …) •Cloud Computing (ex : Azure, Concepts cloud, stockage et calcul distribués, …) •Modélisation des données et architecture (ex : Modélisation des données relationnelles et dimensionnelles, modèle en étoile, en flocon, compréhension des architectures Data Lake, Data Warehouse, et Data Platform / Lakehouse, …) •Gestion et optimisation des schémas pour les performances. •DevOps et ingénierie logicielle (ex : outils CI/CD, conteneurs et orchestration, versionnement via Git/GitHub pour le suivi du code source, surveillance et journalisation, …) •Outils de gestion des données et gouvernance (Qualité des données : Vérification des duplications, gestion des erreurs, validation… Gouvernance des données : Connaissance des politiques comme le RGPD, gestion des catalogues, Sécurité des données…) Le Data Engineer est un expert en gestion des données, qui est chargé de la conception et de la maintenance de l’infrastructure data du périmètre en responsabilité Tâches : Infrastructures de données : •Cartographie et documente les sources de données. •Assure la maintenance des différentes applications données (Data) déployées en production et des infrastructures. •Conçoit les solutions permettant le traitement de volumes importants de flux de données et ceci en toute sécurité. •Structure les bases de données (sémantique, format, etc.). •Contribue à la gestion des référentiels de données. Intégration des données : •Capte et stocke, en toute sécurité, les données (structurées ou non) produites dans les différentes applications ou venant de l’extérieur de l’entreprise. •Assure la supervision et l’intégration des données de diverses nature qui proviennent de sources multiples. Vérifie la qualité des données qui entrent dans la Data Platform et s’assure de leur sécurité. •Nettoie la donnée (élimination des doublons…) et la valide pour une utilisation aval. •Animation des communautés : •Anime la communauté technique qui met en oeuvre les dispositifs prévus ou nécessaires à l’application de la politique de la donnée de l’entreprise. Veille technologique : •Reste en alerte sur les technologies liées au traitement de la manipulation de la donnée et identifie les solutions utilisables. •Propose des évolutions pour les infrastructures et solutions de données en place. Compétences Technique : •Langages de programmation et scripting (ex : SQL, Python, Java, Bash/Shell scripting, …) •Bases de données (ex : Base, Data Warehouse, Data Lake, Data Platform / Lakehouse, …). •Traitement des données (Frameworks Big Data, comme Apache Spark, Pipelines ETL/ELT, Streaming, …) •Cloud Computing (ex : Azure, Concepts cloud, stockage et calcul distribués, …) •Modélisation des données et architecture (ex : Modélisation des données relationnelles et dimensionnelles, modèle en étoile, en flocon, compréhension des architectures Data Lake, Data Warehouse, et Data Platform / Lakehouse, …) •Gestion et optimisation des schémas pour les performances. •DevOps et ingénierie logicielle (ex : outils CI/CD, conteneurs et orchestration, versionnement via Git/GitHub pour le suivi du code source, surveillance et journalisation, …) •Outils de gestion des données et gouvernance (Qualité des données : Vérification des duplications, gestion des erreurs, validation… Gouvernance des données : Connaissance des politiques comme le RGPD, gestion des catalogues, Sécurité des données…) Compétences Métier : •Compétences analytiques et mathématiques (Compréhension des statistiques pour interpréter les données et aider les équipes de Data Science, Familiarité avec les bases de l’apprentissage automatique et des modèles d’IA, …). •Résolution de problèmes : Capacité à identifier des inefficacités et à proposer des solutions. •Communication : Présentation claire des concepts techniques à des publics non techniques. •Adaptabilité : Apprendre rapidement de nouvelles technologies dans un domaine en constante évolution
CDI

Offre d'emploi
Ingénieur DevOps – Plateforme Data H/F

DSI group
Publiée le
Azure Data Factory
Azure DevOps

45k-55k €
Lyon, Auvergne-Rhône-Alpes
Missions principales: Déploiement et automatisation Concevoir, mettre en place et faire évoluer les outils de déploiement continu (CI/CD) pour les applications et traitements de données. Automatiser les processus d’intégration, de livraison et de déploiement des solutions analytiques. Maintenir les pipelines CI/CD et garantir leur fiabilité. Gestion de l’infrastructure Administrer et faire évoluer les infrastructures Linux supportant les plateformes analytiques. Maintenir les composants middleware, bases de données et outils techniques . Anticiper et gérer les problématiques liées à l’obsolescence, la sécurité et les évolutions fonctionnelles . Collaboration avec le SI Collaborer avec les différents acteurs du système d’information : Développeurs Architectes Équipes sécurité Équipes d’exploitation S’assurer de la conformité des solutions avec les standards et l’architecture de l’entreprise . Documentation et bonnes pratiques Rédiger et maintenir la documentation technique et opérationnelle . Formaliser les procédures liées aux déploiements et à l’exploitation. Travail d’équipe Participer aux cérémonies agiles et aux activités de l’équipe . Contribuer à l’amélioration continue des pratiques DevOps. Activités secondaires Étudier les évolutions de la plateforme data dans le cadre de la transformation du SI DATA (Cloud / On-Premise). Participer à la définition des solutions permettant d’assurer la continuité des activités analytiques dans un nouveau contexte DSI . Accompagner les équipes data dans l’adaptation aux nouveaux environnements technologiques.
CDI

Offre d'emploi
EXPERT SPARK DATA ENGINEER H/F

CELAD
Publiée le

42k-50k €
Rennes, Bretagne
Nous poursuivons notre développement et recherchons actuellement un(e) Expert Spark Data Engineer H/F pour intervenir chez un de nos clients. Contexte : La mission s’inscrit dans le cadre d’une solution de traitement de données à des fins de statistiques et de Business Intelligence. Vous interviendrez sur une architecture Data moderne reposant notamment sur Kafka Connect, Spark, Kubernetes et MongoDB, avec des enjeux de volumétrie importants : 350 bases de données 5 000 requêtes par seconde 1 To de données par an L’objectif est de réaliser un audit technique et de proposer des axes d’optimisation de la plateforme existante. Votre mission : Au sein d'une équipe projet, vous serez en charge de : - Réaliser un audit et un état des lieux technique de l’existant - Identifier les axes d’amélioration des traitements Spark (batch et streaming) - Optimiser les performances pour les flux temps réel - Définir les recommandations de dimensionnement de l’infrastructure - Proposer des améliorations sur MongoDB (modélisation et structuration des données) - Rédiger un document d’architecture cible et de préconisations
Freelance

Mission freelance
Développeur Infrastructure / DevOps – Plateforme Data (H/F)

Pickmeup
Publiée le
Azure
Kubernetes
Terraform

2 ans
500-600 €
75015, Paris, Île-de-France
🏢 Contexte Au sein d’une organisation publique innovante spécialisée dans la gestion et la valorisation de données à grande échelle , vous rejoignez la direction technique en charge de la conception, de l’implémentation et de la maintenance d’une plateforme Data sécurisée. Vous intégrerez une équipe technique dédiée à l’infrastructure, évoluant dans un environnement agile et collaboratif, en interaction avec des profils Data, Produit et Ops. La plateforme repose sur des technologies cloud modernes et des pratiques d’ Infrastructure as Code dans un contexte exigeant en matière de sécurité. 🚀 Missions En tant que Développeur Infrastructure / DevOps, vous interviendrez sur : 🔧 Développement & automatisation Développement et maintenance de l’infrastructure as code Automatisation des déploiements cloud à grande échelle Intégration de composants techniques au sein d’environnements Kubernetes ⚙️ Plateforme & performance Déploiement et maintenance de composants applicatifs et techniques Contribution à la stabilité, performance et évolutivité de la plateforme Collaboration avec les équipes Data pour répondre aux besoins métiers 🔐 Sécurité & bonnes pratiques Application des standards de sécurité et conformité Participation aux évolutions d’architecture Veille technologique et amélioration continue 📚 Documentation & collaboration Rédaction et mise à jour de la documentation technique Participation aux échanges techniques et partage de bonnes pratiques 🛠️ Environnement technique Cloud : Azure Infrastructure as Code : Terraform, Terragrunt, Packer, Ansible Conteneurisation : Kubernetes, Docker, Helm Scripting : Bash, Python Outils : Git, CI/CD, GitLab Data tools : Jupyter, Spark, PostgreSQL
CDI

Offre d'emploi
EXPERT SPARK DATA ENGINEER H/F

CELAD
Publiée le

Rennes, Bretagne
Nous poursuivons notre développement et recherchons actuellement un(e) Expert Spark Data Engineer H/F pour intervenir chez un de nos clients. Contexte : La mission s’inscrit dans le cadre d’une solution de traitement de données à des fins de statistiques et de Business Intelligence. Vous interviendrez sur une architecture Data moderne reposant notamment sur Kafka Connect, Spark, Kubernetes et MongoDB, avec des enjeux de volumétrie importants : 350 bases de données 5 000 requêtes par seconde 1 To de données par an L’objectif est de réaliser un audit technique et de proposer des axes d’optimisation de la plateforme existante. Votre mission : Au sein d'une équipe projet, vous serez en charge de : - Réaliser un audit et un état des lieux technique de l’existant - Identifier les axes d’amélioration des traitements Spark (batch et streaming) - Optimiser les performances pour les flux temps réel - Définir les recommandations de dimensionnement de l’infrastructure - Proposer des améliorations sur MongoDB (modélisation et structuration des données) - Rédiger un document d’architecture cible et de préconisations
4138 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous