Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 1 309 résultats.
Freelance

Mission freelance
233453/Développeur - CRM e-Deal CRM 2024 (Efficy) Lyon

Publiée le
CRM

6 mois
400-480 £GB
Lyon, Auvergne-Rhône-Alpes
Développeur - CRM e-Deal CRM 2024 (Efficy) Lyon Ce profil devra assurer le développement, l’intégration et la mise en œuvre technique de la solution e-Deal CRM 2024 (Efficy) conformément aux besoins métiers validés par le chef de projet SI . L’intégrateur veille à la qualité technique, à la maintenabilité des développements et au transfert de compétences vers les équipes internes. Objectifs et livrables Concevoir, développer et maintenir les interfaces et connecteurs entre la solution CRM e-Deal (Efficy) et les systèmes tiers (ERP, référentiels, outils métiers, etc.). • Réaliser les développements spécifiques et paramétrages techniques avancés : scripts, règles métier, automatisations, formulaires complexes, écrans dynamiques, workflows, etc. • Gérer et superviser les API, web services et flux de données pour garantir leur fiabilité et leur sécurité. • Participer aux migrations de données (extraction, transformation, chargement) et assurer la qualité et la traçabilité des données transférées. • Garantir la cohérence, la performance et la sécurité des flux d’échanges de bout en bout. • Rédiger la documentation technique des développements et assurer leur maintien à jour. Administrer et maintenir les environnements techniques : développement, recette, formation, préproduction et production. • Assurer la mise à jour, la synchronisation et la cohérence des environnements avec les versions fournies par l’éditeur. • Contribuer à la définition et à la mise en œuvre de plans de déploiement (scripts, automatisation, packaging, rollback, etc.). • Mettre en place, lorsque nécessaire, des chaînes CI/CD pour automatiser les déploiements, les tests et les contrôles qualité. • Surveiller la disponibilité, la performance et la conformité des versions applicatives sur l’ensemble des environnements. • Participer à la gestion des incidents techniques et à la résolution des anomalies liées aux déploiements. Contribuer à la définition, l’évolution et la documentation de l’architecture technique cible du CRM. • Participer aux comités techniques, points d’avancement et arbitrages avec la DSI, le chef de projet et les partenaires internes/externes. • Coordonner les actions techniques avec l’éditeur Efficy : qualification des anomalies, suivi des tickets, réception et validation des correctifs. • Veiller à la conformité des développements avec les standards du produit, les bonnes pratiques de l’éditeur et les politiques internes (sécurité, RGPD, qualité). • Participer à la montée en compétence technique des équipes internes (transfert de connaissance, accompagnement, documentation). Garantir la conformité des développements et paramétrages aux normes en vigueur : RGAA (accessibilité), RGPD (protection des données personnelles) et politiques de sécurité du SI. •
Freelance

Mission freelance
Senior Data Engineer Optimisation et stabilisation d’une pipeline PySpark (Forecast ML)

Publiée le
Amazon Elastic Compute Cloud (EC2)
Amazon S3
AWS Cloud

1 mois
750 €
Paris, France
Télétravail partiel
Profil : Senior Data Engineer · Contexte de la mission : L’équipe Supply Zone Forecast (SZF) développe et maintient les modèles de prévision de la demande et des ventes pour l’ensemble des produits Décathlon, par centre d’approvisionnement continental. Aujourd’hui, notre pipeline est en production sur l’Europe, la Chine et l’Inde, et notre ambition pour 2026 est d’étendre la couverture à LATAM et MEA. Dans ce cadre, nous recherchons un Data Engineer Senior expérimenté sur PySpark et l’optimisation de pipelines. Notre Stack Data : AWS (S3, ECR, EKS); Databricks; Airflow; Pyspark; Python Et Github. La mission portera principalement sur la reprise, l’optimisation et la refonte partielle du module de “refining”, hérité d’une autre équipe . Ce module présente aujourd’hui plusieurs limites : lenteur d'exécution (compute), manque de gouvernance, faible modularité, documentation incomplète et difficulté à évoluer ou à scaler à l’échelle mondiale. Le contexte inclut également plusieurs dettes techniques autour de la stabilité, de la qualité du code et du renforcement des tests (unitaires et fonctionnels) La mission se déroulera sur site à Paris , au sein du pôle data Digital Principales responsabilités Refonte et optimisation du module “Refining” : Auditer le code existant, identifier les goulots de performance et axes d’amélioration. Revoir la structure du code pour renforcer la modularité, la lisibilité et la maintenabilité. Mettre en place une documentation claire et partagée (technique + fonctionnelle). Optimiser le traitement PySpark (logique de partitionnement, cache, broadcast, etc.). Proposer une approche flexible pour l’ajout de nouvelles features. Renforcement de la robustesse et de la qualité : Implémenter ou renforcer les tests unitaires et fonctionnels. Améliorer la stabilité globale de la pipeline ML de forecast. Participer à la mise en place de bonnes pratiques d’ingénierie logicielle (CI/CD, gouvernance du code, monitoring). Collaboration et transfert de compétences : Travailler étroitement avec les Data Scientists et lMachine Learning Engineers de l’équipe SZF. Assurer un transfert de connaissances clair et structuré à l’équipe interne. Contribuer à la montée en compétence collective sur PySpark et la scalabilité de pipelines ML. Livrables attendus : Module “refining” refactoré, documenté et testé Rapports d’audit et plan d’optimisation validés Documentation technique centralisée Pipeline stable et industrialisable à l’échelle mondiale
Freelance

Mission freelance
Data Engineer / MLops expérimenté ou sénior Python, Pydantic, PymuPDF/3 jours TT

Publiée le
Machine Learning
Python

6 mois
410-550 £GB
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Data Engineer / MLops expérimenté ou sénior Lyon (2 jours TT) Python, Pydantic, PymuPDF Compétences attendues : Pipeline de données et de machine learning Compétences en programmation (Python, Pydantic, PymuPDF) Compétences sur les services d’IA d’AWS (sagemaker) et des services AWS (StepFunction, Lambda, SQS, CloudWatch, Textract…) Compétences en computer Vision par réseaux de neurones Outils de DevOps et de Cloud Computing (Terraform) Processus CI / CD Outils d’automatisation Méthodologies agiles (Jira, Confluence, Kanban, Scrum…) Connaissance des principaux LLM dont les modèles Gemini Compétences en optimisation sous contraintes et connaissance d’outils comme ORTools Localisation de la mission : Lyon 2 jours de présence sur site Date de démarrage : Début janvier Minimum 3 ans d’expérience Profils expérimentés (3 à 7 ans d’expérience) Profils senior (7 ans et +) Missions : Détection d’opportunités IA/ML et contribution à des preuves de concept (POC) (Identifier et analyser des opportunités IA/ML, concevoir et documenter des POC fonctionnels, puis présenter et évaluer leur valeur métier et robustesse auprès des parties prenantes.) Développement de fonctionnalités de Machine Learning et d'IA (Concevoir et valider l’architecture SI, collaborer avec l’équipe produit pour intégrer des fonctionnalités IA/ML, livrer des incréments industrialisables et contribuer à la documentation technique et produit.) Industrialisation et standardisation des pratiques IA / MLOps (Intégrer et déployer des modèles IA avec des formats standard, optimiser leur performance et coût, assurer le monitoring et les mises à jour, contribuer aux pratiques MLOps et réaliser une veille technologique en ML/IA.)
Freelance

Mission freelance
Manager Réseau Sécurité Datacenter - Cloud privé

Publiée le
Cloud

24 mois
450-900 €
Paris, France
Télétravail partiel
PROPULSE IT recherche un Manager/Pilote - Réseau et Sécurité Datacenter afin d'assister le client dans le pilotage de l'aquipe de consultants experts Le service s'occupe de la conception, la mise en œuvre et l'industrialisation de l'Infra réseau et sécurité au sein des datacenters et cloud privé. Cela, de l'élaboration de la stratégie, la conception, à la mise en œuvre technique et le support des Infras en datacenter (Cloud privé on premise) Le poste consiste à : - Seconder le manager des équipes d'experts - Accompagner l'établissement de la Roadmap - Optimiser les processus et les livrables, ainsi que l'organisation - Accompagner le pilotage des projets - Gérer les priorité, fluidifier le fonctionnement - Budgets Contexte des projets de l'équipe : Virtualisation, Stockage et le socle Réseau datacenter - Etude et analyse des opportunités d'évolution des infras Réseau & Sécurité - Mise en œuvre de projets d'infras réseau & sécurité - Support technique N3 sur les technologies réseau & sécurité Contexte technique • Réseaux LAN : Cisco Fabric Path/VxLAN, • Solutions de sécurité dans le cloud (Proxy ZScaler, Idp OKTA …) • Infras de Sécurité : Checkpoint, Fortinet, Palo Alto et F5 (LTM et APM) • Scripting Shell, Ansible Network Automation, Terraform • Système : Redhat linux 8, Windwos 2019 Les compétences fonctionnelles attendues sont les suivantes (par ordre de priorité) : • Conception des architectures et expertise • Support N3 en réseau et sécurité, notamment ZScaler, Checkpoint, Fortinet et F5 • Rédaction/ Enrichissement de base de connaissances • Reporting de l'activité projet au management
Freelance
CDI

Offre d'emploi
Lead ML Engineering (26)

Publiée le
Google Cloud Platform (GCP)
Python

1 an
40k-45k €
400-800 €
Île-de-France, France
Télétravail partiel
Lead ML EngineeringContexte de la mission Création d'une équipe dédiée à la personnalisation (PO, DS, Lead MLE, MLE) pour lancer des cas de recommandation et de ML en production. Stack GCP incluant Python, Vertex AI, BigQuery, Cloud Run, Airflow/Cloud Composer (et autres services GCP). Objectifs : créer les premiers use cases, déployer & A/B tester en prod, monitorer la performance. Activités attendues Définir l'architecture & la feuille de route technique (performance, scalabilité, sécurité). Coacher l'équipe pour garantir la qualité du code/modèles. Concevoir, construire & maintenir des pipelines ML de la collecte à l'exposition via API REST. Organiser le stockage ; assurer scalabilité, sécurité, stabilité des environnements. Mettre en place des infrastructures scalables et les workflows CI/CD ; industrialiser les modèles avec les DS. Collaborer avec Data Engineers & équipes techniques ; documentation & veille ; participation au cadrage/planification/réalisation.
Freelance

Mission freelance
Tech Lead CIAM/AUTH0

Publiée le
oauth

6 mois
600-700 €
Île-de-France, France
Télétravail partiel
Implémentation & Développement Développer les composants CIAM : actions (ex: post-login), custom DB scripts. Support sur des flows avec ACUL Mettre en place les configurations avancées Auth0 (applications, connexions, policies, MFA). Assister pendant les intégrations front, back et mobile selon les patterns définis par l’architecte. Configuration & Intégration Gérer l’intégration de nouvelles applications Préparer des configurations “plug-and-play” pour accélérer l’onboarding des nouvelles apps. Mettre en place et maintenir les pipelines CI/CD spécifiques à la gestion des configurations Auth0. Assurer la gestion du contrôle de version des configurations (GitOps, Terraform, etc.). Support & Run Assurer le support de niveau 2 sur le CIAM : troubleshooting, résolution de bugs, diagnostics techniques. Analyser les incidents liés à l’authentification, aux tokens, aux intégrations API ou SDK. Suivre et traiter les alertes, évolutions et communications du vendor (Auth0), en lien avec le Core Team / Global CoE. Travail transverse Collaborer avec les équipes backend, frontend et mobile pour garantir une intégration cohérente. Travailler en support de l’architecte solution pour valider les choix techniques. Contribuer aux ateliers techniques et aux échanges produit/sécurité/juridique lorsque nécessaire.
Freelance

Mission freelance
Cloud Architect / Solution Architect AWS Senior

Publiée le
AWS Cloud

12 mois
580 €
Paris, France
Intitulé du poste Cloud Architect AWS Senior / Solution Architect Confirmé Responsabilités principales Volet Cloud & Platform Engineering Concevoir et déployer des architectures AWS de bout en bout Développer et maintenir les infrastructures via Terraform (IaC) Apporter une expertise AWS, DevOps et Kubernetes aux feature teams Accompagner les équipes dans leur move-to-cloud Évangéliser la plateforme cloud interne Assurer un rôle de coach et de référent technique Contribuer à l’amélioration continue de l’offre de services cloud Volet Architecture Solution Corporate Définir des solutions d’architecture pour les applications Corporate Travailler avec le Domaine Architecte et les équipes Architecture d’Entreprise Intervenir sur des architectures hybrides : On-Prem, SaaS, PaaS, Cloud public Documenter l’existant (HLD, LLD, schémas, modélisation) Alimenter et maintenir le référentiel applicatif via l’outil d’EA (LeanIX) Contribuer aux stratégies de rationalisation, consolidation et réduction de dette technique Garantir le respect des standards groupe (notamment sécurité) Être point de contact des équipes projets, MOA, IT OPS et Sécurité Livrables attendus Code Terraform Dossiers d’architecture technique (HLD, LLD, schémas) Documentation d’architecture solution Mise à jour du référentiel applicatif (LeanIX) Compétences techniques requises (impératives) AWS : Expert Terraform : Expert Architecture Cloud : Confirmé à expert DevOps : Confirmé Kubernetes : Confirmé Architecture applicative (Cloud & Legacy On-Prem) Anglais professionnel / courant (impératif) Compétences importantes / appréciées LeanIX (Enterprise Architecture) Vision urbanisation SI / architecture d’entreprise Connaissance AWS et/ou Azure Certification TOGAF (plus)
Freelance

Mission freelance
Cloud Architect AWS

Publiée le
Terraform

12 mois
580 €
Paris, France
Télétravail partiel
Contexte le client recherche un Cloud Architect AWS senior pour intervenir dans un contexte international, orienté platform engineering. La mission s’inscrit dans un programme de move-to-cloud visant à accompagner les feature teams dans la conception, le déploiement et l’adoption de la plateforme cloud interne AWS. Nous connaissons le client final derrière l’appel d’offres, ce qui permet un processus rapide en cas de bon profil. Localisation et organisation Site principal : Évry Déplacements ponctuels : Issy-les-Moulineaux Mode de travail : Hybride Présence sur site : 2 jours par semaine (mardi et jeudi) Responsabilités principales Concevoir et déployer des architectures AWS de bout en bout Développer et maintenir les infrastructures via Terraform (infrastructure as code) Apporter une expertise AWS, DevOps et Kubernetes aux feature teams Accompagner les équipes dans leur move-to-cloud Évangéliser la plateforme cloud interne et favoriser l’adoption des standards Assurer un rôle de coach et de référent technique Recueillir les retours des équipes pour améliorer l’offre de services cloud Contribuer à la coordination technique et à la chefferie de projet sur le périmètre cloud Livrables attendus Code Terraform Dossier d’architecture technique Compétences techniques requises (impératives) AWS : Expert Terraform : Expert DevOps : Confirmé à expert Kubernetes : Confirmé Architecture cloud AWS Bonnes connaissances infrastructures et opérations Compétences linguistiques Anglais courant impératif (contexte international) Soft skills attendus Proactivité et autonomie Capacité de coaching et de transmission Posture de référent / leader technique Excellent relationnel et pédagogie Capacité à travailler en environnement transverse et internationa
Freelance

Mission freelance
testeur sepa monétique

Publiée le
SEPA

12 mois
350-490 €
Charenton-le-Pont, Île-de-France
Télétravail partiel
Expertises demandées : Maitriser les règles et les mécanismes des flux de paiements SEPA et CFONB. Bonne connaissance des systèmes d’échanges interbancaires (CSM) Expérience du métier d'homologateur (connaissance JIRA/Xray est un plus) Bon relationnel (capacité de travailler avec différentes équipes internes et externes) Esprit d'équipe Missions principales : -Valider que les évolutions fonctionnelles livrées correspondent bien au cahier des charges -Valider que les correctifs livrés résolvent totalement les anomalies décelées sans provoquer de régression. Constituer les cahiers de recettes et intégrez ceux ci dans les référentiels Xray JIRA Estimer la charge de recette et planifier les recettes Réaliser les tests d'acceptance dans l'environnement d'intégration, les tests de non régression et recettes fonctionnelles dans l'environnement de recette, validation de patch en environnement de recette RUN. Dérouler les scénarios dans XRAY Constituer le reporting présentant l'avancement des recette
Freelance

Mission freelance
Data Engineer / MLops expérimenté ou sénior Python, Pydantic, PymuPDF/3 jours TT

Publiée le
Machine Learning
Python

6 mois
410-550 £GB
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Data Engineer / MLops expérimenté ou sénior Python, Pydantic, PymuPDF Compétences attendues : Pipeline de données et de machine learning Compétences en programmation (Python, Pydantic, PymuPDF) Compétences sur les services d’IA d’AWS (sagemaker) et des services AWS (StepFunction, Lambda, SQS, CloudWatch, Textract…) Compétences en computer Vision par réseaux de neurones Outils de DevOps et de Cloud Computing (Terraform) Processus CI / CD Outils d’automatisation Méthodologies agiles (Jira, Confluence, Kanban, Scrum…) Connaissance des principaux LLM dont les modèles Gemini Compétences en optimisation sous contraintes et connaissance d’outils comme ORTools Localisation de la mission : Lyon 2 jours de présence sur site Date de démarrage : Début janvier Minimum 3 ans d’expérience Profils expérimentés (3 à 7 ans d’expérience) Profils senior (7 ans et +) Missions : Détection d’opportunités IA/ML et contribution à des preuves de concept (POC) (Identifier et analyser des opportunités IA/ML, concevoir et documenter des POC fonctionnels, puis présenter et évaluer leur valeur métier et robustesse auprès des parties prenantes.) Développement de fonctionnalités de Machine Learning et d'IA (Concevoir et valider l’architecture SI, collaborer avec l’équipe produit pour intégrer des fonctionnalités IA/ML, livrer des incréments industrialisables et contribuer à la documentation technique et produit.) Industrialisation et standardisation des pratiques IA / MLOps (Intégrer et déployer des modèles IA avec des formats standard, optimiser leur performance et coût, assurer le monitoring et les mises à jour, contribuer aux pratiques MLOps et réaliser une veille technologique en ML/IA.)
Freelance

Mission freelance
SysOps Kubernetes

Publiée le
Kubernetes

6 mois
400-530 €
Lyon, Auvergne-Rhône-Alpes
nous recherchons un administrateur Kubernetes qui participera au tour d’astreinte Le produit Hadock est une offre d’hébergement et d’orchestration de conteneurs on-premise basée sur Kubernetes. Nos grands enjeux actuels tournent autour?: - du run zéro crise (sujet valable pour toute la DSI) - d'une nouvelle version de l’offre «?v2?» (nouvelle stack technique basée sur Rancher/ArgoCD) laquelle doit arriver pour la fin de l’année 2025 - d’un sujet de transformation des applications pour les accompagner vers la mise en œuvre des bonnes pratiques Kube et ainsi une préparation à la migration vers notre offre V2 et à terme vers le cloud pour certaines - de l’automatisation pour se rapprocher des services des hyperscaleurs?: services standardisés, as code, provisioning rapide, rationalisation des ressources, scalable, etc… (sujet valable pour tous les services d’infrastructure dont ceux de DIGIT) Afin de renforcer l’équipe Hadock, nous recherchons un profil SysOps Kubernetes senior avec une expérience confirmée en administration de clusters Kube / outillages associés, en environnements de production à fort enjeu. Le service Hadock est un produit du département DIGIT qui vise à fournir de l’hébergement de conteneurs orchestrés par Kubernetes. Nous utilisons également Rancher pour gérer nos quelques dizaines de clusters (et Kubespray pour nos 4 « gros » clusters historiques). Les compétences recherchées sont les suivantes?(non exhaustives) : Système et Administration Linux : commandes Linux, scripting shell, file systems etc. Scripting?: langages BASH, Python, etc. Networks and security : connaissances de base concernant DNS, VPN, firewall, proxy server, loadbalancer Stockage?: connaissance de base concernant SAN, NAS CI/CD pipeline : Git, Ansible, ArgoCD Monitoring-supervision/logs : Victoria Metrics, Grafana, Prometheus, … Containers : connaissances avancées concernant Kubernetes, Docker. Certification CKA, la CKS est un plus En complément, « nice to have » : Rancher, Peering BGP pour la micro-segmentation (Cilium <-> Cisco ACI et Cilium <-> Fortinet) Cloud computing : AWS, Azure, GCP… Les activités se déroulent autour de 3 grands axes : Le build» qui suit le cycle de vie produit : Prototypage / Conception / Réalisation / Tests & Recette / Déploiement / livraison / Résorption Le MCO évolutif/correctif?: Suivi du bon fonctionnement en production / Assurer les évolutions techniques de la plate-forme / Maintenir le niveau de sécurité des éléments de la plate-forme / Assister les équipes projets dans la prise en main de l’environnement Le «?run?» : Réponse à des demandes, support aux équipes projets et traitement des incidents/crises + Participation aux astreintes technique N3 soir&WE une fois les compétences suffisantes acquises?; accompagnement à la mise en œuvre des bonnes pratiques Les livrables attendus sont les suivants?: Code, Documentation technique, Procédures Techniques, Dossier d'Architecture Technique, Request For Change pour les CAB, MaJ des tickets dans Jira, Participation à la préparation des PI planning … T
Freelance

Mission freelance
INTEGRATEUR APPLICATIF TOMCAT / APACHE EXPERIMENTE

Publiée le
Apache

24 mois
250-500 €
Paris, France
Télétravail partiel
Pour un démarrage sous un mois environ, nous recherchons un(e) intégrateur technique d'application freelance très expérimenté pour intégrer les application web chez notre client, en lien avec la production et les équipes de développement. Très Important : le profil recherché n'est pas un ingénieur de production qui gère des procédures d'intégration applicative mais un consultant habitué à être intercalé entre les équipes de développements et la production et qui prépare les documents d'installation. de plus il doit être expert et parfaitement autonome avec beaucoup d'expérience sur Tomcat / Apache. Pas de Devops dans le périmètre. Astreintes possibles soir et week-end - répartition selon l'équipe Livrables sont : - Dossier d'installation - Composants applicatifs -Configuration applicative Description détaillée - Capable de configurer/installer tomcat manuellement sur windows ou linux - Capable d'analyser les logs tomcat en cas d'erreur - Capable de configurer/installer manuellement un serveur httpd - Capable d'analyser les logs httpd en cas d'erreur - Savoir évoluer dans un environnement linux - Récupération des livrables de développement sur les outils de Gestion de configuration (SVN, GIT) - Installation des packages sur les plateformes de tests - Qualification des packages sur les plateformes de tests selon les normes en vigueur - Vérification de la conformité des applications vis à vis des contraintes de production - Rédaction et validation des documents d'installation et d'exploitation - Rédaction et exécution des plans de tests techniques - Assistance et support technique à la mise en production - Communication avec l'équipe projet - Reporting
Freelance

Mission freelance
Architecte IT transverse Infrastructure / Production

Publiée le
Infrastructure
Production

24 mois
450-900 €
Paris, France
Télétravail partiel
PROPULSE IT recherche un ARCHITECTE INFRASTRUCTURE avec une très bonne expertise de la production. - accompagner des experts techniques et des chefs de projet Infrastructure dans la mise en œuvre de projets Build, qui peuvent couvrir l'ensemble de l'environnement technique du client. - Réfléchir aux préconisations, et challenger les différentes options - Communiquer, et accompagner l'adoption des solutions Connaissances et expériences en Architecture, et de projet production de bout en bout, sur les domaines suivants - les technologies en datacenter : • stockage : EMC, Netapp, • sauvegarde : CommVault • Réseau : CISCO, Checkpoint, Fortinet, F5 - les systèmes d'exploitation serveurs : RedHat Linux et Microsoft Windows - les technologies de virtualisation : VMware, OpenStack, Container Docker - les technologies de bases de données : Oracle, PostgreSQL, MongoDB, SQL Server - les technologies de serveurs d'applications : Weblogic, Tomcat, Apache - les technologies d'orchestration et d'ordonnancement : VRO / VRA, Kubernetes, XOS-Axway - les technologies de Devops : GitLab, Gitub, Ansible, Terraform - les technologies de Provider Cloud : Microsoft Azure, AWS - les technologies de gestion de la sécurité : PKI - les technologies de gestion des identités : LDAP, Active Directory, Bastion - les technologies de supervision et de métrologie : BMC Patrol, Centreon, Nagios
CDI

Offre d'emploi
ARCHITECTE SOLUTION DATA

Publiée le
Architecture
AWS Cloud
Data visualisation

74k-82k €
Paris, France
Télétravail partiel
Forte expertise d’architecture Big Data et Cloud. Au sein de la Data & IA Fabric, couvrant les missions d’étude, de conception, de réalisation et de maintenance du socle Data et des SI du périmètre, ainsi que l’accompagnement des métiers dans l’utilisation des différentes plateformes Data existantes ou en développement. Mission : concevoir et construire l’architecture fonctionnelle, logique, physique et opérationnelle des plateformes dans le cadre de la stratégie des socles Data (Plateformes Data). Assister les architectes solutions, devops et data ingénieurs des squads Plateformes dans leurs activités de BUILD et de RUN. Build EXEMPLE : Proposer des évolutions des briques socle, rédiger leur cadrage technique, voire même, selon le profil du consultant, contribuer directement à leur intégration et configuration. Participer à la priorisation des fonctionnalités dans les cadrages de versions des socles plateformes. Définir des normes de développement sur la plateforme Data Groupe. Participer à la validation de la stratégie de recette (TU, TI, TAU) applicables aux développements Plateforme d’un côté, et aux développements de la squad Projet de l’autre Assurer la gestion des risques techniques et de la réversibilité pour la platform Data et le Data Catalogue Groupe Run EXEMPLE : Positionner, superviser voire Contribuer au maintien en conditions opérationnels des plateformes Data et du Catalogue Groupe (maintenance corrective, préventive et évolutive) Support expert N3 Sous la responsabilité du Product Owner de la Plateforme Data Groupe Il s’appuiera sur une équipe complète de DevOps, Data Ingénieurs et des leads de pratique Data Management, Dataviz et ML Ingénierie, ainsi que sur un pool d’architectes dédiés. Expériences réussies d’au -moins 6 ans dans le conseil en architecture solution data Expérience d’au moins 3 ans comme data ingénieur, en vue de la création, l’orchestration et monitoring de flux de données, sur des clouds publics, de préférence AWS Une expertise de développement en langage Spark et Python, pendant au moins 3 ans, est requise afin de réaliser les code reviews Une expérience sur Databricks d’au moins 4 ans sur une plateforme. Une 1è certification Databricks officielle est requise Une expérience d’intégrateur, de mises en production avec les technologies : Terraform, ou Jenkins, Docker ou Kubernetes. Paris 12 – 3 jours de TT
Freelance

Mission freelance
IT Systems Engineer M/F

Publiée le
Azure
Google Cloud Platform (GCP)
Linux

6 mois
Île-de-France, France
Télétravail partiel
🎯 Direction et gestion de projets Diriger et gérer des projets liés aux systèmes et au cloud, de leur lancement à leur achèvement, en veillant à leur adéquation avec les objectifs commerciaux. Coordonner et collaborer avec des équipes interfonctionnelles, notamment les services informatiques, les ressources humaines, les installations et les fournisseurs externes, afin de garantir la réussite des projets. Suivre l'avancement des projets, identifier les risques potentiels et mettre en œuvre des stratégies d'atténuation afin de garantir leur livraison dans les délais. ☁️ Solutions systèmes et cloud Concevoir, déployer et gérer des solutions systèmes et cloud, y compris le matériel et les logiciels. Administrer et maintenir les systèmes d'exploitation, les applications logicielles et les configurations de sécurité des ordinateurs de bureau de l'entreprise. 🛠️ Assistance et dépannage Dépanner et résoudre les problèmes techniques liés à l'informatique des utilisateurs finaux aux niveaux 2 et 3. ✅ Conformité et documentation Veiller au respect des politiques de l'entreprise, des normes industrielles et des exigences réglementaires.
Freelance

Mission freelance
Ingénieur Big Data / Infrastructure en Île-de-France

Publiée le
Big Data
Cloud
Infrastructure

6 mois
Île-de-France, France
Télétravail partiel
Au sein d’une DSI ou d’une équipe Data/Cloud en pleine transformation numérique, l’ingénieur Big Data / Infrastructure intervient pour concevoir, déployer et maintenir des plateformes de traitement de données à grande échelle. Il joue un rôle clé dans la fiabilité, la performance et la sécurité des environnements Big Data utilisés par les data engineers, data scientists et équipes métier. Responsabilités principales 1. Conception et mise en place de l’infrastructure Big Data Concevoir des architectures de données distribuées (Hadoop, Spark, Kafka, HDFS, NoSQL, S3…). Participer au dimensionnement des clusters, à la définition des SLA et des bonnes pratiques d’industrialisation. Déployer et configurer les services Big Data dans un contexte On-premise, Cloud (AWS/GCP/Azure) ou hybride. 2. Administration et exploitation des plateformes Assurer l’administration quotidienne des clusters : gestion des ressources, supervision, montée de version, tuning des performances. Implémenter des mécanismes de haute disponibilité, d’équilibrage de charge et d’optimisation du stockage. Réaliser des diagnostics avancés en cas de dysfonctionnement et mettre en place des correctifs durables. 3. Automatisation, CI/CD et industrialisation Développer et maintenir des pipelines d’automatisation (Terraform, Ansible, Jenkins, GitLab CI…). Standardiser les déploiements via Infrastructure as Code. Contribuer à l'amélioration continue de la plateforme, en proposant des optimisations de performance et des outils de monitoring. 4. Sécurité, conformité et gouvernance Intégrer les contraintes de sécurité : gestion des accès (Kerberos, IAM, Ranger), chiffrement, segmentation réseau. Participer à la mise en œuvre de la gouvernance Data (catalogue, lineage, qualité, traçabilité). Veiller au respect des politiques RGPD et des normes internes. 5. Support aux équipes Data et accompagnement technique Accompagner les data engineers, développeurs et data scientists dans l’utilisation des ressources Big Data. Optimiser les jobs Spark/Kafka/Hadoop pour réduire les coûts et améliorer la latence. Participer à la rédaction de documentation technique, guides d’usage et bonnes pratiques.
1309 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous