L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 5 699 résultats.
Offre d'emploi
Business Analyst IA (H/F)
DSI group
Publiée le
UML
65k-80k €
Luxembourg
DSI Group recherche actuellement un Business Analyst IA F/H, pour l'un de ses clients situés au Luxembourg. Le consultant interviendra sur des sujets liés à la donnée, pouvant inclure des aspects d’intelligence artificielle (hors business intelligence classique), avec des compétences fonctionnelles et/ou techniques dans l’un ou plusieurs des domaines suivants : architecture, flux de données, ingestion, transformation, pseudonymisation, catalogage, gouvernance des données et des solutions data, science des données, traitement du langage, données non structurées, environnement de traitement sécurisé, règlementations sur les données (RGPD, AI act…). Vos tâches : 1) Analyser les besoins et rédiger les dossiers de conception. Conduire les ateliers et entretiens de réflexion, d’analyse et de validation du champs d’étude/projet ; Recueillir et analyser les besoins fonctionnels et non fonctionnels du client ; Etudier les solutions et processus métier existants ; Participer à la rédaction du cahier des charges qui formalise les besoins fonctionnels et non fonctionnels du client ; Concevoir les nouvelles solutions logicielles et/ou applicatives et rédiger le dossier de conception ; Identifier la meilleure solution applicative pouvant répondre aux besoins et contraintes recensés ; Participer à l’évaluation des soumissions (dans le contexte de procédures de marchés publics). 2) Gérer la communication ainsi que la gestion du changement. Anticiper, coordonner et gérer la communication envers toutes les parties prenantes ; Travailler en étroite collaboration avec les équipes techniques et métier ; S’assurer que les exigences du client soient traduites en objectifs techniques ou informatiques. 3) Participer à la planification, au suivi et à la coordination du projet sur une base quotidienne Assister le chef de projet informatique pour la gestion opérationnelle des projets ; Assister le chef de projet informatique pour la coordination générale des différents acteurs du projet. 4) Assurer le suivi des solutions mises en place Définir les tests, assurer la documentation fonctionnelle et valider la documentation technique ; Participer à l’exécution du plan de test et accompagner le client dans sa recette ; Assurer la formation des utilisateurs ; Suivre le déploiement des nouveaux applicatifs auprès des clients et coordonner les équipes techniques ; Assurer la réalisation et la mise à jour de la documentation des solutions mises en place.
Mission freelance
Architecte IA (spécialité RAG & web Sémantique)
SILKHOM
Publiée le
Large Language Model (LLM)
Natural Language Processing (NLP)
RAG
3 mois
Nantes, Pays de la Loire
Mission Vous interviendrez sur un projet stratégique de structuration de la connaissance métier , dont les principaux objectifs sont : Concevoir et structurer des ontologies métier robustes . Définir une architecture sémantique permettant d’alimenter et fiabiliser des LLM via des graphes de connaissances. Apporter une expertise critique et stratégique sur les approches hybrides (symbolique + génératif). Transformer des enjeux métiers complexes en POC pertinents et structurés . Alimenter, structurer et fiabiliser les chaînes de connaissance au service d’applications IA explicables. Optimiser l'efficience des modèles (maîtrise des coûts/tokens) au sein d'un environnement souverain. L’IA générative (LLM, RAG, GraphRAG, modèles souverains) est intégrée en surcouche dans une architecture de connaissance maîtrisée (RDF / OWL / SPARQL).
Mission freelance
Prestation d'assistance technique à la création d'un portail IA
Sapiens Group
Publiée le
Docker
LangChain
Python
1 an
500-550 €
Paris, France
Descriptif du poste La DSI Retraite Complémentaire cherche à structurer ses projets de valorisation des données et d'innover au travers de l'accès à différentes IA. L'équipe Gouvernance et mise en œuvre de l'IA est en charge de la mise en œuvre de solutions d'IA génératives pour l'ensemble des 1000 collaborateurs internes et des prestataires de services de la fédération Agirc-Arrco. Elle a en charge la mise en service et la maintenance d'un Hub et d'un portail IA permettant : De mettre à disposition sur le poste de travail de chaque collaborateur, des assistants d'IA pré-paramétrés par typologies d'usage et par types de droits De permettre à chaque utilisateur du portail IA de fabriquer de nouveaux assistants qui pourront être mis à disposition d'autres collaborateurs (logique Marketplace avec droits d'accès) De permettre l'accès en direct à des IA depuis des logiciels tiers de l'entreprise (CRM, IDE Développement…) ou depuis des applicatifs métiers via appel d'API De mettre à disposition des modules de formation web aux bons usages de l'IA ainsi qu'une FAQ pour accompagner les utilisateurs du portail IA Par ailleurs, l'équipe Gouvernance et mise en œuvre de l'IA est en charge : De gouverner l'utilisation des IA au sein de l'entreprise De définir une stratégie d'utilisation des IA génératives en fonction des risques ou de contraintes portées par les données source D'optimiser les coûts d'utilisation à tout moment dans un contexte Cloud (FINOPS / MLOPS) De mettre en place une chaîne CI/CD des projets IA
Mission freelance
Proxy Product Owner Data – Corporate Finance Transformation
Freelance.com
Publiée le
Data management
ERP
P2P
1 an
540-600 €
Île-de-France, France
Dans le cadre d’un ambitieux programme de Finance Transformation au sein d’un grand groupe international, la Direction Data recherche un Proxy Product Owner Data pour piloter les initiatives Finance à forte composante data. Le périmètre couvre notamment les processus P2P (Procure-to-Pay) , O2C (Order-to-Cash) ainsi que les projets d’ automatisation des processus Finance dans un environnement structuré et exigeant. Description du poste Rattaché(e) au Data Office Groupe, vous intervenez en véritable interface stratégique entre les équipes Finance, IT et Data . À ce titre, vous : Identifiez et priorisez les initiatives Finance à fort impact data Traduisez les besoins métiers en exigences fonctionnelles et techniques Garantissez l’alignement avec les standards data et l’architecture groupe Validez les modèles de données et les choix d’architecture Contribuez aux cas d’usage d’automatisation (ex : Dataiku ou outil équivalent) Coordonnez les équipes Finance, IT et Data dans une logique transverse Assurez le suivi projet (jalons, risques, dépendances, reporting) Veillez au respect des exigences de gouvernance, qualité et sécurité des données Vous jouez un rôle clé dans la réussite de la transformation en garantissant que la donnée soit pleinement intégrée, exploitée et conforme aux standards du groupe.
Offre premium
Mission freelance
Data Analyst - Expert Excel VBA
Keros group
Publiée le
Microsoft Access
Microsoft Excel
VBA
12 mois
300-450 €
Paris, France
Secteur : immobilier Dans le cadre d’un programme stratégique d’intégration de sociétés récemment acquises, nous recrutons un(e) Analyste Préparation de Données & Migration . Intégré(e) à la direction en charge des projets d’intégration, vous jouez un rôle clé dans : L’analyse et la compréhension des données sources Leur normalisation et préparation Leur migration vers les systèmes internes cibles Vous intervenez en interaction étroite avec les équipes IT, comptables, chefs de projets et équipes locales. Rattachement hiérarchique Poste rattaché à la Direction des Projets d’Intégration. Vos missions 1️⃣ Analyse, structuration et préparation des données Analyse des exports issus des outils métiers des sociétés intégrées Identification des spécificités et cas particuliers propres à chaque environnement Nettoyage, normalisation et organisation des données selon les standards internes Vérification de la complétude et de la cohérence des jeux de données 2️⃣ Réalisation des opérations de migration Préparation des jeux de données destinés aux imports Constitution des fichiers structurés par lots fonctionnels Réalisation des transcodages et enrichissements nécessaires Génération des fichiers destinés aux outils/kits de migration Tenue d’un journal des corrections et ajustements Contrôles post-migration : Rapprochements volumétriques (lots, contrats, interventions…) Rapprochements comptables (budgets, quittancement…) Contrôle de cohérence des références métiers Établissement d’une check-list finale et recensement des écarts 3️⃣ Contrôle qualité & sécurisation des données Mise à jour des tableaux de bord de contrôle Suivi des indicateurs qualité (taux de complétude, erreurs, écarts avant/après mapping) Identification, correction et documentation des anomalies Tenue d’un registre des écarts et actions correctives 4️⃣ Collaboration transverse Coordination avec les équipes IT, comptabilité et chefs de projets Interaction avec les agences locales pour clarifier et collecter les données Accompagnement et vulgarisation des besoins data 5️⃣ Standardisation & amélioration continue Documentation des règles, processus et modèles utilisés Optimisation continue des méthodes de transformation Proposition d’améliorations pour réduire les délais et fiabiliser les traitements Participation aux retours d’expérience post-migration Mise à jour des guides et templates opérationnels 6️⃣ Partage & montée en compétence Transmission des bonnes pratiques Contribution à la montée en compétence des équipes Modalités Déplacements ponctuels en agence possibles (audit et migration)
Offre d'emploi
Data Analyst Sénior F/H - Système, réseaux, données (H/F)
█ █ █ █ █ █ █
Publiée le
Data management
Scrum
SQL
Montpellier, Occitanie
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Offre d'emploi
DBA Expert MongoDB (H/F)
AVA2I
Publiée le
Azure
Database
Mongodb
3 ans
Île-de-France, France
Dans le cadre du renforcement des équipes IT et de l’évolution des plateformes data vers le cloud, un acteur du secteur de l’énergie recherche un DBA MongoDB expert pour intervenir sur des environnements Azure PaaS à forte criticité, basés sur les technologies MongoDB. Le poste est orienté expertise opérationnelle et technique. Il ne s’agit pas d’un rôle d’architecte mais d’un référent MongoDB capable d’intervenir en profondeur sur la plateforme. Missions principales Administration et exploitation de bases MongoDB en environnement Azure PaaS. Maintien en Conditions Opérationnelles incluant la performance, la disponibilité et la sécurité. Supervision des bases et suivi des indicateurs. Optimisation des performances avec tuning avancé et gestion des index. Gestion des volumes, de la réplication et de la haute disponibilité. Gestion des incidents complexes de niveau N2 et N3. Diagnostic et troubleshooting avancé MongoDB. Réalisation des montées de version et opérations de maintenance. Mise en place et suivi des bonnes pratiques incluant les sauvegardes, restaurations, la sécurité et la supervision. Support technique aux équipes applicatives et rôle de référent MongoDB. Environnement technique MongoDB avec expertise indispensable. Azure PaaS incluant Cosmos DB API MongoDB et MongoDB managé. Cloud Microsoft Azure. Automatisation et scripting PowerShell, Python ou équivalent. Supervision, sécurité et haute disponibilité.
Mission freelance
Lead Test / QA expert
ICSIS
Publiée le
Azure
Docker
Gherkin
1 an
400-500 €
Lille, Hauts-de-France
La mission consiste à : Manager l'équipe de tests en respectant les engagements (coût, délai, qualité) Définir la startégie de test Exécuter les campagnes de tests manuels Concevoir et développer des frameworks d'automatisation de tests & scripts de tests E2E et d'intégration Gérer le budget et le planning Qualifier ou homologuer des logiciels Participer à des projets techniques Accompagner la conduite du changement Compétences demandées : - Compétences techniques en Javascript / Typescript ou Java/Python - Compétences en Jira, XRAY, Gherkin, Postman - Agilité, CI/CD & Cloud - Excellents savoir-être : sens du service, communication, esprit d’équipe... - Anglais professionnel un + Mission en métropole lilloise avec 2 à 3 jours de télétravail
Mission freelance
Consultant SAP Datasphere
Nicholson SAS
Publiée le
Data visualisation
Gouvernance
Hortonworks Data Platform (HDP)
8 mois
680 €
Paris, France
Localisation : Paris / Remote Démarrage : ASAP Durée : Mission longue jusqu’au 31/12/2026 Contexte:Dans le cadre du développement d’une plateforme data basée sur SAP Datasphere , nous recherchons un consultant confirmé afin de contribuer à la conception, la modélisation et la gouvernance des données destinées aux équipes métiers (finance, supply chain, production, etc.). Vous interviendrez au sein d’une équipe data composée d’architectes, data engineers et experts SAP, sur des sujets d’intégration, de structuration et de valorisation des données. Missions: Analyse et cadrage Recueillir et analyser les besoins métiers. Identifier les indicateurs clés (KPI) et les besoins de reporting. Rédiger les spécifications fonctionnelles et techniques. Conception et modélisation Concevoir et structurer les modèles de données dans SAP Datasphere . Organiser les Spaces et structurer les modèles analytiques. Mettre en place des modèles dimensionnels (Star Schema / Snowflake). Intégration et transformation des données Configurer les connexions vers les différentes sources SAP et non-SAP. Mettre en place les Data Flows et Replication Flows . Réaliser les transformations, mappings et contrôles de qualité des données. Modèle sémantique et valorisation Définir les mesures, hiérarchies et relations entre les données. Structurer les datasets pour leur exploitation par les outils de reporting. Contribuer à la mise à disposition des données pour les équipes BI. Gouvernance et bonnes pratiques Participer à la gestion des métadonnées et à la documentation des modèles. Contribuer à la mise en place des bonnes pratiques de gouvernance et de qualité des données. Optimisation et amélioration continue Surveiller les performances des modèles et des flux de données. Optimiser les pipelines et la consommation des données. Participer aux évolutions fonctionnelles et techniques de la plateforme. Environnement technique: Data Platform SAP Datasphere SAP Business Technology Platform (BTP) Écosystème SAP SAP S/4HANA SAP BW / BW4HANA Data Engineering SQL (indispensable) ETL / ELT Modélisation dimensionnelle BI / Analytics SAP Analytics Cloud Power BI ou Tableau Profil recherché Expérience : 5 à 7 ans d’expérience sur des projets data / SAP. Compétences techniques Bonne maîtrise de SAP Datasphere . Solide connaissance de SQL et des concepts de transformation de données. Expérience en modélisation de données analytiques et dimensionnelles . Connaissance de l’écosystème SAP (S/4HANA, BW, BTP) . Expérience avec un outil de visualisation de données . Compétences fonctionnelles Capacité à traduire un besoin métier en modèle de données. Bonne compréhension des enjeux de qualité, structuration et gouvernance de la donnée . Soft skills Bon niveau de communication avec les équipes métiers et techniques. Esprit analytique et sens de la structuration. Autonomie et capacité à être force de proposition. Travail en équipe dans un environnement data.
Mission freelance
Consultant(e) Data Governance
Focustribes
Publiée le
SAP
6 mois
550-750 €
Suisse
Dans le cadre d’un programme de transformation Data à l’échelle internationale , un grand groupe du secteur industriel/aéronautique renforce sa gouvernance des données dans un environnement multi-sites et fortement intégré ( SAP S/4HANA , Salesforce , systèmes historiques), reposant sur un écosystème Microsoft Azure . Une plateforme data permet déjà l’ingestion et la consolidation des données, avec l’intégration de sources externes autoritaires pour améliorer la qualité et la déduplication . La priorité actuelle n’est pas la migration (déjà prise en charge par un partenaire dédié), mais l’ industrialisation du Master Data Management (MDM) et la structuration d’une gouvernance des référentiels robuste et scalable , notamment sur les domaines suivants : Business Partners (clients / fournisseurs) Adresses Matériels / Assets Autres data domains critiques L’enjeu principal consiste à passer d’une gestion ad hoc à un dispositif maîtrisé, outillé et pérenne . Le/la consultant(e) interviendra en lien direct avec le sponsor stratégique du programme et les référents internes MDM , à l’interface entre IT, Data et Métiers . Missions Assumer un rôle de référent(e) Data Governance / MDM au sein du programme de transformation. Gouvernance & cadrage Structurer et animer la gouvernance MDM ( Data Council , Data Owners , Data Stewards , RACI ). Définir la cartographie des data domains et clarifier les responsabilités associées. Formaliser le cadre de référence : glossaire , règles de gestion , standards , niveaux de criticité , KPIs data quality . Assessment & recommandations Conduire un diagnostic de maturité par domaine ( qualité, ownership, process, contrôles, outillage, adoption ). Analyser les flux inter-systèmes et les irritants métiers/IT . Produire un plan d’action structuré : priorités , quick wins , roadmap incrémentale (90 jours / 6 mois / 12 mois). Expertise fonctionnelle MDM (focus Business Partner / Adresses) Clarifier le modèle cible pour la gestion des Business Partners et des adresses (légal vs usage, multi-adresses, règles d’unicité). Recommander les bonnes pratiques référentielles dans un environnement SAP S/4HANA interfacé avec CRM et data platform . Sécuriser les workflows de création/modification , les validations , la traçabilité et les règles anti-doublons . Arbitrer la notion de “source of truth” entre ERP , CRM et sources externes . Déploiement & conduite du changement Définir une stratégie de pilotes prioritaires . Structurer une démarche progressive et orientée valeur . Accompagner la montée en compétences interne (transfert, templates, playbook MDM). Structurer la communication , la formation et l’ adoption des nouvelles pratiques.
Offre d'emploi
Développeur Python / IA
CAT-AMANIA
Publiée le
Agent IA
DevOps
Python
40k-60k €
Levallois-Perret, Île-de-France
AI Delivery accompagne les métiers et les pays dans leurs projets de Data science, depuis la génération de use case jusqu’à la mise en production. Notre équipe, dynamique et internationale, au profil « start-up » intégrée à un grand groupe, regroupe des profils de Data scientist experts en Machine Learning (computer vision, NLP, scoring), un pôle ML engineering capable d'accompagner les DataScientists lors de l'industrialisation des modèles développés (jusqu'à la mise en production) ainsi qu’une équipe AI Projects. AI Delivery met aussi à disposition des lignes de métiers Personal Finance la plateforme de Datascience « Sparrow », qui comporte * une plateforme d'exploration et de développement Python, Sparrow Studio, développée in-house par une équipe dédiée * un framework d'industrialisation des modèles de Datascience, Sparrow Flow, ainsi qu'une librairie InnerSource “pyPF” facilitant les développements des Data Scientist. * une plateforme d'exécution des modèles de Datascience, Sparrow Serving * et un outil de Community Management, Sparrow Academy L’équipe Technical Office, composée principalement de MLOps Engineers, a pour principale mission d’être garante de la qualité des livrables de l’ensemble de la direction, de les déployer sur le cloud privé du Groupe, « dCloud » et enfin d’assurer la haute disponibilité de l’ensemble de nos assets. Cette équipe conçoit, développe et maintient des plateformes et des frameworks de data science. PF fait appel a une prestation en AT pour assurer l’évolution et la haute disponibilité de l'ensemble de nos assets. Le prestataire aura la charge de la disponibilité et de la stabilité de nos différentes plateformes data avec un focus particulier sur notre asset Sparrow. Le prestataire intègrera l’équipe du Technical Office. DevOps, MLOps, Data Science, Cloud sont les moteurs de son quotidien. Les sujets traités par l’équipe sont variés : • Participer à la maintenance/l’évolution des frameworks de data science existants (Python) ; • Participer à la maintenance/l’évolution des pipelines de CI/CD (Gitlab CI, GitOps) ; • Participer à la maintenance/l’évolution de l’Observabilité des plateformes (logging, monitoring, traçabilité) ; • Participer à la mise en production des outils et des solutions IA déployées sur la plateforme ; • Être force de proposition et participer aux POCs. Stack Technique de l’équipe : • Langages : Python, Golang, Bash • GNU/Linux • Kubernetes • DevOps tooling : Docker, Buildkit, Gitlab, GitlabCI, Artifactory, ArgoCD, Helm, Kustomize • Cloud services : Certmanager, Redis, Grafana, Jaeger, Prometheus, ELK, MinIO, Postgres Pre requis : • Expérience dans la prestation en python ; • Maîtrise de GitLab et des processus de CI/CD ; • Bonnes connaissances des infrastructures Cloud (système distribué et Object Storage) ; • Connaissance en machine learning et data science ; • Très bonnes connaissances en Intelligence Artificielle ; • Connaissances en Kubernetes sont un plus ; • Orienté clients, capacité à collaborer et communiquer à l’oral et à l’écrit ; • Niveau d’anglais correct à l’écrit et à l’oral ; • Méthodique et autonome • Intéressé par le monde open source
Offre d'emploi
Expert Windows 365 / Azure Virtual Desktop
NEWRAMA
Publiée le
Azure
OS Windows
Virtual Desktop Infrastructure (VDI)
12 mois
Paris, France
Pour le compte d'un client grand compte, vous intégrez une équipe dédiée à l'évolution des environnements de travail numériques. Votre rôle consiste à apporter une expertise de haut niveau sur les solutions de virtualisation Microsoft dans un contexte multi-pays. Architecture & Design : Optimiser et sécuriser les infrastructures Windows 365 et Azure Virtual Desktop. Modern Management : Piloter l'intégration et la gestion des postes via Microsoft Intune. Conseil & Aide au choix : Analyser les besoins métiers et préconiser la solution technique la plus adaptée (Cloud PC vs VDI classique). Expertise N3 : Résoudre les problématiques complexes liées à la performance, au réseau et à l'identité (Azure AD / Entra ID). Documentation : Produire les livrables techniques (DAT, procédures d'exploitation).
Mission freelance
Développeur Big Data
Codezys
Publiée le
Big Data
Cloudera
Data Lake
12 mois
Lyon, Auvergne-Rhône-Alpes
Contexte de la mission : Le client, dans le cadre du développement et de la maintenance de sa plateforme Big Data, recherche un Développeur Big Data expérimenté (H/F) avec au moins 5 ans d’expérience en environnement Data. La mission se déroule au sein de l’équipe Big Data, chargée de l’alimentation, de l’évolution et de l’optimisation du Data Lake sous Cloudera Hadoop. L’objectif principal est de concevoir, faire évoluer et maintenir les traitements d’alimentation pour assurer la qualité, la performance et la maintenabilité des solutions. Le consultant intervient dans un contexte de production exigeant, avec de forts enjeux de fiabilité et de respect des délais. Missions principales : Développement & évolution du Data Lake : Gérer les évolutions des flux et des données à intégrer Faire évoluer les développements existants d’alimentation Maintenir les traitements d’ingestion et de transformation Concevoir des extractions de données pour répondre aux besoins métiers Stack technique : Cloudera Hadoop, Hive, Impala, Spark, Python, SQL, Shell, Linux, VBA, Jupyter Expertise technique & structuration : Rédaction des spécifications techniques Fourniture de requêtes SQL de référence Revue de code Structuration et pilotage via JIRA Documentation des processus et accompagnement des utilisateurs Encadrement de profils juniors (alternants, stagiaires) Performance & optimisation : Optimiser les traitements et requêtes Améliorer la performance et l’exploitabilité Contribuer à la maintenabilité globale Réaliser du reverse engineering dans une architecture héritée complexe Support & accompagnement : Assurer le support de niveau 2 Faire respecter les bonnes pratiques Communiquer clairement avec différents interlocuteurs (développeurs, utilisateurs, clients) Gouvernance & conformité : Veiller au respect des modèles de données Collaborer avec la Direction Technique et la Gouvernance de la Donnée pour faire évoluer les standards
Offre d'emploi
Data Engineer
INFOGENE
Publiée le
40k-45k €
Lille, Hauts-de-France
Vous justifiez d’au moins 5 ans d’expérience en tant que Data Engineer dans un environnement technique exigeant. Vous avez une forte capacité d’analyse, aimez résoudre des problèmes complexes et construire des solutions scalables et durables. Vous êtes curieux(se), autonome et doté(e) d’un bon relationnel pour travailler efficacement avec des profils variés (techniques et métiers). Votre maîtrise de l’environnement cloud et votre esprit d’amélioration continue vous permettent de contribuer activement à l’évolution de la plateforme data de l’entreprise. Votre niveau d’anglais vous permet d’évoluer dans un contexte international et de lire de la documentation technique sans difficulté
Offre premium
Mission freelance
Tech Lead Intégration & Data Flows (H/F) - 92
Mindquest
Publiée le
CFT (Cross File Transfer)
Confluence
Control-M
6 mois
Courbevoie, Île-de-France
Au sein d’un acteur du secteur assurantiel, l’équipe Intégration & Data Management pilote plusieurs progiciels hébergés ainsi que des services externalisés stratégiques (comptabilité, trésorerie, modélisation des risques, reporting réglementaire, gestion d’actifs, prévoyance, rentes, etc.). L’équipe est composée de : 3 Business Analysts 3 Technical Leads 5 Développeurs Le Technical Lead occupe un rôle central, en interface directe avec les équipes métiers, les BA et les développeurs. Pilotage & Coordination: Construire et suivre les plannings (développement, tests, mises en production) Organiser les montées de versions des progiciels hébergés et services externalisés Livrer les évolutions réglementaires en production Piloter les mises à jour systèmes et logicielles Run & Supervision: Revue des alertes serveurs et analyse des incidents Garantir la fiabilité des flux SFTP et CFT Assurer le bon fonctionnement global des applications Intégration & Architecture: Concevoir, mettre en œuvre et piloter les flux d’intégration entre les applications du SI Participer activement à l’amélioration continue des processus
Mission freelance
[SCH] Expert Kubernetes - 1345
ISUPPLIER
Publiée le
10 mois
380-425 €
Lyon, Auvergne-Rhône-Alpes
Renfort d’une équipe en environnement Agile/Scrum pour apporter une expertise Kubernetes et accompagner la montée en compétences. Présentiel 3 jours/semaine à Lyon (profil local obligatoire). Mission : -Intervenir en tant qu’expert Kubernetes (design, exploitation, bonnes pratiques, troubleshooting). -Former et accompagner les équipes (coaching, ateliers, documentation, transfert de compétences). -Contribuer aux sujets DevOps : pipelines CI/CD (GitLab/Jenkins), conteneurisation (Docker), industrialisation. -Travailler en mode Agile Scrum avec les équipes produit/tech. Profil attendu : -5+ ans d’expérience sur Kubernetes (cluster, déploiements, réseau, stockage, sécurité, upgrades). -Capacité à coach/lead : animation d’ateliers, formation, rédaction runbooks, mentoring. -Très à l’aise avec l’écosystème DevOps (Docker, GitLab/Jenkins, CI/CD). -Autonome, force de proposition, habitué aux environnements agiles. -Basé Lyon et ok pour 3 jours sur site.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
5699 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois