L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 1 661 résultats.
Offre d'emploi
Ingénieur Big Data
OBJECTWARE
Publiée le
Apache Spark
Cassandra
CI/CD
3 ans
40k-76k €
400-550 €
Île-de-France, France
Contexte : Intégration d´une équipe de développeurs data (Java, Spark, Spring) dont le rôle est la mise en place de pipelines de données à destination de vues NoSQL (Cassandra, MongoDB, Elasticsearch) Hard skills demandés : Maîtrise Développement Objet Maîtrise d’un langage objet (Java) Maîtrise SQL Framework Spring Plateforme Spark Connaissance des Web Applications & Micro-services Maîtrise DevOps (CICD, Git, Jenkins) Connaissance approfondie des bonnes pratiques de développement et des Design Pattern Connaissance Domaine Cloud Connaissance du Métier Data / Big Data Vernis langage Python Hard skills optionnels : Maitrise de Mongo DB , Cassandra, et Elastic Search Conception asynchrone Connaissance Domaine DataScience Connaissance Domaine Cybersecurité Soft skills : Autonomie Motivation Organisation Humilité Négociation Curiosité Partage Sens du service Pragmatique / Réaliste Mindset Sensibilisé à la Qualité de code Sensibilisé à la vie de Production Expérience demandée : Développement objet en environnement de production Expérience de 5 ans min en développement data Expérience dans un grand groupe (expérience de l’inertie et des contraintes d’un groupe) Expérience sur tout le cycle de vie d’une application (besoin, conception, développement, déploiement, maintenance) Expérience souhaitée en amélioration d’une solution existante (contrainte de SLA, performance, montée en charge, refactoring, voir refonte) Les missions sont : Recueillement du besoin utilisateur/BA, conceptualisation de la solution technique associée et l’implémenter Adoptation d´une approche proactive sur la qualité de code avec une méthodologie TDD Amélioration continue du code existant et revue avec les pairs des évolutions Support et sensibilisation des pairs à la qualité du code, aux bonnes pratiques et outillage améliorant l’expérience de développement Inscription dans une démarche agile avec un rythme de livraison soutenu (1 MEP / mois)
Offre d'emploi
Product Owner Infrastructure – OS & Container Platform
Etixway
Publiée le
Ansible
Confluence
Docker
12 mois
40k-65k €
500-730 €
Paris, France
Dans le cadre d’un programme de transformation et de modernisation des infrastructures IT d’un grand groupe, nous recherchons un Product Owner Infrastructure pour intervenir au sein d’une équipe transverse en charge des produits d’infrastructure, notamment les plateformes OS et Container Factory . L’équipe conçoit et fait évoluer des socles techniques mutualisés permettant aux différentes équipes applicatives de déployer leurs services dans des environnements standards, sécurisés et automatisés. Le Product Owner interviendra au cœur d’une organisation agile et collaborera étroitement avec les équipes Infrastructure, DevOps, Sécurité et Exploitation afin de piloter l’évolution des plateformes techniques. Missions En tant que Product Owner Infrastructure, vous aurez pour principales responsabilités : Définir et porter la vision produit des plateformes OS et Container Factory Construire et prioriser le backlog produit en lien avec les équipes techniques et les parties prenantes Piloter la roadmap produit et suivre l’avancement des évolutions techniques Collaborer étroitement avec les équipes DevOps, SRE, Infrastructure et Exploitation Participer à la définition et à l’évolution des standards technologiques des plateformes OS et containers Suivre le cycle de vie des systèmes d’exploitation et des environnements containers Contribuer à l’amélioration continue des plateformes : automatisation, industrialisation et fiabilité Accompagner les équipes internes dans l’utilisation des socles techniques et des outils associés Participer aux cérémonies Agile et assurer le bon déroulement des cycles de delivery
Mission freelance
CONSULTANT CLOUD AWS / PLATEFORME
SKILL EXPERT
Publiée le
AWS Cloud
Gitlab
2 mois
550-600 €
Hauts-de-Seine, France
CONSULTANT CLOUD AWS / PLATEFORME COMPÉTENCES REQUISES CONSULTANT CLOUD AWS / PLATEFORME Confirmé AWS CLOUD, ARGOCD, GITLAB Confirmé TERRAGUNT, ARCHITECTURE Confirmé ANGLAIS LU, ÉCRIT, PARLÉ Confirmé Descriptif de la mission Notre Client recherche pour cette mission un Consultant Cloud AWS / Plateforme Les tâches au quotidien seront : • Définir, concevoir et mettre en œuvre les éléments techniques nécessaires à une stratégie de reprise après sinistre pilote sur AWS • Analyser l'architecture cible existante de reprise après sinistre à chaud pour les charges de travail critiques dans le cloud • Examiner et remettre en question les modèles techniques de basculement, de retour en arrière, de réplication, de synchronisation et d'orchestration de récupération • Traduire les exigences en matière de résilience et de reprise en solutions techniques robustes, pragmatiques et évolutives • Mettre en œuvre les composants d'infrastructure et de reprise après sinistre en utilisant l'infrastructure en tant que code et les principes GitOps • Collaborer avec les équipes plateforme, infrastructure, sécurité et applications pour garantir une cohérence de bout en bout • Définir et documenter les procédures de basculement, de retour en arrière, de validation de la récupération et de test de reprise après sinistre • Identifier les risques techniques, les dépendances, les points de défaillance uniques et les lacunes opérationnelles Les compétences requises pour cette mission sont : • Justifier d'au moins 5/6 ans d'expérience professionnel dans ce domaine • Avoir une solide expérience dans l'exploitation de plateforme de production basée sur AWS • Avoir de bonnes compétences en matière d'infrastructure as code, en automatisation et de standardisation du déploiement • Justifier d'une solide connaissance de la haute disponibilité et des opérations de productions • Avoir de bonnes connaissances avec ArgoCD, Gitlab, Terragunt • Anglais lu, écrit, parlé Environnement technique de la prestation Aws Cloud, ArgoCD, Gitlab Terragunt, Architecture
Mission freelance
Chef de projet système industriel et télécom
SKILL EXPERT
Publiée le
Adressage IP
CLM
MPLS (MultiProtocol Label Switching)
1 an
580-600 €
Noisy-le-Grand, Île-de-France
Contexte de la mission : La demande de prestation s’inscrit dans le cadre du programme de Maintien en Conditions Opérationnelles des Infrastructures et Systèmes du WAN RTHD et de la Vidéoprotection des Espaces. L'entreprise a refondu l’ensemble de ses infrastructures télécom de transmission et de vidéo au travers du projet RTHD G Vidéo. En quelques chiffres : • Déploiement de plus de 600 équipements d’accès réseau (Backbone, Drainage, Accès WAN) • Développement et Adaptation d’une dizaine d’applications métier majeures, à l’attention des acteurs d’exploitation, de sûreté et de maintenance • Mise en service d’une infrastructure d’hébergement virtualisé – au sein de ses bâtiments technologiques – pour l’enregistrement et le traitement des flux vidéo des caméras espaces (~14 500 flux à date) Cette consultation s’inscrit dans le cadre des opérations du programme de Maintien en Conditions Opérationnelles RTHD G Vidéo : • Update/Upgrade/Evolutions des Infrastructures de Transport Télécom (routeurs, switches, …) • Update/Upgrade/Evolutions des Applicatifs du Système d’Information WAN RTHD et VIDEO • Portage des Applicatifs du SI WAN RTHD et VIDEO dans les environnements de la Fabrique Digitale • Refonte des Infrastructures d’Enregistrement Vidéo Centralisé • Opérations de Mise en Conformité Réglementaire des Systèmes Vidéo La présente consultation a pour objet le pilotage des opérations de Mise en Conformité Réglementaire des Systèmes Vidéo, sous la responsabilité du chef de programme de MCO RTHD et Vidéo Cette prestation se décompose en trois missions : • Mission 1 : Piloter le projet de mise en conformité au décret vidéo • Mission 2 : Piloter le projet de mise en conformité à l’arrêté technique vidéo • Mission 3 : Préparer les dossiers technico-financiers Les missions se dérouleront durant toute la durée du projet, le titulaire éditera les livrables selon les procédures qualité de l'entreprise • Objectifs/Descriptif de mission : Mission 1 : Piloter le projet de mise en conformité au décret vidéo Sous la responsabilité du responsable du programme, cette mission consiste à assister structurer, piloter et coordonner l’opérations de mise en conformité réglementaire au décret vidéo de 11/2023. Le déroulement de cette mission se décompose en : • Structurer l’opération de traitement d’obsolescences des routeurs du cœur WAN, en s’appuyant sur les référentiels projet (WBS, OBS, PBS, Planning, …) • Piloter les phases d’études (architecture maquette, déploiement maquette, déploiement production, FMES), la phase de qualification (planning, …) et la phase de réalisation (planning, approvisionnements, …) • Elaborer, Suivre et Mettre à jour les tableaux de bord projet : états d'avancement (technique, financier), indicateurs, planning, Gestion des risques… • Assurer la coordination opérationnelle des acteurs des projets (MOE réseau, MOE vidéo, MOEs Infrastructures, AMOE Cyber, Mainteneurs, …) • Réaliser des documents de présentation/communication dans le cadre des missions déléguées • Animer des réunions Mission 2 : Piloter le projet de mise en conformité à l’arrêté technique vidéo Sous la responsabilité du responsable du programme, cette mission consiste à assister structurer, piloter et coordonner l’opérations de mise en conformité réglementaire au décret vidéo de 11/2023. Le déroulement de cette mission se décompose en : • Structurer l’opération de traitement d’obsolescences des routeurs du cœur WAN, en s’appuyant sur les référentiels projet (WBS, OBS, PBS, Planning, …) • Piloter les phases d’études (architecture maquette, déploiement maquette, déploiement production, FMES), la phase de qualification (planning, …) et la phase de réalisation (planning, approvisionnements, …) • Elaborer, Suivre et Mettre à jour les tableaux de bord projet : états d'avancement (technique, financier), indicateurs, planning, Gestion des risques … • Assurer la coordination opérationnelle des acteurs des projets (MOE réseau, MOE vidéo, MOEs Infrastructures, AMOE Cyber, Mainteneurs, …) • Réaliser des documents de présentation/communication dans le cadre des missions déléguées • Animer des réunions Mission 3 : Préparer les dossiers technico-financiers Cette mission consiste à assister le chef du programme de MCO ou le suppléée au périmètre des opérations de mise en conformité réglementaire dans la préparation et l’animation des dossiers technico-financiers en vue des instances de pilotage du MCO RTHD (COPIL, Revue Semestrielle, COMOP). Le déroulement de cette mission comprend : • Consolidation des éléments financier avec les Maîtres d’œuvre (Avancement technique valorisé, trajectoire, risques, …) • Rédiger des documents de présentation/communication (COPIL, COMOP, Revue Semestrielle, Comité d’Engagement, …) • Animer les réunions (niveau direction) • Compétences demandées : Compétences et expériences obligatoires : Les compétences techniques obligatoires attendues sont les suivantes : • Références en gestion de projets techniques • Expérience confirmée en gestion de projets complexes, de la phase d'étude à la mise en service (planification, coordination des intervenants, suivi financier et reporting) • Expérience confirmée en gestion des risques projet (identification, évaluation, plans d’action et suivi) • Expériences et Connaissance des techniques réseau IP MPLS • Expériences et Connaissance des systèmes de cybersécurité (bastion, NAC, CLM) • Expériences et Connaissance des techniques des systèmes Vidéo (VMS, Caméra, SI, hébergement) • Expériences et Connaissance des techniques d’hébergement IT (serveurs, virtualisation, OS, BDD …) • Maîtriser des outils de pilotage et de reporting (MS-Project, Visio, Word, Power Point, Excel, …) • Capacité à gérer plusieurs projets simultanément dans un contexte à fortes contraintes de délai Les compétences fonctionnelles obligatoires attendues sont les suivantes : • Expérience de travail en équipe • Expérience à mobiliser et fédérer les équipes dans le cadre d’une organisation matricielle, en coordonnant efficacement plusieurs pôles et métiers (ingénierie, maintenance, déploiement, MOA, prestataires) • Expérience en pilotage et animation de réunions ou d'ateliers • Expérience en animation de réunions de niveau direction • Capacités d’analyse et de synthèse • Connaissance du contexte (télécom, ferroviaire) • Connaissances des bonnes pratiques ITIL D’autre part, la mission nécessite, adaptation, méthode, rigueur et une bonne aptitude relationnelle. Elle suppose aussi d’être force de proposition et d’avoir une approche globale des sujets. Enfin, la rédaction de documents étant requise, des facultés rédactionnelles et de communication sont également nécessaires
Offre d'emploi
📩 Data Engineer Microsoft Fabric
Gentis Recruitment SAS
Publiée le
Apache Spark
Azure Data Factory
Azure Synapse
12 mois
40k-45k €
400-500 €
Paris, France
Nous recherchons actuellement un Data Engineer pour intervenir au sein d’un grand groupe international du secteur du luxe (cosmétique & parfums), dans le cadre du renforcement de ses équipes data. Contexte Vous interviendrez sur la mise en place et l’optimisation d’une plateforme data moderne basée sur Microsoft Fabric, avec des enjeux autour de la centralisation, de la transformation et de la valorisation des données métiers. Missions principales Développer et maintenir des pipelines de données sur Microsoft Fabric Participer à la conception de l’architecture data (Lakehouse, Data Warehouse) Intégrer et transformer des données issues de multiples sources Assurer la qualité, la fiabilité et la performance des flux de données Collaborer avec les équipes Data, BI et métiers Contribuer aux bonnes pratiques Data Engineering (CI/CD, monitoring, documentation) Stack technique Microsoft Fabric Azure Data Factory / Synapse (ou équivalent) Python / SQL Data Lake / Lakehouse Git / CI-CD Profil recherché 3 à 4 ans d’expérience en Data Engineering Première expérience sur Microsoft Fabric ou forte appétence sur l’écosystème Microsoft data Bonne maîtrise de Python et SQL Expérience sur des environnements cloud (idéalement Azure) Bon niveau d’anglais Soft skills Esprit analytique Autonomie Capacité à monter rapidement en compétence Bonne communication avec les équipes métiers
Mission freelance
Data Engineer
Coriom Conseil
Publiée le
Apache Kafka
BigQuery
CI/CD
12 mois
400-510 €
Lille, Hauts-de-France
Expertise SQL, ETL - Expert - Impératif CI/CD, github, Terraform, Kafka - Confirmé - Important Power BI, Looker - Confirmé - Important Google Cloud Platform (GCS, BigQuery) - Confirmé - Souhaitable Connaissances linguistiques Anglais Lu, écrit (Impératif) Description détaillée Au cours de sa mission, le consultant : - Participera aux rituels agiles de l'équipe, - Analysera les besoins des utilisateurs et proposera des solutions innovantes et en phase avec les drivers de l'entreprises, - Développera les solutions data (Alimentation, stockage, modélisation, restitution), - Validera la qualité des développements de son équipe, - Améliorera et optimisera le patrimoine actuel de son équipe, - Maintiendra les solutions existantes (Run), - Contribuera à la construction du nouveau socle et des services sur la plateforme Google Cloud, - Accompagnera et acculturera les métiers sur les bonnes pratiques de l'exploitation de la Data
Mission freelance
un Product Owner Senior certifié SAFe
SKILL EXPERT
Publiée le
Confluence
JIRA
Safe
12 mois
600-640 €
Boulogne-Billancourt, Île-de-France
CATÉGORIE TECHNIQUE Informatique industrielle, électronique COMPÉTENCES EXIGÉES SAFE Expert JIRA Expert CONFLUENCE Expert Descriptif de la mission : Notre client, acteur majeur du secteur automobile, recherche un Product Owner Senior certifié SAFe pour piloter sa plateforme e-commerce et omnicanale. Cette plateforme est utilisée par les sites web et le réseau commercial de l'entreprise. Le Product Owner devra porter la vision produit, cadrer les besoins, prioriser le backlog, coordonner les acteurs métier et techniques, et garantir la cohérence du produit livré. 1 Vision & Stratégie Produit • Cadrer la vision produit et proposer la conception fonctionnelle/technique • Construire et maintenir une roadmap optimisée ROI • Faire le lien entre commerce, marketing, finance, pays et équipes techniques 2 Exécution & Gestion du Backlog • Prioriser le backlog en cohérence avec les capacités de développement • Rédiger et formaliser les user stories avec critères d'acceptance et cas de tests • Assurer la coordination avec toutes les parties prenantes 3 Suivi des Développements & Agilité • Participer aux rituels Agile (Daily, Sprint Review, etc.) • Tester, valider et homologuer les User Stories • Organiser les démos et piloter les feedback loops • Suivi d'avancement et reporting auprès du responsable technique client LIVRABLES ATTENDUS • User Stories de qualité (flux continu) • KPI d'itérations, budgets et planning • Comptes rendus de réunions • Présentations ponctuelles et documentation utilisateur Environnement Technique CONFLUENCE IA JIRA ML SAFE
Mission freelance
Expert OpenStack / Cloud Private (Réseau & Stockage)
ADSearch
Publiée le
Ansible
Bash
CI/CD
3 mois
Île-de-France, France
À propos du poste Nous recherchons un(e) Expert OpenStack pour concevoir, opérer et faire évoluer une plateforme cloud privé basée sur OpenStack, avec une forte dimension réseau et stockage persistant (Cinder/Manila, backends NetApp / Pure Storage / Ceph). Vous interviendrez sur des sujets d’industrialisation, de performance, de disponibilité, et d’automatisation (Infrastructure as Code / CI-CD). Vos missions Concevoir et maintenir une architecture OpenStack (control plane & compute) robuste et scalable. Déployer et opérer les services clés : Keystone, Nova, Neutron, Glance, Cinder, Manila, Horizon (et selon contexte : Octavia, Designate, Barbican). Assurer l’architecture et l’exploitation Neutron : VLAN/VXLAN, L2/L3, routing, DHCP, security groups, troubleshooting dataplane. Intégrer et maintenir le stockage persistant : NetApp (ONTAP, NFS/iSCSI, backends Cinder/Manila, Trident si K8s, bonnes pratiques HA/perf) Pure Storage (FlashArray, iSCSI/FC selon contexte, intégration OpenStack) Ceph (RBD/CephFS, réplication/erasure coding, tuning perf, santé cluster) Mettre en place l’ observabilité : monitoring, logs, métriques, capacity planning, SLO/SLA. Automatiser via Ansible / Terraform / Helm / GitLab CI (selon environnement). Participer aux analyses d’incidents, RCA, durcissement sécurité, patching & upgrades. Environnement technique (exemples) OpenStack (Kolla-Ansible / TripleO / Charms / distributions vendor) Linux (RHEL / Ubuntu), Python, Bash Réseau : EVPN/VXLAN (si présent), BGP, OSPF, LACP/MLAG, firewalling, load-balancing Stockage : NetApp ONTAP, Pure Storage FlashArray, Ceph (RBD/CephFS), NFS, iSCSI, éventuellement FC Virtualisation : KVM, libvirt Outils : Git, CI/CD, Prometheus/Grafana, ELK/Opensearch Soft skills Autonomie, rigueur, sens du service Esprit d’analyse et approche “problem solver” Communication claire (écrit/oral), capacité à vulgariser
Mission freelance
Ingénieur de production aws / terraform / cicd
ODHCOM - FREELANCEREPUBLIK
Publiée le
AWS Cloud
CI/CD
Production
3 ans
400-630 €
Paris, France
CONTEXTE Notre client est garant du bon fonctionnement des solutions billettiques. C’est dans ce contexte que le service ESI (Exploitation du Système d’Informations), au sein de la Direction Exploitation et Infrastructure, s’assure du maintien en condition opérationnelle et des activités en Production relatives à l’ensemble des applications du SI. Cela implique notamment de garantir la disponibilité des systèmes pour les équipes internes, les fournisseurs et les usagers. OBJECTIFS ATTENDUS Rattaché(e) au responsable du service ESI, vous serez polyvalent(e) sur l’ensemble des activités, avec une mission de référence sur l’évolution et le maintien de l’architecture technique et du socle technique. Vous interviendrez au sein de l’équipe afin de : • Intervenir sur les évènements de Production (incidents, demandes, maintien du SI) • Exploiter des plateformes hébergées dans le Cloud AWS • Garantir des mises en production via l’infrastructure As Code • Contribuer aux projets de mise en place de nouvelles solutions et fonctionnalités et de leur évolution
Mission freelance
Tech Lead VB.NET & C#
Groupe Aptenia
Publiée le
API REST
C#
CI/CD
3 ans
500-650 €
Paris, France
Dans le cadre du renforcement de sa DSI, un acteur majeur du secteur de la gestion de droits et de la musique recherche un Tech Lead (.NET) pour intervenir sur le produit COPS , outil stratégique utilisé directement par la Direction Financière . Ce produit est au cœur des processus de comptabilité, trésorerie et contrôle de gestion . La mission s’inscrit dans un environnement structuré basé sur le framework SAFe , avec des équipes pluridisciplinaires (Product Owner, développeurs, architectes, QA, experts métier). Le Tech Lead aura pour objectif de porter le leadership technique de l’équipe produit et de garantir : une vision technique cohérente et ambitieuse , une exécution fiable et industrialisée , une forte valeur métier pour les utilisateurs financiers. Missions principalesLeadership technique Co-construire et porter une vision technique partagée alignée avec la stratégie de la DSI. Accompagner l’équipe dans les décisions techniques structurantes . Apporter un soutien technique dans la résolution de problématiques complexes . Excellence technique Définir et promouvoir les standards de développement et de qualité . Piloter la gestion de la dette technique et de l’obsolescence avec le Product Owner. Encourager les bonnes pratiques : clean code, refactoring, revues de code . Industrialisation & qualité Mettre en place des pratiques de tests automatisés (shift left, pyramide de tests) . Superviser les pipelines CI/CD et les processus d’industrialisation. Coordination transverse Assurer la cohérence technique entre équipes, produits et fonctions transverses . Traduire les enjeux métier financiers en solutions techniques pertinentes. Participer à la communication technique auprès des parties prenantes . Mentorat & dynamique d’équipe Encourager la montée en compétence de l’équipe (pair programming, tech talks). Favoriser l’autonomie, la collaboration et le leadership partagé . Incarner les valeurs agiles et encourager la responsabilité collective.
Mission freelance
DATA ENGINEER AZURE - SNOWFLAKE
CHOURAK CONSULTING
Publiée le
Apache Airflow
Azure
Azure Data Factory
3 mois
400-550 €
Île-de-France, France
Nous recherchons un Data Engineer Confirmé/Senior pour renforcer une équipe Data dans un environnement cloud moderne, avec un fort niveau d’exigence sur l’ architecture, l’industrialisation et les bonnes pratiques . 🎯 Contexte de la mission : Vous interviendrez sur une plateforme Data reposant sur Azure et Snowflake , avec une architecture Médaillon . Le rôle inclut une forte dimension lead technique : qualité du code, CI/CD, revues de PR et accompagnement des équipes. ⚙️ Missions principales : Concevoir et faire évoluer des pipelines de données sur Azure et Snowflake. Mettre en œuvre et maintenir une architecture Médaillon (Bronze / Silver / Gold). Développer et orchestrer les flux via Azure Data Factory . Automatiser les processus via Azure Automation . Participer activement à l’ industrialisation CI/CD et aux pipelines Azure DevOps . Réaliser des revues de Pull Requests et promouvoir les bonnes pratiques de développement. Garantir la qualité, la performance et la fiabilité des traitements de données.
Mission freelance
Data Scientist / AI Engineer
ESENCA
Publiée le
CI/CD
Docker
Google Cloud Platform (GCP)
1 an
Lille, Hauts-de-France
Contexte de la mission Dans le cadre du développement de solutions innovantes autour de l’intelligence artificielle, nous recherchons un Data Scientist / AI Engineer capable de concevoir, industrialiser et mettre en production des solutions IA performantes. Le rôle consiste également à instaurer des standards solides d’ingénierie logicielle afin de garantir la qualité, la fiabilité et la scalabilité des solutions développées. Vos missions Concevoir et développer des fonctionnalités basées sur l’intelligence artificielle. Construire et maintenir des pipelines de traitement de données. Industrialiser et monitorer les applications et services IA (latence, coûts, taux de réponse, satisfaction utilisateur). Mettre en place des pratiques MLOps / LLMOps : suivi d’expériences, déploiement, monitoring et observabilité des modèles. Garantir la qualité des données, la sécurité et la conformité réglementaire (notamment GDPR). Structurer les projets IA selon des standards d’ingénierie logicielle robustes (tests, CI/CD, documentation, bonnes pratiques). Participer aux revues d’architecture et diffuser les bonnes pratiques techniques au sein des équipes. Compétences techniques requises Machine Learning / Deep Learning (niveau expert). IA générative : LLM, RAG, prompt engineering, agents et orchestration. Analyse de données avancée. Traitement de données non structurées (PDF, images). Langages : Python avancé, SQL. Conception et intégration d’ APIs . Data pipelines : orchestration, streaming, feature stores. MLOps / LLMOps : CI/CD, Docker, Kubernetes, suivi des modèles, monitoring et observabilité. Bonnes pratiques de développement : structuration des projets, stratégie de tests, documentation technique. Environnement technique Python, SQL GCP Docker, Kubernetes CI/CD, MLOps / LLMOps
Offre d'emploi
TechLead OpenShift / Kubernetes
bdevit
Publiée le
CI/CD
Kubernetes
Openshift
36 mois
Île-de-France, France
Contexte : En tant que Tech Lead OpenShift / Kubernetes, vous concevez et faites évoluer la plateforme OpenShift, pilotez l’industrialisation et l’automatisation des déploiements et opérations tout en assurant un support expert N3 aux équipes. Votre rôle : Conception et architecture de la plateforme : - Analyser les besoins techniques et fonctionnels pour proposer des architectures OpenShift / Kubernetes adaptées ; - Réaliser des études techniques et POC ; - Rédiger des spécifications techniques ; - Implémenter des solutions en Infrastructure as Code (IaC) ; Administration avancée et maintenance opérationnelle : - Administrer les clusters : control-plane, nœuds, Operators, réseau (CNI) et stockage (CSI) ; - Réaliser les montées de version OpenShift, RHCOS et Operators ; - Gérer le capacity planning et les extensions de clusters ; - Rédiger et maintenir les procédures d’installation, d’upgrade et de configuration ; - Assurer le support Niveau 3 sur incidents critiques ; - Contribuer aux PRA / PCA (tests, restauration, bascule, etc...). Observabilité & Automatisation : - Mettre en œuvre et maintenir les outils de supervision et d’observabilité (Prometheus, Grafana, Alertmanager, Loki, Thanos) ; - Développer et maintenir des scripts, playbooks et modules IaC pour l’automatisation et le GitOps (Helm, ArgoCD) ; - Participer à l’amélioration continue : auto healing, pipelines CI/CD, post mortem techniques. Gouvernance technique et support aux équipes : - Définir et promouvoir les standards internes Kubernetes / OpenShift ; - Participer à la mise à jour du catalogue de services PaaS ; - Support expert N3 aux équipes Dev, DevOps et Projets ; - Accompagnement les migrations techniques et intégrations avec les services internes (registry, CI/CD, monitoring, IAM).
Offre d'emploi
Consultant DataOps / Administrateur Hadoop
Craftman data
Publiée le
Ansible
CI/CD
Docker
La Défense, Île-de-France
Dans le cadre de ses projets Big Data internes, notre client recherche un Consultant DataOps & Administrateur Hadoop confirmé , intégré à l’équipe BDP (Big Data Platform) . Le consultant interviendra sur le déploiement, l’industrialisation, l’exploitation et le maintien en condition opérationnelle de clusters Big Data personnalisés, basés sur la TOSIT Data Platform (TDP) , au service des projets data et métiers. 🎯 Rôle et responsabilités 1. Déploiement & industrialisation des clusters Big Data Déploiement automatisé de clusters via pipelines Jenkins Installation et configuration des composants Hadoop via Ansible Adaptation des architectures selon les besoins projets (sécurité, performance, capacité) Contribution aux pratiques CI/CD et Infrastructure as Code Déploiement et administration du TDP Manager Mise en place de Hue pour les environnements Datalab 2 . Administration avancée de la stack Hadoop / TDP Le consultant est responsable de l’installation, la configuration et l’exploitation de : Sécurité & identités : OpenLDAP Kerberos Ranger (politiques de sécurité) Stockage & calcul distribué : HDFS (baie Huawei) Hadoop (YARN, services core) Traitement & accès aux données : Spark Hive Services transverses : ZooKeeper PostgreSQL Responsabilités associées : Gestion des dépendances inter-services Cohérence des versions Optimisation des performances et de la stabilité Résolution des incidents complexes 3. Provisionnement & automatisation des environnements Provisionnement de VM sous VMware Préparation des prérequis systèmes (OS, réseau, stockage) Automatisation via Ansible et scripts Bash Gestion des environnements DEV / RECETTE / PROD 4. Observabilité, supervision & anticipation Mise en œuvre et maintien de la stack d’observabilité : Prometheus Alertmanager Loki / Promtail Grafana Définition des indicateurs de supervision Analyse proactive des alertes Diagnostic et résolution d’incidents 5. Maintien en Condition Opérationnelle (MCO) Administration quotidienne des clusters Hadoop Support aux équipes projets et utilisateurs Datalab Gestion des incidents, demandes d’évolution et correctifs Montées de version Suivi de capacité (CPU, RAM, stockage) Rédaction et mise à jour de la documentation technique 🤝 Interaction & posture attendue Participation active aux rituels d’équipe Coordination avec : Équipes infrastructure Équipes projets data / métiers Référents sécurité Capacité à accompagner et conseiller les équipes dans l’usage de la plateforme Forte capacité de communication transverse 🧠 Compétences clés attendues Techniques Expertise Hadoop / Big Data on-prem Solide expérience DataOps / DevOps Maîtrise de : Jenkins, GitLab CI/CD, SonarQube Ansible, Bash VMware, Docker Stack d’observabilité (Prometheus, Grafana, Loki) Méthodologiques & soft skills : Rigueur et sens de la qualité Forte sensibilité aux enjeux de sécurité Capacité d’anticipation (supervision, performance, capacité) Autonomie et esprit d’équipe Aisance dans des environnements complexes et critiques ⚠️ Points de vigilance Forte interdépendance des composants Hadoop Exigences élevées en matière de sécurité (Kerberos, Ranger) Enjeux de performance et de disponibilité Nécessité d’une coordination transverse permanente
Mission freelance
SCRUM MASTER
SKILL EXPERT
Publiée le
Confluence
JIRA
KPI
1 an
500-550 €
Essonne, France
Descriptif de la mission Notre client recherche un Scrum Master afin d'intégrer ses équipes. Lors de cette mission votre collaborateur devra effectuer les tâches suivantes: - Cadre Agile & rituels • Instaurer un usage rigoureux et pragmatique du framework Scrum • Organiser et animer les rituels : Sprint Planning, Daily, Sprint Review, Rétrospective, Refinements, PI Planning • Identifier les dysfonctionnements d’équipe et les corriger, fluidifier les interactions - Accompagnement des Product Owners • Structurer et prioriser le backlog • Améliorer la rédaction des user stories et critères d’acceptation • Aider à l’évaluation de la valeur et la gestion des dépendances • Renforcer leur posture et leur capacité à guider le delivery - Pilotage & outil • Structurer le suivi opérationnel dans Jira : qualité du backlog, avancement, vélocité, dépendances • Mettre en place ou améliorer les dashboards et KPI agiles • S’assurer d’une visibilité régulière et claire auprès du management IT - Coaching & référentiel interne (dans un second temps) • Conduire des sessions de formation/coaching : agilité, rituels, Jira/Confluence, gestion du backlog • Contribuer à la création d’un référentiel agile interne (guides, templates, checklists)
Offre d'emploi
Ingénieur DevOps
VISIAN
Publiée le
Argo CD
Jenkins
1 an
40k-45k €
400-500 €
Île-de-France, France
Descriptif du poste Le bénéficiaire souhaite une prestation d'accompagnement dans le cadre d'ingénierie DevOPS spécialisé dans les toolchains (ArgoCD, Jenkins, Helm, Gitlab CI, Ansible...) et support de production. Les missions sont : Appropriation du contexte de l'organisation Conception, industrialisation et fiabilisation les pipelines CD sur les technologies IaaS, CaaS Apport d'un soutien technique en tant que référent sur la toolchain CD (partie APS) Accompagnement : sur le terrain des nouveaux arrivants/APS dans l'adoption des bonnes pratiques des bonnes pratiques et support aux utilisateurs en réalisant le debug des pipelines de déploiement des bonnes pratiques IKs / Roks Prise en charge le support production N2/N3 : analyse, diagnostic et résolution d'incidents complexes Contribution à la réduction du bruit opérationnel et des incidents récurrents via l'automatisation et l'amélioration continue Participation aux post-mortems, analyses d'incidents et plans d'actions correctifs
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
1661 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois