L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 525 résultats.
Offre d'emploi
Tech Lead JAVA Senior
Publiée le
45k-70k €
75001, Paris, Île-de-France
Télétravail partiel
Superviser la conception technique et le développement des applications, en garantissant la cohérence architecturale, la qualité du code et le respect des standards d'ingénierie, des processus et bonnes pratiques de l'entreprise (tests unitaires et fonctionnels, code review, pair programming…). Prendre les décisions techniques pour votre squad, arbitrer les choix complexes et fournir un support technique à l'équipe pour résoudre les points bloquants. En tant que responsable hiérarchique , accompagner et coacher les développeurs et QA dans leurs missions, favoriser la montée en compétences et la collaboration. Identifier et mettre en œuvre des améliorations techniques en continu , notamment à travers l'industrialisation et l'automatisation des tests , en collaboration avec les équipes Processus et Méthodes. Assurer la coordination avec le Production Engineer pour garantir l'exploitabilité, la qualité du logiciel et la performance des services. Assurer la mise à jour de la documentation technique sur vos applications et le bon suivi des processus de delivery de l'entreprise (intégration dans la chaîne DevSecOps, outils et bonnes pratiques de test…). Participer aux cérémonies agiles de planification et de delivery des projets et assurer la coordination avec les Product Owners et l'Application Manager (AM) pour garantir la faisabilité technique, le respect du plan de release , l'identification des dépendances et la coordination inter-squads. Compétences clés requises Solide maîtrise des principes d'architecture logicielle et des bonnes pratiques de développement, Expérience sur sur un gros projet de build d'une plateforme de flux avec plusieurs interlocuteurs, Compétences confirmées en technologies Java back-end et front-end modernes, Maîtrise des technologies environnements cloud (incl. Kubernetes, Kafka...) et des pratiques DevOps , Maîtrise des composantes et processus QA et pratiques DevSecOps (automatisation des tests, intégration continue…), Capacité à analyser, arbitrer et décider dans des contextes techniques complexes, Excellentes compétences en communication et collaboration inter-squads , Management opérationnel d'une équipe de développeurs et QA (animation, feedback, accompagnement).
Offre d'emploi
Consultant .Net
Publiée le
.NET
.NET CORE
Azure
3 ans
45k-60k €
440-530 €
Île-de-France, France
Il sera intégré dans une équipe de 4 personnes, en charge du développement d'API et de la maintenance de plusieurs applications internes, dans des domaines fonctionnels et techniques variés. Un ambitieux Schéma Directeur du Système d'Information prévoit de moderniser une partie de notre SI client, et va nécessiter le développement de nombreuses API. Dans ce cadre-là , vos missions principales seront: Le développement des nouvelles API et la maintenance des API existantes Vous travaillerez dans une team Agile (Scrum) Vous collaborerez avec les autres entités de la DSI ( autres équipes de développement, architecte, urbaniste, RSSI, production) Technologies utilisées: Net 8, Web API, Entity Framework Code First, Oauth OpenId( Identity Server), Sql Server Outils utilisés: Visual Studio 2022, Azure Devops 2020, Git Profil: De formation Bac +4/5, vous justifiez d'une première expérience professionnelle dans une fonction similaire. Rigoureux(se) et autonome, vous possédez des capacités d'analyse et de synthèse. Vous avez adopté un mindset Agile. Vous aimez les challenges techniques et êtes force de proposition.
Mission freelance
Développeur CVA Expert Java/J2EE H/F
Publiée le
Java
3 ans
Paris, France
Télétravail partiel
Un grand acteur des marchés de capitaux renforce son SI Risque de contrepartie et sa chaîne CVA/XVA front . Vous intervenez dans une équipe resserrée, très proche du front-office , sur un périmètre critique mêlant volumétrie élevée , latence très faible et exigences de stabilité . Contexte international (utilisateurs en Asie, Europe, US). Votre rôle Concevoir, développer et optimiser des applications de risque de contrepartie et de CVA au cœur d’une grille de calcul haute performance, avec des SLA millisecondes côté APIs et une base d’utilisateurs large (2000+). Ce que vous ferez Analyse & design : recueillir les besoins, investiguer les issues, proposer des solutions robustes, flexibles et pérennes . Back Java 17 (core) : résolution de problématiques volumétriques & performance sur toutes les couches applicatives. Spring / Spring Boot (security, swagger, configuration, JPA) REST APIs + SOAP (WSDL/XSD), XML parsing avancé (marshalling/unmarshalling) Web/UI : développement de la couche graphique Angular + Bootstrap pour les utilisateurs métier (2000+). Grille de calcul distribuée : gestion des calculs (orchestration, suivi, relance, data management) — Middleware DataSynapse . APIs low-latency : garantir des SLA en millisecondes . Supervision : mise en place de BAM (Business Activity Monitoring) pour les flux d’alimentation & traitements. DevOps/Run : dockerisation , déploiements Kubernetes , scripts Linux (gestion process Java, manip. XML/CSV, tri/filtrage/transfo de données). Caches & stockage : Redis (cache distribué), MongoDB (document store). Contribution architecture : participation aux chantiers de grid computing et data caching de la filière Risque. Stack & compétences clés Indispensables Expertise Java 17 / Spring Boot , REST/SOAP , XML avancé . Angular (front web pour large audience interne), Bootstrap . Grille de calcul & orchestration (idéalement DataSynapse ). Docker , Kubernetes , Linux scripting . Redis , MongoDB . Culture performance/low-latency , résilience et observabilité . Connaissance métier : finance de marché, risque de contrepartie , CVA/XVA front . Anglais courant (équipe/utilisateurs internationaux). Atouts appréciés Architecture SI Risque, patterns de scalabilité et caching . Sensibilité qualité (tests, clean code, CI/CD), sécurité , conformité marché.
Mission freelance
IT Project Manager transverses - Fluent Anglais
Publiée le
Azure
18 mois
100-500 €
Paris, France
Télétravail partiel
CONTEXTE : Expérience : 10 ans et plus Métiers Fonctions : Pilotage de projet ou de programme, Chef de projets Spécialités technologiques : Workplace MISSIONS OBLIGATOIRE : plus de 10 ans d'expérience dans la gestion de projets liés au lieu de travail dans un contexte international Description des missions : Chef de projet informatique expérimenté pour : mener à bien des projets informatiques / liés au lieu de travail (au moins deux), l'un en cours et l'autre devant démarrer prochainement, avec différents niveaux de maturité et différentes parties prenantes. Les deux projets sont gérés dans un contexte international avec des parties prenantes appartenant à différentes entités. La capacité à gérer plusieurs projets (totalement indépendants) en parallèle est indispensable. Diriger un projet implique : • d'impliquer de manière proactive toutes les équipes requises (produits, groupes de travail, fonctions commerciales – ventes/souscription, conformité, etc.) en établissant et en maintenant une responsabilité afin de garantir leur participation active au projet et d'assurer un déploiement sans heurts • Définir et contrôler la portée du projet (contenu, coût, plan détaillé du projet) dans le respect des contraintes de qualité, de coût, de temps et de périmètre fonctionnel • Identifier les dépendances et tenir à jour le registre des risques ; gérer les risques/atténuations et tout problème dès qu'il survient, collaborer avec les cadres supérieurs commerciaux ou techniques si nécessaire pour les résoudre • Organiser et diriger les comités de pilotage du projet et coordonner tous les flux afin de garantir des mises à jour efficaces sur l'avancement du projet et le soutien des parties prenantes. • Préparer des rapports adaptés au public visé et contenant les informations nécessaires au suivi, au contrôle et à la prise de décision. À cette fin, consolider les statuts et les indicateurs clés de performance des produits et/ou équipes concernés (en termes de budget, de planification, de risques et de mesures d'atténuation). • Maintenir à jour le déploiement (y compris le déploiement local), les plans d'adoption et les avantages attendus conformément à l'analyse de rentabilité. • Être responsable du transfert de l'exploitation des capacités livrées vers le modèle de configuration/d'exploitation du support BAU. Faciliter/soutenir la gestion du changement pour le processus post-mise en service et les plans de formation. • Veiller à l'alignement du projet sur les méthodologies utilisées par les partenaires de projet (Agile, DevOps) conformément aux normes d'architecture, de données, de sécurité et de qualité. Livrables requis : rapports de projet, signatures des parties prenantes, documents et procès-verbaux du comité de pilotage - documentation relative aux étapes du projet. Expertise souhaitée Expérience souhaitée : plus de 10 ans d'expérience dans la gestion de projets liés au lieu de travail dans un contexte international. Autres compétences ou aptitudes attendues : Langue : anglais - maîtrise parfaite obligatoire ! Compétences techniques requises : • Approche pratique/concrète pour obtenir des résultats tangibles et structurer l'environnement de manière à mener à bien les actions nécessaires • Expérience avérée en gestion de projet dans un environnement international - capacité à soutenir la mise en œuvre de la gouvernance requise • Capacité à anticiper les risques ou à atténuer leur impact/probabilité une fois qu'ils se produisent. • Solides compétences techniques en matière de lieu de travail Compétences techniques facultatives : • Connaissances pratiques des méthodologies/cadres Agile. • Sens des affaires : bonne connaissance du secteur des assurances/de l'assistance. • Solides connaissances financières. • Connaissances pratiques de la conception de processus et des principes d'architecture des systèmes. Compétences interpersonnelles : • Excellentes capacités d'écoute active et de communication à différents niveaux hiérarchiques / d'ancienneté / pays / cultures : capacité à articuler clairement des messages à divers publics (des opérationnels aux cadres supérieurs), à intégrer rapidement les commentaires et à s'adapter en conséquence • Solides compétences en matière de leadership et de gestion • Flexibilité et adaptabilité ; capacité à travailler dans des situations dynamiques et matricielles • Capacité à diriger des groupes sur lesquels il/elle n'a aucune autorité formelle et dont les attentes sont contradictoires : parties prenantes commerciales, familles professionnelles du groupe, experts, communautés, etc. - dans un environnement international • Résilience et ténacité, avec une forte propension à persévérer dans un environnement en mutation Environnement technique : Windows 11, Intune, Azure
Mission freelance
Tech Lead java
Publiée le
API REST
Domain Driven Design (DDD)
Java
3 mois
400-500 €
Lille, Hauts-de-France
Télétravail partiel
Contexte de la mission Dans le cadre du renforcement de nos équipes de développement du produit, nous recherchons un Tech Lead JAVA expérimenté pour assurer la cohérence technique, accompagner les équipes de développement et garantir la qualité des livrables tout au long du projet. Une refonte technique doit être lancée pour augmenter le périmètre des KPI, améliorer la tenue à la charge, les performances et l'APIsation du produit. Le projet est composé de 80% backend / 20% frontend, avec le même niveau d'expertise attendu sur les deux aspects. Organisation : 4 développeurs hybrides (2 experts, 1 confirmé, 1 junior), 1 Tech Lead mi-temps, 1 QA/QE, 1 PO. Sprints de 3 semaines. Missions principales - Définir et faire évoluer l'architecture technique en assurant son alignement avec les standards de l'entreprise - Concevoir les solutions techniques garantissant scalabilité, maintenabilité et performance - Rédiger et maintenir la documentation technique (ADR, diagrammes d'architecture, guidelines) et assurer les choix techniques structurants en collaboration avec les architectes - Accompagner l'équipe via les revues de code et le partage de bonnes pratiques - Organiser des sessions de pair/mob programming - Assurer le mentorat des développeurs - Animer des ateliers techniques réguliers (craftsmanship, clean code, design patterns) - Contribuer activement au développement (20% mini) sur les fonctionnalités complexes ou critiques - Mettre en place et garantir les standards de qualité (tests unitaires, tests d'intégration, couverture de code) - Industrialiser les pratiques DevOps (CI/CD, automatisation) - Intervenir sur la résolution des problèmes techniques complexes, la dette technique et la sécurité - Évaluer la faisabilité technique des user stories et proposer des alternatives - Contribuer à l'estimation de la charge et au cadrage des sprints - Maintenir une veille active sur l'écosystème Java et proposer des évolutions pertinentes - Évaluer et expérimenter de nouvelles technologies apportant de la valeur au projet - Accompagner l'équipe dans l'adoption de nouvelles approches notamment l'IA Stack technique requise - Obligatoire -- Backend: Java 11+ (idéalement Java 17 ou 21), Spring Boot, Spring Framework, JPA, API REST, Maven -- Base de données: SQL (PostgreSQL), MongoDB serait un plus -- Qualité et tests: JUnit 5, Mockito, SonarQube -- DevOps: Git, Github actions, Docker --Architecture / méthode: microservices, architecture hexagonale, event-driven architecture, design patterns, SOLID principles, clean code, DDD, TDD -Souhaitable: Kafka, Cloud GCP (Kubernetes, Terraform), monitoring Datadog, Playwright
Mission freelance
ALSL - Tech Manager Data
Publiée le
Apache Airflow
AWS Cloud
Big Data
6 mois
550-620 €
Paris, France
Télétravail partiel
Nous cherchons un Tech Manager Data qui saura allier leadership technique et pilotage stratégique autour d’un sujet clé : l’exploitation des données issues des Property Management Systems. Ces données sont le cœur du fonctionnement : réservations, facturation, occupation, services. Ton rôle ? Les transformer en un actif stratégique fiable, pour booster la performance et la distribution des services. En tant que Tech Manager Data , tu seras : Le leader technique et managérial de deux équipes (internes & partenaires externes). Le chef d’orchestre des projets data PMS : collecte, intégration, fiabilisation et monitoring. Le binôme stratégique du Product Manager Data pour construire la roadmap et prioriser la valeur. Le garant de la fiabilité et de la performance des produits data : monitoring, alerting, optimisation FinOps/DevOps. L’ interface clé entre les équipes métiers, IT et les éditeurs PMS.
Mission freelance
Data Engineer / MLops expérimenté ou sénior Python, Pydantic, PymuPDF/3 jours TT
Publiée le
Machine Learning
Python
6 mois
410-550 £GB
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Data Engineer / MLops expérimenté ou sénior Lyon (2 jours TT) Python, Pydantic, PymuPDF Compétences attendues : Pipeline de données et de machine learning Compétences en programmation (Python, Pydantic, PymuPDF) Compétences sur les services d’IA d’AWS (sagemaker) et des services AWS (StepFunction, Lambda, SQS, CloudWatch, Textract…) Compétences en computer Vision par réseaux de neurones Outils de DevOps et de Cloud Computing (Terraform) Processus CI / CD Outils d’automatisation Méthodologies agiles (Jira, Confluence, Kanban, Scrum…) Connaissance des principaux LLM dont les modèles Gemini Compétences en optimisation sous contraintes et connaissance d’outils comme ORTools Localisation de la mission : Lyon 2 jours de présence sur site Date de démarrage : Début janvier Minimum 3 ans d’expérience Profils expérimentés (3 à 7 ans d’expérience) Profils senior (7 ans et +) Missions : Détection d’opportunités IA/ML et contribution à des preuves de concept (POC) (Identifier et analyser des opportunités IA/ML, concevoir et documenter des POC fonctionnels, puis présenter et évaluer leur valeur métier et robustesse auprès des parties prenantes.) Développement de fonctionnalités de Machine Learning et d'IA (Concevoir et valider l’architecture SI, collaborer avec l’équipe produit pour intégrer des fonctionnalités IA/ML, livrer des incréments industrialisables et contribuer à la documentation technique et produit.) Industrialisation et standardisation des pratiques IA / MLOps (Intégrer et déployer des modèles IA avec des formats standard, optimiser leur performance et coût, assurer le monitoring et les mises à jour, contribuer aux pratiques MLOps et réaliser une veille technologique en ML/IA.)
Mission freelance
Data Platform Engineer – Snowflake / Terraform (Full Remote – Belgique)
Publiée le
Snowflake
6 mois
580 €
Paris, France
Télétravail partiel
Contexte du poste : Dans le cadre du renforcement de ses équipes Data & Cloud, notre client recherche un Data Platform Engineer spécialisé dans la conception, le déploiement et la maintenance d’infrastructures data à grande échelle. L’objectif est de bâtir un écosystème de données robuste, automatisé et sécurisé , supportant l’ensemble des pipelines et applications data de l’entreprise. Le poste est basé en Belgique , mais 100 % remote est possible. Missions principales : Concevoir, développer et maintenir l’infrastructure sous-jacente aux plateformes data (Snowflake principalement). Industrialiser le provisioning et la configuration via Terraform (Infrastructure as Code) . Garantir la scalabilité, la sécurité et la performance de la plateforme data. Mettre en place et maintenir les pipelines CI/CD (Git-based workflows). Gérer la sécurité des secrets et credentials via les outils dédiés (Vault, AWS/Azure/GCP Secret Manager). Collaborer avec les équipes Data Engineering, Cloud et Sécurité pour assurer la cohérence et la fiabilité de la plateforme. Contribuer à la documentation technique, au suivi Jira et à l’amélioration continue du delivery. Compétences techniques requises : Excellente maîtrise de la plateforme Snowflake (architecture, performance tuning, RBAC, best practices). Expertise confirmée en Terraform , notamment pour la création de modules et l’automatisation des déploiements cloud. Expérience sur des workflows CI/CD Git-based (GitHub Actions, GitLab CI, Jenkins...). Maîtrise d’au moins un outil de gestion des secrets : HashiCorp Vault, AWS Secrets Manager, Azure Key Vault ou GCP Secret Manager. Bonne connaissance de l’ écosystème DevOps et des outils de suivi (Jira, Confluence). Profil recherché : 5 à 8 ans d’expérience en ingénierie data ou cloud infrastructure. Solides compétences en Industrialisation et Sécurité des environnements data . Esprit analytique, autonome et rigoureux. Capacité à travailler dans un environnement international et collaboratif. Langue : Anglais courant (obligatoire) .
Mission freelance
Data Engineer / MLops expérimenté ou sénior Python, Pydantic, PymuPDF/3 jours TT
Publiée le
Machine Learning
Python
6 mois
410-550 £GB
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Data Engineer / MLops expérimenté ou sénior Python, Pydantic, PymuPDF Compétences attendues : Pipeline de données et de machine learning Compétences en programmation (Python, Pydantic, PymuPDF) Compétences sur les services d’IA d’AWS (sagemaker) et des services AWS (StepFunction, Lambda, SQS, CloudWatch, Textract…) Compétences en computer Vision par réseaux de neurones Outils de DevOps et de Cloud Computing (Terraform) Processus CI / CD Outils d’automatisation Méthodologies agiles (Jira, Confluence, Kanban, Scrum…) Connaissance des principaux LLM dont les modèles Gemini Compétences en optimisation sous contraintes et connaissance d’outils comme ORTools Localisation de la mission : Lyon 2 jours de présence sur site Date de démarrage : Début janvier Minimum 3 ans d’expérience Profils expérimentés (3 à 7 ans d’expérience) Profils senior (7 ans et +) Missions : Détection d’opportunités IA/ML et contribution à des preuves de concept (POC) (Identifier et analyser des opportunités IA/ML, concevoir et documenter des POC fonctionnels, puis présenter et évaluer leur valeur métier et robustesse auprès des parties prenantes.) Développement de fonctionnalités de Machine Learning et d'IA (Concevoir et valider l’architecture SI, collaborer avec l’équipe produit pour intégrer des fonctionnalités IA/ML, livrer des incréments industrialisables et contribuer à la documentation technique et produit.) Industrialisation et standardisation des pratiques IA / MLOps (Intégrer et déployer des modèles IA avec des formats standard, optimiser leur performance et coût, assurer le monitoring et les mises à jour, contribuer aux pratiques MLOps et réaliser une veille technologique en ML/IA.)
Mission freelance
Expert/Lead Kubernetes - Tanzu (TKG)
Publiée le
Argo CD
IAC
Kubernetes
12 mois
600 €
Paris, France
Télétravail partiel
Un grand groupe recherche un Tech Lead Kubernetes expérimenté , spécialisé dans l’administration et l’évolution de clusters Kubernetes en environnements On-Premises et Cloud public , afin de renforcer l’exploitation et la fiabilisation de ses plateformes critiques. Le poste s'articule autour de deux périmètres : Une plateforme interne basée sur Tanzu Kubernetes Grid (TKG) intégrée à une infrastructure VMware. Des clusters Amazon EKS utilisés pour les applications cloud du groupe, notamment les workloads data. Missions principales : 1. Administration & exploitation des clusters Kubernetes Assurer la disponibilité, la maintenance et les évolutions des environnements TKG (On-Prem) et EKS (AWS) . Garantir la résilience , la sécurité , la performance et la stabilité de l’ensemble des plateformes. Traiter et analyser les incidents complexes, fournir un support expert et accompagner leur résolution. Maintenir à jour les procédures opérationnelles, les documentations de reprise après incident et les guides d’exploitation. 2. Évolution des infrastructures et modernisation Préparer et piloter la migration vers TKG 2.x intégré à une nouvelle version de la stack VMware. Organiser la reprise et la gestion progressive des clusters EKS opérés par d’autres équipes. Participer à la définition et à la consolidation du socle Kubernetes commun destiné aux applications critiques. Automatiser le déploiement complet des environnements Kubernetes dans une logique IaC et GitOps . 3. CI/CD, automatisation & GitOps Intégrer, fiabiliser et optimiser les pipelines CI/CD (ex. Jenkins, ArgoCD…). Mettre en place et maintenir des modules IaC , des pipelines et des bonnes pratiques d’automatisation. Définir et gérer les droits utilisateurs (RBAC) sur les différents clusters. Contribuer à la culture DevOps / GitOps , et promouvoir les bonnes pratiques d’industrialisation. 4. Support, accompagnement & transfert de compétences Accompagner les équipes d’exploitation et de développement dans leur montée en compétences Kubernetes et GitOps. Participer à la rédaction et à l’amélioration continue du référentiel documentaire. Assurer un transfert de connaissances structuré et durable.
Mission freelance
Database administrator
Publiée le
MySQL
Nosql
Oracle
6 mois
Luxembourg
Nous recherchons un(e) Administrateur(trice) de bases de données (DBA) fiable et rigoureux(se) pour garantir l’intégrité, la cohérence et la performance des bases de données qui alimentent notre infrastructure de marché de nouvelle génération dédiée à la distribution de fonds. Évoluant dans un environnement cloud-native et basé sur des microservices, avec des interactions avec des composants blockchain/DLT, ce rôle est essentiel pour assurer la cohérence, la sécurité et la qualité de l’ensemble des données gérées par la plateforme. Le ou la candidat(e) idéal(e) combine une solide expertise technique en administration de bases de données avec de fortes capacités d’analyse et de communication. Il/elle supervisera les modèles de données, garantira la cohérence des données de bout en bout et pilotera les migrations de données clients, en collaboration étroite avec les équipes Produit, Ingénierie, DevOps et Conformité. Responsabilités Gestion des bases de données & excellence opérationnelle Administrer, surveiller et maintenir les bases de données de production, de préproduction et de développement dans un environnement cloud-native. Garantir la cohérence, la consistance et l’intégrité des données à travers les microservices et les flux de données inter-systèmes. Gérer les évolutions de schémas, les mises à niveau, les correctifs et l’optimisation des configurations. Optimiser en continu les performances des bases de données et l’exécution des requêtes pour des charges de travail à haute disponibilité. Gouvernance des modèles de données Maintenir et faire évoluer les modèles de données logiques et physiques de la plateforme en cohérence avec l’architecture produit. Collaborer avec les architectes produit et les ingénieurs afin de garantir la scalabilité et la performance à long terme des modèles de données. Assurer l’application cohérente des conventions de nommage, des définitions de données et des structures relationnelles / NoSQL sur l’ensemble des services. Participer aux revues de conception pour valider les choix de stockage des données et la gestion de leur cycle de vie. Migration et onboarding des données clients Planifier, exécuter et superviser les migrations de données clients, de l’extraction initiale à la transformation, la validation et l’import sécurisé. Concevoir des workflows de migration robustes et des plans de validation pour garantir un onboarding propre et fiable. Développer des outils, scripts et automatisations pour les activités récurrentes de migration de données. Accompagner les clients et les équipes internes sur les questions et incidents liés aux migrations. Qualité des données, conformité & sécurité Mettre en place et superviser des contrôles de qualité des données (intégrité référentielle, détection d’anomalies, règles de rapprochement). Garantir la conformité aux réglementations sur la protection des données (rétention, confidentialité, auditabilité, contrôles d’accès). Collaborer avec les équipes Sécurité et Conformité pour le chiffrement, le masquage et la gestion sécurisée des données. Réaliser régulièrement des tests de sauvegarde, de restauration et de reprise après sinistre pour valider la résilience de l’infrastructure. Collaboration transverse Travailler étroitement avec les Product Owners, Business Analysts et ingénieurs pour comprendre les besoins fonctionnels et techniques liés aux données. Accompagner les développeurs lors des livraisons fonctionnelles (évolutions de schémas, requêtes, contrôles de cohérence). Collaborer avec les équipes DevOps pour intégrer les opérations de bases de données dans les pipelines CI/CD et les frameworks d’infrastructure as code. Apporter une expertise lors des incidents, analyses de causes racines et revues de performance. Compétences clés Expertise solide en bases de données relationnelles (PostgreSQL, MySQL, Oracle…) et/ou NoSQL (MongoDB, CosmosDB, etc.). Très bonne compréhension de la modélisation de données, du design de schémas et des principes de normalisation / dénormalisation. Expérience pratique des migrations de données, outils ETL/ELT et transformations de données structurées. Familiarité avec les services de données cloud-native (Azure SQL) et les bases de données managées. Compréhension des architectures microservices et des patterns de données distribuées. Connaissance des flux de données blockchain/DLT et de la cohérence on-chain / off-chain (fort atout). Maîtrise du SQL, des langages de scripting (Python, Bash…) et de l’optimisation de requêtes. Solides capacités d’analyse et de résolution de problèmes liés aux performances et à la cohérence des données. Sensibilité aux exigences de conformité, de protection des données et d’audit dans des environnements financiers. Expérience requise 4 à 8 ans (ou plus) d’expérience en tant que DBA, Data Engineer ou poste équivalent. Expérience de gestion de bases de données dans des architectures cloud-native et microservices. Expérience avérée en migrations de données et en assurance qualité des données. Une expérience préalable en fintech, services financiers ou secteurs réglementés est un plus. Habitude de travailler avec des équipes transverses et de supporter des environnements de production. Connaissance des pratiques DevOps, de l’automatisation et de l’infrastructure as code appréciée.
Offre d'emploi
Expert Infrastructure / Automatisation Ansible TOWER
Publiée le
Ansible
Linux
1 an
40k-45k €
400-630 €
Île-de-France, France
Télétravail partiel
Contexte du projet Le programme d'industrialisation de l'exploitation Linux a conduit à la mise en place d'une première version de la plateforme Ansible sur une partie du parc Linux, pour les usages d'installation serveurs. Les besoins en terme de patchings, mise à jour sécurité, distribution vont croissants avec des exigences de délais renforcées, sur un parc Linux grandissant. Le projet vise à étendre la couverture à l'ensemble du parc Linux (Cloud et Legacy) et de mettre à disposition l'usage de la plateforme pour opérer les activités de patching, déploiements Sécurité, télédistribution, exploitation Linux pour permettre de répondre plus efficacement à ces besoins croissants. L'un des enjeux est d'implémenter un framework d'exploitation basé sur Ansible/Ansible Tower, géré en mode industriel et intégrant les concepts DevOps. Dans ce contexte, il s'agit d'automatiser et industrialiser les gestes d'exploitation (gestes répétables) afin d'optimiser la gestion des plateformes Linux.
Offre d'emploi
Consultant·e Data Analyst / Splunk ITSI – Dashboards & Data Infrastructure
Publiée le
Splunk
2 ans
40k-48k €
400-500 €
Paris, France
Télétravail partiel
Qui sommes-nous ? Anafi Consulting est un cabinet de conseil spécialisé dans les transformations technologiques et organisationnelles. Nous accompagnons nos clients grands comptes dans leurs projets stratégiques autour de la Data, du Cloud, du DevOps et du numérique responsable , dans des secteurs tels que la finance, l’énergie, l’IT et les télécommunications . Nous recherchons un(e) Consultant·e Data Analyst / Splunk ITSI pour accompagner les équipes dans la construction de dashboards et la mise en place d’une structure de données dédiée à la supervision des infrastructures. Vous interviendrez au cœur d’un projet long terme visant à renforcer la visibilité, la performance et la fiabilité des environnements techniques via Splunk et ITSI. Vos missions principales Concevoir et développer des dashboards Splunk ITSI pour le suivi et la supervision des infrastructures. Construire et structurer la donnée d’observation (logs, métriques) afin d’alimenter les tableaux de bord analytiques. Configurer et administrer Splunk et ses composants ITSI pour répondre aux besoins de reporting et d’exploitation. Analyser les données et traduire les résultats en indicateurs clairs et exploitables . Participer à l’ industrialisation des traitements de données et à la standardisation des processus analytiques. Collaborer avec les équipes techniques et métiers pour assurer la cohérence et la qualité des données. Fournir un appui analytique aux équipes de pilotage et de décision.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- La Société de portage avec qui j'ai signé m'impose la soltion MAY
- Compte dédié micro-entreprise
- Utiliser Qonto pour créer la microentreprise
- Service de comptabilité en ligne fiable et réactif pour une succursale de SASU
- Offre propulse IT
- Traitement fiscal des cotisations sociales payées en 2025 sur CA micro-BNC 2024
525 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois