L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 5 722 résultats.
Offre d'emploi
Expert Data Référentiels
Management Square
Publiée le
API
Azure DevOps
Azure Synapse
1 an
50k-57k €
500-580 €
Paris, France
Nous sommes à la recherche d'un(e) : Expert Data Référentiels -Se coordonner avec le Business Analyst du sujet pour définir la charge et définir les travaux à mener - Développer l’intégration des flux avec Azure Synapse / PySpark -S’appuyer sur les connaissances fonctionnelles de l’équipe en place - S’assurer de la qualité et de la cohérence de données intégrer pour anticiper les impacts sur les reporting (comparaison de données entre sources. - Expérience dans la mise en place de la qualité du code (Sonar) et l’amélioration continue
Mission freelance
EXPERT(E) RESEAU TELECOM - Confirmé F/H
SMARTPOINT
Publiée le
AWS Cloud
Azure
BGP (Border Gateway Protocol)
12 mois
450-500 €
Île-de-France, France
Description détaillée : Dans un contexte de migration du réseau de notre centre de données et des projets cloud, nous recherchons un ingénieur pour renforcer l'équipe en charge de la gestion du réseau du Datacenter et cloud: Mission - Concevoir, planifier et mettre en œuvre des architectures réseau complexes répondant aux besoins opérationnels de l'entreprise. - Participer aux traitements des demandes ou projets des différents métiers et dans une approche de service - Contribuer à la mise à jour des outils, de la documentation interne et à l’automatisation des tâches récurrentes afin de réduire le RUN. - Suivre les tendances technologiques et proposer des améliorations continues pour optimiser ou réduire l'infrastructure réseau - Fournir un support technique et une expertise aux équipes internes en cas de problèmes complexes. Domaine de compétences : - Maîtrise des couches L2, L3 (MPLS, BGP, VxLAN,SDWAN), F5 LB, DNS - Expertise sur la partie sécurité : FW PaloAlto/Fortinet - Expertise sur la partie Cloud (AWS, GCP, Azure) - Connaissance avancée sur les outils d'automatisation (netbox, ansible, …) Vos atouts : Vous faites preuve d’organisation, de rigueur et appréciez le travail d’équipe et collaboratif Votre bon sens du relationnel sera un atout pour communiquer avec une grande diversité d’interlocuteurs Vous avez un sens de l’innovation et de la créativité.
Offre premium
Offre d'emploi
Administrateur Datadog
Lùkla
Publiée le
Datadog
3 mois
30k-60k €
400-650 €
Île-de-France, France
Le Challenge Au sein de notre Direction du Numérique, vous devenez le garant de la visibilité de nos infrastructures et applications. Votre mission ? Transformer la donnée brute en insights exploitables pour nos équipes métiers et services. Vous intervenez sur un écosystème technologique d'une richesse rare (Cloud, On-premise, Kubernetes, Legacy). Vos Missions : De l'ingénierie à l'action 🛠️ Déploiement & Configuration Installation & Setup : Déployer les agents Datadog et configurer les composants sur des environnements hybrides (Unix/Linux, Windows, PAAS AWS/Azure). Standardisation : Concevoir et maintenir des Templates (Dashboards, Monitors) de référence pour assurer une cohérence globale. Supervision 360° : Configurer la collecte de métriques, de logs et de traces pour monitorer la santé des applications en Recette et Production. 🚨 Pilotage de la Performance & Alerte Intelligence de l'alerte : Créer des monitors intelligents avec des seuils affinés avec les utilisateurs pour éviter la "fatigue d'alerte". Notifications & Escalade : Automatiser les alertes via Teams, WebHooks ou Emails et définir les processus de remédiation. Visualisation : Créer des cartes réseau et des dashboards temps réel pour une lecture immédiate de la performance. 📈 Accompagnement & Amélioration Continue Maintien en Conditions Opérationnelles (MCO) : Optimiser les performances de la supervision pour minimiser l'impact système et budgétaire. Support aux changements : Accompagner les projets dans leurs évolutions (migrations, décommissionnements) et aider à la résolution d'incidents critiques. Reporting : Analyser les tendances, générer des rapports d'activité et proposer des axes d'amélioration proactively. Votre Profil Les indispensables : Expertise Datadog : Vous maîtrisez parfaitement l'écosystème (Agents, Log management, APM, Metrics, Dashboards, Monitors). Culture Systèmes : Compétence confirmée en administration Linux/Unix et Windows . Esprit d'équipe : Vous aimez le partage de connaissances, le feedback régulier et le travail collaboratif. Les "plus" qui feront la différence : Automation/DevOps : Maîtrise du scripting (Python, Shell) et de l'Infrastructure as Code ( Terraform , Ansible). Connectivité : Utilisation d'APIs (REST, JSON, XML). Curiosité Technique : Notions sur Kubernetes, Docker, Kafka, SGBD (PostgreSQL, Oracle, NoSQL) ou Middleware (Tomcat, Tibco).
Offre d'emploi
Développeur Back-End .NET Sénior – Expert Paiement / PSP (H/F)
OCSI
Publiée le
.NET
Azure
CI/CD
1 mois
50k-54k €
400-550 €
Paris, France
Contexte & Mission Pour un acteur majeur du retail / e-commerce , nous recherchons un Développeur Back-End .NET sénior , expert des systèmes de paiement (PSP) , pour intervenir au sein d’une Digital Factory à forts enjeux business. Le contexte est celui d’une plateforme e-commerce à fort volume , avec des objectifs clairs d’ industrialisation , de fiabilité transactionnelle , d’ amélioration continue de la qualité et de modernisation des interfaces et services . Vous interviendrez sur un produit en production critique , directement lié au parcours de paiement et au taux de transformation . Responsabilités Concevoir, développer et maintenir des services de paiement robustes, sécurisés et résilients Garantir la fiabilité des flux transactionnels : autorisation, capture, refund, 3DS, tokenisation, middle states, erreurs, retries, idempotence Améliorer en continu la fluidité du parcours de paiement et le taux de succès transactionnel Contribuer fortement à l’ observabilité : suivi des indicateurs transactionnels analyse des comportements en production détection proactive des signaux faibles Assumer la responsabilité du service en production : analyse et traitement des incidents garantie de la stabilité et de la performance Travailler en étroite collaboration avec les équipes : Produit, Sécurité, QA, DevOps, Cloud, Architecture Participer activement à l’ amélioration continue : performance, sécurité, conformité, résilience, refactorings ciblés, réduction de la dette technique S’inscrire dans une approche orientée résultat et valeur business
Offre d'emploi
Senior Platform Engineer / Site Reliability Engineer (SRE)
bdevit
Publiée le
Argo CD
AWS Cloud
CI/CD
36 mois
Île-de-France, France
Contexte : Dans le cadre du renforcement de nos équipes plateforme, nous recherchons un Senior Platform Engineer / Site Reliability Engineer (SRE) spécialisé en Container as a Service (CaaS) pour un démarrage ASAP . Le poste s’inscrit dans une démarche de construction et d’évolution de plateformes internes à grande échelle. Nous ne recherchons pas un profil Ops traditionnel, mais un véritable Platform Builder , doté d’une forte culture produit et d’une solide expérience en environnements cloud-native en production. Missions Principales : Concevoir, construire et maintenir des plateformes CaaS/PaaS internes basées sur Kubernetes ; Définir et faire évoluer l’architecture des clusters Kubernetes managés ( EKS / GKE ) ; Garantir la sécurité, la fiabilité et la scalabilité des plateformes ; Mettre en œuvre et maintenir l’ Infrastructure as Code (Terraform / Terragrunt) en production ; Déployer et opérer des chaînes GitOps et CI/CD robustes et automatisées ; Accompagner les équipes de développement dans l’adoption de la plateforme (self-service, bonnes pratiques) ; Participer activement à la gestion des incidents (on-call), aux post-mortems et à l’amélioration continue ; Automatiser la remédiation des incidents récurrents et optimiser l’exploitation de la plateforme.
Offre d'emploi
Data engineer
SKYLLIT
Publiée le
Docker
Github
Google Cloud Platform (GCP)
1 an
Île-de-France, France
Profil Data Engineer/Data Analyst Senior pour gérer des applications liées au métier de la CDMO (Chief Digital & Marketing Office), dans une équipe dynamique aux profils variés (Tech Lead, Dev Full Stack, Data Scientist, Product Owner, QA...) Une des applications One Creative consiste à offrir une vision complète de la performance & l'optimisation de chaque asset media, de la stratégie globale à l'activation locale. o Développer et maintenir les data pipelines de : · Sourcing des données (Datalake BigQuery) · Téléchargement d'assets vidéo via API social media platforms · Analyse créative (application interne Augmented DAM) · Automatisation des processus IA (embedding, clustering) o Transformer la donnée brute du Datalake en tables optimisées pour l'application One Creative (fusion KPIs de performance, métadonnées, données créatives...) o Optimiser le déploiement du backend sur GCP o Améliorer la code base en ajoutant des tests unitaires et d'intégration sur le code Python o Développer une première brique de monitoring des données récupérées (assets, KPIs) o Moderniser les briques techniques (thumbnail, product-detection, encoder) avec des approches plus modernes et optimisées o Optimiser la chaîne CI/CD o Travailler sur la migration du backend Augmented DAM (autre application interne utilisée en tant que service de One Creative) o Développer les requêtes SQL pour sourcer les données dans les tables du Datalake, sur la base des inputs du Data Business Owner o Documenter les données récupérées depuis le Datalake avec des documents et des schémas des données o S'assurer de la qualité des données consolidées dans l'application par rapport aux données sources o Aider sur le développement des métriques de monitoring des KPIs de l'application o Analyser et croiser les données pour générer de nouveaux insights (creative data qui génèrent le plus de performance...) et benchmarks
Offre d'emploi
Ingénieur de production applicatif
SELFING
Publiée le
Administration Windows
Azure
Azure DevOps
1 an
50k-55k €
500-550 €
Saint-Rémy-lès-Chevreuse, Île-de-France
Dans le cadre du renforcement de l’équipe de production applicative, nous recherchons un(e) Ingénieur(e) de production applicatif pour intervenir sur l’intégration et l’exploitation des applications du Groupe. La mission est basée en région à Saint-Rémy-Lès-Chevreuse (78) Plus précisément, vos tâches seront les suivantes : • Intégrer de nouvelles applications en collaboration avec les prestataires et les responsables métiers GTT • Assurer l’administration, la maintenance et la supervision des applications • Administrer et maintenir les environnements de développement et la chaîne CI/CD (intégration & déploiement continu) • Gérer le support applicatif et le traitement des incidents , en coordonnant les actions correctives Rédiger et maintenir la documentation et les documents d’exploitation
Offre d'emploi
Data Analyst - confirmé - CDI - Rouen H/F
GROUPE ARTEMYS
Publiée le
France
Qui sommes-nous ? ESN : +35 ans d’existence. Expertise ARTEMYS AGIL-IT : Ingénierie logicielle | BDD | BI | Big Data. 800 collaborateurs | 80M€ CA (2024). Entreprise humaine : ProximITé, ConvivialITé, SolidarITé, EsprIT d’équipe, Partage, Respect et Accompagnement. Engagement responsable : Adhésion Global Compact, Planet Tech’Care, Label SILVER EcoVadis Sustainability, Charte de la Diversité. En savoir plus : | L’ IT chez ARTEMYS AGIL-IT combine la technologie et l’humain ! Nous sommes convaincus que les compétences, le savoir-être et l’épanouissement de nos Talents sont les clés de notre réussite . Avant tout, nous recherchons chez ARTEMYS AGIL-IT des personnalITés passionnées. Contexte de la mission : Le pôle Data & BI de notre client est engagé dans une dynamique de renforcement pour 2026, avec des enjeux forts autour de la structuration des usages BI, de la consolidation des données et de la mise à disposition de la donnée aux métiers dans une logique de self-BI. Les travaux portent à la fois sur la refonte de l’existant et sur la construction de nouvelles briques data, avec une volonté claire de professionnaliser les pratiques et de sortir progressivement d’un fonctionnement trop orienté production. Objectif de la mission : En tant que Data Analyst / BI Engineer, vous intervenez comme profil de construction au cœur de l’ingénierie data : Concevoir et structurer les modèles de données analytiques Fiabiliser les chaînes de traitement de données Mettre à disposition une donnée exploitable et autonome pour les métiers Contribuer à la mise en place de process data robustes (build / run / fiabilisation) Votre mission (si vous l’acceptez) : Build Conception et développement des pipelines d’ingestion et de transformation Construction de bases de données analytiques Modélisation décisionnelle (modèle en étoile) Conception de cubes pour la mise à disposition de la donnée métier Développement orienté Python, avec une approche code-first et versionnée (Git) Run Maintien et évolution des traitements existants Supervision et optimisation des flux de données Contribution à la stabilité de la plateforme data Fiabilisation (enjeu clé du poste) Mise en place de contrôles de qualité de données Sécurisation et structuration des process Contribution à la réduction des interventions directes en production Vous, notre perle rare : Compétences techniques Expérience confirmée en Data / BI Maîtrise de la conception de bases de données analytiques Solide pratique de la modélisation décisionnelle Expérience en Python appliqué au traitement de données Sensibilité forte aux bonnes pratiques de développement logiciel Compétences fonctionnelles Capacité à comprendre les enjeux métiers et à les traduire en modèles data Appétence pour les sujets de construction et de structuration Intérêt marqué pour la qualité et la fiabilité de la donnée Soft skills Esprit structurant et pragmatique Capacité à travailler dans un contexte en transformation Goût pour les environnements techniques exigeants et évolutifs Environnement technique : Cloud : Azure / Data Fabric Ingestion & orchestration : outils Azure, usage orienté code (non low-code) Langage : Python Modélisation : data marts, modèles en étoile, cubes Méthodologie : pratiques issues du développement logiciel (Git, traçabilité, structuration) Le process pour nous rejoindre : simple et clair ! Échange RH : On discute de vos motivations et de l’adéquation avec nos valeurs (promis, pas de robotisation ici). Entretien opérationnel : Un échange approfondi pour clarifier vos missions. Proposition d'embauche : Si tout colle, on vous accueille officiellement chez Artemys ! Rémunération et conditions : CDI Salaire : 37k€ à 40k€ en fonction du niveau d'expérience Prise de poste ASAP Mode de travail hybride, 1 journée de télétravail par semaine Bienvenue dans l’aventure ARTEMYS Chez nous, chaque talent compte. Peu importe votre âge, vos origines, votre identité, votre religion ou votre orientation : ce qui nous intéresse, c’est vous et ce que vous avez à apporter. On s’engage à répondre à toutes les candidatures sous 72 heures, parce qu’on sait combien l’attente peut être stressante. Et ici, l’inclusion n’est pas qu’un mot : tous nos postes sont ouverts aux personnes en situation de handicap, et on fait tout pour créer un environnement où chacun peut s’épanouir. Prêt, feu, candidatez !
Mission freelance
Data Analyst - confirmé - freelance - Rouen H/F
GROUPE ARTEMYS
Publiée le
1 mois
France
Qui sommes-nous ? ESN : +35 ans d’existence. Expertise ARTEMYS AGIL-IT : Ingénierie logicielle | BDD | BI | Big Data. 800 collaborateurs | 80M€ CA (2024). Entreprise humaine : ProximITé, ConvivialITé, SolidarITé, EsprIT d’équipe, Partage, Respect et Accompagnement. Engagement responsable : Adhésion Global Compact, Planet Tech’Care, Label SILVER EcoVadis Sustainability, Charte de la Diversité. En savoir plus : | L’ IT chez ARTEMYS AGIL-IT combine la technologie et l’humain ! Nous sommes convaincus que les compétences, le savoir-être et l’épanouissement de nos Talents sont les clés de notre réussite . Avant tout, nous recherchons chez ARTEMYS AGIL-IT des personnalITés passionnées. Contexte de la mission : Le pôle Data & BI de notre client est engagé dans une dynamique de renforcement pour 2026, avec des enjeux forts autour de la structuration des usages BI, de la consolidation des données et de la mise à disposition de la donnée aux métiers dans une logique de self-BI. Les travaux portent à la fois sur la refonte de l’existant et sur la construction de nouvelles briques data, avec une volonté claire de professionnaliser les pratiques et de sortir progressivement d’un fonctionnement trop orienté production. Objectif de la mission : En tant que Data Analyst / BI Engineer, vous intervenez comme profil de construction au cœur de l’ingénierie data : Concevoir et structurer les modèles de données analytiques Fiabiliser les chaînes de traitement de données Mettre à disposition une donnée exploitable et autonome pour les métiers Contribuer à la mise en place de process data robustes (build / run / fiabilisation) Votre mission (si vous l’acceptez) : Build Conception et développement des pipelines d’ingestion et de transformation Construction de bases de données analytiques Modélisation décisionnelle (modèle en étoile) Conception de cubes pour la mise à disposition de la donnée métier Développement orienté Python, avec une approche code-first et versionnée (Git) Run Maintien et évolution des traitements existants Supervision et optimisation des flux de données Contribution à la stabilité de la plateforme data Fiabilisation (enjeu clé du poste) Mise en place de contrôles de qualité de données Sécurisation et structuration des process Contribution à la réduction des interventions directes en production Vous, notre perle rare : Compétences techniques Expérience confirmée en Data / BI Maîtrise de la conception de bases de données analytiques Solide pratique de la modélisation décisionnelle Expérience en Python appliqué au traitement de données Sensibilité forte aux bonnes pratiques de développement logiciel Compétences fonctionnelles Capacité à comprendre les enjeux métiers et à les traduire en modèles data Appétence pour les sujets de construction et de structuration Intérêt marqué pour la qualité et la fiabilité de la donnée Soft skills Esprit structurant et pragmatique Capacité à travailler dans un contexte en transformation Goût pour les environnements techniques exigeants et évolutifs Environnement technique : Cloud : Azure / Data Fabric Ingestion & orchestration : outils Azure, usage orienté code (non low-code) Langage : Python Modélisation : data marts, modèles en étoile, cubes Méthodologie : pratiques issues du développement logiciel (Git, traçabilité, structuration) Le process pour nous rejoindre : simple et clair ! Échange RH : On discute de vos motivations et de l’adéquation avec nos valeurs (promis, pas de robotisation ici). Entretien opérationnel : Un échange approfondi pour clarifier vos missions. Proposition d'embauche : Si tout colle, on vous accueille officiellement chez Artemys ! Rémunération et conditions : TJ en fonction de votre expertise sur un poste similaire Prise de poste ASAP Freelance / Portage 3 mois renouvelable Mode de travail hybride, 1 journée de télétravail par semaine Bienvenue dans l’aventure ARTEMYS Chez nous, chaque talent compte. Peu importe votre âge, vos origines, votre identité, votre religion ou votre orientation : ce qui nous intéresse, c’est vous et ce que vous avez à apporter. On s’engage à répondre à toutes les candidatures sous 72 heures, parce qu’on sait combien l’attente peut être stressante. Et ici, l’inclusion n’est pas qu’un mot : tous nos postes sont ouverts aux personnes en situation de handicap, et on fait tout pour créer un environnement où chacun peut s’épanouir. Prêt, feu, candidatez !
Offre d'emploi
Expert / Référent Technique – Dataiku & Braincube (H/F)
HAYS France
Publiée le
AWS Cloud
Dataiku
6 mois
40k-45k €
500-650 €
92240, Malakoff, Île-de-France
Dans le cadre de ses activités Data & IA, notre client recherche un(e) Expert / Référent Technique Dataiku & Braincube afin d’assurer le pilotage, l’exploitation et l’évolution de ses plateformes Data à l’échelle du Groupe. Vous interviendrez comme référent technique et architectural sur les plateformes Dataiku et Braincube, en environnement hybride Cloud / On-Premise, avec un rôle clé dans la gouvernance, la performance opérationnelle, la sécurité et l’accompagnement des équipes. Vous serez responsable du bon fonctionnement du service, de sa résilience, de son alignement avec les standards de cybersécurité SAFRAN et de la construction de la roadmap d’évolution, en coordination avec les équipes internes, les prestataires et les équipes basées en Inde.
Mission freelance
Data Analyst Lead – Gouvernance & Conception Data
Comet
Publiée le
Data Strategy
Databricks
Microsoft Power BI
300 jours
550-580 €
Châtillon, Île-de-France
Data Analyst Lead – Gouvernance & Conception Data Objectif global Renforcer l’expertise en analyse, conception et gouvernance des données au sein d’un DataLab, dans un contexte grande distribution multi-enseignes et multi-métiers. Livrables : - Expertise analytique et conception de solutions data - Contribution à la structuration des KPI métiers - Animation de la communauté Data Analyst - Participation à la Data Authority - Contribution au modèle de données commun Contexte de la mission : - Mission au sein d’un DataLab, rattachée à l’équipe Gouvernance des données. Environnement : - Grande Distribution - Multi-enseignes - Multi-métiers Enjeux forts de performance, qualité des données, modélisation et usages analytiques à grande échelle ⚠️ La connaissance opérationnelle de la Grande Distribution est impérative. Objectifs - Apporter une expertise avancée en data analyse et en conception de solutions data - Contribuer à la montée en compétence des Data Analysts - Accompagner les équipes produits et projets sur des problématiques analytiques complexes - Animer la communauté Data - Coanimer la Data Authority et les ateliers de gouvernance Missions principales : - Expertise en analyse de données et conception de solutions orientées data - Support avancé aux équipes produits / projets (indicateurs complexes, modélisation, cohérence des solutions) - Structuration et alignement des KPI métiers - Animation de la communauté Data Analyst (ateliers, bonnes pratiques, REX) - Contribution et évolution du modèle de données commun - Coanimation des instances de gouvernance Data Compétences techniques attendues : Impératif : Connaissance confirmée de la Grande Distribution Enjeux business KPI clés : ventes, marge, stock, approvisionnement, performance magasin Usages métiers de la donnée Important Modélisation des données (confirmé) Analyse de données (confirmé) Conception de solutions data (confirmé) Stack & Environnement technique Big Data : - SQL - Databricks - Scala - Python Environnement Azure BI / Reporting : - Power BI - MicroStrategy Modélisation : - PowerDesigner Gouvernance & Qualité : - DataGalaxy - SODA (Data Quality / Observability) Méthodologie & outils : - SAFe (Agilité à l’échelle) - Jira Profil recherché - Data Analyst Senior / Lead - Forte capacité à challenger les solutions - Vision transverse et structurante - Capacité à fédérer une communauté - Aisance en animation d’ateliers - Posture d’expert référent
Mission freelance
Data Model Architect
Phaidon London- Glocomms
Publiée le
Architecture
Data governance
Data quality
6 mois
400-550 €
Arcueil, Île-de-France
Concevoir le modèle de données Salesforce (objets, champs, relations) pour l'ensemble des flux de travail du projet. Définir et appliquer les conventions de nommage et les normes de modélisation. Examiner et valider toutes les demandes de nouveaux objets ou champs personnalisés. Gérer l'évolution du modèle pour l'ensemble des flux de travail, en garantissant la rétrocompatibilité. Concevoir la stratégie de migration et de chargement des données pour les jeux de données existants. Garantir la pleine compatibilité du modèle de données avec Agentforce. Documenter et maintenir le dictionnaire de données du projet. Accompagner les équipes concernant la gestion des hiérarchies, les objets à volume élevé et les structures de comptes complexes.
Offre d'emploi
Developer Back end Java 17/21 (Spring boot) & devops
KEONI CONSULTING
Publiée le
Cloud
Postman
Terraform
18 mois
20k-60k €
100-500 €
Lille, Hauts-de-France
Contexte Nous recherchons 1 Dev Back-end Java afin de renforcer l'équipe actuelle. Cette personne pourra intervenir sur les projets au sein du dispositif existant ou le renforcer sur les autres assets, selon la charge de cette période, afin de tenir l'engagement de mise en production MISSIONS Ø Mise en place du socle technique - Choix des librairies nécessaires au projet - Mise en place du socle technique sous Docker - Mise en place des déploiements automatisésEnvironnement technique à maîtriser : o Langages : Java 17/21 o Frameworks : Spring Boot, JUnit, Logback o Serveur d’application : Service manager AWS (Beanstalk) et infra Kub o Industrialisation : Docker, Maven, Gateling o Outils : Datadog, Git LabCi, Jira, Sonar, etc. ○ • Assurer une qualité de code optimale ○ Initie un bon socle ○ S'assure de la mise en place des guidelines ( Quality Gate, % code coverage, pyramide de tests..) ○ Suivi des métriques ○ Garant de la bonne application des pratiques de devs • Fournir une direction technique / architecturale ○ Unifier les pratiques ○ Aider à prendre les bonnes décisions ○ Fluidifier les longs débats, et tranche en cas d'indécision ○ Echange avec les bons partenaires pour coconstruire si besoin • Contrôler la dette technique ○ Sensibiliser alerter en cas d'obsolescence / mauvaise pratiques ○ Suivre, afficher et prioriser la dette technique • Assurer le bon déroulement des Code Review ○ Animer et cadrer les CR (suivre le Time to Review, la Pull Request Size.. ) • Promouvoir la collaboration et l'engagement ○ Accompagne et facilite le partage de connaissance (matrice de compétences, 1to1..) ○ Garant du process d'On-Boarding ○ Crée de la cohésion dans l'équipe ○ Être l'interlocuteur privilégié du PO / Stakeholders en cas de question technique • Déployer de la qualité, rapidement ○ Focus l'équipe sur des solutions rapides, et fiables (KISS, ) ○ Suivi de la fréquence de déploiement, taille de déploiement.. ○ Favorise la collaboration Dev/Ops • Participation au cadrage Technico/fonctionnelle ○ Participation aux études de faisabilité / estimations / planification ○ Réalisation de cadrages fonctionnels et techniques pour les évolutions ○ Réaliser des estimations de charge ou de complexité d’une évolution et des tâches à effectuer ○ Produire les livrables en suivant les pratiques agiles ○ Tests unitaires (TDD) et tests fonctionnels automatisés (BDD) ○ Application packagée (Docker) ○ Documentation technique ○ Analyser les rapports d'intégration continue et actions en conséquence ○ Remonter les alertes et le reste à faire sur ses tâches ○ Contribuer à l’activité d’étude d’architecture technique de l’équipe ○ Être le référent Technique de l'équipe Scrum en lien avec le DevOps et les équipes infra pour les choix techniques mais aussi sur leurs mises en place • Être le garant des process de dev ○ Mettre en place et être le garant des bonnes pratiques de dev ○ Mettre en place des process pour avoir une unicité de pratique au sein de l'équipe (listing de chose à faire lors d'une revue, …) ○ Mettre en place des métriques pour identifier des axes d'améliorations : § Couverture de code par les Test et des TU § Nombre d'aller-retour et Nb de retour sur les revues § Nombre d'anos § Temps passé sur les différentes étapes du Workflow (dev et Test (TU, TA,..) Revue, livraison …) § Réaliser des ateliers d'analyses et de prise d'action d'amélioration Suivi des métriques et des actions d'amélioration 3) Contribution à la vie de l’équipe Ø Vous participez activement à la vie de l’équipe Ø Vous êtes proactif pendant les cérémonies agiles (DSM, rétro, démo, ...) et force de proposition en termes d'amélioration Ø Vous contribuez à l'animation du backlog Produit et technique Ø Vous participez à l’estimation de charge ou de complexité des tâches de l’équipe Ø Vous remontez les alertes et le reste à faire sur ses tâches Ø Vous assurez un transfert de connaissances vers les autres équipes Livrables : Les compétences techniques minimales que nous recherchons sont : - Une maitrise parfaite du Java 17/21 mais aussi des Framework Spring et Spring boot - Frameworks : Spring Boot, JUnit, JAX-RS, Logback - Git LabCi ne sont pas des options ;) PROFIL& COMPETENCES Pour le poste, il convient d'avoir au minimum de 7/8 ans d'expérience sur des postes de développeur prioritairement sur Java 17/21 (Spring boot), avec idéalement plusieurs expériences de lead dev Expert Java dans un contexte Agile très fort mais également une organisation DevOps afin de pouvoir monter les environnements back mais également travailler sur la mise en place et l'Optimisation des pipelines de livraison en Hors Prod et en Prod. Nous travaillerons sur une infra AWS donc il sera obligatoire que le candidat maîtrise l'environnement AWS avec idéalement plusieurs certifications AWS (Architecte Associate, Développer associate, …). Vous aimez apprendre, partager vos connaissances et mettre en application les technologies actuelles et futures. De plus, les compétences suivantes en DevOps seront plus que souhaitables : - Vous connaissez AWS et avez déjà travaillé sur des pipelines de livraison sur AWS - Vous connaissez les logiciels de livraison continue comme Gitlab CI, Jenkins, Artifactory, … - Mais aussi les logiciels intégrer dans les pipelines de livraison pour assurer la qualité/ la sécurité comme Sonar, CheckMark, Vault, … - Vous maitrisez les concepts Cloud et les outils DevOps comme : Terraform, Ansible, Gitlab CI et Docker n'a plus de secret pour vous - Enfin vous maitriser également les outils de testing : PostMan, Selenium ou encore Cucumber
Offre d'emploi
Consultant Data (H/F)
HOXTON PARTNERS
Publiée le
Qlik
Snowflake
Talend
4 mois
40k-45k €
400-500 €
Lyon, Auvergne-Rhône-Alpes
Dans le cadre d’un programme de structuration et d’optimisation des flux de données au sein d’un environnement international, nous recherchons un Consultant Data technico-fonctionnel confirmé afin d’accompagner les équipes dans la fiabilisation et l’exploitation des données. Missions Concevoir et maintenir les flux d’acquisition et de transformation de données Développer et optimiser les traitements ETL sous Talend Studio Structurer et exploiter les données au sein de l’environnement Snowflake Contribuer à la restitution et au pilotage des indicateurs via la BI Qlik Collaborer avec les équipes techniques et métiers pour assurer la cohérence des modèles de données
Offre d'emploi
Consultant Confirmé en Data gouvernance Collibra
R&S TELECOM
Publiée le
Microsoft Access
12 mois
40k-48k €
400-480 €
Paris, France
Contexte de la mission : Dans le cadre du déploiement et de l’industrialisation de notre démarche de gouvernance des données, nous recherchons un consultant expert technique Collibra. La mission s’inscrit dans un programme structurant visant à renforcer le catalogage des données et la traçabilité (data lineage). Le consultant intégrera l’équipe Data en lien direct avec les architectes de la DSI qui ont une vision sur l’ensemble de la chaîne de valeur de la donnée, de l’acquisition à la restitution. Tâches à réaliser : · L’operating model de Collibra et la capacité à modifier les settings sur sa partie OOTB ou custom (asset type, attributs, relations…) selon un scope puis mesurer les impacts sur l’existant DEV/PROD et le déployer en PROD · L’asset model du Data Product · Les rôles et permissions (globale, ressources, …) · Les fonctionnalités de migration import/export (par ex. pour les vues) · Le paramétrage des vues de diagramme · Savoir lancer et interpréter les résultats des connecteurs EDGE (technologies Datalake Azure/AWS, Databricks unity) et technical lineage (Databricks, Power BI) · Savoir manipuler les assets en masse (modification d’attributs, déplacements, suppressions), si besoin par import/export · Connaitre les fonctionnalités liées à Edge pour le sampling, profiling, data notebook · Scripting / APIs / Workflow · Trouver et savoir tester les APIs Collibra du portail développeur · Savoir comprendre et modifier un workflow existant (script : Groovy), le rendre paramétrable, le versionner si besoin et déployer DEV/PROD · Scripter des validations rules sur les assets Livrables attendus · Expressions de besoins et documents de cadrage · Workflows Collibra configurés · Catalogues de données alimentés · Lineage modélisé et documenté · Toute l’implémentation est en langue EN, éventuelle doc. technique succincte à réaliser sur les actions menées Compétences recherchées : Obligatoires : Maîtrise avancée de Collibra (Catalog, Lineage, Workflows) Solide expérience en Data Gouvernance et Data Management Bonnes connaissances des environnements Azure/ AWS / Databricks / Power BI /API/ BDD Expérience nécessaire : 5 années minimum Langues : Anglais et français
Mission freelance
Architecte pour plateform GenAI H/F
Insitoo Freelances
Publiée le
Architecture
IA Générative
Kubernetes
2 ans
500-800 €
Île-de-France, France
Nous recherchons un profil Architecte GenAI pour une mission de Senior AI Platform Architect (rôle important et technique, pas un chef de projet). La mission s’inscrit dans un programme stratégique mondial visant l’industrialisation et le passage à l’échelle d’une plateforme de Générative IA (GenAI) destinée à plus de 80 000 utilisateurs dans 65 pays. En synthèse C’est une mission de haut niveau visant à transformer une plateforme GenAI existante en un produit industriel, robuste, sécurisé et scalable, avec un fort enjeu de gouvernance, de standardisation et de transfert de compétences au sein du CCOE Data & AI. Le rôle est central, transverse et structurant, à la frontière entre : architecture technique, industrialisation produit, gouvernance, accompagnement des équipes internes. Contexte et objectifs Une plateforme GenAI et un modèle cœur sont déjà déployés sur plusieurs environnements onpremise, zones sécurisées et restreintes. L’architecture existe mais nécessite : o stabilisation, o durcissement (robustesse, sécurité), o productisation pour permettre des déploiements reproductibles et maintenables. Objectif principal de la mission Faire évoluer l’existant vers une plateforme GenAI industrialisée, considérée comme un produit Responsabilités principales Analyse approfondie de l’existant ( infrastructure, pipelines CI/CD, composants, dépendances, processus de déploiement. Définition d’une architecture cible modulaire, portable et industrialisée. Mise en place d’un système de packaging et de déploiement reproductible Gestion du versioning et de la traçabilité de tous les composants : Garantie de la portabilité et maintenabilité dans des contextes contraints Support technique et montée en compétence des équipes Revue des designs techniques, configurations et pipelines. Production et maintien de la documentation : Définition de standards d’ingénierie Respect des exigences internes de sécurité et de protection des données. Participation aux architecture boards et à la roadmap technique. Veille active sur les technologies GenAI et LLMOps : Identification d’opportunités de simplification, amélioration de la scalabilité, optimisation des coûts. Pilotage de proofs of concept sur de nouveaux patterns de déploiement.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
5722 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois