L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 3 168 résultats.
Offre d'emploi
Expert DevSecOps / LLMOps – Gitlab
Publiée le
Jenkins
18 mois
10k-60k €
180-600 €
Paris, France
Télétravail partiel
CONTEXTE Nous recherchons une expertise technique DevSecOps/LLMOps afin de maintenir et faire évoluer le Portail Multi-IAG face aux besoins croissants d’industrialisation, de sécurité, de conformité et de performance, et de contribuer à la montée en compétence de l’équipe sur les pratiques propres aux modèles génératifs. La mission s’exécute dans un contexte multi-environnements (Landing Zone GCP, On-Prem, cloud de confiance/ SecNumCloud à venir) et s’interface avec les briques internes du groupe (API Gateway, observabilité, etc.). La prestation s'articule autour de cinq missions clés : Fiabilisation et accélération du Portail V1 • Objectif : Améliorer et industrialiser les pratiques opérationnelles pour sécuriser et optimiser les services existants. • Périmètre : Mise en œuvre de la CI/CD, renforcement de la sécurité (IAM, secrets), structuration de l'observabilité (traces, métriques, logs) et des pratiques FinOps. Conception et préparation du Portail V2 (cible 2026) • Objectif : Définir et construire les fondations techniques de la future version du portail. • Périmètre : Conception de l'architecture DevSecOps cible, production des artefacts documentaires (HLD/LLD), développement de l'Infrastructure as Code (IaC) et des pipelines, et pilotage de la migration. Structuration de la filière LLMOps • Objectif : Définir et mettre en œuvre les standards, outils et processus pour industrialiser le cycle de vie des modèles génératifs. • Périmètre : Intégration des évaluations continues (qualité, sécurité, coûts) dans la CI, mise en place de "guardrails" et de politiques de sécurité (Policies as Code), et garantie de la conformité (RGPD / AI Act). Anticipation de l'IA Agentique • Objectif : Préparer la plateforme à l'intégration future des technologies d'agents IA. • Périmètre : Veille technologique, prototypage des briques d'orchestration et de contrôle (HITL, guardrails spécifiques), et contribution à l'architecture cible. Accompagnement et transfert de compétences • Objectif : Assurer la montée en compétence et l'autonomie des équipes internes (Portail et Plateforme Data). • Périmètre : Acculturation, production de documentation (playbooks, runbooks), formation et support méthodologique. Activités détaillées Pour réaliser ces missions, le prestataire mènera les activités suivantes : • Ingénierie et industrialisation : Développement de pipelines CI/CD (GitLab), de scripts d'automatisation, d'Infrastructure as Code (Terraform), et de charts Helm. • Qualité et sécurité : Mise en œuvre des tests (unitaires, performance, SAST/SCA/SBOM), intégration des évaluations de LLM et des "guardrails" (input/output, LLMGuard) comme étapes bloquantes dans la CI. • Déploiement : o Gestion et déploiement des modèles d’IA génératif o Gestion et déploiement applicatif (solutions open source : LangFlow, LangFuse, OpenWebUI, n8n, LiteLLM, etc…) à l’échelle de l’entreprise. • Support et MCO : Résolution d'incidents de niveau 2/3, optimisation des performances et des coûts, assistance technique aux équipes. Exigences transverses • Respect du référentiel technique et méthodologique de l’Entreprise, des procédures en vigueur (tests/validation), des contraintes & délais du présent document et du cadre contractuel associé. • Respect des exigences sécurité & conformité (IAM, Vault/KMS, réseau privé, DPIA, RGPD/AI Act, journalisation/audit, résidence des données). PERIMETRE/COMPETENCES : • Jenkins (périmètre à harmoniser) Stack d'observabilité et d'évaluation LLM : • Prometheus, Grafana, Loki, OpenTelemetry… • LangSmith, Langfuse Environnements d'hébergement : • Google Cloud Platform (Landing Zone, Vertex AI, GKE) • Infrastructures On-Premise
Mission freelance
Consultant Data SAS / SQL – Migration & Modèle Pivot – Contexte Épargne
Publiée le
ETL (Extract-transform-load)
SAS
SQL
2 ans
400-490 €
Île-de-France, France
Télétravail partiel
Description de la mission : Dans le cadre d’un programme de modernisation du système d’information épargne , nous recherchons un consultant data confirmé pour intervenir sur la construction et l’industrialisation d’un modèle de données Pivot entre les systèmes existants et un nouvel outil de gestion. Vos missions : Analyser les traitements existants sous SAS Enterprise et comprendre les flux de données en place Concevoir et faire évoluer le modèle de données Pivot servant de passerelle entre les systèmes source et cible Industrialiser et fiabiliser les traitements SAS pour garantir la qualité et la traçabilité des données Participer aux phases de tests unitaires, intégration et suivi des anomalies Rédiger la documentation technique (SFD, suivi de compteurs, rapports de traitement) Contribuer à la préparation et au passage des runs de migration
Mission freelance
DevSecOps / Security Engineer (H/F)
Publiée le
DevSecOps
ELK
1 an
380-480 €
Rennes, Bretagne
Télétravail partiel
Nous poursuivons notre développement et recherchons actuellement un(e) DevSecOps / Security Engineer H/F pour intervenir chez un de nos clients. Contexte : Dans le cadre d’une mission courte à fort enjeu, vous serez chargé(e) de configurer et adapter un outil de collecte de logs. Votre mission consistera à garantir un paramétrage optimal afin de permettre un déploiement massif de la nouvelle version du collecteur à horizon T1 2026, tout en assurant la qualité de la chaîne d’audit et de supervision.
Mission freelance
Ingénieur DATA – Coordination & Support Technique IA Industrielle
Publiée le
Data analysis
IA
1 an
500 €
Belgique
Télétravail partiel
Assurer la coordination et le support technique Data & IA pour l’industrialisation et l’optimisation des flux de données. L’objectif est de structurer, automatiser et rendre exploitables les données industrielles , tout en développant les premiers use cases IA opérationnels pour la ligne de production. 1. Coordination Data & IA Piloter et structurer l’automatisation de l’alimentation de la plateforme 3DEXpérience depuis Publisher , en exploitant des techniques d’IA (machine learning, NLP…). Documenter et suivre les scripts et workflows de migration automatisés . Proposer les premiers use cases DATA & IA pour la production. Appuyer l’équipe UNS sur la structuration des données industrielles pour usages IA futurs. Veille technologique et reporting sur les sujets Data & IA. 2. Support technique et développement Implémenter et tester les scripts et workflows de migration de données (DataPrep, ETL, IA) sur données simulées ou réelles. Concevoir et tester des use cases IA “production ready” : supervision process, maintenance prédictive, contrôle qualité automatique. Structurer les datasets pour l’entraînement IA : normalisation, règles qualité, automatisation des flux. Assurer documentation technique et transfert de compétences aux équipes.
Offre d'emploi
Architecte Big Data GCP & Cloudera (H/F)
Publiée le
Cloudera
Google Cloud Platform (GCP)
1 an
55k-70k €
550-660 €
Île-de-France, France
Télétravail partiel
Nous recherchons un Architecte Big Data confirmé maîtrisant les environnements GCP (Google Cloud Platform) et Cloudera , capable d’allier vision stratégique et excellence technique. En tant qu’Architecte Big Data, vous interviendrez sur des projets de transformation data à grande échelle : Concevoir et faire évoluer des architectures Big Data hybrides (Cloud & on-premise). Définir la stratégie de données et les bonnes pratiques de gouvernance, sécurité et performance. Encadrer les équipes techniques (Data Engineers, DevOps, Data Scientists). Piloter les choix technologiques sur les écosystèmes GCP (BigQuery, Dataflow, Pub/Sub, Composer, Dataproc) et Cloudera (CDP, HDFS, Hive, Spark, Kafka) . Garantir la scalabilité, la résilience et l’optimisation des coûts des plateformes data. Participer aux revues d’architecture et à la veille technologique sur les solutions Cloud et Open Source.
Offre d'emploi
Product Owner DevSecOps
Publiée le
DevOps
DevSecOps
1 an
40k-45k €
270-510 €
Paris, France
Télétravail partiel
Contexte de la prestation Le plan DevOps d'une institution financière majeure est un des piliers de la transformation du SI qui doit permettre d'atteindre les objectifs finaux de déploiement à l'échelle, réduction du TTM & d'amélioration des pratiques d'automatisation. La Core team DevOps est constituée de Products Owner, de coach Agile, Scrum master, PMO ; elle a un état d'esprit agile et une forte volonté de transformation en rupture. Le Plan Annuel DevOps est décliné en plus de 20 initiatives adressant des préoccupations technologiques, processus, et organisationnelles. Cette équipe a en charge l'animation et l'avancée de ce plan autour du sujet DevOps. Missions principales DevSecOps exige une solide expertise technique et la capacité de coordonner des acteurs aux profils variés (architectes, experts techniques, ingénieurs de production, architectes sécurité etc.). Maîtriser en place les pratiques technique et promouvoir la culture DevSecOps Assister/coordonner les équipes IT dans la conception de la toolchain CI/CD Veiller à la prise en compte de l'automatisation des processus Veiller à la conformité de la toolchain et des processus (sécurité, réglementation) Établir et porter la vision des produits Comprendre, challenger, synthétiser et cadencer les besoins des clients Engager les clients et les Squads dans une ambition partagée Communiquer la vision du produit et définir les objectifs de la Squad Faciliter les Review des Squads avec les clients pour un retour direct Assurer la réussite de la Squad Rédiger et affiner les user stories avec la squad (avec les critères d'acceptation) Gérer les user stories en précisant les critères d'acceptation Prioriser le Product backlog et actualiser le sprint backlog de la Squad Accompagner la Squad tout au long du sprint Échanger et Interagir avec les parties prenantes Participer à l'animation du plan annuel DevOps Participer à l'identification des Initiatives / Epics sur l'année Établir et mettre à jour le backlog global de la plateforme DevOps Participer à la contribution autour du plan annuel de la plateforme DevOps Participer aux Workshops, Présentation, etc. pour faire adhérer les équipes IT au plan stratégique Gestion Projet (migration des applications) Construire, suivre et animer le plan d'actions Préparer et animer les réunions hebdomadaires de suivi Supports et CR des réunions Planning projet détaillé Gestion des risques Maintien des indicateurs de transformation DevSecOps Cadrer, suivre et piloter des chantiers technologiques Analyser les résultats et proposer des plans d'action et axes d'amélioration Participer à la préparer et animer mensuellement les instances de pilotage (Copil DevOps, Copil ADMi) Supports et CR des réunions Plans d'actions, sur les projets Planning projet à la maille semaine
Mission freelance
Product Owner I.A & DATA - LLM - Collibra
Publiée le
Confluence
IA
JIRA
12 mois
550-600 €
Paris, France
Télétravail partiel
La prestation consistera à : · Du Product Ownership et de la coordination entre autres pour poursuivre un projet concernant la mise en place de modèle des User needs sur les offres d’information intégrant des solutions d'intelligence artificielle (IA), depuis la R&D jusqu’à la mise en production. · Un cadrage du périmètre fonctionnel, la définition et le suivi de la roadmap /release plan, la définition des KPI produit et son suivi, sa réalisation de la conception jusqu'à la mise en production, dans le respect des obligations réglementaires, des procédures, des budgets et des normes de qualité tout en s’assurant d’une parfaite documentation des fonctionnalités développées Livrables attendus durant la prestation : · Identification, priorisation et spécification des besoins utilisateurs · Rédaction des spécifications fonctionnelles et des tests d’acceptation. · Rédaction des User Stories, mise en place & et suivi du backlog produit · Rédaction et maintien de la documentation sur les sujets d’IA liés à sa mission (Confluence) · Coconstruction des objectifs et de la roadmap avec les Product Manager et les équipes · Priorisation & suivi des développements dans le respect de la roadmap · Animation ou coanimation des ateliers de conception, en collaboration avec un UX designer si nécessaire · Recette fonctionnelle des développements sur la plateforme, en lien avec le responsable qualité de l’équipe ou en autonomie le cas échéant · Propositions d’évolutions dans le respect des objectifs et des KPIs · Interface avec tous les interlocuteurs du projet (équipes techniques, graphiques, journalistes, équipes marketing et partenariats, équipes support, équipes juridiques, partenaires, etc) · Participation aux cérémonies agiles avec les différentes équipes intervenant sur le projet (rétrospective, démo, refinement, tres amigos, sprint planning, etc.) · Participation à la sélection de solutions adéquates avec l’équipe technique · Communication au reste de l’équipe et aux sponsors sur l’avancement des développements et la planification des évolutions autour, entre autres, du projet User needs sur le scope des offres d’information · Instruction des alertes (avec proposition de mise en place de plans de correction ou contournement) pour tout événement susceptible de remettre en cause les objectifs, le planning ou le budget · Livraison du projet ou des itérations produit et garantie de sa conformité · Réalisation de documents support (règles métier, roadmaps, présentations, benchmarks, etc) · Veille technologique et concurrentielle
Mission freelance
Data analyst - maitrise SQL requise - secteur Assurance - Niort
Publiée le
Data analysis
6 mois
560-600 €
Niort, Nouvelle-Aquitaine
Télétravail partiel
Nous recherchons un(e) freelance Data Analyst disposant d’une solide expérience en assistance à maîtrise d’ouvrage, pour accompagner notre client du secteur de l’assurance dans ses activités de pilotage et d’analyse de données. Missions principales : • Analyser et comprendre les besoins métiers liés au domaine de l’assurance et plus spécifiquement à l’indemnisation • Explorer les bases de données existantes et concevoir / adapter des requêtes sous SAS V9 • Être le point de contact privilégié pour le suivi du RUN et la gestion quotidienne des indicateurs • Participer à la gestion de projets techniques et à la production de reporting Compétences : • Solide maîtrise du SQL • Bonnes capacités de communication écrite et orale • Aptitude à formaliser les besoins métiers • Connaissance opérationnelle de SAS V9 (un test SAS sera réalisé) Optionnelles : • Connaissance du VBA Profil recherché • Expérience significative dans le domaine de l’actuariat ou de l’assurance (indispensable) • Goût pour l’analyse, la précision et le travail collaboratif
Offre d'emploi
Product Owner Plateforme Big Data (AWS / Databricks)
Publiée le
Agile Scrum
AWS Cloud
Databricks
12 mois
Île-de-France, France
Télétravail partiel
Dans le cadre de sa croissance sur les projets Data Platform & Cloud , Hextaem recherche un(e) Product Owner Plateforme Big Data pour piloter la conception, la mise en œuvre et l’évolution d’une plateforme data moderne basée sur AWS et Databricks . Le/la PO jouera un rôle clé à l’interface entre les équipes métiers, techniques et data, afin de valoriser les données de l’entreprise à travers une plateforme scalable, sécurisée et orientée usage . Missions principales 1. Vision produit & stratégie Data Platform Définir la vision produit et la roadmap de la plateforme Big Data . Identifier les besoins des équipes métiers, data scientists et data engineers. Prioriser les fonctionnalités selon la valeur business et la faisabilité technique. Maintenir et piloter le backlog produit (JIRA, Azure DevOps ou équivalent). 2. Pilotage et delivery Animer les cérémonies Agile (daily, sprint review, planning, rétrospective). Collaborer étroitement avec les équipes Data Engineering, Cloud et Sécurité. Suivre l’avancement des développements et s’assurer de la qualité des livrables. Garantir la mise à disposition de datasets et services data fiables, documentés et performants. 3. Gouvernance et qualité de la donnée Contribuer à la mise en place des bonnes pratiques de data gouvernance (catalogue, qualité, sécurité). Superviser les flux de données dans Databricks (ingestion, transformation, exploitation). Assurer la cohérence des environnements (dev / recette / prod). 4. Évolution et innovation Identifier de nouveaux cas d’usage (IA, temps réel, RAG, data sharing). Proposer des améliorations continues en matière d’architecture et d’outils. Assurer une veille technologique active sur AWS, Databricks et les solutions Data/IA émergentes. Compétences techniques : Cloud & Big Data: AWS (S3, Glue, Lambda, Redshift, IAM, CloudFormation/Terraform) Data Platform: Databricks (Delta Lake, PySpark, MLflow, Unity Catalog) Data Engineering & Modélisation: Connaissance de la modélisation data, data pipeline, orchestration (Airflow, ADF, etc.) Langages: Bonne compréhension de SQL et Python (lecture et validation de code) CI/CD & DevOps: Git, Terraform, Jenkins/GitHub Actions (notions) Outils de pilotage: JIRA, Confluence, Miro, Power BI/Tableau (lecture fonctionnelle)
Mission freelance
Consultant·e Data Integration – Talend / Stambia
Publiée le
Stambia
Talend
6 mois
400-490 €
Hauts-de-Seine, France
Télétravail partiel
Nous recherchons un·e Consultant·e Data Integration expérimenté·e , intervenant sur des projets de migration et de décommissionnement d’outils d’intégration de données . Le contexte est stimulant, avec un environnement technique riche et une équipe orientée delivery. Missions principales Assurer la maintenance évolutive et corrective des flux existants sous Stambia et Talend . Participer à la migration et au décommissionnement progressif de l’environnement Stambia vers Talend. Concevoir, développer et optimiser des processus d’intégration de données . Contribuer à la qualité, la performance et la sécurité des flux . Rédiger la documentation technique et assurer la traçabilité des développements. Collaborer avec les équipes projet, production et architecture.
Mission freelance
DevOps/SRE - Environnement PaaS / CaaS - Paris (H/F)
Publiée le
DevOps
DevSecOps
Helm
6 mois
510-600 €
Paris, France
Télétravail partiel
Nous recherchons un Ingénieurs DevOps expérimentés / seniors pour renforcer son équipe Infrastructure. L’équipe est responsable d’une plateforme privée PaaS/CaaS moderne et en forte évolution. Vous interviendrez au cœur d’un environnement exigeant, avec de fortes contraintes de sécurité et une culture technique avancée autour de Kubernetes et OpenShift. Missions principales Administration et optimisation des clusters Kubernetes / OpenShift . Déploiements applicatifs via ArgoCD (GitOps) et gestion des charts Helm . Automatisation des déploiements et opérations. Supervision de la plateforme : observabilité, alerting, incidents. Configuration du networking (CNI, Ingress, Service Mesh) et gestion du stockage persistant. Mise en place et maintien des politiques de sécurité.
Offre d'emploi
Data Consultant (Tableau to Power BI Migration)
Publiée le
MSBI
Oracle SQL Developer
Tableau software
Île-de-France, France
Télétravail partiel
Dans le cadre de ses projets de transformation data, Hextaem accompagne l’un de ses clients majeurs dans la migration de sa plateforme BI de Tableau vers Power BI . L’objectif est de moderniser l’écosystème de reporting , d’améliorer la performance des analyses et de renforcer l’autonomie des utilisateurs métiers. Le/la Consultant(e) Data interviendra sur l’ensemble du cycle de migration : analyse du parc existant, conception de l’architecture cible, migration technique et fonctionnelle, validation des données et accompagnement des utilisateurs. Missions principales 1. Analyse et cadrage Cartographier les rapports et jeux de données existants sous Tableau. Identifier les sources de données, flux et dépendances techniques. Définir l’architecture cible Power BI (datasets, dataflows, workspaces). Établir la stratégie, le plan de migration et le calendrier associé. 2. Migration et développement Reproduire et optimiser les dashboards, indicateurs et modèles dans Power BI. Concevoir des modèles de données performants (DAX, Power Query). Garantir la cohérence visuelle et fonctionnelle entre Tableau et Power BI. Gérer la publication, les jeux de données, les rafraîchissements et les droits d’accès sur Power BI Service. 3. Tests et validation Réaliser les tests de recette technique et fonctionnelle. Comparer les résultats entre Tableau et Power BI pour assurer la justesse des données. Documenter et corriger les écarts identifiés. 4. Formation et accompagnement Former les utilisateurs clés à Power BI et aux bonnes pratiques. Documenter les nouveaux rapports et processus de gouvernance. Accompagner les équipes métiers dans l’adoption de Power BI. Compétences techniques Maîtrise de Tableau Software et Power BI (Desktop & Service) . Excellente connaissance de SQL , DAX et Power Query (M) . Solides compétences en modélisation de données (étoile / flocon). Connaissance des principales sources de données : SQL Server, Oracle, Excel, API, Data Lake. Une expérience sur (ADF, Synapse, Databricks) est un plus. Maîtrise des bonnes pratiques en gouvernance BI , performance et sécurité.
Offre d'emploi
Développeur Back-End / Base de données
Publiée le
Java
Jenkins
1 an
40k-45k €
400-490 €
Île-de-France, France
Télétravail partiel
Descriptif du poste Au sein de la fonction « Group Compliance », le Global Control Room (GCR) constitue un élément clé du domaine dédié à l'intégrité des marchés. Ses missions principales sont les suivantes : Gestion des initiés et des informations sensibles Prévention et détection des conflits d'intérêts Gestion des restrictions liées au trading, aux activités commerciales et à la recherche Respect des règles de transparence, des obligations liées aux ventes à découvert et des exigences réglementaires de divulgation L'équipe IT gère et supporte un ensemble d'applications destinées à répondre aux exigences de conformité : Développement de nouvelles fonctionnalités pour les utilisateurs Réutilisation de composants et de bibliothèques pour optimiser les développements futurs Amélioration des solutions techniques via de nouveaux frameworks Conception de solutions sécurisées et robustes (confidentialité des données, haute disponibilité) Optimisation du code Support opérationnel sur les applications déployées
Mission freelance
Data analyst - maitrise SQL requise - secteur Assurance - Le Mans
Publiée le
Data analysis
6 mois
560-600 €
Le Mans, Pays de la Loire
Télétravail partiel
Nous recherchons un(e) freelance Data Analyst disposant d’une solide expérience en assistance à maîtrise d’ouvrage, pour accompagner notre client du secteur de l’assurance dans ses activités de pilotage et d’analyse de données. Missions principales : • Analyser et comprendre les besoins métiers liés au domaine de l’assurance et plus spécifiquement à l’indemnisation • Explorer les bases de données existantes et concevoir / adapter des requêtes sous SAS V9 • Être le point de contact privilégié pour le suivi du RUN et la gestion quotidienne des indicateurs • Participer à la gestion de projets techniques et à la production de reporting Compétences : • Solide maîtrise du SQL • Bonnes capacités de communication écrite et orale • Aptitude à formaliser les besoins métiers • Connaissance opérationnelle de SAS V9 (un test SAS sera réalisé) Optionnelles : • Connaissance du VBA Profil recherché • Expérience significative dans le domaine de l’actuariat ou de l’assurance (indispensable) • Goût pour l’analyse, la précision et le travail collaboratif
Offre d'emploi
Support Applicatif technico-fonctionnel – Paiements CIB (RUN IT)
Publiée le
Production
Run
SEPA
3 ans
40k-51k €
350-450 €
Île-de-France, France
Télétravail partiel
Contexte Dans un environnement Core Banking & Paiements à forts enjeux de disponibilité et de fiabilité, nous recherchons un Support Applicatif technico-fonctionnel disposant d’un fort background métier Paiements . ⚠️ Ce poste est orienté RUN / Production 👉 Il ne s’agit PAS d’un rôle MOA projet XRDJ / AFAH Objectifs de la mission Assurer le support applicatif de production sur des systèmes de paiements Gérer les incidents critiques en temps réel Garantir la continuité de service des flux de paiements Intervenir sur l’analyse, la correction et la remise en service applicative Responsabilités principalesSupport applicatif RUN Support applicatif de production (N2 / N3) Gestion d’incidents majeurs (Major Incidents) Diagnostic fonctionnel et technique en situation de crise Coordination avec les équipes IT, métiers et infrastructures Suivi jusqu’au rétablissement complet du service Expertise Paiements Maîtrise des flux de paiements : Paiements internationaux Paiements interbancaires Paiements SEPA Connaissance du cycle de vie d’un paiement : Émission Contrôles Rejets Suspens Règlement / settlement Analyse & remédiation Analyse des logs applicatifs Identification des causes racines Déclenchement de correctifs applicatifs (hotfix) Participation aux mises en production correctives Contribution aux plans de remédiation et d’amélioration continue
Mission freelance
Ingénieur·e DevOps
Publiée le
C/C++
CI/CD
DevOps
12 mois
400-420 €
Île-de-France, France
Télétravail partiel
Contexte de la mission Dans le cadre du développement de ses infrastructures techniques, Parrot recherche un·e Ingénieur·e DevOps. Vous serez intégré·e à l’équipe DevOps en charge de concevoir, déployer et maintenir les infrastructures et les pipelines CI/CD au service des équipes de développement logiciel. En étroite collaboration avec les équipes R&D et Infrastructure, vous participerez à garantir la fiabilité, la scalabilité et la sécurité de nos environnements de développement et de test. Objectifs et livrables Concevoir et développer les pipelines d’intégration et de déploiement continus des projets Parrot. Prendre en charge l’infrastructure CI/CD existante et en assurer l’évolution. Gérer les processus de compilation des projets en C/C++, notamment le build des firmwares et des composants logiciels natifs, dans des environnements Linux ou embarqués. Proposer, mettre en œuvre et maintenir de nouveaux outils DevOps afin d’optimiser les processus de développement. Garantir la disponibilité, la performance et la sécurité des services fournis. Analyser les pipelines en place pour identifier les axes d’amélioration continue. Participer à la rédaction des processus qualité ainsi que leur application (en support des équipes du département qualité). Collaborer avec les équipes de développement pour comprendre leurs besoins et y répondre avec des solutions techniques robustes et adaptées. Compétences demandées JENKINS : Expert Intégration Continue et Livraison Continue (CI/CD) : Confirmé C++ : Avancé C embarqué : Avancé Plateforme Devops : Confirmé
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Traitement fiscal des cotisations sociales payées en 2025 sur CA micro-BNC 2024
- La Société de portage avec qui j'ai signé m'impose la soltion MAY
- Utiliser Qonto pour créer la microentreprise
- Compte dédié micro-entreprise
- Service de comptabilité en ligne fiable et réactif pour une succursale de SASU
- Offre propulse IT
3168 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois