L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 4 951 résultats.
Offre d'emploi
Data Scientist et IA H/F
Le Groupe SYD
Publiée le
BI
IA Générative
Intelligence artificielle
50k-60k €
Nantes, Pays de la Loire
🌟 Quel sera ton poste ? 🌟 📍Lieu : Nantes (44) 🏠 Télétravail : 2 jours par semaine ✔ Démarrage ASAP ✏ CDI client final (pré-embauche) 👉 Contexte client : Dans le cadre de notre développement, nous recherchons un Data Scientist et IA H/F afin d'intégrer la Data Factory de notre client. Au sein d'un équipe composée de 2 Data Scientists, tes missions sont : Accompagner la transformation digitale numérique, data et IA du client Gérer les projets IA / Data adaptés à l'entreprise Participer aux projets qui concernent tous les domaines fonctionnels (finance, supply chain, ressources humaines...) Comprendre les enjeux métiers des projets Participer aux lancements des nouveaux projets et assurer les RUN des projets déjà livrés Effectuer de la veille technique et documentaire ( bon niveau en anglais écrit et lu demandé )
Mission freelance
Data Engineer Confirmé / Senior – GCP / BigQuery / dbt
CHOURAK CONSULTING
Publiée le
Apache Airflow
BigQuery
CI/CD
3 mois
400-650 €
Île-de-France, France
Nous recherchons un Data Engineer confirmé / senior pour intervenir sur une plateforme data moderne au sein d’un acteur du secteur de la santé , avec des enjeux forts de fiabilité, performance et conformité des données. 🎯 Contexte de la mission Vous rejoindrez une équipe Data en charge de la conception, de l’industrialisation et de l’optimisation d’une architecture data moderne sur GCP , orientée qualité, scalabilité et gouvernance. La plateforme repose notamment sur : GCP · BigQuery · dbt · Airflow · CI/CD ⚙️ Missions principales Concevoir et maintenir des pipelines de données robustes et scalables . Modéliser les données dans BigQuery (architecture analytique performante). Développer et maintenir les transformations via dbt (modélisation, tests, documentation). Orchestrer les flux avec Airflow (DAGs, monitoring, gestion des dépendances). Participer à l’industrialisation via des pratiques CI/CD . Garantir la qualité, la performance et la traçabilité des données . Contribuer aux choix d’architecture et aux bonnes pratiques Data Engineering.
Mission freelance
Data Scientist IA & MLOps
LeHibou
Publiée le
Data science
IA
IA Générative
12 mois
400-750 €
Croix, Hauts-de-France
Dans le cadre de la typologie IT-T – Data Scientist, les missions génériques associées incluent : - Établir des scénarios permettant de comprendre et d’anticiper de futurs leviers métiers ou opérationnels pour l’entreprise. - Réaliser tout le cycle de valorisation de la donnée : • Choix et collecte des données. • Analyse de la qualité des données et redressement. • Préparation des données. • Valorisation spécifique à la Data Science (analyse prédictive voire prescriptive, mise en place d’algorithmes d’apprentissage automatique ou profond, conception de data visualizations dynamiques, data storytelling, etc.). - Appliquer des techniques statistiques, de text mining, d’analyse comportementale, de géolocalisation, etc., pour l’extraction et l’analyse d’informations issues de gisements de données (Big Data). - Obtenir des données adéquates et trouver les sources de données pertinentes : • Recommandations sur les bases de données à consolider, modifier, rapatrier, externaliser, internaliser. • Conception de datamarts et potentiellement d’entrepôts de données (data warehouses). - Évaluer la qualité et la richesse des données : • Rassembler les données, les modéliser et en vérifier la véracité. - Analyser les résultats et les intégrer dans le système d’information cible du métier. - Traduire une problématique métier en problème mathématique/statistique et réciproquement. - Comparer et évaluer différents modèles ou méthodes de calcul, en anticipant les avantages et inconvénients dans un environnement métier donné. 2. Périmètre fonctionnel et responsabilités principales 2.1. Credit Risk Scoring - Pour les équipes Risque / Validation : • Concevoir et optimiser les scores d’octroi et de comportement en explorant des approches innovantes. • Garantir la stabilité du coût du risque en entraînant et déployant ces solutions, et en assurant le monitoring de la dérive des modèles. • Travailler en étroite collaboration avec les experts métiers et les équipes Risque. 2.2. AI Solutions (IA appliquée aux parcours clients) - Optimiser l’expérience client en intégrant les modèles d’IA en temps réel sous forme d’API dans les parcours digitaux (scoring temps réel, personnalisation des offres de paiement, etc.). - Participer à l’architecture technique pour une intégration fluide des modèles, en suivant les meilleures pratiques de développement (Cloud, MLOps). - Collaborer avec les équipes Produit et IT pour industrialiser les solutions (mise en production, supervision, conformité aux standards de l’entreprise). 2.3. GenAI (IA générative et agents) - Prototyper et déployer en production des solutions d’IA générative sous forme d’agents (LLM, RAG, etc.) pour : • Transformer les processus internes (Marketing, Audit, Risque, …). • Améliorer la relation et le support client. - Mettre en place des architectures « agentic » pour : • Automatiser l’octroi d’offres de crédit (Risque). • Automatiser des tâches complexes d’analyse documentaire. • Faciliter l’interaction avec les clients. - Évaluer, optimiser et monitorer les performances des agents (cohérence, diversité, usage de LLM as a Judge, etc.).
Offre d'emploi
Ingénieur Réseau Sécurité (Ansible)
CHARLI GROUP
Publiée le
Ansible
40k-45k €
La Garenne-Colombes, Île-de-France
Et si c'était vous notre prochain(e) Consultant Chez CharliGroup, on pense qu'un bon environnement de travail, ce n'est pas juste une stack à jour ou des bureaux sympas. C'est aussi (et surtout) une équipe bienveillante, un accompagnement sincère et des opportunités d'évoluer à votre rythme, avec du sens. Aujourd'hui, on recherche un(e) Ingénieur Réseau Sécurité (Ansible) pour renforcer notre équipe tech, dans le cadre d'une mission chez un client dans le secteur Bancaire. Missions : Conception, build & exploitation : Concevoir, déployer et exploiter des fabrics de Data Centers Participer à l’architecture et à l’évolution des réseaux Core Réseaux & Cloud privé On-Premise : Administrer le réseau du Cloud Privé On-Premise Déployer et gérer des environnements VMware NSX-T - Piloter les migrations NSX-V vers NSX-T Migrations & transformations techniques : Piloter des projets de migration complexes Migration DMVPN vers EVPN-VXLAN Performance & optimisation : Déployer et tester des optimisations avancées : Intégration de Superspines Configuration EVPN RT-Constraint
Offre d'emploi
Développeur Fullstack Java Angular - Lille (H/F)
STORM GROUP
Publiée le
Angular
Enterprise Service Bus (ESB)
Java
3 ans
40k-47k €
340-370 €
Lille, Hauts-de-France
Missions : Les langages de programmation pour le poste sont le Java et Angular. Vous devrez être néanmoins capable de vous adapter à tout nouveau langage. Les développements (Agile SCRUM) · Intégration dans une équipe de développement Agile SCRUM · Participation aux cérémonies, stand-up meetings et autres évènements SCRUM · Participation au cadrage des projets du point de vue technique · Proposition de l’architecture technique des applications et des fonctionnalités à développer · Développement des fonctionnalités · Mise en production des développements L’amélioration de la qualité des développements · Garantir la pérennité des projets via de la documentation technique et d’architecture · Proposition et application de nouveaux standards de travail et processus · S'assurer de la bonne cohérence des technologies choisies · Mise en place de tests · S’assurer que la qualité et sécurité des plateformes back répondent aux exigences techniques
Offre d'emploi
Databricks Data Engineer
VISIAN
Publiée le
API REST
PySpark
1 an
Île-de-France, France
Descriptif du poste Expert reconnu en plateforme de données et architecture Lakehouse, incluant : Optimisation Spark / PySpark (AQE, broadcast joins, stratégies de caching, autoscaling de cluster). Politiques de cluster, configuration de cluster et pool, et optimisation des coûts. Monitoring, diagnostics et dépannage des performances à l'aide de métriques et event logs. APIs REST et CLI pour l'automatisation. Expert reconnu en utilisation de Delta Lake, incluant : Pipelines d'ingestion et de transformation (Bronze–Silver–Gold). Delta Live Tables pour les pipelines de production (CDC, expectations, orchestration). Structured streaming et traitement incrémental. Débogage des goulots d'étranglement de performance dans les workloads Delta (data skew, petits fichiers, auto-compaction). Expert reconnu en : Python pour l'ingénierie des données, programmation orientée objet, data science, tests unitaires (pytest) et packaging. SQL (SQL analytique, window functions, SQL Databricks). Spark / PySpark pour le traitement distribué et l'optimisation. Expert reconnu en utilisation de Unity Catalog, incluant : Implémentation du contrôle d'accès granulaire (sécurité au niveau des lignes et colonnes, vues dynamiques, masquage). Gestion des objets Unity Catalog à grande échelle (catalogs, schémas, tables, modèles et gouvernance des fonctions). Pratiques de développement sécurisé, protection des données et conformité réglementaire (RGPD, PII). Expert reconnu en Databricks Jobs et Workflows (orchestration des tâches, retries, monitoring), incluant : Databricks Repos et intégration Git / Gitflow. Déploiement des assets Databricks (notebooks, jobs, pipelines DLT) via des pipelines CI/CD. Databricks SQL editor et SQL Warehouses pour les dashboards ou pipelines de production. Infrastructure as Code utilisant Terraform (providers Databricks et Azure) et ARM templates. Maîtrise avancée de l'écosystème Databricks Machine Learning et Generative AI. Maîtrise avancée de MLflow (experiment tracking, model registry, model serving). Maîtrise avancée de la construction de pipelines ML utilisant Databricks AutoML, Feature Store et feature engineering. Expérience pratique avérée avec les outils de développement basés sur l'IA, incluant les workflows basés sur des agents. Bonne compréhension des normes d'interopérabilité émergentes telles que le Model Context Protocol (MCP) ou équivalent. Capacité à évaluer de manière critique et à intégrer de manière sécurisée les résultats générés par l'IA dans les workflows de développement.
Offre d'emploi
Data Analyst H/F
JEMS
Publiée le
45k-55k €
Paris, France
Nous recherchons un(e) Data Analyst confirmé(e) capable d'accompagner les métiers dans l'aide à la décision. Vous aurez la charge de : • Guider et accompagner les équipes métier dans l'exploitation et la valorisation de leurs données, identifier des leviers d'optimisation et proposer des améliorations des processus business • Servir d'intermédiaire entre le métier et la DSI pour faciliter la circulation de l'information et la mise en place des solutions data • Recueillir et analyser les besoins métiers (Marketing, Retail, CRM, Supply, Finance...) et concevoir des dashboards Power BI à forte valeur ajoutée • Modéliser, préparer et fiabiliser les données (SQL, DAX, Databricks, Snowflake) et optimiser les flux pour garantir leur qualité et leur disponibilité • Mener et piloter des études analytiques, conduire des analyses permettant d'éclairer la prise de décision et d'orienter les actions métier • Contribuer à l'amélioration de la culture Data chez nos clients et renforcer la capacité des équipes à exploiter leurs données efficacement Référence de l'offre : 18agydgm9j
Offre d'emploi
¨Profil habilitable / Ingénieur DevSecOps / CI-CD – Environnement sécurisé (H/F)
Sapiens Group
Publiée le
Ansible
Gitlab
Python
1 an
Vélizy-Villacoublay, Île-de-France
🎈Offre de mission 🚀 Ingénieur DevSecOps / CI-CD – Environnement sécurisé (H/F) 📌 Conditions & prérequis (obligatoires) 📍 Poste basé à Vélizy (78) – présence sur site requise ( télétravail partiel) 🔐 Habilitable Défense 📅 Démarrage : Février / Mars 2026 📄 Contrat par tranches de 3 mois renouvelables (mission longue durée) 👤 Profil recherché Expérience confirmée en DevOps / DevSecOps / CI-CD Solide culture automatisation & sécurité applicative À l’aise sur environnements virtualisés Autonome, rigoureux(se), structuré(e) Bonne capacité rédactionnelle (procédures, documentation, traçabilité) Esprit d’équipe et sens du service 🧩 Contexte Dans le cadre d’un programme industriel stratégique, vous intervenez sur le développement et l’intégration d’un module IoT déployé sur des environnements virtualisés (VM). Vous collaborez étroitement avec les équipes de développement afin d’industrialiser, sécuriser et fiabiliser les livraisons logicielles, tout en garantissant la stabilité des infrastructures et la maîtrise des vulnérabilités. 🎯 Vos missions Livrer les packages de versions aux équipes exploitantes selon le planning Maintenir et faire évoluer les chaînes CI/CD (CI/Delivery) Déployer et améliorer les outils de monitoring, logging et alerting Analyser la sécurité et la sûreté des produits développés Installer, configurer et maintenir les serveurs virtuels hors production (intégration, validation, tests…) Documenter les processus et changements pour assurer la continuité des opérations Accompagner les équipes de développement sur les bonnes pratiques DevOps/DevSecOps Participer aux actions d’amélioration continue 🛠 Environnement technique CI/CD & Infra Pipelines CI/CD, automatisation, Infrastructure as Code Ansible, Terraform GitLab, Jenkins, Bitbucket Trivy, Sonar Sécurité SAST / DAST Référentiels ANSSI, NIST, CIS Contexte réglementaire cybersécurité (NIS, LPM) Technologies VMware Python 3.11 JavaScript, API REST, Flask, Angular RabbitMQ, Redis, Node.js, Electron Environnements isolés / sécurisés
Offre d'emploi
Responsable Master Data (H/F) - 93
Mindquest
Publiée le
Data Warehouse
ETL (Extract-transform-load)
Master Data Management (MDM)
Villepinte, Île-de-France
Je recherche pour l’un de mes clients, acteur de référence en Europe spécialisé dans la location de solutions frigorifiques et de véhicules sous température dirigée, un Responsable Master Data. Dans un environnement multi-ERP et multi-applicatif, ce poste joue un rôle central dans la fiabilité et la gouvernance des données de référence. Vous intervenez au cœur des enjeux de transformation digitale, de migration ERP (dont SAP) et d’urbanisation du SI. Véritable référent Master Data, vous garantissez la qualité, la cohérence et l’unicité des données stratégiques de l’entreprise. Mission Gouvernance & qualité des données - Définir et faire évoluer le dictionnaire de données (modèles, attributs, règles) - Garantir les standards de gouvernance et mettre en place les KPIs de Data Quality - Assurer la cohérence et l’unicité des référentiels Flux & interopérabilité - Piloter les interactions entre ERP (dont SAP) et outils métiers (CRM, WMS, BI…) - Superviser les flux ETL / ELT avec les équipes techniques - Contribuer à l’urbanisation du SI Data Migration de données - Sécuriser les projets de migration ERP - Définir les règles de mapping et de transformation - Participer aux phases de tests, validation et mise en production Management & coordination - Encadrer et faire monter en compétence une équipe de Data Stewards - Assurer l’alignement entre métiers, IT et gouvernance Data - Participer aux comités de gouvernance
Offre d'emploi
Développeur Java Spring Boot H/F
█ █ █ █ █ █ █
Publiée le
Angular
AngularJS
CI/CD
38k-45k €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Offre d'emploi
Développeur Data Python SQL Shell Spark
KEONI CONSULTING
Publiée le
JIRA
Jupyter Notebook
Python
18 mois
20k-60k €
100-500 €
Lyon, Auvergne-Rhône-Alpes
CONTEXTE : Le client dans le cadre de son activité Big Data, recherche un profil en développement Data, Python, SQL, Shell, Spark (+ de 5 ans d'expérience) pour nous accompagner dans les actions sur la plateforme Cloudera Hadoop. L'objectif de la mission est de réaliser et maintenir les développements nécessaires à l'alimentation de la plateforme Hadoop, à la mise en place d'extractions et à l'accompagnement des utilisateurs MISSIONS Rattaché au responsable Big Data, le profil aura pour principales missions : - de prendre en charge les évolutions des données à intégrer, reprendre les développements effectués pour l'alimentation du Datalake , de les faire évoluer en fonction des besoins (Stack technique : Hadoop Cloudera, Hive, Impala, Python, Shell, Linux, SQL, VBA, Jupyter) - d'avoir une expertise technique permettant de spécifier techniquement les tâches, fournir les requêtes de référence, effectuer une revue de code, accompagner les potentiels alternants ou stagiaires (une alternante à date) - de mettre en place des extractions à partir de ces données, - d’assurer le support niveau 2, - de faire appliquer les consignes aux utilisateurs, - de garantir la tenue des délais de livraison dans un contexte de production à fortes attentes - de contribuer à garantir la maintenabilité de la plateforme ainsi que ses performances et son exploitabilité Il veillera au respect de l’utilisation des modèles référencés ou à leur évolution en collaboration avec la Direction Technique Informatique et la Gourvernance de la Donnée. Le profil devra posséder des aptitudes et qualités avérées sur sa capacité à communiquer avec diplomatie, à écouter, à s'intégrer et à partager son savoir faire, à documenter ses actions et à accompagner. Dans le même ordre d'idée, quelques attendus : - Développement des traitements d'alimentation, forte capacité à structurer l'activité (JIRA), mise en place et description de processus (guides, accompagnement utilisateurs, …), pilotage opérationnel de certains sujets - Développement d'extractions avec SQL (expert) et scripting Shell avancé pour l'automatisation - Capacité à investiguer et faire du reverse engineering dans une architecture héritée complexe - Optimisation des traitements de la plateforme et ceux des utilisateurs Livrables attendus "Code source documenté Plan de tests / fiches de test Bilan Bordereau de livraison Manuel d’installation Dossier d’exploitation JIRA documentée" Environnement technique - technologique "• Cloudera Hadoop • Hive, impala • Python • SQL • Shell • Spark • VBA • GIT • Jupyter • Linux • JIRA" Compétences techniques Connaisance Cloudera Hadoop, Hive, Impala Développement Python Requêtage SQL Développement Shell Développement Spark (Scala) Utilisation de GIT Agilité (méthodes Kanban et/ou Scrum) Compétence liée à l'environnement Connaissance de l'écosystème de la protection sociale
Offre d'emploi
Développeur Data BI/Cybersécurité (min 7 ans d'expérience )H/F
TOHTEM IT
Publiée le
36 500-45k €
Toulouse, Occitanie
Ta mission Tu rejoins une équipe en charge de la gouvernance et des risques IT pour renforcer et fiabiliser les outils de reporting liés aux activités sécurité. Ton rôle sera clé : améliorer l’existant, concevoir de nouveaux outils, assurer leur maintien en conditions opérationnelles (MCO) et garantir le RUN avec la production de reportings réguliers (hebdomadaires, mensuels, trimestriels…) destinés à une direction générale. Selon la charge, tu pourras également contribuer à d’autres activités autour de la gestion des risques IT et de la sensibilisation sécurité. Pas besoin d’être expert·e technique en cybersécurité, mais une vraie appétence pour les sujets Risk IT / SSI est essentielle. Concevoir, développer et maintenir des outils de reporting liés à la gouvernance et aux risques IT Assurer le RUN et produire des reportings à forte visibilité (exigence élevée en précision, rigueur et qualité) Développer et faire évoluer des tableaux de bord Participer, selon les besoins, à des actions de sensibilisation sécurité (organisation, animation, suivi) Contribuer à certaines activités de gestion des risques IT Environnement technique Power BI Power Automate Microsoft Lists SharePoint Développement d’applications de tableaux de bord et reporting Production et suivi en RUN
Offre d'emploi
Ingénieur de production Cloud (IOPS)
VISIAN
Publiée le
Jenkins
Kubernetes
1 an
40k-45k €
290-400 €
Île-de-France, France
Ingénieur de Production Cloud (IOPS)Descriptif du poste Dans le cadre de cette offre, l'équipe souhaite une prestation d'ingénieurie de production (IOPS) Cloud capable de construire, configurer et tester une infrastructure en PaaS. L'équipe Cloud Platforms SaaS met à disposition du groupe des solutions SaaS sur 3 modèles : SaaS On Premise managé en interne SaaS On Premise managé par nos partenaires éditeurs SaaS Externe managé par nos partenaires éditeurs Les offres incluent des solutions de signature électronique, d'éditique et composition documentaire, d'entrée en relation, de gestion des consentements, d'hébergement web sur services PaaS et de développement IA. Responsabilités Participation à la définition de l'infrastructure Construction de l'infrastructure résiliente et sécurisée Mise en place du monitoring et la capacité de la plateforme à s'autogérer (scalabilité, gestion de la disponibilité des PODs) Assurance du run des applications
Offre d'emploi
Full-Stack Engineer - Data Plateform - Aix-en-Provence (H/F)
EASY PARTNER
Publiée le
Google Cloud Platform (GCP)
Mongodb
Node.js
50k-55k €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Contexte du poste Dans le cadre du renforcement d’une équipe Data & Engineering, notre client final recrute un Développeur Full-Stack confirmé en CDI. Le poste s’inscrit dans l’évolution d’une application interne critique de gestion d’actifs. Cette plateforme constitue la source unique de vérité pour la gestion des actifs physiques, supportant directement les processus opérationnels, commerciaux et financiers du groupe. L’environnement est international, multiculturel et fortement orienté data-driven decision making . Missions principales Concevoir, développer et maintenir les fonctionnalités full-stack de l’application métier Optimiser la performance et la scalabilité du back-end (API, cache, base de données) Garantir la qualité, la fiabilité et l’intégrité des données Implémenter des fonctionnalités métier stratégiques (prévisions, transferts, modifications d’actifs, etc.) Développer et maintenir les API permettant l’interconnexion avec les systèmes tiers et plateformes cloud Traduire les besoins métier en spécifications techniques exploitables Améliorer en continu l’expérience utilisateur des outils internes Missions secondaires Participer au maintien en conditions opérationnelles de la plateforme (RUN) Identifier, analyser et corriger les anomalies complexes Gérer et réduire la dette technique Maintenir la stack technologique à jour Participer activement aux code reviews et aux standards qualité Contribuer à la documentation technique Collaborer étroitement avec les équipes métier, data et produit Participer aux cérémonies Agile Stack technique Front / Full-Stack Nuxt.js Vue.js TypeScript JavaScript ES6+ HTML5 / CSS3 / Sass / Less Back / Data Node.js (via Nuxt API) MongoDB Atlas (NoSQL) Redis (cache) Cloud / DevOps Cloud PaaS / IaaS (Clever Cloud, GCP ou équivalent) Git Docker (apprécié)
Offre d'emploi
Product Owner Data / IA
VISIAN
Publiée le
Agile Scrum
Microsoft Power BI
Product management
1 an
Paris, France
Contexte : Pilotage de produits analytics destinés aux équipes commerciales, avec un fort enjeu de valeur métier, d’adoption et de fiabilité des données. Activités principales • Définir la vision produit analytics et construire la roadmap. • Recueillir, cadrer et challenger les besoins métiers. • Prioriser le backlog et arbitrer selon la valeur business. • Rédiger les user stories data et critères d’acceptation. • Piloter le delivery des équipes analytics / BI. • Animer les rituels agiles (refinement, planning, reviews). • Suivre l’adoption, l’usage et l’impact business des produits data. • Garantir la qualité, la cohérence et la documentation des indicateurs. • Accompagner les équipes métiers dans l’utilisation des solutions analytics.
Mission freelance
Développeur & Concepteur Progiciel Kelia – Domaine Épargne Salariale / Retraite
CAT-AMANIA
Publiée le
Agile Scrum
Angular
Azure DevOps
5 mois
400-510 €
Île-de-France, France
Dans le cadre du lancement d'un programme majeur de refonte du Système d'Information (New ES SI), nous renforçons l'équipe en charge des API et du progiciel KELIA. Vous interviendrez sur les solutions AGE et OAK pour répondre aux évolutions stratégiques du métier de l'Épargne Salariale. Vos Missions : Analyse & Conception : Contribution aux spécifications générales, réalisation des études techniques détaillées et prototypage. Développement & Paramétrage : Réalisation des modules et composants logiciels, assemblage et paramétrage de l'ERP Kelia. Qualité & Tests : Mise en place de tests unitaires et d'intégration (méthodologie TDD) et traitement des anomalies. Maintenance & Évolution : Pilotage de la maintenance corrective et évolutive, documentation technique et administration des composants réutilisables. Profil recherché : Expertise confirmée sur Angular (v18 minimum) . Maîtrise des environnements CI/CD (Jenkins, GitLab CI ou Azure DevOps). Compétences solides en bases de données (MySQL, MariaDB, MongoDB). Capacité à évoluer dans un environnement Agile (Scrum) avec une forte culture DevOps. Une expérience dans le domaine de l'assurance, de la retraite ou de l'épargne collective est un atout majeur.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
4951 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois