Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 1 189 résultats.
Offre d'emploi
Product Owner Plateforme Big Data (AWS / Databricks)
Publiée le
Agile Scrum
AWS Cloud
Databricks
12 mois
Île-de-France, France
Télétravail partiel
Dans le cadre de sa croissance sur les projets Data Platform & Cloud , Hextaem recherche un(e) Product Owner Plateforme Big Data pour piloter la conception, la mise en œuvre et l’évolution d’une plateforme data moderne basée sur AWS et Databricks . Le/la PO jouera un rôle clé à l’interface entre les équipes métiers, techniques et data, afin de valoriser les données de l’entreprise à travers une plateforme scalable, sécurisée et orientée usage . Missions principales 1. Vision produit & stratégie Data Platform Définir la vision produit et la roadmap de la plateforme Big Data . Identifier les besoins des équipes métiers, data scientists et data engineers. Prioriser les fonctionnalités selon la valeur business et la faisabilité technique. Maintenir et piloter le backlog produit (JIRA, Azure DevOps ou équivalent). 2. Pilotage et delivery Animer les cérémonies Agile (daily, sprint review, planning, rétrospective). Collaborer étroitement avec les équipes Data Engineering, Cloud et Sécurité. Suivre l’avancement des développements et s’assurer de la qualité des livrables. Garantir la mise à disposition de datasets et services data fiables, documentés et performants. 3. Gouvernance et qualité de la donnée Contribuer à la mise en place des bonnes pratiques de data gouvernance (catalogue, qualité, sécurité). Superviser les flux de données dans Databricks (ingestion, transformation, exploitation). Assurer la cohérence des environnements (dev / recette / prod). 4. Évolution et innovation Identifier de nouveaux cas d’usage (IA, temps réel, RAG, data sharing). Proposer des améliorations continues en matière d’architecture et d’outils. Assurer une veille technologique active sur AWS, Databricks et les solutions Data/IA émergentes. Compétences techniques : Cloud & Big Data: AWS (S3, Glue, Lambda, Redshift, IAM, CloudFormation/Terraform) Data Platform: Databricks (Delta Lake, PySpark, MLflow, Unity Catalog) Data Engineering & Modélisation: Connaissance de la modélisation data, data pipeline, orchestration (Airflow, ADF, etc.) Langages: Bonne compréhension de SQL et Python (lecture et validation de code) CI/CD & DevOps: Git, Terraform, Jenkins/GitHub Actions (notions) Outils de pilotage: JIRA, Confluence, Miro, Power BI/Tableau (lecture fonctionnelle)
Offre d'emploi
Développeur Fullstack .NET / Angular H/F
Publiée le
.NET
Angular
Azure
1 an
Lyon, Auvergne-Rhône-Alpes
Contexte Dans le cadre d’un accroissement d’activité, nous recherchons un Développeur Full Stack confirmé pour renforcer une équipe dynamique en charge du développement et de la maintenance d’applications métiers. Missions principales Assurer le build et le run des applications existantes. Définir et contribuer aux bonnes pratiques de développement . Participer à la définition des besoins avec les équipes métiers. Rédiger les procédures de tests et de validation des livrables. Collaborer avec les équipes en méthodes Agile/Scrum . Documenter les travaux réalisés.
Mission freelance
Ingénieur DevOps / Cloud Azure - Data & Plateforme Offline
Publiée le
Azure DevOps
Git
Helm
1 mois
400-550 €
Paris, France
Bonjour à tous, Je recherche pour le compte d'un de mes clients plusieurs DevOps. Voici les missions : Contribution fonctionnelle & technique Intégrer de nouvelles fonctionnalités issues de composants open-source et assurer la maintenance des fonctionnalités existantes. Collaborer quotidiennement avec les Data Engineers (échanges sur les cas d’usage, tests, besoins utilisateurs finaux). Infrastructure & automatisation Automatiser le déploiement d’infrastructures Cloud à grande échelle sous Azure , en particulier la gestion de clusters Azure au niveau ressource. Travailler dans une infrastructure 100% Terraform (≈45%) : définition, maintenance et optimisation des modules et stacks IaC. Utiliser Terragrunt pour organiser et orchestrer les déploiements multi-environnements. Automatiser et industrialiser le déploiement d’images Docker et de composants applicatifs au sein de clusters Kubernetes. Concevoir, maintenir et optimiser des charts Helm (≈30%) pour les différents services déployés. Maintenir et développer des scripts et utilitaires en bash (≈20%) et ponctuellement en Python (≈5%). Plateforme Data & environnement offline Déployer et intégrer des composants transverses : Ingress, Keycloak, Nexus… Automatiser et opérer les briques techniques liées aux traitements de données : GitLab, Jupyter/JupyterHub (notamment en environnement offline), Spark, PostgreSQL… Travailler dans des environnements sans accès internet , incluant la gestion interne des identités, l’intégration réseau, et la gestion complète du cycle de vie applicatif. CI/CD & qualité Utiliser la suite Azure DevOps (repos, boards, pipelines). Exécuter et superviser des pipelines CI/CD de tests et de déploiements déjà implémentés. Participer activement aux pratiques DevOps : revue de code, bonnes pratiques Git, amélioration continue des workflows. Architecture & sécurité Contribuer à l’évolution de l’architecture de la plateforme en apportant votre expertise Cloud, Kubernetes ou systèmes distribués. Assurer une veille active sur les sujets technologiques et de sécurité. Appliquer et promouvoir les bonnes pratiques en matière de sécurité des données et de la plateforme. Actualiser et structurer la documentation technique.
Offre d'emploi
Chef de projet Data
Publiée le
BigQuery
Data quality
Gestion de projet
6 mois
Île-de-France, France
Télétravail partiel
La Direction Technique du Numérique mène des projets transverses en étroite collaboration avec les autres directions, notamment la direction Data. La Direction Data, au sein de la Direction du Numérique, a été créée avec la volonté de faire de la Data un levier de croissance des offres numériques. Elle a 3 grandes missions : Maximiser la collecte de données tout en respectant les réglementations en vigueur Développer la connaissance et l’expérience utilisateur Mettre à disposition auprès des équipes internes des outils de pilotage et d’aide à la décision. Afin d’assurer la coordination de l’ensemble de cas d’usages transverses aux pôles Data. Prestations attendues : En interaction avec l’ensemble de la direction data et des directions métiers consommatrices des données (Produit, Editorial, Partenariats, Marketing, Publicité….) , la prestation consistera à : La Gestion de la coordination intra Data : Assurer la transversalité Data pour les projets transverses entre les pôles (Technique, Intelligence, Mangement, et Gouvernance) Identification des actions pour chaque équipe Suivi des avancées et remontées des alertes Mise en place la coordination, la documentation, la comitologie projet Remontée au mangement le suivi de ces sujets transverses Gestion de la coordination inter Data : point d’entrée pour les principales directions métiers consommatrices des données, et responsabilité de la coordination des différents pôles Data avec les équipes métiers sur leurs besoins (Collecte, tracking, Dashboard, analyses,…) Identification des besoins Représentation de la data dans les instances de coordination projets transverses Suivi des projets en mettant en place la coordination entre les interlocuteurs data et métiers, organisation de la documentation, des ateliers de travail, des réunions de restitution avec les parties prenantes Communication des delivery Data afin d’assurer la promotion des travaux Expertises demandées pour la réalisation de la prestation : Expériences d’au moins 8 ans en tant que Chef de projet data Expériences d’analyse des données sur un environnement GCP Expériences sur SQL/Big Query Expériences sur les principaux métiers de la data : Collecte, tracking, Dashboard, analyses, personnalisation, data science Expériences sur des données digitales sur l’outil Piano Analytics Capacité à fédérer, coordonner des projets transverses, mener plusieurs sujets en même temps Capacité à synthétiser, et présenter des résultats à des interlocuteurs ayant des niveaux de maturité data différent
Mission freelance
Expert Active Directory
Publiée le
Azure
Microsoft Entra ID
Powershell
18 mois
100-500 €
Paris, France
Télétravail partiel
Contexte : Experience : 5 ans et plus Métiers Fonctions : Production, Exploitation, Infrastructure, Expert technique Spécialités technologiques : Modern Workplace La présente mission vise à accompagner le Département Modern Workplace dans : - Le pilotage et la mise en œuvre du projet de sécurisation Active Directory 2026 - L’apport d’une expertise technique de haut niveau sur les environnements Active Directory, Entra ID et hybrides - La coordination transverse des acteurs techniques et sécurité impliqués dans la gestion des identités et des annuaires ; la mission s’inscrit dans un contexte d’infrastructures critiques, à forts enjeux de sécurité et de continuité de service. MISSIONS L’équipe dans laquelle vous interviendrez est constituée de 2 internes & 1 alternant, et est responsable de l’administration, de la gestion et de l’évolution des annuaires d’entreprise (Active Directory – Entra ID). Elle conduit des projets structurants de sécurisation et de rationalisation des environnements AD. Environnement technique : - Plusieurs forêts Active Directory - Plusieurs domaines - 1 tenant Entra ID principal et plusieurs tenants annexes - Environ 10 000 identités - Environnements on-premise, cloud et hybrides Vous devrez atteindre les objectifs suivants : - Piloter le projet de sécurisation Active Directory 2026 - Structurer et faire vivre la feuille de route AD - Renforcer le niveau de sécurité et de maîtrise des environnements AD / Entra ID - Fluidifier la coordination transverse entre les acteurs SI et sécurité - Sécuriser l’exploitation et les mises en production sur les infrastructures AD Expertise souhaitée - Vous avez minimum 7 ans d'expérience et avez mené à minima un projet de sécurisation de l'AD - Vous avez une expertise en administration de l’Active Directory, Entra ID et environnements MS hybrides dont pilotage projets - Maîtrise des environnements multi-forêts et gestion d’un grand nombre d’identités. - Bonne compétence en scripting (PowerShell) et automatisation. - Certifications Microsoft (ex : MCSA, MCSE, Azure) appréciées. - Capacité à travailler en équipe et à collaborer étroitement avec le responsable du domaine - Rigueur, autonomie et aptitude à intervenir rapidement dans un environnement complexe.
Mission freelance
AI Engineer
Publiée le
IA
Large Language Model (LLM)
2 mois
400-550 €
Paris, France
Télétravail partiel
Dans le cadre d'un MVP, nous recherchons un AI engineer pour un projet de création d'assistant IA. Nous recherchons un profil avec de bonnes capacités en développement back end python (le projet nécessite des connexions avec des systèmes existants, du traitement de données, etc) et ayant aussi de l'expérience sur des sujets AI / LLM. La maitrise des environnements Cloud sera fortement appréciée (notamment le déploiement sur GCP par exemple). La mission démarrera début janvier 2026 et durera 2 mois dans un premier temps. Il y a potentiellement une continuité ensuite si on démontre de la valeur du projet au client.
Mission freelance
Manager de transition DevOps / Kubernetes (F/H)
Publiée le
Azure Kubernetes Service (AKS)
DevOps
Kubernetes
12 mois
500-600 €
Paris, France
Télétravail partiel
Envie d’un nouveau challenge... CELAD vous attend ! 🚀 Nous poursuivons notre développement et recherchons actuellement un.e Manager de transition DevOps / Kubernetes pour intervenir dans le secteur hospitalier. 💻💼 Voici un aperçu détaillé de vos missions 🎯 : - Piloter la création, la montée en puissance et la performance de la SKI afin de fluidifier les échanges entre équipes techniques et applicatives, réduire l’incidentologie Kubernetes et améliorer le delivery des projets applicatifs. - Définir et suivre les objectifs opérationnels, construire et piloter les tableaux de bord (SLO/SLA, lead time, MTTR, fréquence de déploiement, sécurité applicative). - Reprendre et animer les COPIL K8S, orchestrer les rituels d’équipe et transverses, assurer la traçabilité des demandes et produire des comptes rendus réguliers. - Organiser le delivery applicatif sur Kubernetes, du développement à la production, et assurer la conformité aux standards d’ingénierie et de sécurité. - Co-piloter le run et la fiabilité des applications, superviser incidents et alertes, réduire le MTTR et capitaliser sur les retours d’expérience. - Acculturer et former les équipes sur Kubernetes, DevOps/SRE, GitOps et les bonnes pratiques de delivery. - Mettre en place et maintenir l’outillage et la documentation associée (CI/CD, observabilité, gestion des secrets, playbooks et runbooks).
Offre d'emploi
Développeur Full Stack Senior - Flux Paiement - Java 17 + / Kafka / Spring (H/F)
Publiée le
Apache Kafka
DevOps
Finance
12 mois
75002, Paris, Île-de-France
Télétravail partiel
Contexte Le projet comprend la construction d’une plateforme de services destinés aux prestataires de services de paiement (PSP) , ces derniers gérant toutes les interactions avec les utilisateurs (particuliers, entreprises, administrations) d’une monnaie numérique. Mission La mission porte sur le développement d’un composant responsable du règlement (vérification, exécution, enregistrement) des transactions de paiement. Date de début et de fin du contrat : Début Décembre 2025 (mission longue) Statut : CDI / Freelance Missions : - Conception et développement des composants et des prototypes - Définir et implémenter les tests unitaires des modules - Respecter les standards de développement, revues de code - Assurer le respect des exigences de performance, montée en charge, résilience) - Rédiger de la documentation technique (en anglais)
Offre d'emploi
Expert·e Openstack
Publiée le
50k-70k €
Paris, France
Télétravail partiel
Pour le compte de l'un de nos clients du CAC 40, nous recherchons un·e Expert·e Openstack ! Vos missions seront : - Etre force de propositions sur le développement et le maintiens de nouvelles fonctionnalités - Pouvoir représenter le produit Openstack Cloud Service au seins de comités - Pouvoir apporter sa contribution à la roadmap et à la stratégie produit - Contribuer à l'amélioration continue du projet - Participer à la maintenance du produit et au dépannage - Cloud Computing : AWS, Azure, Google Cloud, bonnes pratiques du cloud OpenStack (niveau maîtrise requis) -Outils de gestion : Active Directory, DNS, DHCP, NMS (Network Management System) -Langages de Scripting : Python, PowerShell, Bash -DevOps et Automatisation : Jenkins, Ansible, GitLab, Nexus -Orchestration de conteneurs : Kubernetes
Mission freelance
Data Engineer GCP (Rouen)
Publiée le
Google Cloud Platform (GCP)
1 an
400-550 €
Rouen, Normandie
Télétravail partiel
Bonjour, Pour le compte de l'un de mes clients situé à Rouen, je suis à la recherche d'un Data Engineer GDP. Objet de la prestation : L’objet du présent marché est une prestation d’accompagnement : Poste : Data Engineer - GCP Niveau d’expérience : au moins 3 ans Contenu de la prestation : Au sein de la DATAFABRIC, vous intégrerez une des équipes de développement agile composées de 5 à 7 Data Engineer qui travaille en lien avec le TechLead. Vous assurerez aussi le build et le run des traitements livrés en production sur la plateforme GCP Missions principales : • Analyse, Conception et Modélisation • Rédiger les documents associés au projet (Spécifications Techniques, Cahier de recette Technique, Document d’exploitation). • Développer et maintenir les pipelines de données sur GCP pour l’acquisition, la transformation, le stockage et la mise à disposition des données • Réaliser la recette technique • Assurer la qualité avec des tests de non-régression Savoir-être : • Sens du résultat et respect de l’engagement • Capacité à travailler en équipe Suivi de la prestation : Le représentant du fournisseur et de Matmut établiront une méthode du suivi de la prestation pour préciser si la prestation est au niveau attendu selon les indicateurs de performance et le fréquence définis au début de la prestation (respect des délais, qualité des livrables, etc.).
Mission freelance
Développeur Python AWS - Data & Gen AI ( Databricks)
Publiée le
Amazon DynamoDB
Amazon S3
API
12 mois
550-680 €
Paris, France
Télétravail partiel
Missions principales : Participer à la conception, au développement et à la mise en œuvre de nouvelles fonctionnalités du plan de travail (workplan). Contribuer à la rédaction des spécifications techniques et à la documentation associée. Prendre part à la construction et à l’évolution d’une plateforme data intégrant la gouvernance, l’ingestion, la transformation, le stockage, l’exposition et l’analytique. Intervenir sur les aspects RUN et BUILD de la plateforme en soutien à l’équipe existante. Garantir la sécurité, la performance et la scalabilité des solutions déployées sur le Cloud AWS. Participer à la mise en place de solutions Gen AI au sein de l’écosystème Data/Cloud. Compétences techniques requises : Cloud AWS : maîtrise approfondie des services IAM, S3, DynamoDB, Lambda, API Gateway . Databricks et sa composante AI (Genie) . Développement Backend Python , avec une solide expérience en API / webservices / routes . Maîtrise d’un framework Python (idéalement AWS Powertools for Lambda , Flask ou FastAPI ). Infrastructure as Code : expertise en Terraform et bonne culture DevOps . Expérience dans la mise en œuvre de plateformes data (gouvernance, ingestion, transformation, stockage, exposition, analytics). Excellente capacité de communication écrite et orale en anglais . Compétences appréciées : Certifications AWS : Solutions Architect Associate , Data Engineer Associate et/ou Developer Associate . Connaissances en Power BI , services réseau , Collibra ou React . Sens de la collaboration, autonomie et approche orientée solution. Objectifs et livrables : Contribution à la définition et au développement des features du workplan. Livraison de composants applicatifs fiables et documentés . Participation active aux revues techniques et réunions d’équipe . Support dans la gestion opérationnelle (RUN) et l’ amélioration continue (BUILD) des solutions Cloud & Data.
Mission freelance
Expert en cybersécurité
Publiée le
Ansible
Azure
Endpoint detection and response (EDR)
1 an
420-440 €
Lille, Hauts-de-France
Télétravail partiel
Nous cherchons un(e) Analyste Cybersécurité SecOps i² pour renforcer une équipe d’Inspection & Incidents (SecOps i²). Ta future équipe : l’équipe SecOps i² L’équipe SecOps i² est en première ligne pour traiter les incidents de cybersécurité et développer des solutions de détection et de réponse efficaces. Nous adoptons une approche pluridisciplinaire qui repose sur l’exigence et la rigueur, afin de réduire les vulnérabilités et d’améliorer la résilience de l’entreprise face aux menaces. De plus, l’équipe valorise la convivialité au quotidien : chaque semaine, nous partageons un moment informel pour cultiver la bienveillance et l’esprit d’équipe. Vos missions en tant qu’Analyste Cybersécurité SecOps i² En intégrant cette équipe, vous aurez l’opportunité de jouer un rôle essentiel dans la détection, l’analyse, et la réponse aux incidents de sécurité, ainsi que dans l’amélioration continue des processus et outils de sécurité. Voici ce que vous accomplirez : - Analyser et investiguer les incidents cyber : Mener des investigations techniques poussées, identifier les causes profondes des incidents et fournir des recommandations pour limiter les risques futurs. - Développer des solutions techniques : Concevoir et mettre en œuvre des solutions de sécurité adaptées aux besoins des équipes en charge des produits, tout en intégrant les dernières avancées en automatisation. - Accompagner les Product Owners : Soutenir les Product Owners dans le cadrage des besoins techniques et les aider dans la rédaction de dossiers d'architecture. - Contribuer à l’industrialisation des opérations : Participer à l'amélioration continue de nos processus en intégrant les retours d’expérience liés aux incidents pour garantir une qualité de service optimale. - Documenter et partager les connaissances : Participer à la montée en compétences de l’équipe en élaborant des documents de référence et en facilitant le partage des connaissances. - Participer aux astreintes : Assurer le suivi des incidents critiques en dehors des heures ouvrées, garantissant la continuité de la sécurité de nos opérations. Environnement technique Cloud : Azure, GCP, Oracle Cloud, OVH, OCI Onprem: Datacenter Outils de Sécurité : EDR, SOAR, SIEM Systèmes d’exploitation : Linux, Windows Développement et automatisation : Python, ansible, SOAR Au moins 3 ans d’expérience dans un poste similaire: Expertise technique en environnement Cloud et en sécurité opérationnelle, Maîtrise de la programmation et des technologies de cybersécurité (Python, SIEM, SOAR), Esprit analytique et capacité à travailler de façon autonome, Anglais courant pour évoluer dans un environnement international.
Mission freelance
Développeur Mobile Senior – React Native / Azure / CI-CD / IA Générative
Publiée le
Azure
CI/CD
React Native
6 mois
Île-de-France, France
Télétravail partiel
Nous recherchons un(e) Développeur(se) Mobile Senior pour renforcer l’équipe en charge d’un espace client mobile (Android & iOS) et accélérer l’innovation grâce à l’IA générative. Missions : Développer et maintenir des applications React Native . Utiliser l’ IA générative pour accélérer la production (code, tests, documentation). Participer à la conception technique et au design system . Intégrer et sécuriser les API (auth, sécurité, accessibilité). Contribuer aux pipelines CI/CD et à la gestion des environnements Azure . Assurer les déploiements sur les stores Android & iOS. Travailler dans un cadre Agile (connaissance Prince2 appréciée).
Mission freelance
Data Analyst snowflake, DataBricks Power BI SQL
Publiée le
FinOps
Snowflake
6 mois
La Défense, Île-de-France
Télétravail partiel
Dans ce cadre, une équipe FinOps a été mise en place afin de garantir la maîtrise des coûts Cloud , le respect des budgets et la mise en œuvre d’une gouvernance financière Cloud structurée . La mission s’inscrit au cœur de ce programme stratégique, avec la construction d’une FinOps Tower destinée à centraliser les analyses financières, le monitoring des coûts et les mécanismes d’alerting. Objectifs de la mission Assurer la maîtrise financière des environnements Cloud Azure Mettre en place une plateforme d’analyse FinOps robuste et industrialisée Détecter et prévenir les dérives budgétaires en amont Accompagner les équipes projets sur les bonnes pratiques FinOps Rôle & Responsabilités Mise en place d’ analyses FinOps sur les données de consommation Azure Conception et exploitation d’une sandbox Snowflake pour l’analyse des coûts Cloud Industrialisation des traitements en lien avec l’équipe Data Platform Intégration des données FinOps dans l’écosystème Finance / IT / Applicatif Définition et implémentation de règles d’alerting pour la détection des risques financiers Réalisation de POC pour l’intégration de solutions SaaS (Snowflake, Databricks, GitHub, PowerBI, etc.) Analyse de la consommation des ressources d’infrastructure afin d’assurer la juste utilisation des services Cloud Mise en place de contrôles automatisés FinOps (non-conformités, surconsommation, anomalies) Activités RUN FinOps Surveillance continue des coûts Cloud et gestion des alertes Support FinOps aux équipes projets Définition et suivi des plans de remédiation Gestion des réservations Cloud et identification d’opportunités d’optimisation Accompagnement des projets en phase amont (onboarding FinOps, revues d’architecture, validation budgétaire) Maintenance et enrichissement du reporting FinOps Environnement Technique Cloud : Microsoft Azure Data / FinOps : Snowflake, SQL Restitution & BI : PowerBI Data / SaaS : Databricks, GitHub Scripting / Automation : Python, PowerShell IaC : Terraform Monitoring & requêtage : KQL Livrables clés FinOps Tower opérationnelle (analyses, showback, alerting) Tableaux de bord FinOps à destination des équipes projets Règles d’alerting budgétaire automatisées POCs industrialisés et mis en production Reporting coûts et recommandations d’optimisation Profil de la mission Mission freelance longue durée Forte composante Cloud / Data / FinOps Environnement international – anglais professionnel Forte interaction avec équipes IT, Data et Finance
Mission freelance
CONSULTANT MOE DATA BI - SSIS - SQL Server - Azure Devops
Publiée le
Azure
BI
DevOps
24 mois
300-600 €
Le Plessis-Robinson, Île-de-France
Télétravail partiel
Dans le cadre d'une mission longue chez l'un de nos clients à la Defense et pour un démarrage immédiat, nous recherchons un(e) Consultant technique MOE BI / Domaine Socle Data ▪ Type de prestation : Assistance Technique ▪ Expertise métier requise : BI ▪ Nombre d'années d'expérience : 7-10 ans minimum ▪ Descriptif détaillé de la mission : ➢ Assurer le RUN des applications existantes (ETL, Bases de données, support niveau 3) ➢ Comprendre les enjeux métier, problématiques à résoudre et opportunités à concrétiser. ➢ Echanger et challenger les besoins métiers avec les équipes AMOA BI en tenant compte des contraintes techniques. ➢ Proposer, concevoir et spécifier des solutions techniques viables, évolutives et tenant compte de l'existant. ➢ Rédaction des documents techniques (spécification techniques, document d'exploitation…etc). ➢ Conseiller, proposer des axes d'amélioration, alerter si besoin. ▪ Environnement technique de la mission : ➢ Socle Data : SSIS, SQLServer (2016), procédures stockées, Azure DevOps (Git, Board Agile, Pipeline de déploiement CI/CD) ➢ Reporting : COGNOS BI 10.2 et 11 & Tableau (le reporting n'est pas dans le scope, il s'agit d'une information)
Mission freelance
Développeur Angular / Nestjs
Publiée le
Angular
Azure
Docker
1 an
400-440 €
Lille, Hauts-de-France
Télétravail partiel
Nous recherchons un développeur Full Stack NestJS / Angular expérimenté pour renforcer notre équipe. Missions A ce poste, vous serez responsable de : - Participer à l’analyse fonctionnelle des besoins - Rédiger les spécifications et documentations techniques - Développer les applications web avec Nest.js et Angular - Collaborer avec les équipes pour le déploiement et les tests des applications - Participer au maintien en condition opérationnelle (incidents et évolutions) des applications développées (où qui ont été développées sur la même stack technique ou d’autres)
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Traitement fiscal des cotisations sociales payées en 2025 sur CA micro-BNC 2024
- La Société de portage avec qui j'ai signé m'impose la soltion MAY
- Utiliser Qonto pour créer la microentreprise
- Compte dédié micro-entreprise
- Service de comptabilité en ligne fiable et réactif pour une succursale de SASU
- Offre propulse IT
1189 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois