Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 5 681 résultats.
Freelance

Mission freelance
Machine Learning Engineer – IA & MLOps

ESENCA
Publiée le
Github
LangChain
Python

1 an
Lille, Hauts-de-France
Contexte du poste Dans un environnement technologique en forte croissance, vous intervenez sur le développement et l’industrialisation de solutions d’Intelligence Artificielle. Les produits évoluent rapidement et nécessitent une forte capacité d’adaptation, de structuration et d’industrialisation des modèles. Objectif Concevoir, développer et déployer des solutions AI/ML robustes et scalables, tout en assurant leur intégration dans une chaîne CI/CD moderne et une plateforme MLOps structurée. Missions principalesDéveloppement & Industrialisation IA Concevoir et développer des modèles de Machine Learning et solutions basées sur les LLM Implémenter des composants AI/ML (fonctions, classes, tests automatisés) Participer à la conception d’architectures orientées Data & IA Assurer le passage du prototype à la production MLOps & Data Engineering Construire et maintenir les pipelines d’entraînement, d’évaluation et de déploiement Automatiser les workflows via Github Actions Mettre en œuvre les bonnes pratiques CI/CD et DevOps Assurer le monitoring, la performance et la scalabilité des modèles Qualité & Documentation Garantir la qualité du code (tests unitaires, intégration) Réaliser des revues de code Documenter les développements et configurations (Github / Gitbook) Assurer le suivi du cycle de vie complet des modèles (build & run) Environnement technique Python (impératif), Github Actions (impératif), LangChain (souhaitable), GCP, Kubernetes, Kafka, Terraform, bases SQL/NoSQL.
Freelance
CDI

Offre d'emploi
Senior IT Project Manager – Programme Data

Gentis Recruitment SAS
Publiée le
Data governance
Data management
Service Delivery Management

12 mois
Paris, France
Contexte de la mission Dans le cadre d’un programme stratégique de transformation data à l’échelle internationale, notre client recherche un Senior IT Project Manager pour piloter le déploiement d’un backbone data B2B. Le programme vise à : standardiser les définitions de données B2B industrialiser les contrôles de qualité de données fiabiliser le reporting multi-pays aligner les processus Sales, Finance, Risk, Operations et Carbon fournir une source de vérité unique (single source of truth) Le périmètre couvre plusieurs entités internationales (Europe, Amériques, APAC) dans un environnement fortement gouverné. Objectifs de la mission Le consultant interviendra en responsabilité sur le pilotage global des activités IT liées au programme. Principales responsabilités : Déployer et améliorer les indicateurs et métriques B2B Piloter l’onboarding des parties prenantes Garantir le respect des objectifs, du périmètre, des délais, du budget et de la qualité Coordonner la communication projet et la gestion des stakeholders Piloter les risques, incidents et changements Assurer le steering IT et la delivery des développements selon la roadmap Coordonner les équipes IT locales, architectes et parties prenantes internationales Assurer le reporting auprès des instances de gouvernance Livrables attendus Planning de suivi projet Définition et suivi du périmètre Planification capacitaire Reporting de gouvernance Suivi des risques et plans de remédiation Points différenciants (fortement valorisés) Expérience programmes data backbone / data governance Contexte grands groupes internationaux Coordination multi-pays Interaction Data Office / Product Owners Environnements fortement gouvernés
Freelance
CDI
CDD

Offre d'emploi
consultant senior Devops Openshift

CBX Conseil ( CBX Group )
Publiée le
Azure Kubernetes Service (AKS)
Docker
Openshift

3 ans
40k-50k €
400-550 €
Paris, France
Contexte de la mission – Cadre du projet Le consultant intervient sur des plateformes OpenShift 4.x dans un contexte Cloud Native à forts enjeux d’industrialisation, de sécurité et de disponibilité. Les environnements sont critiques ( Bancaire) , multi-équipes et souvent en production. Il accompagne les équipes projet, infra et sécurité sur des plateformes existantes ou en transformation. La mission s’inscrit dans une démarche DevOps/GitOps mature. La dimension expertise, conseil et transmission des bonnes pratiques est centrale tout au long du projet. Mission – Tâches au quotidien Administrer et maintenir des clusters OpenShift : ressources, projets, quotas, sécurité et troubleshooting avancé. Intervenir en build et en run sur des incidents complexes. Concevoir et déployer des architectures Cloud Native robustes, en appliquant les bonnes pratiques Kubernetes et CI/CD. Participer à l’industrialisation des déploiements applicatifs. Mettre en œuvre et optimiser les pipelines DevOps (Jenkins, ArgoCD, GitLab/GitHub). Accompagner les équipes en tant que référent technique.
Freelance

Mission freelance
Tech Lead Data Engineer Java Python Azure

Cherry Pick
Publiée le
Azure
Java
PySpark

12 mois
600 €
Paris, France
But principal Le prestataire Tech Lead a pour mission principale de : • Contribuer au delivery du produit • Assurer les choix techniques en collaboration avec la squad dans le respect des standards, • Faire comprendre les choix techniques & obtenir l’adhésion des parties prenantes • Interagir au quotidien avec les parties prenantes (métier, tech authority...) • Garantir la qualité logicielle de la prestation de l'équipe Veiller à la bonne mise en œuvre du plan de développement du produit. Missions • Être le garant technique de la squad en la soutenant dans ses choix et dans la mise en œuvre des bonnes pratiques et standards • Garantir la qualité du code et suivre les KPIs pour le suivi de produit • Contribuer techniquement à la production du code • Remonter les alertes et garantir la résolution de problèmes dans un environnement agile en étroite collaboration avec Delivery Performance, Talent et Chapter leads • Être garant de la bonne mise en œuvre technique du plan de développement du produit.
CDI

Offre d'emploi
Data Engineer & API Automation (H/F)

Link Consulting
Publiée le

50k-60k €
Montaigu-Vendée, Pays de la Loire
Notre client est un groupe industriel européen spécialisé dans la fabrication de compléments alimentaires, présent sur plusieurs sites en France, Belgique, Italie et Pays-Bas. Acteur engagé à l'intersection de la santé et du bien-être, il accélère aujourd'hui la structuration et la modernisation de son système d'information. Dans ce cadre de transformation, la DSI renforce son équipe avec un profil Data & Integration Engineer — rôle transverse et stratégique, au cœur de la fiabilisation des données, de l'intégration applicative et de l'automatisation des processus. Vos missions : ? Data Engineering & Qualité des données (cœur du poste, ~70%) * Concevoir, développer et maintenir des pipelines ETL / ELT fiables et industrialisés * Assurer les transformations, validations et migrations de données dans le cadre des projets ERP * Mettre en œuvre les mécanismes de qualité : contrôles, règles de gestion, historisation, traçabilité * Garantir l'intégrité, l'unicité et la cohérence des référentiels de données (MDM / PIM) * Travailler sur des modèles relationnels et analytiques (étoile, snowflake) * Contribuer au dictionnaire de données et à la documentation fonctionnelle et technique ? Intégration & Interopérabilité (~15%) * Concevoir et opérer les flux inter-applications via des solutions EAI / iPaaS (n8n, Boomi ou équivalent) * Maintenir le catalogue de flux (SFTP, API REST, GraphQL) et en assurer la documentation * Tester et déboguer les API avec des outils dédiés (Postman ou équivalent) ? APIs & Services Data pour les métiers (~10%) * Exposer des API et services data sécurisés pour faciliter l'accès aux données d'entreprise * Permettre aux équipes de construire des POC, prototypes et cas d'usage IA rapidement * Veiller à la gouvernance, à la sécurité et à la traçabilité des accès aux données ? Automatisation & IA (~5%) * Développer ou intégrer des automatisations via scripts, workflows EAI ou solutions low-code / RPA * Contribuer à l'intégration de cas d'usage IA et aider à industrialiser les prototypes métiers Les compétences techniques * * SQL avancé — indispensable (transformations complexes, optimisation, gouvernance) * Solides bases en Data Engineering : pipelines, ETL/ELT, qualité et modélisation des données * Maîtrise des API REST ; GraphQL appréciée * Pratique de Git et sensibilité aux principes DevOps * Expérience ou forte appétence pour Go, Python ou Node.js * Familiarité avec les environnements cloud — idéalement Microsoft Azure (Functions, App Services, Logic Apps) * Connaissance ou intérêt pour les outils EAI / automatisation (n8n, Boomi ou équivalents) * Sensibilité aux enjeux d'urbanisation du SI et de gouvernance des données
Freelance

Mission freelance
Data Scientist / AI Engineer

ESENCA
Publiée le
CI/CD
Docker
Google Cloud Platform (GCP)

1 an
Lille, Hauts-de-France
Contexte de la mission Dans le cadre du développement de solutions innovantes autour de l’intelligence artificielle, nous recherchons un Data Scientist / AI Engineer capable de concevoir, industrialiser et mettre en production des solutions IA performantes. Le rôle consiste également à instaurer des standards solides d’ingénierie logicielle afin de garantir la qualité, la fiabilité et la scalabilité des solutions développées. Vos missions Concevoir et développer des fonctionnalités basées sur l’intelligence artificielle. Construire et maintenir des pipelines de traitement de données. Industrialiser et monitorer les applications et services IA (latence, coûts, taux de réponse, satisfaction utilisateur). Mettre en place des pratiques MLOps / LLMOps : suivi d’expériences, déploiement, monitoring et observabilité des modèles. Garantir la qualité des données, la sécurité et la conformité réglementaire (notamment GDPR). Structurer les projets IA selon des standards d’ingénierie logicielle robustes (tests, CI/CD, documentation, bonnes pratiques). Participer aux revues d’architecture et diffuser les bonnes pratiques techniques au sein des équipes. Compétences techniques requises Machine Learning / Deep Learning (niveau expert). IA générative : LLM, RAG, prompt engineering, agents et orchestration. Analyse de données avancée. Traitement de données non structurées (PDF, images). Langages : Python avancé, SQL. Conception et intégration d’ APIs . Data pipelines : orchestration, streaming, feature stores. MLOps / LLMOps : CI/CD, Docker, Kubernetes, suivi des modèles, monitoring et observabilité. Bonnes pratiques de développement : structuration des projets, stratégie de tests, documentation technique. Environnement technique Python, SQL GCP Docker, Kubernetes CI/CD, MLOps / LLMOps
Freelance

Mission freelance
Expert Réseau

Codezys
Publiée le
Active Directory
AlgoSec
Azure

12 mois
Courbevoie, Île-de-France
Contexte de la mission Equans France recherche un expert confirmé en réseau et sécurité pour renforcer sa Direction des Systèmes d'Information (DSI) dans le cadre des activités de la ligne de service (SLS) infrastructures. Les SLS représentent les axes de conception et d'exploitation des services centraux d'Equans, utilisés par l'ensemble des Business Units (BU). La BU France est responsable de la ligne de services Infrastructures, couvrant à la fois les fournisseurs cloud AWS et Azure, ainsi que les services réseaux et sécurité centraux de l'entreprise. Ces services incluent notamment : Internet Access Private Access Firewalling SD-WAN VPN IP Address Management (IPAM) Registrar LAN et Wi-Fi li>Network Access Control (NAC) Objectifs et livrables Fournir une expertise approfondie dans les domaines du réseau, notamment SD-WAN, NAC et LAN/WLAN. Participer activement aux projets de déploiement réseau, en particulier pour les solutions SD-WAN, NAC et LAN/WLAN. Proposer des améliorations continues sur les services réseau afin de les aligner avec la stratégie globale du groupe. Servir de point d’escalade pour la gestion des incidents critiques et des événements majeurs liés au réseau. Réaliser des tests en environnement de maquette pour valider les solutions et configurations techniques, budgétaires et opérationnelles. Élaborer, maintenir et mettre à jour la documentation technique relative aux infrastructures réseau. Contribuer à la transition vers une exploitation opérée par une équipe en Inde, assurant ainsi la continuité et la robustesse du service.
Freelance

Mission freelance
Data Architect (Secteur Luxe)

Nicholson SAS
Publiée le
Azure DevOps
Git
Github

8 mois
1 200 €
Paris, France
Pour le compte de l’un de nos clients basé à Paris, nous recherchons un Data Architect (Secteur de Luxe) afin d’intervenir sur une mission stratégique autour de l’architecture et de la valorisation des données. Missions: Concevoir et mettre en œuvre des solutions de données de bout en bout dans Azure Fabric (Lakehouse, Data Warehouse, modèles sémantiques). Intégration avec Power BI et modèles d'évolutivité. Définir les zones/hiérarchie de données (couches Bronze, Argent, Or). Établir des cadres de gouvernance des données. Modélisation des données et conception de pipelines ETL/ELT. Définir la logique de transformation et les règles métier. Gérez les charges incrémentielles, les dimensions et les contrôles de qualité. Optimisez les performances des requêtes et l’efficacité du stockage. (Outils : SQL, Python (PySpark), Azure Data Factory, Fabric Notebooks, dbt). Expertise en développement Python et SQL : rédigez des scripts Python efficaces (PySpark) pour la transformation des données dans Fabric Notebooks. SQL pour les requêtes complexes, les agrégations et l'optimisation des performances. Développer des bibliothèques de code et des fonctions réutilisables. Gérer la validation de la qualité des données et la gestion des erreurs. Représentation du fata dans la propriété finale du tableau de bord. Gestion du pipeline CI/CD et du contrôle de version GitHub : mettre en œuvre des flux de travail CI/CD pour le déploiement de produits de données. Gestion des référentiels de codes, stratégies de branchement. Suivre les modifications et maintenir des pistes d'audit. Outils : GitHub, Azure DevOps Pipelines, GitHub Actions, Git CLI, règles de protection des branches. Gouvernance des données, sécurité et contrôle d'accès basé sur les rôles (RBAC) : définissez des politiques de gouvernance pour le traçage des données, la gestion des métadonnées et les normes de qualité des données. Implémentez le contrôle d’accès basé sur les rôles (RBAC) pour les espaces de travail et les ensembles de données Fabric. Configurez la sécurité au niveau de l’espace de travail, de l’ensemble de données et des lignes. Établir des schémas de classification des données.Outils : Azure Fabric RBAC, Azure AD/Entra ID, Purview (gouvernance des métadonnées), rôles d'espace de travail Fabric, Power BI RLS (Row-Level Security). Cartographie des données E2E et définition des KPI : Documentez le lignage complet des données depuis les systèmes sources (D365, bases de données héritées) jusqu'aux magasins de données finaux. Créez des documents de cartographie détaillés (champs sources → colonnes cibles). Définissez la logique métier et les règles de transformation à chaque couche. Identifier et définir des KPI alignés avec les objectifs business. Établir la logique de calcul, les seuils et le suivi des KPI. Créez des dictionnaires de données et des glossaires métier. Outils : Confluence (documentation), Visio/Lucidchart (diagrammes de flux de données), Excel (matrices de cartographie), Power BI (tableaux de bord KPI). Documentation du cadre, normes et composants de ressources : établir des normes d'architecture de données et une documentation sur les meilleures pratiques. Conventions de dénomination, structures de dossiers, modèles de conception. Créez des modèles pour les blocs-notes, les scripts SQL et les fichiers de configuration. Définir les règles de qualité des données et les cadres de validation. Documenter les procédures de déploiement, les guides de dépannage et les runbooks. Tenir à jour les enregistrements de décisions d'architecture (ADR). Fournir des guides d'intégration pour les nouveaux membres de l'équipe. Profil : Data Architect Nombre d’années d’expérience : +7 ans Site : Paris ; sur site Prix d’achat max : 1200 euros Date de démarrage : asap Date de fin : 31/12/2026 Compétences techniques requises : Microsoft Azure Microsoft Azure Service Fabric Azure DevOps Pipelines SQL PySpark Git CLI, GitHub Power BI RLS
Freelance

Mission freelance
Gestionnaire de Parc / Administrateur Systèmes & Cloud

Castelis
Publiée le
Azure
Fortinet
Google Cloud Platform (GCP)

6 mois
400-450 €
Levallois-Perret, Île-de-France
• Support utilisateurs Niveau 2 : diagnostic, résolution, escalade maîtrisée • Administration et exploitation des environnements Cloud & IT • Gestion VPN et firewalls (politiques, accès, supervision) • Gestion et support des applications téléphoniques (VoIP, softphones, intégrations) • Supervision et exploitation des logs via GreyLog • Déploiement et gestion d’agents sur les devices (sécurité, monitoring, MDM) • Suivi des tickets : incidents, demandes, changements • Amélioration continue des processus IT et documentation • Collaboration étroite avec les équipes sécurité et projets dans un contexte international
Freelance

Mission freelance
Data Scientist orienté Marketing- H/F

Wekey
Publiée le
Data science

6 mois
600-660 €
Niort, Nouvelle-Aquitaine
Hello ! Nous c’est WEKEY ! Nous ne sommes ni une ESN ni un cabinet de recrutement. Aaah mais qui sommes-nous alors ? Pour tout savoir sur nous et votre future mission c’est par ici 😁⬇ Vous êtes Data Scientist orienté Marketing H/F et vous recherchez une mission en freelance ? Nous avons le projet qu’il vous faut pour l'un de nos clients basé à Niort dans le secteur des assurances. CE QUI VOUS ATTEND 👀 Dans le cadre de la mission votre rôle sera : Cadrage des besoins métiers (Marketing) Identification de cas d’usage IA (segmentation, churn, appétence, reco produit…) Analyse et préparation des données Conception, entraînement et évaluation de modèles ML Implémentation en Python jusqu’à la mise en production Présentation et vulgarisation des résultats Force de proposition sur des approches innovantes
CDI
Freelance

Offre d'emploi
Data Scientist Senior (Machine Learning, MLOps & IA Générative) - Lille (H/F)

STORM GROUP
Publiée le
MLOps
Pandas
Python

3 ans
50k-57k €
500-600 €
Lille, Hauts-de-France
Contexte du poste : Un acteur bancaire souhaite renforcer sa stratégie d’Intelligence Artificielle en développant des solutions avancées de Machine Learning, Deep Learning, NLP et IA Générative. L’objectif est de valoriser les données, optimiser les processus internes et améliorer l’expérience client grâce à des modèles robustes, explicables et industrialisés. Missions principales : 1. Modélisation Risque & Scoring Concevoir, optimiser et challenger les modèles de scoring d’octroi et de comportement. Explorer des approches innovantes pour améliorer la performance et la stabilité des modèles. Déployer les modèles en production et assurer leur monitoring (dérive, performance, stabilité). Travailler en étroite collaboration avec les équipes Risque, Validation et les experts métier. 2. Développement de Solutions IA Intégrer les modèles ML/AI en temps réel dans les parcours digitaux (scoring instantané, personnalisation des offres…). Participer à la conception de l’architecture technique (Cloud, MLOps, API, pipelines). Collaborer avec les équipes IT et Produit pour industrialiser les solutions et garantir leur scalabilité. 3. IA Générative & Agents Prototyper et déployer des solutions d’IA Générative (LLM, RAG, agents intelligents) pour transformer les processus internes (Marketing, Audit, Risque, Support…). Mettre en place des architectures agentiques pour automatiser des tâches complexes : analyse documentaire, octroi de crédit, interaction client. Évaluer et monitorer les performances des agents (cohérence, diversité, RAGAS, LLM-as-a-Judge…).
Freelance

Mission freelance
243100/Architecte Cloud Azure certifié

WorldWide People
Publiée le
Architecture
Gouvernance

6 mois
Nanterre, Île-de-France
Architecte Cloud Azure certifié Nature de la prestation : Conception, l’industrialisation, l’exploitation et l’amélioration continue des socles Cloud de Confiance Bleu (Azure souverain) et S3NS (Google Cloud souverain). Missions principales Architecture & Gouvernance : Concevoir, cadrer et faire évoluer l’architecture des socles (Landing Zones, réseau, IAM, sécurité). Build & Industrialisation : Mettre en œuvre les socles via Infrastructure as Code (Terraform), concevoir et faire évoluer les pipelines CI/CD et workflows GitOps. Communs numériques : Développer, maintenir et faire évoluer les modules IaC, pipelines, librairies et socles applicatifs. Exploitation & Fiabilité : Administrer et exploiter les environnements, automatiser les opérations récurrentes, gérer IAM et sécurité opérationnelle. Environnement technique Clouds : Bleu (Azure souverain), S3NS (Google Cloud souverain). Outils : Terraform, Git, CI/CD, GitOps, Policy as Code, FinOps tooling, Microsoft 365, JIRA, Confluence. Compétences requises Landing Zone Azure / IAM / Réseau / Sécurité : Senior . Objectifs et livrables Livrables attendus : Dossiers d’architecture (Landing Zone, IAM, réseau, sécurité) – initiaux + MAJ à chaque évolution majeure. Référentiels de standards/patterns et principes de gouvernance. Modules Terraform et pipelines CI/CD (testés, versionnés, documentés). Guides techniques / DevEx, runbooks et documentation d’exploitation. Scripts d’automatisation, supervision & alerting avec couverture ≥ 95 % des composants critiques.
Freelance

Mission freelance
Développeur Back-End Java

Sapiens Group
Publiée le
API REST
AWS Cloud
Docker

12 mois
400-450 €
Île-de-France, France
Au sein du pôle dédié à l’ERP, vous interviendrez sur la solution centralisant l’ensemble des fonctionnalités nécessaires à la gestion des résidences étudiantes du groupe. Mission Vous rejoindrez une équipe récemment constituée, chargée d’implémenter la réforme des factures électroniques sur le périmètre applicatif Studea. Vos missions principales incluront : Développer et maintenir des services backend en micro-services pour le projet de facturation électronique. Participer à la conception et à l’architecture technique des solutions, en privilégiant les bonnes pratiques cloud et API. Collaborer avec l’équipe colocalisée composée de développeurs, d’ops et d’un product owner dans un environnement agile. Contribuer à un projet ambitieux respectant un calendrier exigeant et structurant pour l’ensemble du groupe. Profil recherché Expérience et compétences techniques : Forte appétence pour les architectures micro-services et les technologies associées (API, environnements Cloud, CQRS…). Idéalement, première expérience dans la réalisation et le déploiement de services en micro-services. Technologies à maîtriser : Java Spring Boot Maven Amazon Web Services (AWS) Docker SQL Server API REST Tests unitaires et fonctionnels (BDD) Code Review et Pair Programming Code versioning Intégration continue Atout supplémentaire : Cluster Kubernetes Compétences relationnelles et méthodologiques : Capacité à travailler en équipe colocalisée et à collaborer dans un environnement agile . Autonomie, rigueur et sens de l’organisation pour respecter un calendrier ambitieux.
Freelance

Mission freelance
Développeur JAVA à Lyon

SKILLWISE
Publiée le
Angular
Azure
Gitlab

3 mois
220-550 €
Lyon, Auvergne-Rhône-Alpes
Dans le cadre d’un renfort , nous recherchons un Développeur Java orienté Back-end pour intervenir au sein d’une équipe transverse travaillant sur plusieurs domaines métiers (emprunteur, santé, prévoyance). La mission est prévue pour une durée de 3 mois Vous interviendrez principalement sur le Back-end (environ 80 %) , avec une part plus limitée de Front-end. Vos missions principales : Développer et maintenir des services Back-end en Java 21 / Spring Boot 3 Participer ponctuellement aux développements Front-end en Angular 18 Contribuer à la conception technique et aux échanges avec les leads techniques Travailler dans un environnement API / microservices Participer aux rituels agiles et à l’amélioration continue des pratiques de l’équipe Être rapidement opérationnel(le) pour sécuriser la continuité de service
CDI

Offre d'emploi
Chef de projet poste de travail informatique H/F

GROUPE ARTEMYS
Publiée le
Azure
Gestion de projet
Office 365

42k-50k €
Caen, Normandie
Chef de projet poste de travail informatique H/F (CDI / Freelance) Localisation : Caen Mode de travail : Présentiel Date de démarrage : Dès que possible Durée de mission : 6 mois renouvelable Fourchette de salaire : Entre 42-50k euros annuel brut (selon expertise) Votre mission (si vous l’acceptez) : Nous recrutons dès à présent un Chef de projet Workplace H/F. Dans cette nouvelle étape de votre carrière, nous vous proposons d’intervenir sur de belles missions auprès d’un client grand compte à Caen auprès duquel vous aurez la possibilité de : • Planifier et structurer les projets (planning, jalons, livrables), • Coordonner les équipes métiers, techniques et les parties prenantes, • Piloter les déploiements de solutions collaboratives (Microsoft 365, Teams, OneDrive), • Préparer et conduire les opérations de migration vers des environnements Cloud, • Suivre l’avancement, les risques et la qualité des livrables, • Organiser les comités projet et assurer le reporting, • Accompagner les utilisateurs (communication, formation, support au changement). Le process pour nous rejoindre : simple et clair ! Échange RH : On discute de vos motivations et de l’adéquation avec nos valeurs (promis, pas de robotisation ici). Entretien opérationnel : Un échange approfondi pour clarifier vos missions. Proposition d'embauche : Si tout colle, on vous accueille officiellement chez Artemys !
Freelance

Mission freelance
Développeur Fullstack Java/SpringBoot/NuxtJS (H/F)

Cherry Pick
Publiée le
AWS Cloud
Java
Nuxt.js

6 mois
400-450 €
Lille, Hauts-de-France
Au sein du pôle Retail, nous accompagnons des clients majeurs dans les secteurs de la grande distribution, du luxe et de l’événementiel dans leur programme de transformation digitale. Nous développons et opérons des solutions sur-mesure hébergées sur les principaux fournisseurs cloud publics (AWS, Microsoft Azure, GCP). Intégré(e) à un département regroupant des profils aux compétences variées (SRE, DevOps, SysOps, LeadTech, Architecte), vous participerez à la croissance de nos projets en tant que développeur Fullstack. Vos responsabilités En tant que développeur au sein d’une équipe delivery, vous êtes responsable de la qualité, de la performance et de la sécurité des applications du périmètre concerné. Vos missions principales incluent : Participer au cadrage, à la conception et au chiffrage des solutions Développer dans le respect des exigences de qualité (code review, quality gate, DoD) et de performance Assurer la prise en charge et la résolution des incidents et anomalies de production Intégrer et mettre en œuvre les meilleures pratiques de sécurité tout au long du cycle de développement (SAST, SCA, DAST) Conduire et animer des ateliers internes ou avec les clients (points recettes, ateliers de travail)
5681 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous