Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 1 195 résultats.
Mission freelance
Developpeur Fullstack Drupal/Next.js
Publiée le
AWS Cloud
Drupal
Figma
1 an
450-500 €
Paris, France
Télétravail partiel
Fiche de Poste – Développeur·se Fullstack Next.js / Drupal (H/F) Localisation : Paris (2 jours de télétravail / semaine) Expérience : 5 à 7 ans Type de mission : Longue durée Contexte : Refonte complète d’une plateforme e-commerce Dans le cadre d’un projet stratégique de refonte e-commerce , nous recherchons un(e) Développeur·se Fullstack expérimenté(e) pour intervenir sur la mise en place d’une nouvelle architecture front basée sur Next.js , en interaction avec un back-office reposant notamment sur Drupal et PHP . Le/la consultant(e) interviendra également sur d’autres projets internes, nécessitant une forte capacité d’adaptation et une montée en compétence rapide selon les besoins.
Offre d'emploi
Data Engineer (14)
Publiée le
Google Cloud Platform (GCP)
Python
1 an
40k-45k €
400-570 €
Île-de-France, France
Télétravail partiel
Informations Générales Contexte de la Mission Rattachement Direction Data (Direction du Numérique). Intégration à l'équipe Gold Pilotage (PO + 2 Data Engineers) en charge de la mise à disposition des données pour le pilotage des offres numériques via le produit Data4All. Stack : Python, SQL, dbt, BigQuery, Airflow, Terraform/Terragrunt, services GCP. Activités Attendues Maintenir et faire évoluer Data4All et les dispositifs de l'équipe ; qualité des données et support aux utilisateurs. Concevoir & maintenir des modèles de données et pipelines robustes et scalables ; organiser/structurer le stockage. Mettre en place et maintenir des infrastructures scalables, assurer sécurité/stabilité des environnements, workflows CI/CD. Contribuer à la gouvernance (qualité, fiabilité, intégrité), documentation et veille ; participation aux instances Data Ingénieurs.
Mission freelance
Chef de projet technique Data plateforme - Nantes
Publiée le
Agile Scrum
AWS Cloud
Azure
1 an
400-550 €
Nantes, Pays de la Loire
Tâches : Cadrer les différents travaux à réaliser en apportant un regard externe en mettant en lumière les éléments suivants : Besoins utilisateurs et cas d’usage Identification des données Schéma d’architecture Solutions intermédiaire et cible, chiffrées Exigences relatives à la gouvernance des données et à la conformité (cyber, …) Trajectoire de mise en œuvre • Piloter et coordonner les différents interlocuteurs intervenant dans le projet de mise en œuvre de la plateforme Data, de la phase de conception à la mise en production. • Coordonner les équipes techniques et fonctionnelles (Data Engineers, Data Analysts, Product Owners, Architectes, equipe Data métier et spécialisées…). • Garantir la qualité, la cohérence et la disponibilité des données nécessaires au pilotage e-business. • Définir et suivre le backlog produit Data en lien avec les équipes métier et techniques. • Piloter la réalisation à l’aide des outils internes (Jira Align). Attendu : Accompagner la mise en place d’une plateforme Data au service du pilotage e-business d’une entité spécialisée dans l’accélération digitale et e-business. Vous interviendrez en tant que Chef de projet technique Data, au sein d’une organisation agile et transverse, pour coordonner et piloter la construction, l’intégration et la mise à disposition d’une solution Data.
Mission freelance
Développeur SQL (F/H)
Publiée le
BigQuery
Google Cloud Platform (GCP)
Oracle SQL Developer
6 mois
Lille, Hauts-de-France
Télétravail partiel
Objectif global de la mission : : Construire des rapports / monitorings sur le produit Tour de Contrôle Contrainte forte du projet Connaissances GCP, SQL nécessaire, équipe restreinte, connaissances technico-fonctionnelles à appréhender Le livrable est Développe et construit des schémas / monitorings de qualité de données dans l'entreprise Compétences techniques SQL / Big Query - Confirmé - Impératif Google Cloud Plateform - Confirmé - Impératif Python - Junior - Important Anglais Lu, écrit (Secondaire)
Mission freelance
Tech Lead Fullstack
Publiée le
Azure
12 mois
400 €
Clermont-Ferrand, Auvergne-Rhône-Alpes
Télétravail partiel
Missions principales Piloter techniquement la réalisation des applications front et back (Java/Spring Boot + Angular) Concevoir et faire évoluer l’architecture applicative en cohérence avec les standards du client Encadrer et accompagner les développeurs (revue de code, bonnes pratiques, mentoring) Garantir la qualité du code, la performance et la maintenabilité des solutions Mettre en place et optimiser les pipelines CI/CD sous Gitlab CI Contribuer à la mise en production et à l’industrialisation des déploiements sur Azure et Kubernetes Participer aux phases de conception, estimation de charge et choix techniques avec les équipes projet Assurer une veille technologique et proposer des améliorations continues (outillage, pratiques, sécurité) Stack technique Back-end : Java Spring Boot Front-end : Angular DevOps / CI-CD : Gitlab CI Cloud / Infra : Azure Kubernetes Profil recherché Expérience significative en développement Fullstack Java / Angular Expérience confirmée en tant que Tech Lead ou Référent technique sur des projets similaires Maîtrise de Gitlab CI et des pratiques d’intégration et de déploiement continus Très bonne connaissance des environnements Azure et Kubernetes Capacité à challenger les choix techniques, à sécuriser les décisions et à vulgariser auprès des équipes Bon niveau de communication, capacité à travailler en équipe dans un contexte multi-interlocuteurs Livrables principaux Applications fullstack livrées et maintenues selon les standards de qualité du client Architecture technique et documentation associée Pipelines CI/CD opérationnels et industrialisés Accompagnement des équipes de développement sur les bonnes pratiques
Offre d'emploi
Ingénieur Cybersécurité & Devsecops GenAI (H/F)
Publiée le
Azure
DevSecOps
GenAI
3 ans
Île-de-France, France
Notre client recherche un Ingénieur Cybersécurité & Devsecops GENAI. L'equipe est composée d’une communauté d'experts en charge de la cybersécurité des données utilisées dans le Cloud, IA, BigData, Blockchain… A ce titre une expertise en cybersécurité sur ces domaines, fixe les objectifs stratégiques de maîtrise des risques, mise en place des initiatives des pôles métiers, assure une cohérence générale dans une logique d’optimisation et de mutualisation des moyens. La mission consiste à contribuer à : L'assistance sécurité des centres de compétences en charge de la cyber sécurité autour des sujets Gen-IA La sécurité détaillées relatives à l'implémentation et aux usages des technologies et services des fournisseurs (Microsoft 365, Azure Cognitive Services, Copilot, Fabric, Power Platform, Azure ML) La production de dossiers de sécurité et le support aux développements et opérations mis en place par les Centres de Compétences, en France, ainsi qu'à l'international L'assistance sécurité des projets Gen-IA en assistant les BusinessUnits & ServiceUnits (architecture, normes, standards...) Environnement Agile Environnement anglophone
Offre d'emploi
Lead Consultant Machine Learning Engineering H/F
Publiée le
GitLab CI
Google Cloud Platform (GCP)
Python
12 mois
40k-45k €
600-680 €
Île-de-France, France
Télétravail partiel
En interaction avec les membres de l’équipe, vos missions consisteront à : • Définir l'architecture et la feuille de route technique, en tenant compte des exigences de performance, de scalabilité et de sécurité • Accompagner les membres de l’équipe pour garantir la qualité du code et du modèle • Concevoir, construire et maintenir des pipelines ML robustes et scalables de la collecte des données à l’exposition des modèles via des API Rest • Organiser et structurer le stockage des données • Assurer l’évolutivité, la sécurité, la stabilité des environnements • Mettre en place et maintenir les infrastructures scalables capable de répondre aux besoins et au volume de données • Industrialiser les modèles IA en lien avec les data scientists • Construire et maintenir les workflows de la CI/CD • Collaborer avec les data ingénieurs et les autres équipes techniques pour appliquer les bonnes pratiques en vigueur • Contribuer et veiller à la mise à jour de la documentation • Faire de la veille technologique active dans le domaine • Participer activement aux différentes phases de cadrage, de planification et de réalisation des tâches avec l’équipe
Offre d'emploi
Data Engineer (21)
Publiée le
Google Cloud Platform (GCP)
Python
1 an
40k-45k €
400-660 €
Île-de-France, France
Télétravail partiel
Descriptif du poste La Direction Technique du Numérique d'une grande entreprise de médias mène des projets transverses en étroite collaboration avec les autres directions, notamment la direction Data. La Direction Data, au sein de la Direction du Numérique, a été créée avec la volonté de faire de la Data un levier de croissance des offres numériques. La Direction Data a 3 grandes activités : maximiser la collecte de données tout en respectant les réglementations en vigueur, développer la connaissance et l'expérience utilisateurs et mettre à disposition auprès des équipes internes des outils de pilotage et d'aide à la décision. Au sein de l'équipe Bronze, la prestation se déroulera en collaboration avec les autres équipes de la Data, au coeur de la plateforme Data. Cette équipe est composée d'un product owner, d'un data steward et de deux autres data ingénieurs. Notre stack technique est principalement constitué de Python, Spark, SQL pour les traitements de données, Airflow pour l'orchestration et Cloud Storage et Delta lake pour le stockage. La stack inclut aussi les services BigQuery, Dataproc, PubSub et Cloud Storage de la Google Cloud Platform et Terraform et Terragrunt pour la gestion de l'infrastructure. Prestations attendues Prestation de cette équipe Collecter et centraliser les différentes sources de données non homogènes Assurer la conformité et la sécurité des données Participer aux initiatives de gouvernance des données Prestation en data engineering En interaction avec les membres de l'équipe, la prestation consiste à : Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l'équipe Construire et maintenir de pipelines data robustes et scalables Accompagner les membres de l'équipe dans l'exploitation et le requêtage des données Organiser et structurer le stockage des données Mettre en place et maintenir des infrastructures scalables capable de répondre aux besoins et à l'accroissement rapide du volume de données Construire et maintenir les workflows de la CI/CD Partager avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur Assurer l'évolutivité, la sécurité, la stabilité des environnements Participer aux différentes instances de data engineering Contribuer et veiller à la mise à jour de la documentation Faire de la veille technologique active dans le domaine
Offre d'emploi
Production Engineer sénior- OPS
Publiée le
AWS Cloud
18 mois
40k-45k €
100-500 €
Lille, Hauts-de-France
Télétravail partiel
CONTEXTE Nous recherchons un OPS sénior (5 ans d'XP minimum) pour renforcer l'équipe s'occupant de l'exploitation de l'asset PIV. Au sein d'une équipe Ops/Support , vous intégrerez une équipe composée de : 3 OPS ,1 Lead Tech OPS, DM ,2 Supports MISSIONS: - d'assurer l'exploitation des applications - de répondre aux demandes d'installation des livrables fournit par notre CDS - d'aider au diagnostic lors d'incidents ou de debug - En parallèle, il participera et travaillera en partenariat avec le PO technique sur le rebuild/refactoring afin de répondre à des enjeux de scalabilité et d'optimisation des coûts de l'architecture. - d'assurer les astreintes PIV & SIDH La mission nécessite un réel investissement tant le projet est vaste et pluriel dans sa partie technique. Il y a beaucoup à apprendre et on sort souvent de sa zone de confort pour répondre efficacement aux exigences des clients. Garant de la bonne application des processus de production en transverse : évolutions et créations des stacks techniques • Garant de la cohérence de bout en bout des différents environnements • Organisation et pilotage de la gestion des événements impactant la production • Porte une vision auprès du domaine sur le RUN et facilite la priorisation de sujets d'amélioration • Accompagnement des équipes sur le delivery/recette, analyse des anomalies et facilitateur sur la communication inter-domaine au sein du domaine • Pilotage les incidents majeurs • Accompagne la réalisation de ces sujets ou les porte opérationnellement en fonction des besoins
Offre d'emploi
Développeur Fullstack Python & React / AWS
Publiée le
Apache Maven
AWS Cloud
CI/CD
45k-55k €
Île-de-France, France
Télétravail partiel
Secteur d'activité : Energie Mission(s) : Dévelopement et maintenance d'un portail web et d'une plateforme web regroupant plusieurs sites. Attendu(s) : Développements de nouvelles fonctionnalités backend Python et front ReactJS, la mise en place de maintenance corrective et la migration des services On premise vers des solutions Cloud AWS ainsi que des déploiements. Collaboration avec les Product Owners et intervention sur les développements en s’appuyant sur les besoins Métiers. Profil (s) : Developpeur Fullstack Python/ReactJS/AWS Méthodologie : agile Scrum Télétravail : 60%
Offre d'emploi
Data Engineer
Publiée le
BigQuery
Docker
Domain Driven Design (DDD)
1 an
10k-60k €
100-550 €
France
Télétravail partiel
Construire des pipelines de données : Automatiser l’extraction, la transformation et le chargement (ETL/ELT) des données pour les rendre exploitables. Gérer les infrastructures data : Mettre en place et optimiser les environnements techniques (bases de données, cloud, outils de traitement). Garantir la qualité des données : Nettoyer, valider et monitorer les données pour assurer leur fiabilité et leur cohérence. Collaborer avec les équipes métiers et techniques : Comprendre les besoins, fournir des données prêtes à l’emploi et faciliter leur utilisation. Sécuriser et gouverner les données : Protéger les données sensibles et s’assurer de leur conformité aux réglementations (RGPD, etc.). Innover et optimiser : Veiller aux nouvelles technologies et améliorer en continu les processus data
Offre d'emploi
Expert Big Data / Data Engineer Senior (H/F)
Publiée le
AWS Cloud
Big Data
Google Cloud Platform (GCP)
6 mois
80k-85k €
500-550 €
Guyancourt, Île-de-France
Télétravail partiel
VOS RESPONSABILITES PRINCIPALES : Build – Modernisation & migrations Data Participer au design et à la construction de nouvelles plateformes Data (on-prem Cloudera / Spark / Kafka & cloud AWS/GCP). Configurer, optimiser et sécuriser les environnements Big Data (Spark tuning, Kafka connecteurs…). Travailler avec les architectes et les CloudOps sur les architectures distribuées. Mettre en place des bonnes pratiques : backup, restauration, performance, haute dispo, PCA/PRA . Intégrer pipelines & automatisations (Terraform, GitOps, ArgoCD). Animer ateliers, documentation et transfert de compétences. Run – Support N2/N3 & performance Résolution d’incidents techniques Big Data (HDFS, Spark, Kafka, Flink…). Support aux projets : création de topics Kafka, scheduling Airflow, jobs Spark, optimisation. Montée de version, patching, maintenance préventive. Participation aux astreintes (rotation). Amélioration continue & fiabilisation des environnements critiques. Application stricte du cadre ITIL V4 (incidents / problèmes / demandes).
Mission freelance
Network Architect - Azure & Security H/F
Publiée le
Azure
WAN (Wide Area Network)
1 an
400-690 €
Paris, France
Télétravail partiel
Définir l’architecture cible SD-WAN (design haut niveau & détaillé). Piloter le déploiement et la migration des sites vers la nouvelle plateforme SD-WAN. Intégrer la solution SD-WAN avec les environnements Azure (ExpressRoute, Virtual WAN, Firewall, routing). Concevoir les politiques de sécurité réseau associées (segmentation, firewalling, ZTNA, VPN). Réaliser les architectures techniques, documents de design, patterns et standards réseau. Assurer le support d’expertise niveau 3 sur le périmètre réseau & sécurité. Collaborer avec les équipes infra, cloud, sécurité, opérateurs et partenaires. Accompagner les phases de tests, validation, transition et exploitation.
Mission freelance
Tech Lead WebView / Cross-Platform
Publiée le
Angular
AWS Cloud
Azure
12 mois
400-570 €
Paris, France
Télétravail partiel
Objectif : Prendre le leadership technique sur la stack WebView – composant critique reliant Web & Mobile – et piloter les sujets hybrides au sein de l’équipe Cross-Platform Core. Le départ d’un expert interne nécessite l’arrivée d’un consultant senior capable de : comprendre en profondeur les interactions Web ↔ Mobile piloter la stratégie WebView (performances, sécurité, évolutions) soutenir les équipes Web, Mobile et Produit dans leurs intégrations hybrides Responsabilités principales 1. Tech Leadership WebView Être la référence interne sur WebView (iOS / Android). Définir les bonnes pratiques d’intégration, les bridges, les guidelines de performance. Faire évoluer la stack WebView selon les usages Produit et Mobile. 2. Développement & Architecture Contribuer aussi bien sur le Web (TypeScript) que sur le Mobile natif (Swift / Kotlin). Concevoir des architectures robustes multi-environnements. Résoudre des sujets critiques : performance, sécurité, stabilité, compatibilité. 3. Rôle transverse Travailler étroitement avec Web, Mobile, Backend, Produit. Faciliter la montée en compétence via mentoring, documentation, ateliers. Participer aux décisions techniques cross-platform.
Mission freelance
Senior Data Engineer Optimisation et stabilisation d’une pipeline PySpark (Forecast ML)
Publiée le
Amazon Elastic Compute Cloud (EC2)
Amazon S3
AWS Cloud
1 mois
750 €
Paris, France
Télétravail partiel
Profil : Senior Data Engineer · Contexte de la mission : L’équipe Supply Zone Forecast (SZF) développe et maintient les modèles de prévision de la demande et des ventes pour l’ensemble des produits Décathlon, par centre d’approvisionnement continental. Aujourd’hui, notre pipeline est en production sur l’Europe, la Chine et l’Inde, et notre ambition pour 2026 est d’étendre la couverture à LATAM et MEA. Dans ce cadre, nous recherchons un Data Engineer Senior expérimenté sur PySpark et l’optimisation de pipelines. Notre Stack Data : AWS (S3, ECR, EKS); Databricks; Airflow; Pyspark; Python Et Github. La mission portera principalement sur la reprise, l’optimisation et la refonte partielle du module de “refining”, hérité d’une autre équipe . Ce module présente aujourd’hui plusieurs limites : lenteur d'exécution (compute), manque de gouvernance, faible modularité, documentation incomplète et difficulté à évoluer ou à scaler à l’échelle mondiale. Le contexte inclut également plusieurs dettes techniques autour de la stabilité, de la qualité du code et du renforcement des tests (unitaires et fonctionnels) La mission se déroulera sur site à Paris , au sein du pôle data Digital Principales responsabilités Refonte et optimisation du module “Refining” : Auditer le code existant, identifier les goulots de performance et axes d’amélioration. Revoir la structure du code pour renforcer la modularité, la lisibilité et la maintenabilité. Mettre en place une documentation claire et partagée (technique + fonctionnelle). Optimiser le traitement PySpark (logique de partitionnement, cache, broadcast, etc.). Proposer une approche flexible pour l’ajout de nouvelles features. Renforcement de la robustesse et de la qualité : Implémenter ou renforcer les tests unitaires et fonctionnels. Améliorer la stabilité globale de la pipeline ML de forecast. Participer à la mise en place de bonnes pratiques d’ingénierie logicielle (CI/CD, gouvernance du code, monitoring). Collaboration et transfert de compétences : Travailler étroitement avec les Data Scientists et lMachine Learning Engineers de l’équipe SZF. Assurer un transfert de connaissances clair et structuré à l’équipe interne. Contribuer à la montée en compétence collective sur PySpark et la scalabilité de pipelines ML. Livrables attendus : Module “refining” refactoré, documenté et testé Rapports d’audit et plan d’optimisation validés Documentation technique centralisée Pipeline stable et industrialisable à l’échelle mondiale
Offre d'emploi
Platform Reliability Engineer Bilingue sur le 78
Publiée le
Azure
Datadog
Kubernetes
3 mois
Yvelines, France
Je recherche pour un de mes clients un Platform Reliability Engineer sur le 78 Mission: La mission proposée s’inscrit dans une approche SRE et DevOps. À ce titre, vous intégrez l’équipe Plateforme et vous contribuez à garantir la fiabilité, l’exploitabilité et la qualité des microservices de notre écosystème applicatif. Vous réalisez ou participez aux tâches suivantes : • Vous êtes responsable de l’intégration et de l’exploitation opérationnelle des applications de la plateforme. • Vous vérifiez la conformité des livraisons avec nos standards (conventions de nommage, qualité des logs, documentation, monitoring). • Vous relisez et améliorez la documentation de chaque release. • Vous définissez et suivez des indicateurs de fiabilité (SLI/SLO) et des error budgets, en lien avec les équipes de développement. • Vous configurez et maintenez dans Datadog les dashboards, règles d’alerting et runbooks, en veillant à améliorer en continu l’observabilité. • Vous corrélez logs, traces et métriques pour diagnostiquer en profondeur les applications .NET, PHP, JavaScript (Datadog APM/Logs/RUM). • Vous mettez en place et améliorez les mécanismes d’automatisation de l’exploitation : configuration d’autoscaling, définition de health probes, mise en œuvre de politiques de redémarrage automatique et de procédures de bascule (failover). • Vous facilitez des post-mortems constructifs après incidents, documentez les enseignements et pilotez les actions correctives techniques ou organisationnelles. • Vous mettez à jour et améliorez les pipelines de déploiement dans Azure DevOps. • Vous maintenez et faites évoluer les Helm charts utilisés pour le déploiement sur Kubernetes (AKS). • Vous intégrez SonarQube dans les processus de livraison pour renforcer les contrôles de qualité de code. • Vous collaborez avec les tech leads, développeurs et QA pour intégrer les tests automatisés dans les workflows CI/CD et renforcer la résilience des services. • Vous assurez le support de niveau 3 sur les services de la plateforme et contribuez aux analyses post-incident. Connaissances techniques • Maîtrise de la mise en œuvre de pipelines Azure DevOps (YAML, templates). • Expérience avec Kubernetes (AKS) et gestion des déploiements via Helm charts. • Pratique de Datadog (APM, Logs, RUM, dashboards, alerting, runbooks). • Connaissance de SonarQube et de son intégration dans la CI/CD. • Bonnes notions de Windows Servers et environnements hybrides. • Compréhension des principes SRE (SLI/SLO, error budgets, observabilité, postmortems). • Connaissances en développement C#, PHP ou JavaScript appréciées. • Familiarité avec Octopus Deploy est un atout. • Anglais courant indispensable. Démarrage : ASAP Mission: Longue
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Traitement fiscal des cotisations sociales payées en 2025 sur CA micro-BNC 2024
- La Société de portage avec qui j'ai signé m'impose la soltion MAY
- Utiliser Qonto pour créer la microentreprise
- Compte dédié micro-entreprise
- Service de comptabilité en ligne fiable et réactif pour une succursale de SASU
- Offre propulse IT
1195 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois