Trouvez votre prochaine offre d’emploi ou de mission freelance Web service à Paris
Votre recherche renvoie 149 résultats.
Offre d'emploi
Ingénieur DevOps Senior AWS
VISIAN
Publiée le
AWS Cloud
DevOps
Terraform
1 an
Paris, France
Contribuer à la conception, la sécurisation, l’exploitation et l’amélioration continue de la Landing Zone AWS, avec une priorité forte donnée au maintien en condition opérationnelle et au support des clients internes utilisant la plateforme. Principales responsabilités Assurer le run de la Landing Zone AWS et garantir sa stabilité opérationnelle Prendre en charge le maintien en condition opérationnelle de la plateforme Identifier et mettre en œuvre des optimisations techniques et opérationnelles Participer aux rituels Agile de l’équipe Traiter le backlog Jira et contribuer aux User Stories définies par le PO et le PM Produire et maintenir la documentation d’architecture ainsi que les procédures de run Assurer la communication interne avec les équipes du socle Interagir avec les clients internes , pôles, clusters et autres entités du Groupe Contribuer, selon les besoins, à des sujets de build et d’ automatisation Soft skills Esprit d’analyse Rigueur Autonomie Force de proposition Capacité à communiquer et à partager l’information Bon relationnel avec des interlocuteurs techniques et métiers Livrables attendus Documentation technique de la plateforme Documentation des projets hébergés sur la plateforme Procédures de run Contributions aux sujets d’optimisation et de fiabilisation Éléments liés au projet FinOps le cas échéant
Offre d'emploi
Expert(e) Calypso
Accelite
Publiée le
Architecture
Calypso
CI/CD
1 an
50k-70k €
500-600 €
Paris, France
🎯 Contexte de la mission : Un grand établissement public évoluant dans le secteur financier recherche un(e) Expert(e) Technique Calypso pour renforcer son équipe en charge d’un système stratégique de traitement des opérations de marché . Vous interviendrez dans un environnement international et collaborerez avec plusieurs acteurs européens. 📌 Votre rôle : En tant qu’ Expert(e) Calypso , vous prendrez en charge des travaux de conception, analyse, support technique et intégration autour d’une architecture complexe basée sur le progiciel Calypso v18 . Vos principales missions : Rédaction de spécifications générales et détaillées Animation d’ateliers techniques et coordination avec les équipes internes & partenaires externes Maintenance proactive de l’architecture (performance, suivi des flux, optimisation…) Définition et exécution des tests unitaires Support aux équipes techniques (architectes, développeurs, exploitation…) Support aux équipes métiers (front, middle, back, risques, comptabilité) P ackaging, installation, gestion des environnements Analyse technique des solutions proposées par l’éditeur Contribution aux projets d’ onboarding , d’ automatisation , et de migration vers Calypso v19+ 🛠️ Environnement technique : Calypso 18 Bases de données Oracle 19c , PostgreSQL 14/16 Linux RHEL 8+ SpringBoot VAULT, ELK GitLab, Jenkins, Eclipse, SQL Developer, Sonar XLDeploy, Ansible Connaissance EXDI, MQ, Cloud (Kubernetes)
Mission freelance
DBA Oracle - AWS
STHREE SAS pour COMPUTER FUTURES
Publiée le
AWS Cloud
Oracle
3 mois
Paris, France
Anglais courant requis!! Dans le cadre d’une mission stratégique pour l’un de mes clients internationaux, je recherche un Database Administrator Senior disponible rapidement. Démarrage : 1er avril 2026 Durée : 3 mois Télétravail : Full remote (2 semaines d’intégration sur site, puis full remote) Rythme : Astreintes prévues Environnement international – anglais courant requis Responsabilités Participation aux projets de migration vers AWS Automatisation des environnements et développement de scripts Gestion et optimisation des bases Oracle et SQL en EMEA Mise en place et suivi des outils de monitoring Gestion des clusters, réplications, sauvegardes, plans de reprise Support incident, changement, migration et DRP
Offre d'emploi
DevOps SysOps Infrastructure Cloud
VISIAN
Publiée le
AWS Cloud
CI/CD
Cloud
1 an
Paris, France
Missions Analyser les besoins métier afin de concevoir des solutions cloud adaptées aux exigences spécifiques de l’entreprise. Concevoir des architectures cloud robustes et évolutives, en intégrant les meilleures pratiques en matière de sécurité, performance et coût. Intégrer des mécanismes de sécurité robustes dans l’architecture cloud, en garantissant le respect des normes de sécurité et de conformité du groupe. Mettre en place des stratégies d’optimisation des coûts liés à l’infrastructure cloud, en sélectionnant les ressources appropriées et en appliquant des politiques de gestion des coûts. Assurer la restitution des dossiers d’architecture techniques et accompagner les équipes dans l’implémentation des solutions. Effectuer une veille technologique pour rester informé des évolutions dans le domaine du cloud et recommander des innovations apportant de la valeur à l’entreprise. Collaborer étroitement avec les équipes métiers, projets et DevOps pour garantir que les infrastructures répondent aux besoins business tout en respectant les meilleures pratiques Cloud et les normes de cybersécurité du groupe. Outils & Environnement Cloud : AWS, Azure, GCP Infrastructure as Code : Terraform, Ansible, Packer Conteneurisation et orchestration : Docker, Kubernetes, ECS, EKS, Karpenter CI/CD : Gitlab CI, Github Langages : Python, Java, Php, NodeJS, Bash Sécurité : Okta, Prisma Cloud, Crowdstrike EDR Autres outils : Databricks, Apigee Monitoring & Logging : Splunk, Datadog, fluentd Concepts réseau AWS (VPC, transit gateway, firewall, DNS) Sécurité AWS (SSM, KMS, secret manager, inspector, WAF, IAM) Résilience et redondance des données (S3, EFS, EBS) Types de bases de données AWS Types de déploiement (Blue/Green, Canary, Rolling) Concepts serverless (Lambda, API Gateway, Cloudfront) Approche SecOps et Security by Design (SCP, IAM, tagging, audit) Notions GitOps (Argocd, Kyverno, Helm, Kustomize) Industrialisation des contrôles de sécurité via Terraform, Ansible
Offre d'emploi
Expert Fullstack Python/React - Plateforme - Paris - H/F
EASY PARTNER
Publiée le
AWS Cloud
Docker
Python
80k-100k €
Paris, France
Contexte du poste Entreprise innovante spécialisée dans le développement de solutions digitales à forte valeur ajoutée, elle conçoit et exploite ses propres plateformes technologiques. Dans un contexte de forte croissance et d’évolution de ses produits (notamment via l’intégration de nouvelles technologies), elle renforce ses équipes techniques avec plusieurs recrutements stratégiques. Vous rejoindrez une équipe tech à taille humaine, répartie sur plusieurs sites en France, avec un haut niveau d’exigence technique et une forte culture produit. Missions Principales Participer activement à la conception et à l’évolution d’applications métiers utilisées à grande échelle Développer des fonctionnalités complexes en lien avec des problématiques de performance et de scalabilité Intervenir sur des sujets variés allant de la structuration du code à l’optimisation des systèmes existants Contribuer à l’intégration de nouvelles briques technologiques dans un environnement en constante évolution Annexes Collaborer étroitement avec les équipes produit pour traduire des besoins fonctionnels en solutions techniques Participer aux choix d’architecture et aux réflexions techniques globales Prendre part aux échanges techniques (revues de code, bonnes pratiques, amélioration continue) Accompagner la montée en qualité et en structuration des développements Stack technique Python React SQL Git
Offre d'emploi
Développeur Python/react
VISIAN
Publiée le
AWS Cloud
Django
FastAPI
2 ans
40k-45k €
400-600 €
Paris, France
Bonjour, dans le cadre d'un projet client, Visian est à la recherche d'un développeur Python / react. Les prestations à exécuter sont : - La conception et le développement d'applications neuves pour la gestion du cycle de vie des assets, sur la stack Python / Django / React / AWS - Le développement d'APIs (Django REST Framework ou FastAPI), d'automates et d'ETLs - Le développement d'interfaces utilisateur React (composants, state management, intégration API) - La mise en place et la maintenance de l'infrastructure AWS (Lambda, ECS, S3, RDS, SQS) et de l'IaC Terraform associée - L'écriture de tests à tous les niveaux : unitaires, intégration, end-to-end - La mise en œuvre de pipelines CI/CD (GitHub Actions) - Le maintien en condition opérationnelle des applications produites - La participation au support applicatif auprès des autres équipes et des entités métier Le prestataire est attendu sur une posture senior, ce qui signifie concrètement : - Esprit critique : capacité à challenger les choix techniques, les spécifications, et le code produit — y compris celui généré par l'IA. - Force de proposition : contribuer activement aux décisions d'architecture, proposer des améliorations de process, d'outillage ou de pratiques. - Usage structuré de l'IA générative : utiliser GitHub Copilot et les outils d'IA de manière délibérée et méthodique. Cela inclut : savoir quand l'agent produit du code correct vs. du code plausible-mais-faux, structurer le contexte donné à l'agent, et contribuer à faire progresser les pratiques IA de l'équipe (skills, workflows, retours d'expérience). - Autonomie : être capable de prendre en charge un sujet de bout en bout (cadrage, développement, tests, déploiement, monitoring). - Transmission : partager ses connaissances, documenter ses choix, élever le niveau de l'équipe.
Mission freelance
Senior Python Engineers orientés Data & Distributed Systems
Comet
Publiée le
AWS Cloud
Numpy
Pandas
6 mois
400-650 €
Paris, France
Bonjour à tous, notamment aux Senior Python Engineers orientés Data & Distributed Systems 🐍☁️ (AWS / Spark / Ray / Pandas / Performance) ⚠️ Seniorité de 8 ans minimum 🔎 Je cherche un Senior Software Engineer Python pour rejoindre un programme stratégique au sein d’un grand acteur de la finance quantitative, autour de la valorisation de données financières massives (tick data L3). Dans ce contexte très exigeant, l’objectif est de rendre exploitables des datasets ultra-volumineux pour des chercheurs, en construisant des solutions de feature engineering distribuées tout en conservant une expérience utilisateur simple type pandas. 💻 Ce que tu vas faire : - Traduire des workflows Python/pandas en traitements distribués (Spark, Ray…) - Optimiser des traitements sur des volumes massifs de données (performance, scalabilité) - Concevoir des abstractions simples pour les data scientists (UX orientée chercheurs) - Participer aux choix d’architecture (Spark / Ray / Iceberg…) - Travailler sur des datasets complexes (données temporelles, dépendances, déséquilibres) - Collaborer étroitement avec des équipes ML Platform et des chercheurs quant - Contribuer à une plateforme data scalable et industrialisée sur AWS 🎯 Stack & environnement : Python (expert) / Pandas / NumPy / Spark / Ray / AWS (S3, EMR, SageMaker) / Iceberg / Data Lake / Feature Engineering / HPC (bonus) / Kubernetes (EKS en réflexion) 📍 Mission : Paris 💰 TJM : Selon profil 📅 Démarrage : ASAP
Offre d'emploi
Ingénieur Plateforme Cloud / Disaster Recovery - AWS Certified Solutions Architect – Professional
CELAD
Publiée le
AWS Cloud
Terraform
1 an
70k-85k €
600-700 €
Paris, France
Contexte de la mission Dans le cadre du renforcement de la résilience d’une plateforme cloud stratégique, nous recherchons plusieurs Ingénieurs Plateforme Cloud pour concevoir et déployer une solution de Disaster Recovery de type Warm Pilot sur AWS. Vous interviendrez sur un environnement à forte criticité, avec des exigences élevées en matière de disponibilité, sécurité, automatisation et excellence opérationnelle . L’objectif : construire une capacité de reprise robuste, testable et industrialisée, au cœur de la plateforme. Vos missions Vous serez au centre de la stratégie de continuité d’activité et interviendrez sur des sujets à fort impact : Analyser et challenger l’architecture DR existante (failover, failback, réplication, orchestration) Concevoir et mettre en œuvre une solution Warm Pilot adaptée aux workloads critiques Industrialiser les déploiements via Infrastructure as Code (Terraform / Terragrunt) et GitOps (ArgoCD) Automatiser les mécanismes de reprise (bascule, synchronisation, validation) Définir les procédures opérationnelles (runbooks, tests DR, scénarios de reprise) Identifier les risques techniques : dépendances, points de défaillance, limites opérationnelles Collaborer avec les équipes plateforme, sécurité et applicatives pour garantir la cohérence globale
Offre d'emploi
Data Engineer AWS
KLETA
Publiée le
Amazon Redshift
AWS Cloud
3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Data Engineer AWS pour concevoir, optimiser et industrialiser des plateformes analytiques cloud natives sur AWS. Vous analyserez des architectures existantes, proposerez des trajectoires d’évolution (refonte des pipelines, modernisation vers des traitements serverless, optimisation des modèles analytiques) et guiderez leur mise en œuvre avec des services tels que AWS Glue, Athena, Redshift, S3 et Kinesis. Vous serez responsable de la conception et de la fiabilisation des pipelines d’ingestion et de transformation, de l’amélioration des performances et de l’intégration de mécanismes d’observabilité et de qualité des données. Vous travaillerez main dans la main avec les équipes Cloud et DevOps pour intégrer les traitements dans des pipelines CI/CD robustes et adaptés aux contraintes d’exploitation. Vous aurez également un rôle clé dans la transmission de connaissances, l’animation d’ateliers techniques et l’accompagnement des équipes client sur les meilleures pratiques de data engineering cloud native et d’usage avancé d’AWS. Votre mission combinera expertise technique, rigueur méthodologique et capacité à structurer des solutions scalables et pérennes.
Mission freelance
Expert Cloud Data/IA AWS/GCP (H/F) - Freelance
GROUPE ARTEMYS
Publiée le
1 mois
75010, Paris, Île-de-France
Qui sommes-nous ? Artemys, acteur de la transformation numérique est une entreprise à taille humaine, avec plus de 30 ans d’expérience composée de plusieurs entités, chacune spécialisée dans leur domaine (Système, data, réseaux/sécu…) Ce qui nous distingue vraiment ? Ce n’est pas de dire que nous valorisons nos collaborateurs, c’est de le montrer chaque jour. Chez Artemys, l’humain est au cœur de tout ce que nous faisons. Nos valeurs, concrètes et vécues au quotidien : Convivialité : travailler dans une bonne ambiance, ça change tout Proximité : chaque membre de l’équipe a sa place et sa voix Écoute : vos idées comptent autant que votre travail Agil-IT , située à Isneauville (près de Rouen) est une entité spécialisée en Data, Développement et pilotage de projets IT. Forte de plus de 20 ans d’expertise , elle accompagne les entreprises, principalement implantées en Normandie dans leur transformation digitale. C’est au sein de cette entité, que se développe notre expertise Data. Chiffres clés : 7,8 M€ de CA | 65 consultants en 2025 Une structure à taille humaine où vos compétences et votre savoir être font la différence. Reconnue pour son exigence technique et ses valeurs humaines, elle est aujourd’hui un acteur clé en offrant des prestations d ‘audit , de conseil , de mise en œuvre , de migration , de support et des formations pour diverses clients. Votre mission (si vous l’acceptez) : Projet 1 – Run & évolution plateforme IA générative (AWS) Reprendre en main une plateforme existante Assurer son maintien en conditions opérationnelles (MCO) Contribuer à son amélioration continue Projet 2 – Migration & adoption GCP Définir une architecture cible Cloud GCP Réaliser des POC Industrialiser et accompagner les équipes Missions principales 1. Prise en main & transfert de connaissances Organisation et participation aux ateliers Cartographie documentaire et identification des gaps Validation de l’autonomie technique 2. Run / MCO (AWS) Traitement des incidents, demandes et évolutions Suivi des opérations et documentation Application des pratiques FinOps (optimisation des coûts) 3. Amélioration continue Contribution aux choix techniques Veille technologique proactive (AWS) 4. Conseil & architecture (GCP) Benchmark des solutions Cloud Définition d’architecture cible Construction de la stratégie de migration hybride (On-Prem → GCP) 5. Expérimentation & industrialisation Réalisation de POC Déploiement industrialisé (Terraform, CI/CD, monitoring) 6. Acculturation & formation Création de démonstrateurs Animation d’ateliers de montée en compétences Le terrain de jeu ? AWS (RUN + IA générative) Compute : Lambda, ECS, Fargate IA/Data : SageMaker, OpenSearch, Comprehend, Rekognition Sécurité : IAM, KMS, Secrets Manager Data : S3, Neptune Observabilité : CloudWatch, CloudTrail GCP (BUILD & transformation) Data : BigQuery, Dataflow, Dataproc IA : Vertex AI, AutoML Compute : GKE, Cloud Run, Functions DevOps : Terraform, CI/CD Sécurité : IAM, KMS, Security Command Center Compétences transverses Architecture Cloud hybride (On-Prem / Cloud) Design scalable & sécurisé Industrialisation MLOps / DataOps Infrastructure as Code (Terraform) FinOps Analyse et optimisation des coûts Cloud Pilotage de la consommation (notamment IA) Le profil que nous recherchons : Vous avez 5 à 10 ans d’expérience minimum dans un environnement challengeant Le process pour nous rejoindre : simple et clair ! Échange RH : On discute de vos motivations et de l’adéquation avec nos valeurs (promis, pas de robotisation ici). Échange opérationnel : Je propose votre candidature au référent (Commercial, SDM, coordinateur…) du compte client, qui échange ensuite avec vous afin de valider votre adéquation avec le besoin. Proposition de mission : Si tout colle, on propose votre CV à notre client ! Conditions de rémunération : Statut : Indépendant / Freelance TJM : Entre 500€ et 650€ (Selon votre expertise) 2 jours sur site à Colombes / semaine Démarrage Juin 2026 Mission de 6 mois renouvelable Bienvenue dans l’aventure ARTEMYS Chez nous, chaque talent compte. Peu importe votre âge, vos origines, votre identité, votre religion ou votre orientation : ce qui nous intéresse, c’est vous et ce que vous avez à apporter. On s’engage à répondre à toutes les candidatures. Et ici, l’inclusion n’est pas qu’un mot : tous nos postes sont ouverts aux personnes en situation de handicap, et on fait tout pour créer un environnement où chacun peut s’épanouir. Prêt, feu, candidatez !
Offre d'emploi
Data Engineer
UCASE CONSULTING
Publiée le
AWS Cloud
ETL (Extract-transform-load)
Maintien en condition opérationnelle (MCO)
1 an
40k-50k €
450-550 €
Paris, France
Dans le cadre du renforcement d’une équipe data, nous recherchons pour un de nos clients dans le secteur de la mobilité un Data Engineer pour intervenir sur une mission longue, avec un rôle clé dans le développement et le maintien des pipelines de données. Vous intégrerez un pôle Data Studio & OPS , en charge du développement, de l’exploitation et de la fiabilité des solutions data, dans un environnement orienté production et performance. 🧩 Vos missions Développer et maintenir des pipelines de données (ETL / ELT) Manipuler et transformer des données (SQL / volumétrie importante) Assurer la mise en production et le maintien en conditions opérationnelles (MCO) Gérer le support technique N2 / N3 (incidents, monitoring, résolution) Participer à l’amélioration continue des traitements data Travailler en lien avec les équipes projets et techniques
Offre d'emploi
Architecte Data AWS
KLETA
Publiée le
Amazon Redshift
AWS Cloud
3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Architecte Data AWS pour définir et piloter l’évolution des plateformes de données cloud natives sur Amazon Web Services. Vous analyserez les architectures existantes, identifierez les limites techniques et proposerez des trajectoires cibles adaptées aux enjeux métiers, techniques et opérationnels. Vous guiderez la conception de nouvelles architectures en intégrant des services et technologies AWS tels que S3, Glue, Redshift, Athena, EMR, Kinesis ou des approches lakehouse lorsque pertinent. Vous serez responsable des choix structurants en matière de stockage, de traitement, de gouvernance, de sécurité et de qualité des données, en veillant à la performance, à la scalabilité et à la résilience des plateformes. Vous travaillerez étroitement avec les équipes Data Engineering, Cloud et DevOps pour garantir une mise en œuvre industrialisée, alignée avec les standards d’entreprise et les contraintes d’exploitation. Vous aurez également un rôle clé dans l’animation d’ateliers techniques, la formalisation de patterns d’architecture et l’accompagnement des équipes dans l’adoption des meilleures pratiques data sur AWS.
Mission freelance
Python Software Engineer Senior
Aneo
Publiée le
AWS Cloud
Python
Ray
7 mois
550-700 €
Paris, France
Le projet Le client (finance) utilise AWS depuis quelques années, d’abord sur une stack HPC (librairie permettant de distribuer sur AWS Batch l’exécution d’un DAG), puis avec une stack SageMaker (expérience interactive via l’utilisation de Studio JupyterLab / MLFlow). Ce projet, comme les précédents, prend la forme d’un MAP (Migration Acceleration Program), approche structurée par AWS (Assess - Mobilize - Migrate). La phase Assess a identifié une typologie d’usages (embarassingly parallel map, cross-partition shuffling / window-heavy computation, dataset-level summaries, ML/tensor-preparation, interactive exploration) et 3 technologies-clés : 1) Ray/Daft 2) Spark (via EMR) et 3) Iceberg, comme couche de stockage/accès aux données. La phase de Mobilize doit permettre : ● De valider la capacité de ces outils à adresser les enjeux de feature engineering avec les contraintes ci-dessus exprimées , et une expérience chercheur aussi aisée que possible. ● D’envisager leur exploitation dans un mode “plateforme” / industrialisé ; les aspect self-service, observabilité technique et finops, sont clés. Exprimée aujourd’hui comme un side-topic, l’exploitation unifiée des technologies ci-dessus sur un socle Kubernetes (sur EKS) pourrait devenir un sujet central de la phase Mobilize. Cette phase de mobilize doit durer 7 mois et sera réalisée par une équipe de 3 personnes: Un software engineer (vous), un devOps et un data Engineer. Compétences techniques -> Très bon niveau en python & capacité à expliciter explicites la vision d’ensemble de ses projets, les enjeux, les options techniques et les arbitrages ; -> Avoir travaillé sur des enjeux de traitements distribués & de graph -> Maitrise du cloud AWS (services EMR, S3, Daft serait un plus) et notamment des aspects IAM -> Anglais courant obligatoire Localisation Paris, présence sur site obligatoire à minima 3j/semaine
Offre d'emploi
Expert Data Cloud
ONSPARK
Publiée le
AWS Cloud
Azure
Docker
4 ans
Paris, France
Contexte OnSpark est un cabinet spécialisé dans la GMAO/EAM et l'intégration SI, en forte croissance (40 collaborateurs, CA 3,3 M€). Dans le cadre de la diversification de son offre vers la Data et l'Intelligence Artificielle, nous recherchons un Expert Data Cloud pour accompagner nos clients grands comptes. Vous interviendrez sur des projets de migration et d'exploitation de plateformes data vers le cloud, dans des contextes on-premise en cours de transformation, avec de fortes exigences en matière de sécurité et de conformité. Responsabilités Concevoir et déployer des architectures data sur le cloud Accompagner la migration des workloads data vers le cloud Optimiser les coûts et les performances des environnements cloud Assurer la sécurité et la conformité des données dans le cloud (RGPD, ISO 27001) Collaborer avec les équipes infrastructure, sécurité et data
Offre d'emploi
Développeur Full Stack Angular / NestJS
VISIAN
Publiée le
Angular
AWS Cloud
Azure
1 an
Paris, France
Missions Le prototype devra couvrir 6 fonctionnalités clés, parmi lesquelles : Digitalisation d’un outil Excel cœur métier (chiffrage d’offres) avec : automatisation, amélioration de la maintenabilité (MCO), historisation des données. Fiabilisation des données de comptage : détection automatique d’anomalies, correction, passage de données discrètes à continues. Croisement de référentiels et données existantes (IoT, relevés terrain, performance énergétique) : détection des dérives de performance, harmonisation du portefeuille. Génération automatique de plans de comptage & synoptiques dynamiques : à partir des équipements réels, avec interface de paramétrages pour cas spécifiques. Interface avancée de création de formules métier & performance, orientée utilisateur non technique (notamment pour la production de baselines de prédictions énergétiques). Interrogation des données métier en langage naturel, avec génération de restitutions graphiques exploitables. Le développeur interviendra comme acteur central du prototype, avec une réelle latitude sur : la conception technique front & back (Angular / NestJS – monorepo NX), les choix d’architecture applicative et cloud, la structuration du socle technique en vue d’une industrialisation ultérieure, la priorisation technique quand nécessaire, au service de la valeur métier. Il est attendu qu’il : avance avec peu d’informations initiales, sache aller chercher, structurer et challenger le besoin directement auprès des interlocuteurs métier et techniques, prenne des décisions argumentées et assumées, même hors cadre standard. Outils & Environnement Développement full stack (≥ 3 ans) : Angular NestJS NX / monorepo Maîtrise opérationnelle d’AWS et/ou Azure : capacité à déployer un environnement cloud complet en autonomie. DevOps / DevSecOps : CI/CD, automatisation, bonnes pratiques de sécurité. Traitement, modélisation et exploitation de données IoT. Pratique avancée du vibe coding : orchestration d’agents, accélération du delivery, approche augmentée du développement. Compétences optionnelles mais fortement appréciées : Infrastructure as Code (IaC) sur AWS et Azure via Terraform. Compétences Data sur Azure Fabric : pipelines, lakehouse, modèles sémantiques. Databricks, avec utilisation concrète de notebooks Python. Culture des architectures data modernes et des plateformes orientées événements. Livrables attendus Prototype EMS fonctionnel et démontrable. Socle Angular / NestJS réutilisable et industrialisable. Environnement cloud opérationnel. Pipelines CI/CD. Documentation technique claire. Démos régulières à destination des parties prenantes métier et techniques.
Offre d'emploi
Tech Lead Python- IAGen (H/F)
1G-LINK CONSULTING
Publiée le
AWS Cloud
CI/CD
Kubernetes
12 mois
Paris, France
Contexte : Dans le cadre de l’accélération de ses capacités en IA, notre client renforce son architecture autour de l’ IA générative . Projet avec des enjeux forts autour de : RAG (Retrieval-Augmented Generation) industrialisation de modèles GenAI scalabilité des solutions IA Missions : Piloter les projets de bout en bout (conception → prod) Driver les sprints (organisation, tickets, priorisation) Encadrer et faire monter en compétence les développeurs Définir et porter l’architecture backend IA Contribuer aux développements Python complexes Garantir les bonnes pratiques (code, perf, scalabilité) Compétences techniques Python (expert) IA générative (expérience industrielle obligatoire ) AWS (Lambda, Bedrock, SageMaker…) RAG / LLM / NLP Architecture backend & systèmes scalables
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
149 résultats
Contrats
Lieu
1
1
Paris, France
0 Km
200 Km
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois