Trouvez votre prochaine offre d’emploi ou de mission freelance Amazon S3 à Paris
Votre recherche renvoie 31 résultats.
Mission freelance
Consultant en modélisation de risques LGD S3 (H/F)
NOVAMINDS
Publiée le
Analyse
8 mois
400-700 €
Paris, France
Objectif de la mission Dans le cadre d’un nouveau programme notre client spécialisé dans le leasing souhaite refondre ses modèles de LGD stage 3 avec étude de l'intégration d'éléments forward looking. Prestations demandées La prestation consiste à assister l'équipe de modélisation dans la refonte de modèles LGD S3 IFRS9. Il s'agira de : - Analyser les données disponibles dans les différents systèmes d'information et en contrôler la qualité (fiabilité, disponibilité en production) ; - Construire et documenter les bases de modélisation en veillant à modulariser les programmes : périmètres, calcul de la LGD observée, extraction des prédicteurs ; - Construire les modèles de LGD S3 en suivant les guidelines groupe et en consultant les experts risque / risques locaux ; - Appliquer les tests de performance des modèles développés dans le respect des normes en usage ; - Elaborer les documentations statistiques, opérationnelles et les expressions de besoin pour l’implémentation des modèles en production ; - Assurer la recette de l'implémentation IT du modèle ; - Contribuer à l’amélioration des outils et procédures en identifiant des dysfonctionnements et en étant force de proposition de nouvelles solutions ;
Mission freelance
Ingénieur Cloud Senior
Celexio
Publiée le
Amazon S3
Apache Airflow
API
3 mois
400-550 €
Paris, France
Bonjour à tous, Nous recherchons pour le compte d'un de nos clients un Ingénieur Cloud Senior Missions : Concevoir, construire et maintenir des pipelines de données de niveau production qui alimentent les indicateurs et modèles Industrialiser les prototypes de recherche en systèmes de production fiables et évolutifs. Construire et maintenir des services backend exposant des indicateurs et des produits de données. Assumer la responsabilité du cycle de vie des systèmes que vous construisez, y compris l'infrastructure, le déploiement et la surveillance, en collaboration avec les Ingénieurs Ops. Exploiter et maintenir les pipelines et les services en production, y compris le débogage, la résolution d'incidents et les améliorations de performances. Participer à la migration de GCP vers AWS et contribuer au démantèlement progressif des anciens pipelines et de l'infrastructure.
Mission freelance
Ingénieur Cloud Data plateforme
Cherry Pick
Publiée le
Amazon S3
AWS Cloud
Data Lake
12 mois
500-550 €
Paris, France
Pour un client du domaine de l'énergie, vous intégrerez la squad Data & Analytics Platform . Dans un environnement technologique en mutation rapide, cette équipe est responsable de la conception, de la construction et du support de la plateforme de données utilisée à l'échelle mondiale par l'ensemble des entités du groupe. Le poste est basé à Paris (75002) avec un rythme de travail hybride (3 jours de présence sur site impératifs). Missions : En tant que membre clé de la squad, vos activités principales se concentrent sur l'automatisation, la sécurité et la fiabilité de l'écosystème Data : Infrastructure as Code (IaC) : Développement, mise à jour et maintenance du code Terraform (environnements AWS et Azure) en respectant les standards de sécurité et de conformité internes. Automatisation CI/CD : Conception et maintenance des chaînes de déploiement automatisées via GitHub Actions pour garantir des mises en production fluides et sécurisées. Administration de Data Lake : Exploitation et optimisation du stockage (Amazon S3), gestion des cycles de vie des données (Lifecycle policies) et pilotage de la performance/coûts (FinOps). Sécurité et Gouvernance : Mise en œuvre des politiques d'accès (IAM), gestion de la configuration réseau (VPC, NSG, ACLs) et respect des réglementations sur l'exploitation de la donnée. Développement de Services : Création et maintenance de micro-services et d'APIs (REST, Event-driven) en Python. Support et Documentation : Rédaction et enrichissement de la documentation technique à destination des utilisateurs finaux et monitoring de la plateforme (supervision).
Mission freelance
Architecte Entreprise SI (Secteur Industrie / Energie)
Atlas Connect
Publiée le
Amazon S3
Apache Kafka
API
12 mois
750-800 €
Paris, France
Notre client acteur majeur de l’agro-industrie, conduit une transformation SI d’envergure autour de la modernisation et de l’interopérabilité de son système d’information : Migration vers le cloud public Azure Mise en place d’une Data Platform Open Source (OpenShift, Kubernetes, Kafka, S3, etc.) Déploiement d’une plateforme d’interopérabilité (iPaaS) pour fluidifier les échanges inter-BU Modernisation de SAP et rationalisation des briques techniques Introduction d’un outil d’EAM (type LeanIX) pour la gouvernance du SI Le SI du groupe est complexe, hétérogène et distribué , avec des interactions entre environnements industriels, applicatifs et cloud, dans un contexte international et multi-BU . 🎯 Objectif du poste L’Architecte d’Entreprise interviendra en appui transversal des projets et participera à la structuration de la gouvernance d’architecture . Il combinera vision stratégique (urbanisation, standards, cartographie) et accompagnement opérationnel des projets IT. Missions principales 1. Accompagnement des projets IT (≈ 70%) Accompagner les équipes projets dans leurs choix d’architecture et de solutions. Garantir l’alignement avec les standards et la cohérence globale du SI. Soutenir la formalisation des besoins métiers et leur traduction en orientations techniques. Documenter les choix d’architecture dans un cadre structuré et partageable. 2. Cartographie du SI (≈ 30%) Élaborer et maintenir les cartographies du SI : métiers, applicatives, techniques et infrastructure. Mettre à disposition des représentations claires et synthétiques pour la prise de décision et la gouvernance SI . 3. Normes et Standards Définir et maintenir les principes directeurs et standards d’architecture . Garantir la cohérence, la sécurité et la maintenabilité du SI dans le temps. ⚙️ Environnement technique & organisationnel Cloud : Azure (IaaS, PaaS, intégration applicative) Data Platform : OpenShift, Kubernetes, Kafka, S3… Interopérabilité : plateforme iPaaS en cours de déploiement ERP : SAP (modernisation en cours) EAM : LeanIX (ou équivalent) Contexte : international, multi-pays, multi-langues, multi-BU 🧩 Compétences attenduesTechniques Maîtrise de l’ architecture d’entreprise et d’application (TOGAF, ArchiMate, LeanIX…) Bonne connaissance des écosystèmes Cloud Azure et environnements hybrides Capacité à formaliser des cartographies SI et modèles d’architecture Maîtrise des modèles d’intégration et d’interopérabilité (API, ESB, iPaaS, etc.) Comportementales Esprit d’analyse, de synthèse et de leadership Diplomatie et capacité à challenger sans bloquer Excellente communication orale et écrite Autonomie, rigueur et orientation résultats Profil recherché Expérience : 10+ ans en architecture d’entreprise ou applicative Expérience confirmée en environnements multi-filiales / multi-BU Connaissance des grands groupes industriels, agroalimentaires ou énergétiques appréciée Langues : français courant, anglais professionnel Mobilité : déplacements ponctuels à Bruz (banlieue de Rennes)
Mission freelance
Ingénieur Logiciel Senior (Fullstack .NET / PHP)
Nicholson SAS
Publiée le
.NET
Amazon S3
AWS Cloud
6 mois
500 €
Paris, France
Mon client, filiale d'un groupe international, est un leader mondial dans le déploiement de l'IA et des technologies avancées pour le secteur juridique. Vous rejoindrez notre équipe technique française, actuellement engagée dans un ambitieux programme de convergence technologique , visant à unifier nos solutions sous une architecture .NET moderne pour soutenir nos innovations en IA. En tant qu'Ingénieur Logiciel Senior, vous jouerez un rôle pivot dans la rationalisation de nos plateformes. Nous recherchons un profil hybride capable de maintenir nos systèmes PHP actuels tout en pilotant leur migration progressive vers une stack .NET . Ce poste est idéal pour un expert doté d'une double culture logicielle, souhaitant mettre son expérience PHP au profit d'une transformation d'architecture majeure vers le C# / .NET au sein d'un environnement Fullstack. Responsabilités Transition Technologique : Piloter la migration des composants et services historiques de la stack PHP (Symfony/Laravel) vers l'écosystème .NET / C# afin d'unifier nos environnements de production. Développement Fullstack : Concevoir des architectures robustes et scalables en veillant à la cohérence entre les anciens services et les nouvelles interfaces .NET. Qualité & Architecture : Garantir la pérennité du code (revues, tests unitaires/intégration) et participer activement à la définition des nouveaux standards techniques avec les architectes. Collaboration Agile : Évoluer au sein d'une squad SCRUM/KANBAN pour livrer des fonctionnalités en cycle continu (CI/CD). Mentorat : Accompagner l'équipe dans la montée en compétence sur l'univers .NET durant cette phase de transition. Prendre en considération une option d'une internalisation en CDI au bout de 6 mois de prestation. Si schéma d'internalisation non souhaité pour vous, merci de ne pas postuler !
Offre d'emploi
Expert·e/ Architecte Backup
Blue Soft
Publiée le
50k-70k €
Paris, France
Pour le compte de l'un de nos clients grands comptes, vous serez rattaché·e à la direction de BSCI : Vos missions principales seront : - Support & Gestion des backups - Support & Gestion du SAN - Administration / supervision / optimisation / reporting - Validation des paliers techniques et des processus opérationnels - Relation et communication avec les métiers, élaboration et propositions d'architectures - Audit et conseils - Gestion des projets Vos environnements technique seront : - Tous les environnements de sauvegarde recherchés : CommVault, TSM (Spectrum Protect), Netbackup, Networker, Veeam, Rubrik... - DatdaDomain, VTL, Stockage S3 - OS : AIX, Linux, Solaris, Windows - Virtualisation Système : VMWare, Nutanix, HyperV
Offre d'emploi
Expert DevOPS / Openshift
Etixway
Publiée le
Ansible
Argo CD
Helm
2 ans
55k-70k €
500-600 €
Paris, France
Maintien en condition opérationnelle (MCO / run) les applications legacy et sur les applications Déploiement de la stack de monitoring prometheus, Grafana... Automatisation des déploiements et de la maintenance des applications legacy via Ansible. Rédaction des rôles Ansible transverses pour la gestion de AWX, Keycloak, S3 et France Transfert Intégration des playbooks dans AWX en mode GitOps et en utilisant le rôle AWX Ordonnancement des playbooks avec Rundeck dans le cadre du remplacement de VTOM Participation aux projets DevSecOps (DSO) Développement des scripts Terraform pour le provisionning le l’infra (intégration, qualification et production) en utilisant des modules existants Installation des clusters RKE2 avec Ansible Déploiement d’Argo CD et du driver CSI-Cinder avec Ansible.
Offre d'emploi
🔎 Data Engineer – Python / Spark / Databricks / AWS
Hexateam
Publiée le
AWS Cloud
Python
Spark Streaming
1 an
Paris, France
Mission : Data Engineer Confirmé – Python / Spark / Databricks / AWS Dans le cadre de l’évolution d’une plateforme Data centralisée, nous recherchons un Data Ingénieur confirmé pour intervenir sur le développement et l’optimisation de pipelines de données dans un environnement Big Data et Cloud AWS. Stack technique : Python • Spark • Databricks • SQL AWS (S3, Airflow, Glue, CloudWatch) Git • CI/CD • Agile / Scrum ✅ Profil recherché : Expérience confirmée en Data Engineering Bonne maîtrise de Spark / Databricks Expérience Cloud AWS
Mission freelance
Expert Devops Gitlab-CI
PROPULSE IT
Publiée le
DevOps
GitLab CI
24 mois
375-750 €
Paris, France
Propulse iT recherche un Expert Devops Gitlab-CI - Réaliser et modifier différents rôles et Playbooks Ansible - Réaliser et modifier différents modules Terraform - Réaliser et modifier différents jobs et pipelines Gitlab-CI - Assurer le support N3 de la chaine CI/CD Les compétences techniques attendues sont les suivantes : - Maitrise de Git, de l'outil Gitlab-CI et de la mise en place de Runners - Maitrise des technologies et méthodologies basées sur le principe du gitops - Maitrise des technologies et méthodologies basées sur le principe d'infra as Code - Maitrise d'ansible / terraform - Maitrise de la programmation en python - Maitrise de l'outil Hashicorp Vault - Maitrise des technologies API REST - Connaissance des technologies : o Vmware Vsphere o Nutanix o Baremétal o Kubernetes o NSX o Solution de load Balancing - BigIP-F5 - NSX advanced Load Balancer o Stockage object (S3, minio) Les compétences fonctionnelles attendues sont les suivantes (par ordre de priorité) : - Expérience sur des projets menés en agile - Forte expérience de travail en équipe et d'animation d'ateliers techniques - Expérience de rédaction de documentations et de production de reportings
Mission freelance
Expert technique DEVOPS Senior
PROPULSE IT
Publiée le
DevOps
24 mois
325-650 €
Paris, France
PROPULSE IT recherche un expert technique devops Senior dasn le cadre de projets de conteneurisation On premise et IAC Configuration des clusters Openshift et des services associés (ex : Sauvegarde/Surveillance) Garantir le bon fonctionnement des workloads Applicatifs et effectuer le troubleshooting en cas d'incident/dysfonctionnement. Réaliser et modifier différents jobs et pipelines Gitlab-CI Les compétences techniques attendues sont les suivantes : - Maitrise de kubernetes (Openshift) o Déploiement des clusters en mode « airgap » o Troubleshooting des défaillances o Technologie CSI o Déploiement des workload (helm chart / yaml) o Exposition des Services/Ingress/routes Layer4 & 7 - Maitrise de Git, de l'outil Gitlab-CI et de la mise en place de Runners - Maitrise de technologies et méthodologies basées sur le principe du gitops - Maitrise de la mise en place d'outillage de scan au build et au runtime des images de conteneur - Maitrise de l'outil de construction des images de conteneur kaniko - Maitrise de l'outil Hashicorp Vault - Connaissance des technologies : o Vmware Vsphere o Baremétal o NSX o Solution de load Balancing - BigIP-F5 - NSX advanced Load Balancer o Stockage object (S3, minio) - Connaissance d'ansible / terraform - Maitrise des outils de déploiement continue KUBERNETES (ArgoCd) Les compétences fonctionnelles attendues sont les suivantes (par ordre de priorité) : - Expérience sur des projets menés en agile - Forte expérience de travail en équipe et d'animation d'ateliers techniques - Expérience de rédaction de documentations et de production de reportings
Mission freelance
Data engineer Snowflake / DBT
PARTECK INGENIERIE
Publiée le
AWS Cloud
Cloud
DBT
12 mois
400-550 €
75000, Paris, Île-de-France
Data Engineer (H/F) – Environnement Data Platform / Big Data Mission : Au sein d’une équipe Data Platform, vous intervenez sur la conception, l’industrialisation et l’exploitation de solutions data à grande échelle, dans un contexte international. Responsabilités : Conception et développement de pipelines de données (collecte, transformation, valorisation) Analyse de données complexes en collaboration avec les équipes Data Maintenance et évolution d’une plateforme data de type Lakehouse Choix des technologies de stockage et de traitement adaptées Mise en place de bonnes pratiques (code, architecture, data) Veille technologique et amélioration continue des outils et pratiques Profil recherché : Minimum 5 ans d’expérience en Data Engineering / Big Data Solide culture technique et capacité à évoluer dans des environnements complexes Bonne compréhension des enjeux métiers et capacité à vulgariser Compétences techniques : Python, SQL Outils Big Data : DBT, ETL, solutions de stockage (S3, Snowflake, MongoDB ou équivalent) Environnement Cloud (AWS idéalement, Azure ou GCP) DevOps : Docker, CI/CD, environnement Unix Connaissance des architectures data et idéalement Infrastructure as Code Langues : Anglais professionnel requis
Offre d'emploi
Architecte Data AWS
KLETA
Publiée le
Amazon Redshift
AWS Cloud
3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Architecte Data AWS pour définir et piloter l’évolution des plateformes de données cloud natives sur Amazon Web Services. Vous analyserez les architectures existantes, identifierez les limites techniques et proposerez des trajectoires cibles adaptées aux enjeux métiers, techniques et opérationnels. Vous guiderez la conception de nouvelles architectures en intégrant des services et technologies AWS tels que S3, Glue, Redshift, Athena, EMR, Kinesis ou des approches lakehouse lorsque pertinent. Vous serez responsable des choix structurants en matière de stockage, de traitement, de gouvernance, de sécurité et de qualité des données, en veillant à la performance, à la scalabilité et à la résilience des plateformes. Vous travaillerez étroitement avec les équipes Data Engineering, Cloud et DevOps pour garantir une mise en œuvre industrialisée, alignée avec les standards d’entreprise et les contraintes d’exploitation. Vous aurez également un rôle clé dans l’animation d’ateliers techniques, la formalisation de patterns d’architecture et l’accompagnement des équipes dans l’adoption des meilleures pratiques data sur AWS.
Mission freelance
Python Software Engineer Senior
Aneo
Publiée le
AWS Cloud
Python
Ray
7 mois
550-700 €
Paris, France
Le projet Le client (finance) utilise AWS depuis quelques années, d’abord sur une stack HPC (librairie permettant de distribuer sur AWS Batch l’exécution d’un DAG), puis avec une stack SageMaker (expérience interactive via l’utilisation de Studio JupyterLab / MLFlow). Ce projet, comme les précédents, prend la forme d’un MAP (Migration Acceleration Program), approche structurée par AWS (Assess - Mobilize - Migrate). La phase Assess a identifié une typologie d’usages (embarassingly parallel map, cross-partition shuffling / window-heavy computation, dataset-level summaries, ML/tensor-preparation, interactive exploration) et 3 technologies-clés : 1) Ray/Daft 2) Spark (via EMR) et 3) Iceberg, comme couche de stockage/accès aux données. La phase de Mobilize doit permettre : ● De valider la capacité de ces outils à adresser les enjeux de feature engineering avec les contraintes ci-dessus exprimées , et une expérience chercheur aussi aisée que possible. ● D’envisager leur exploitation dans un mode “plateforme” / industrialisé ; les aspect self-service, observabilité technique et finops, sont clés. Exprimée aujourd’hui comme un side-topic, l’exploitation unifiée des technologies ci-dessus sur un socle Kubernetes (sur EKS) pourrait devenir un sujet central de la phase Mobilize. Cette phase de mobilize doit durer 7 mois et sera réalisée par une équipe de 3 personnes: Un software engineer (vous), un devOps et un data Engineer. Compétences techniques -> Très bon niveau en python & capacité à expliciter explicites la vision d’ensemble de ses projets, les enjeux, les options techniques et les arbitrages ; -> Avoir travaillé sur des enjeux de traitements distribués & de graph -> Maitrise du cloud AWS (services EMR, S3, Daft serait un plus) et notamment des aspects IAM -> Anglais courant obligatoire Localisation Paris, présence sur site obligatoire à minima 3j/semaine
Offre d'emploi
Data Engineer AWS
KLETA
Publiée le
Amazon Redshift
AWS Cloud
3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Data Engineer AWS pour concevoir, optimiser et industrialiser des plateformes analytiques cloud natives sur AWS. Vous analyserez des architectures existantes, proposerez des trajectoires d’évolution (refonte des pipelines, modernisation vers des traitements serverless, optimisation des modèles analytiques) et guiderez leur mise en œuvre avec des services tels que AWS Glue, Athena, Redshift, S3 et Kinesis. Vous serez responsable de la conception et de la fiabilisation des pipelines d’ingestion et de transformation, de l’amélioration des performances et de l’intégration de mécanismes d’observabilité et de qualité des données. Vous travaillerez main dans la main avec les équipes Cloud et DevOps pour intégrer les traitements dans des pipelines CI/CD robustes et adaptés aux contraintes d’exploitation. Vous aurez également un rôle clé dans la transmission de connaissances, l’animation d’ateliers techniques et l’accompagnement des équipes client sur les meilleures pratiques de data engineering cloud native et d’usage avancé d’AWS. Votre mission combinera expertise technique, rigueur méthodologique et capacité à structurer des solutions scalables et pérennes.
Mission freelance
Platform Engineer — Disaster Recovery AWS (remote)
CONCRETIO SERVICES
Publiée le
AWS Cloud
IAC
IAM
6 mois
Paris, France
MISSIONS PRINCIPALES Review & Challenge de l'Architecture DR Analyser et challenger l'architecture Warm Pilot existante : robustesse, faisabilité, angles morts, SPOFs non-évidents Identifier les dépendances cachées entre services AWS non visibles dans les schémas Évaluer les choix de services AWS DR (Route 53 failover, Aurora Global Database, RDS cross-region, S3 Cross-Region Replication, EKS multi-cluster) et proposer des alternatives argumentées Défendre les recommandations en arbitrant entre coût, délai et complexité opérationnelle Implémentation IaC & GitOps Implémenter en Terragrunt : configurations multi-comptes, multi-régions, modules DRY, orchestration des dépendances entre stacks Configurer ArgoCD pour les environnements DR : ApplicationSets multi-cluster, stratégies de sync, gestion des secrets Mettre en place les pipelines GitLab CI/CD pour la validation IaC et les tests automatisés Garantir la cohérence GitOps end-to-end : aucun changement d'infrastructure hors du pipeline Résilience, Réplication & Failover Implémenter les mécanismes de réplication selon les services (synchrone/asynchrone) : données, configurations, secrets Concevoir et implémenter les procédures de failover et de failback orchestrées Définir et implémenter les critères de déclenchement du basculement (health checks, alerting, seuils) Assurer la cohérence des RPO/RTO par application avec les équipes applicatives Sécurité Cross-Region & Conformité IAM cross-account, KMS cross-region, VPC peering / Transit Gateway dans le contexte DR Garantir la conformité des données répliquées : souveraineté, chiffrement, audit trail Collaborer avec les équipes sécurité sur les contraintes spécifiques au contexte DR Testabilité & Documentation Automatiser les tests de DR : scénarios de failover répétables et non-destructifs, validation des RTO/RPO atteints Chaos engineering basique pour valider la résilience en conditions contrôlées Runbooks de failover/failback exploitables par des équipes ops à 3h du matin en conditions de stress Architecture Decision Records (ADR) documentant les choix techniques et leurs justifications
Mission freelance
Prestation Front-end VueJs – IA (3-7 ans d'exp)
Codezys
Publiée le
Git
Gitlab
Jest
12 mois
450-500 €
Paris, France
Contexte de la mission Un test technique sera requis pour les candidats shortlistés. La prestation, rattachée au département IT, se déroulera au sein d’une équipe multidisciplinaire (développeurs frontend Vue.js, Ruby, Python en data science, QA). L’équipe développe des plateformes de gestion de patrimoine pour plus de 1300 conseillers, en collaboration avec les équipes produit, UX/UI, data science et experts métier. Méthodologie Agile Scrum (sprints de 2 semaines) avec processus CI/CD en amélioration continue. Le groupe financier recourt à trois prestations de développement front-end pour son extension. Objectifs et livrables Développer et maintenir des applications frontend Vue.js 2 et 3 en production. Intervenir sur des projets variés (legacy Vue.js 2, greenfield Vue.js 3) avec approche pragmatique. Concevoir et implémenter des interfaces utilisateur modulaires, performantes et accessibles. Intégrer des interfaces de chatbots et assistants IA utilisant des LLMs. Consommer et intégrer des APIs REST backend. Assurer la qualité du code via des tests et revues. Optimiser performances frontend et expérience utilisateur. Participer aux décisions techniques et challenger les spécifications si nécessaire. Assumer la responsabilité des features déployées ("you build it, you run it"). Contribuer à l'amélioration continue des pratiques de développement. Conditions techniques de la prestation Stack technique : Langages : JavaScript/TypeScript, HTML5, CSS3 Frameworks : Vue.js (2 & 3) Build tools : Vite Gestion d’état : Vuex CSS/UI : Tailwind CSS APIs REST (Ruby on Rails) Intégration IA : chatbots, assistants utilisateur, APIs LLM (Gemini, Claude) DevOps & Infrastructure : Versioning : Git/GitLab CI/CD : GitLab CI, Jenkins Cloud : Heroku, AWS (S3), OVH Conteneurisation : Docker, K8S Monitoring & Qualité : Monitoring : New Relic, Splunk, Gatus, Raygun Qualité : SonarCloud, Lighthouse Tests : Jest, Vitest, Cypress Outils collaboratifs & Méthodologie : Jira, Confluence, Slack, Figma Methodologies : Agile (Scrum/Kanban), GitLab Flow, Code reviews, Clean Code Résultats attendus / Livrables Code & documentation : Code versionné sur GitLab, respectant conventions Vue.js, tests unitaires et E2E, documentation technique. Features & intégrations : Déploiement en production de features fonctionnelles, interfaces IA opérationnelles, gestion proactive des incidents, suivi Jira. Participation active aux code reviews et rituels agiles.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
31 résultats
Contrats
Lieu
1
1
Paris, France
0 Km
200 Km
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois