Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 1 698 résultats.
Freelance

Mission freelance
Data Engineer AWS / GenAI

Cherry Pick
Publiée le
Amazon S3
Apache Airflow
Apache Spark

12 mois
450-550 €
Paris, France
Dans le cadre du plan de transformation DATA de notre Client, notre client développe des applications et plateformes DATA pour rendre nos métiers (pilotage, marketing, commerce, etc.) autonomes dans l’analyse de leurs données et KPI. Les infrastructures et projets incluent : AWS, GitLab, Terraform, DBT, Snowflake, Python, Scala, Spark, PowerBI, AI/GenAI Architectures Big Data sophistiquées pour ingérer plus de 100 par jour (Datalake, Event-Driven, Streaming, etc.) Exemples de projets : Chatbot AI Socle vidéo, navigation et calcul des audiences Recommandation de programmes via IA Feature Store et modernisation des flux financiers Plateformes CRM et partage de données partenaires Kubernetes et applications de data self-service Missions En tant que Data Engineer , vous serez en charge de : Concevoir, développer et maintenir des pipelines de données scalables et performants (ingestion, traitement et stockage de données massives). Développer des architectures Big Data sur AWS (S3, EMR, Lambda, Kinesis, Batch…), Snowflake et Spark. Développer en Scala et Python pour le traitement massif des données. Automatiser les workflows et orchestrer les pipelines avec Airflow et DBT . Concevoir et exposer des APIs customer-facing performantes. Optimiser les performances et garantir la scalabilité pour gérer un volume important d’utilisateurs. Collaborer avec les équipes Data Science, Produit et DevOps pour une intégration fluide.
CDI

Offre d'emploi
Scrum Master DevOps (H/F)

SMARTPOINT
Publiée le
Ansible
AWS Cloud
Docker

12 mois
40k-45k €
400-550 €
Île-de-France, France
Contexte Dans un environnement agile et fortement orienté DevOps, le Scrum Master DevOps accompagne une ou plusieurs équipes techniques dans l’adoption et l’amélioration continue des pratiques Agile (Scrum) et DevOps , afin d’optimiser la livraison de valeur, la qualité et la performance opérationnelle. Missions principales Animer les cérémonies Agile : Sprint planning, daily, review, rétrospective Accompagner l’équipe dans l’application du cadre Scrum et des pratiques DevOps Lever les obstacles (impediments) impactant la performance de l’équipe Favoriser la collaboration entre Développement, Ops, QA et Sécurité Accompagner la mise en place et l’amélioration des pipelines CI/CD Promouvoir l’automatisation, l’industrialisation et la culture DevOps Suivre et améliorer les indicateurs de performance (vélocité, lead time, incidents, disponibilité) Travailler en étroite collaboration avec le Product Owner et les équipes techniques
Freelance

Mission freelance
Data Platform Engineer

Phaidon London- Glocomms
Publiée le
Apache Spark
AWS Cloud
CI/CD

6 mois
400-550 €
Paris, France
Support Technique et Expérience Développeur Assurer un support quotidien aux ingénieurs et data scientists. Identifier et contribuer à la gestion de la dette technique ; fournir des outils d'automatisation et de test. Collaborer avec les équipes plateforme pour optimiser l'expérience développeur globale. Adoption de la plateforme et bonnes pratiques Promouvoir l'utilisation efficace des outils et fonctionnalités de la plateforme. Se tenir informé(e) des tendances du secteur et des technologies cloud/données pertinentes. Développement des compétences et animation de la communauté Évaluer les compétences de l'équipe et dispenser des formations ciblées. Animer une communauté de pratique pour présenter les améliorations et partager les bonnes pratiques. Produire de la documentation technique et des supports de formation. Retours d'information et évolution de la plateforme Recueillir les retours des utilisateurs et contribuer à l'amélioration du produit. Valider les livrables d'ingénierie de la plateforme par des tests alignés sur des cas d'utilisation réels. Défendre les intérêts des ingénieurs et des data scientists en interne.
CDI

Offre d'emploi
Ingénieur DevOps (CDI uniquement)

KOUKA
Publiée le
AWS Cloud
CI/CD
Kubernetes

40k-60k €
Paris, France
· Concevoir, maintenir et optimiser les pipelines GitLab CI/CD . · Automatiser les déploiements sur différents environnements (Dev, QA, Prod). · Intégrer des outils de supervision, de test et de sécurité dans la chaîne CI/CD. · Participer à la définition et à la mise en œuvre d’une infrastructure as code (Terraform, Ansible…). · · Contribuer à l’amélioration des pratiques DevOps et à la mise en place d’une culture d’automatisation. · Assurer une assistance aux Feature teams et support en cas d'escalade sur un incident lié aux outils & plateformes transverses.
Freelance

Mission freelance
DevOps CIAM / Gigya, AWS, IAM, CI/CD, Terraform/CloudFormation, Python, JavaScript, API REST

Inventiv IT
Publiée le
API REST
AWS Cloud
AWS CloudFormation

6 mois
480-580 €
Île-de-France, France
Le DevOps CIAM / Gigya, AWS, IAM, CI/CD, Terraform/CloudFormation, Python, JavaScript, API REST est orienté implémentation, exploitation et RUN de la plateforme. Responsabilités principales : Intégrer les applications B2B/B2C à Gigya (OIDC / OAuth2 / SAML) Mettre en œuvre et exploiter les parcours login, registration et SSO Appliquer les mécanismes de sécurité (MFA, OTP, Captcha, gestion des tokens) Assurer le RUN , la supervision et le support opérationnel Automatiser les déploiements et les tâches RUN via les pratiques DevOps
CDI

Offre d'emploi
ING CLOUD AWS SYSOPS

CyberTee
Publiée le
AWS Cloud

40k-45k €
Paris, France
Missions : Assurer l’administration et le maintien en conditions opérationnelles des environnements AWS. Déployer et automatiser les infrastructures cloud via Terraform et Ansible. Participer à la containerisation et orchestration avec Docker et Kubernetes. Garantir la sécurité, la performance et la fiabilité des services cloud Proposer des solutions innovantes et assurer la veille technologique sur les outils cloud. Profil recherché : AWS SysOps avec certification AWS Architecte Associate Minimum 3 ans d’expérience sur AWS Maîtrise de Terraform et Ansible, compétences sur Docker et Kubernetes Autonomie, sens de l’analyse et capacité à proposer des solutions optimisées
Freelance

Mission freelance
Administrateur VTOM

HAYS France
Publiée le
Apache
AWS Cloud
Linux

6 mois
400-450 €
Paris, France
La maîtrise de VTOM est indispensable : c’est la compétence clé de ce poste. Le consultant aura pour mission d’assurer le bon fonctionnement, la fiabilité et l’optimisation de toutes les chaînes d’ordonnancement. Il jouera un rôle central dans la coordination des traitements métiers, la maintenance des plateformes et l'accompagnement des équipes projets. Responsabilités principales Administrer et maintenir les serveurs VTOM Vous garantissez la stabilité, la performance et la disponibilité de l’outil. Configurer, optimiser et superviser les jobs VTOM Paramétrage des tâches Suivi des exécutions Correction des anomalies Développer et maintenir des scripts (Shell, Python, etc.) Ces scripts seront utilisés pour automatiser et orchestrer les traitements. Encapsuler les scripts métiers dans VTOM Vous transformez les besoins fonctionnels en jobs techniques fiables. Assurer la MCO des chaînes d’ordonnancement Analyse proactive Résolution d’incidents Optimisation continue Préparer et valider les mises en production Notamment via la télédistribution. Accompagner les équipes métiers et projets Vous les conseillez dans la rédaction de leurs plans d’ordonnancement et dans l’intégration optimale de leurs applications. Participer aux choix d’architecture technique Dans des environnements hybrides : datacenter, AWS, Azure. Contribuer à la documentation technique et au reporting Rédaction ou mise à jour des procédures Reporting mensuel d’activité Respect strict des règles de sécurité Environnement technique Systèmes : Unix (AIX / Solaris), Linux (Red Hat, Suse, Ubuntu…), Windows Cloud : AWS, Azure Bases de données : Oracle, SQL Server, PostgreSQL, Ingres Solaris, MongoDB, Redis, Couchbase Middleware : Apache, Tomcat, Weblogic, MQ, Tuxedo, CFT Outils DevOps : Ansible, Jenkins, Terraform, Docker, Kubernetes Supervision : Nagios, Datadog, Splunk
Freelance
CDI
CDD

Offre d'emploi
Ingénieur DevOps/SRE

bdevit
Publiée le
AWS Cloud
CI/CD
Dynatrace

36 mois
Île-de-France, France
Contexte : Intégré(e) à une équipe Plateforme / Production / Cloud, vous contribuez à la fiabilisation, l’industrialisation et l’automatisation des plateformes applicatives (on-premise et cloud), dans une logique DevOps & SRE . L’objectif est de garantir la disponibilité des services bancaires tout en améliorant continuellement la résilience, la performance et l’observabilité des systèmes. Missions Principales : - Maintien en conditions opérationnelles des plateformes critiques et des clusters Kubernetes on-premise (OpenShift) et managés (AKS / EKS / GKE) ; - Administration, optimisation et gestion de la haute disponibilité, scalabilité et capacity planning des environnements Kubernetes ; - Gestion des incidents majeurs, analyses RCA et suivi des SLA / SLO / SLI ; - Industrialisation et automatisation des déploiements via CI/CD ; - Mise en œuvre de l’Infrastructure as Code ( Terraform, Ansible, Helm ) ; - Mise en place et optimisation du monitoring et de l’observabilité ( Prometheus, Grafana, Dynatrace, ELK ) ; - Sécurisation des environnements (RBAC, Network Policies, gestion des secrets) ; - Contribution aux exigences et standards de sécurité & conformité bancaire.
Freelance

Mission freelance
Développeur java react aws

Cherry Pick
Publiée le
AWS Cloud
IA
Java

12 mois
500-550 €
Paris, France
Tâches principales : • Se positionner comme un coach des équipes tech en place en apportant une expertise en GenAI • Permettre la montée en compétence des équipes DSI en intégrant des outils d’IA (Copilot, Claude Code) pour accélérer le développement et la documentation • Développer et maintenir des applications performantes (Java/Spring Boot, Angular/React, Node.js, etc.) en intégrant des assistants IA (Copilot, Claude Code) • Automatiser les tâches répétitives (tests, CI/CD, monitoring) pour gagner en productivité • Travailler sur des architectures modernes : APIs, Cloud PaaS/IaaS (AWS, Terraform) • Garantir la qualité et la sécurité des développements en s’assurant que les projets pilotes respectent les bonnes pratiques technologiques et de sécurité de l’environnement SI • Collaborer étroitement avec les équipes produit, design et architecture • Coacher des équipes qui créent des solutions en utilisant l’IA comme assistant de la conception technique au monitoring en production.
Freelance

Mission freelance
Expert DevOps Cloud IA/HPC/AWS

Cherry Pick
Publiée le
AWS Cloud
Docker
Gitlab

12 mois
750-800 €
Paris, France
Notre client recherche un expert DevOps cloud qui sera intégré à une équipe ML Platform de haut niveau (chercheurs et ML Engineers) au sein d'un acteur majeur de la finance. L'objectif est de gérer la puissance de calcul ( GPU/FLOPs ) et d'industrialiser les environnements de recherche. Missions : Ingénierie du Compute & GPU Orchestrer et optimiser la puissance de calcul ( FLOPs ) mise à disposition des chercheurs. Gérer les défis liés à la stack IA sous Docker : optimisation d'images lourdes (plusieurs Go), réduction du Cold Start et configuration avancée des drivers GPU/NVIDIA. Collaborer avec les équipes SRE et Cloud transverses pour la consommation des ressources (environnement avec VPC managé). 2. Architecture Cloud Hybride & FinOps Piloter les outils d'interface permettant de basculer les calculs vers le Cloud public ( AWS ) pour gérer les pics de charge. Instaurer une culture FinOps : monitoring précis de la consommation GPU et optimisation des ressources pour garantir un ROI maximal. 3. Gouvernance et Sécurisation de la donnée Concevoir un circuit de validation automatisé pour l'export sécurisé de données propriétaires. Développer des CI/CD sécurisées capables d'analyser les dépôts de code et de gérer finement les droits d'exposition des données. Créer des environnements "Sandbox" (POC) agiles pour les besoins externes tout en maintenant l'étanchéité des assets critiques. 4. Leadership & Cadrage Technique Apporter une structure "Ops" aux travaux de recherche tout en respectant la flexibilité nécessaire aux chercheurs. Prendre du recul technique pour traiter le legacy et industrialiser les processus.
Freelance
CDI

Offre d'emploi
EXPERT Snowflake

EMMA-IT
Publiée le
AWS Cloud
Google Cloud Platform (GCP)
Snowflake

1 an
Île-de-France, France
Bonjour, Nous recherchons un Lead Data Platform EXPERT Snowflake, pour intervenir chez l’un de nos clients « grand compte » DESCRIPTIF DE LA MISSION ; •Accompagner les équipes métiers dans leurs travaux d’identification et expression de leurs besoins en données et d'indicateurs décisionnels, •Capacité à concevoir des solutions innovantes et fiables nécessitant l’utilisation de technologies dites "Modern DataOps" et IA agentique pour répondre aux nouveaux cas d’usages métiers exprimés et à gérer les projets Data de bout en bout, •Piloter l'équipe de Data Engineers pour assurer la mise en oeuvre •Développer, tester, optimiser et gouverner les flux de traitement et d’ingestion de données au sein de notre Data Platform, •Avoir la capacité de créer rapidement de nouveaux Datamarts de zéro s'appuyant sur notre socle de données existant pour des usages spécifiques, •Contribuer à la mise à disposition et au partage de la donnée au travers d’outils et de processus d'export simples, rapides à mettre en œuvre et monitorables, •Déployer et optimiser au quotidien des pipelines de données (On Premise ou dans le Cloud), •Assurer la stabilité et la gouvernance technique de la plateforme Data, des applications déployées et de certaines de nos plateformes SaaS de données attenantes. Environnement technique utilisé: Snowflake, dbt Core, Linux, Cloud AWS (AWS EC2, AWS S3, AWS Serverless), Cloud CGP (Big Query, GA4), SQL, Python, Airflow, Docker, Terraform, Git, Gitlab & Gitlab CI VOUS JUSTIFIEZ DE ; · Vous êtes titulaire d’un Bac +5 en informatique, avec au minimum 7 ans d'expérience professionnelle · Vous avez de 3 à 5 ans d'expérience sur la plateforme SaaS Snowflake · Vous êtes à l'aise avec le Cloud public AWS et GCP, ses principaux services et ses méthodes de déploiements · Vous possédez des compétences avancées autour des langages et technologies suivants : SQL, Python, Airflow, Prefect, Linux, Docker, Snowflake Cortex et Snowflake Intelligence · Vous connaissez au moins un framework de développement de Web Services REST (Django, Flask, FastAPI pour Python ou éventuellement Express pour NodeJS) et l'outil Postman n'a pas de secrets pour vous · Vous connaissez bien les outils de visualisation de données (Tableau Cloud ou PowerBI) · Vous avez une bonne maîtrise de l’optimisation des déploiements et des processus d'intégration/déploiements continus (CI/CD) via des technologies du marché (comme Docker, Gitlab CI, Jenkins ou équivalent) · Vous détenez des connaissances autour des processus de gestion de la configuration et d'Infrastructure as Code (Terraform, Pulumi, Cloud Formation ou CDK AWS) et des outils d’orchestration de flux de données (comme Airflow ou Prefect) · Vous êtes à l'aise avec les outils de type agents CLI (Claude Code, Codex CLI ou OpenCode) et leur méthodologie de spécifications associée pour développer et déployer des applications autour de la data pilotées en autonomie par l'IA. · Vous connaissez bien les outils Jira et Confluence LES PLUS ; · Toute connaissance du business Retail/Fashion est un plus · Toute connaissance ou compétence sur la mise en place de projets IA agentiques de type RAG ou "Text to SQL" est un plus · Toute connaissance des outils/plateformes BW/4HANA, SAP Analytics Cloud ou PowerBI est un plus · Toute connaissance des outils d'observabilité (comme Sifflet) ou d'agrégation de données de campagnes media (Supermetrics) est un plus · Toute connaissance du déploiement et de l'orchestration de containers avec Kubernetes est un plus Si cette mission correspond à vos attentes et que votre profil correspond à ce besoin, N’hésitez pas à nous adresser votre date de disponibilité, votre CV au format Word et vos prétentions financières par ce biais. Dans l’attente d’un futur échange et d’une future collaboration, L’équipe EMMA-IT.
Freelance

Mission freelance
Développeur Full Stack Node.js / React / AWS Freelance - Paris (F/H)

Webnet
Publiée le
React

6 mois
500-530 €
Paris, France
Dans le cadre d’un projet chez l’un de nos clients grands comptes, nous sommes à la recherche d’un Développeur Node/React/AWS . Intégré(e) à une squad agile, vous interviendrez sur le développement de nouveaux modules applicatifs et leurs évolutions, dans un cadre 100 % serverless. Vos missions : Concevoir, développer et maintenir des APIs serverless (AWS Lambda + API Gateway) Développer des interfaces utilisateur performantes avec React Gérer les bases de données DynamoDB et MongoDB Participer aux cérémonies agiles (sprints de 2 semaines, daily, review…) Collaborer avec les PO, architectes, DevOps et testeurs pour livrer une solution robuste et scalable Environnement : Backend : Node.js + AWS Lambda (API Gateway, S3, CloudWatch…) Frontend : React Base de données : DynamoDB, MongoDB Méthodologie : Agile Scrum (sprints de 2 semaines) Équipe : une dizaine de développeurs full stack, testeurs QA, PO, DevOps, architectes, responsable d’équipe
Freelance

Mission freelance
Data Platform Engineer

Cherry Pick
Publiée le
AWS Cloud
Python

12 mois
600-650 €
Paris, France
Objectifs Votre mission est de responsabiliser et de faire monter en compétence notre communauté de plus de 50 data engineers et data scientists. Agissant comme le lien essentiel entre les feature teams et les ingénieurs de la plateforme, vous serez le garant de l’adoption et de l’évolution de notre plateforme data en fournissant un support technique opérationnel, en partageant les bonnes pratiques et en animant des initiatives de partage de connaissances. Grâce à un engagement proactif, un support direct et une collecte continue de feedback, vous favoriserez un environnement collaboratif, innovant et à fort impact — garantissant que notre plateforme s’adapte en permanence et délivre une valeur maximale à ses utilisateurs. Missions principales 1. Support technique : Accompagner les data engineers et data scientists dans leurs problématiques techniques en fournissant des solutions opérationnelles, des conseils, des bonnes pratiques et un support via des interactions directes au sein de leurs équipes. S’assurer que la dette technique est identifiée, comprise et gérée via des plans d’actions, et participer aux tâches sous-jacentes. Fournir des outils pour aider à gérer cette dette (tests, automatisation, agents IA, …). Collaborer avec les équipes data platform et support afin de garantir que les problèmes au sein des pipelines data et de la plateforme data sont identifiés et résolus, améliorant ainsi l’expérience développeur globale. 2. Évangélisation : Promouvoir l’adoption de la plateforme data par une utilisation quotidienne, en démontrant sa valeur auprès des utilisateurs existants. Partager avec la communauté de pratique et les équipes internes les tendances du marché, outils et technologies liés aux plateformes data. 3. Montée en compétences des équipes : Évaluer le niveau actuel des équipes sur les outils et pratiques de la Data Platform et l’améliorer via des formations, des exercices et la résolution de problématiques réelles. Promouvoir et animer une communauté de pratique afin de construire des parcours de formation d’amélioration, des ateliers internes et des webinaires mettant en valeur les capacités de notre Data Platform. Créer du contenu technique tel que des articles de blog, tutoriels, projets exemples et documentation afin d’aider les développeurs à comprendre et utiliser efficacement notre plateforme. 4. Boucle de feedback : Collecter activement les retours de la communauté des développeurs afin de fournir des analyses et suggestions d’amélioration produit aux équipes d’ingénierie de la plateforme. Fournir des tests pertinents pour les actifs techniques produits par les ingénieurs de la Data Platform et s’assurer qu’ils correspondent aux usages actuels des feature teams. Représenter les data engineers et data scientists au sein de l’entreprise, en veillant à ce que leurs besoins et défis soient compris et pris en compte. Qualifications / Compétences requises Maîtrise du développement Python et de la conception d’applications scalables et de haute qualité. Expérience avec des frameworks de traitement de données tels que Pandas ou Spark. Expérience pratique dans le développement et la maintenance de pipelines data de bout en bout. Expertise approfondie sur AWS, complétée par des certifications ou une expérience équivalente. Expérience des frameworks d’Infrastructure as Code (idéalement AWS CDK en Python). Connaissance des pratiques DevOps et des pipelines CI/CD afin d’améliorer les processus de déploiement. Excellentes compétences en communication et en présentation, capables d’expliquer des concepts techniques complexes à des publics variés. Forte appétence pour l’animation de communautés de développeurs et la création d’un impact positif. Bon niveau d’anglais, la documentation étant rédigée en anglais et une partie des utilisateurs de la Data Platform ne parlant pas français. Atouts supplémentaires : Expérience en développement produit agile et en méthodologie Scrum. Expérience de migration de pipelines data vers le cloud. Compréhension des bonnes pratiques de sécurité et de conformité dans des environnements cloud. Environnement technologique : AWS : S3, EMR, Glue, Athena, Lake Formation, Cloud Formation, CDK, Lambda, Fargate, … Data engineering : Airflow, Parquet, Apache Iceberg DevOps : Jenkins, SonarQube, Conda Logiciels : Python, Ruff
Freelance

Mission freelance
245552/Développeur Java/Angular - Expérimenté- Montauban (3 jours TT)

WorldWide People
Publiée le
Angular
Java

3 mois
300 €
Montauban, Occitanie
Développeur Java/Angular - Expérimenté - Montauban Concepteur/Développeur expérimenté sur les technologies suivantes : Java => 5-8 ans d'expérience minimum Angular => 3 ans d'expérience minimum Expérience en contexte agile (Scrum ou SAFe) Il est attendu une RÉELLE expérience de conception/développement sur les deux technologies. Les profils ou il est indiqué Fullstack sans que le consultant ait conçu/développé sur la technologie ne seront pas retenu. La mission nécessite deux jours de présentiel par semaine (mardi et jeudi) à Montauban. Objectifs et livrables Conception, Développement Tests Compétences Niveau de compétence JAVA Expert ANGULAR Confirmé AGILE Confirmé
Freelance

Mission freelance
[FBO] Ingénieur Cloud AWS / GCP - Guyancourt - 1201

ISUPPLIER
Publiée le

5 mois
300-545 €
Guyancourt, Île-de-France
La mission de support et d'expertise se déroulera principalement sur le site avec 2 jours de télétravail/semaine. Assurer le support technique niveau 3 des infrastructures Cloud AWS et GCP ; Réaliser les demandes de change en production ; Réaliser les demandes de demande de droit ; Réaliser et ou mettre à jour les documentations des opérations de RUN ; Réaliser les corrections des vulnérabilités en production ; Réaliser les corrections de l’obsolescence en production ; Suivre l’activité avec les équipes internationales de RUN ; Réaliser la montée en compétence des équipes international de RUN ; La maitrise de l’anglais oral et écrit est nécessaire, aussi amenés à rédiger des dossiers en anglais à destination des équipes France et Internationale. En tant qu’Ingénieur RUN, les missions principales seront de : Assurer le support niveau 3 ; Établir l’analyse et le diagnostic sur les incidents et les éradiquer ; Rédiger ou participer à la rédaction des dossiers de process support, post mortem générale et/ou détaillée ; L'expertise attendue : • Expertise et expérience significative sur Terraform. • Expertise sur le Cloud AWS et GCP. • Maitrise des outils de déploiement automatisés • Pipeline CI CD (gitlab-ci, ansible, AWX, jenkins etc.), language python • Connaissance sur les technologies kubernetes
Freelance

Mission freelance
Développeur Java AWS H/F

ODHCOM - FREELANCEREPUBLIK
Publiée le
AWS Cloud
Java
Kotlin

6 mois
400-500 €
Paris, France
Contexte L'entité a besoin d’un développeur expérimenté venant compléter l’équipe agile. Cette équipe conçoit et développe en itérations de 2 semaines sa solution, elle pilote sa mise en service et assure sa disponibilité opérationnelle pour ses clients. Cette solution prend la forme d'un composant logiciel, développé sur un socle Java moderne (Java 21, Kotlin, Spring Boot, JPA / Hibernate), exposé au travers de web services ou d'une librairie intégrée par nos clients sur linux ou android. Aucun composante front n'est à prévoir, une spécialité back est attendue. Description Dans un contexte d'équipe agile (et d'applications à fort trafic), le développeur Backend conçoit, développe, déploie et maintient les fonctionnalités afin de répondre aux exigences fonctionnelles exprimées dans le cadre de la conception de solutions ou d'applications Livrables • Développer des solutions backend de qualité : étude, conception et réalisation des projets de build, en collaboration avec l’équipe • Mise en place de tests automatisés (TU et TI) • Dans le cadre des principes devops, gestion de l’usine logicielle, de l’observabilité, de la livraison et du run des solutions • Analyse et corrections d’incidents • Evolutions techniques • Participation active aux instances de l’équipe et à la vie de l’équipe, dans un cadre agile, attitude volontaire et proactive • Au sein d’un écosystème de projets variés, être force de proposition et au cœur de l’amélioration continue
1698 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous