Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.

Mission freelance
Lead dev (js/go/python)
Lead développeur senior avec forte appétence DevOps Dans le cadre du développement et du maintien des solutions mise à disposition des développeurs du groupe, l’équipe Delivery Experience recherche un lead développeur. L’usine logicielle est utilisée par plus de 3000 développeurs. L’équipe est composée de plus de 10 personnes, profils tech, développeurs ou experts techniques. Nous recherchons un profil ayant l'habitude de mettre en place des toolchains hautement critiques pour les développeurs et en mesure de développer les intégrations nécessaires à base d'API : - mise en place golden stack : Go, Python, Java ... - enforcement de workflow de build Une astreinte rémunérée est également demandée pour assurer le support 24/7 de l’équipe. Activités autour de la Delivery Experience : - Développement et maintien des produits de la Delivery Experience (Software Delivery Toolchain) - Collaboration en sous groupes au sein de l’équipe - Agilité de développement - Support aux développeurs de niveau 1 - Capacité à s’adapter
Offre d'emploi
Developpeur Python/GCP (CDI)
Nous recherchons une personne avec une expérience réussie de 5+ ans en développement Python et conception logicielle, ainsi qu’une expérience d’implémentation de solutions AI. Vous devez maîtriser les bonnes pratiques de développement agile (Scrum, CI/CD, GitLab, etc.). Une connaissance de l'architecture Cloud (GCP un plus) et du design d’API est requise. Vous devrez démontrer d'excellentes qualités relationnelles, une capacité à travailler en équipe. En rejoignant l'équipe GreenPath, rattaché‧e au Product Manager au sein du département DB&T (Digital Business & Technology), vous aurez l'opportunité de contribuer à un projet ambitieux au service de la transition écologique. Vous évoluerez dans un environnement stimulant et collaboratif, au sein d'une équipe pluridisciplinaire engagée.

Mission freelance
data ingnénieur
Objectif global :Développer le socle data Loyalty & Quotation Contrainte forte du projet - Les livrables sont Dataset Client Rewards Dataset Cart valorization Compétences techniques BigQuery - Expert - Impératif Terraform - Confirmé - Impératif Kafka - Confirmé - Impératif MongoDB - Confirmé - Impératif Connaissances linguistiques Anglais Professionnel (Impératif) La mission s’articule autour de plusieurs composantes : Nous recherchons un profil pour poursuivre la mise à disposition des données Loyalty auprès des Business Units et des autres équipes client. Dans un second temps, le profil travaillera sur la mise à disposition des données Quotation. Ces données étant stratégiques, de nombreuses équipes les consommeront et auront besoin de support pour répondre à leurs sollicitations. L’équipe a pour ambition d’être davantage “Data Driven” (prise de décisions basées sur les performances et l’analyse factuelle des comportements utilisateurs), la sensibilisation de l’équipe à la data constitue un facteur de réussite dans l’exposition des données. En fonction des besoins de l’équipe, du groupe et des appétences de la personne, cette fiche de poste pourra être amenée à évoluer dans le temps. 🌟 ACTIVITÉS Elaboration des modèles de données en collaboration avec les architectes data. Tu t’appuies sur ta compréhension des problématiques fonctionnelles et ton expertise technique. Tu assures la construction et le maintien des pipelines de données en évaluant, en amont, la charge de développement. Tu participes à l’évolution du socle data de l’équipe en fonction des besoins. Tu es garant de la couverture des tests data. Tu es co-responsable de la qualité des données et participe aux redressements de données. Tu participes à l’amélioration continue des processus et des pratiques techniques et méthodologiques (initialisation d’applications, mise en commun, code review, définition et animation des bonnes pratiques : clean code, sécurité, DevOps, FinOps…). Tu prends part à la guilde des Data Engineers pour échanger avec tes homologues et t’imprégner des bonnes pratiques. Tu assures une documentation complète des pipelines de données que tu mets en place. Tu participes activement au RUN data / analyse de problèmes en Production. 🌟 ENVIRONNEMENT TECHNIQUE Tu maîtrises : MongoDB (Mongo Atlas) PostgreSQL BigQuery Github Tu as de solides compétences sur : Terraform Kafka (Change Data Capture) Docker (Kubernetes / GKE) Google Cloud Platform (GCP) Tu as des notions sur : DBT Java - Spring boot 🌟 SAVOIR ÊTRE Le profil recherché doit avoir une culture devops, les profils techniques de l’équipe étant en charge du déploiement de leurs réalisations jusqu’en prod et en assurent le run. Nous recherchons un tempérament dynamique, autonome, proactif et force de proposition au quotidien. Communication régulière avec le reste de l’équipe via les dailys, reviews, pull requests AUTONOME... mais qui n’hésite pas à solliciter de l’aide si besoin Le travail en équipe est la clé du succès de notre organisation.
Offre d'emploi
Data Engineer
Data Engineer pour l’équipe EPM : Description du Poste : Nous recherchons un Data Engineer expérimenté pour rejoindre notre équipe Enterprise Management et Finance, composée de d’1 PO, 3 Power BI, 1 QA et 1 Data Engineer. Cette équipe est le cœur de notre plateforme de données, responsable de l'ingestion et de la normalisation des données. Son rôle sera également de travailler sur la création, la maintenance et l'amélioration de l'infrastructure, ainsi que sur les processus CI/CD et la documentation, dans un contexte Agile SAFE. Exigences : • Expérience confirmée en tant que Data Engineer, avec une expertise démontrée sur la plateforme GCP. • Solides compétences en DBT pour la modélisation et le testing • Solides compétences en GCP BigQuery, SQL, Workflow, Azure DevOps et en modélisation de données. • Expérience de travail dans un environnement Agile SAFe. • Capacité à travailler en équipe et à communiquer efficacement avec des parties prenantes techniques et non techniques. Qualités Personnelles : • Esprit analytique et résolution de problèmes. • Autonomie et proactivité. • Capacité à s'adapter à un environnement en évolution rapide.
Mission freelance
Expert IAM / Identity & Access Management / FULL REMOTE
Dans le cadre d’un programme stratégique de renforcement de la sécurité des identités, vous interviendrez en tant qu’expert IAM pour définir, piloter et mettre en œuvre des standards IAM alignés avec les exigences cybersécurité de l’entreprise. Vous travaillerez en étroite collaboration avec les équipes internes et assurerez un transfert de compétences à la fin de la mission. Vos responsabilités Évaluer et renforcer les contrôles (authentification multifacteur) sur les applications IAM. Définir et mettre en œuvre la politique de mots de passe (validée par la direction). Publier les standards fonctionnels de contrôle d’accès . Définir la stratégie Cloud PAM (Privileged Access Management) sur AWS, Azure et GCP. Définir les règles de sécurité IAM pour l’administration des politiques. Encadrer la gestion et le cycle de vie des comptes techniques (serveurs, workstations, etc.). Produire la documentation et assurer le handover aux équipes internes fin 2025.

Mission freelance
DATA ENGINEER GCP (H/F)
TEKsystems recherche pour le compte de son client : Un(e) DATA ingenieur(e) 📌 Contexte : Intégration au sein de l’équipe Finance. Plus précisément, intégration dans une sous-équipe composée de 2 data engineers, au sein d’un ensemble de 8 personnes. 🛠️ Activités : Mise à disposition de nouveaux projets et produits data sur GCP (Google Cloud Platform). Répartition des missions : 70 % dédiés à l’innovation et au développement de nouveaux projets sur GCP. 30 % consacrés à la continuité et au maintien des solutions existantes. 🤝 Interlocuteurs privilégiés : Product Owner (PO), Business Analyst et Chef de projet IT.

Offre d'emploi
Data Engineer GCP
Nous recherchons un Data Engineer expérimenté pour rejoindre l'équipe Enterprise Management et Finance de notre client dans le secteur du luxe, composée de d’1 PO, 3 Power BI, 1 QA et 1 Data Engineer. Cette équipe est le cœur d'une plateforme de données, responsable de l'ingestion et de la normalisation des données. Le rôle du data engineer sera de travailler sur la création, la maintenance et l'amélioration de l'infrastructure, ainsi que sur les processus CI/CD et la documentation, dans un contexte Agile SAFE. Responsabilités : • Participer à l’harmonisation des données dans notre Data Platform (DP) pour les reportings du TOP management • Assurer la qualité et la conformité des données • Travailler dans un contexte Agile SAFE pour assurer des livraisons efficaces et continues

Offre d'emploi
Product Owner Data – Projet de Migration BI (H/F)
Nous recherchons un Product Owner Data confirmé pour accompagner notre client dans un projet de migration stratégique de ses environnements BI vers la plateforme GCP . Contexte : Au sein d’une équipe de développement BI, vous interviendrez dans un environnement hybride autour de Microsoft BI (on-premise) et GCP (BigQuery, Dataflow, Airflow, Spark). L’objectif principal est la migration et l’optimisation des reportings et dashboards vers Power BI Online sur la plateforme GCP . Missions principales : Piloter le backlog produit et assurer la priorisation des besoins. Coordonner plusieurs projets en parallèle liés à la migration BI. Collaborer étroitement avec les équipes techniques (MSBI, GCP, Data Engineering). Garantir la bonne compréhension et traduction des besoins métiers. Accompagner la migration et l’industrialisation des reportings sur GCP et Power BI.

Mission freelance
Ingénieur DevOps / SECTEUR SPIRITUEUX
SECTEUR SPIRITUEUX Nous recherchons pour notre client un ingénieur DevOps. Misions : Administrer et optimiser les environnements cloud (Azure, GCP, éventuellement AWS). Développer et maintenir des scripts d’automatisation / IaC (Terraform, Ansible). Gérer et faire évoluer les pipelines CI/CD (GitLab, Jenkins, Azure DevOps, GitHub Actions). Mettre en place la supervision (Dynatrace, Azure Monitor, GCP) et gérer les incidents N2/N3. Intégrer et exploiter des solutions IAM (SailPoint, Azure AD, Okta, Ping). Accompagner les projets : mise en place d’environnements, résolution d’intégrations, suivi des déploiements. Maintenir la documentation technique et proposer des améliorations continues.

Mission freelance
Ingénieur Devops (F/H)
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ 📑 Freelance OU portage (400-450€/j) – 🏠 3 jours de télétravail par semaine – 📍 Nîmes (30) – 🛠 Expérience de 4/5 ans min. Envie de rejoindre une équipe où la tech et les projets stimulants sont au rendez-vous ? Cette opportunité est faite pour vous ! 🚀 Nous recherchons pour notre client un Ingénieur Devops. 💻💼 🎯 Voici un aperçu détaillé de vos missions : - Automatiser les processus de déploiement et de gestion des infrastructures, - Mettre en place et gérer les outils de CI/CD (Intégration Continue / Déploiement Continu), - Surveiller les performances des systèmes et des applications, - Assurer la sécurité et la conformité des infrastructures, - Collaborer avec les équipes de développement pour optimiser les processus de développement et de déploiement, - Gérer les incidents et assurer la disponibilité des services, - Documenter les procédures et les configurations.

Offre d'emploi
Développeur back end (java/ KAFKA/GCP)
GCP Confirmé KafkaConfirmé AgileExpert java Expert Spring / Spring Boot Expert REST Expert PostgreSQL Skills & Qualifications + 7 années d'expérience, en tant que backend Java Une expérience sur des infrastructures cloud native Connaissances des principes DDD, SOLID Solide expérience dans la mise en place d’une CI/CD intégration toutes les couches de test : Unit Testing, Acceptance Testing, Integration Testing, Load Testing Bonne connaissance des outils de monitoring et d’alerting La maîtrise des architectures distribuées et Event Driven A l'aise avec l'agilité et les groomings techniques Un profil Craftsmanship/Devops est un plus Environnement Technique Back-end: Java, Spring Boot Database : Postgresql Event & Messaging : Kafka Cloud: GCP, K8S Tooling: Git, Github Action, Docker Monitoring: Datadog Qualité : Junit 5, SonarCloud Front-end : React Js Méthodologie: Agile, Scrum

Offre d'emploi
DevSecOps Multi-Cloud - LYON
Missions principales Mettre en place et maintenir des pipelines CI/CD sécurisés pour des environnements multicloud (AWS, GCP, Azure). Définir et implémenter les standards DevSecOps (SAST, DAST, IAST, Secret Scanning, compliance). Intégrer la sécurité dans toutes les étapes du cycle de delivery (SecDevOps). Assurer le monitoring, l’observabilité et la gestion des vulnérabilités sur les environnements Cloud. Développer et maintenir des modules Terraform standardisés et réutilisables. Collaborer avec les équipes SRE et Cloud Architects pour industrialiser les environnements.

Offre d'emploi
Devops Senior KAFKA (H/F)
Winside est un pure player Tech, Data et Digital, présent à Lyon, Paris et Bordeaux, et en pleine croissance. Notre ambition : réunir expertise, innovation et esprit d’équipe pour mener des projets à fort impact chez de grands clients. Dans ce contexte, nous recrutons un DevOps Sénior spécialisé Kafka afin de rejoindre Winside en CDI et de contribuer à un projet stratégique dans le secteur du retail autour des Data Platforms et de la diffusion temps réel de la donnée. Votre mission Intégré(e) au sein des équipes Plateforme Data, vous participerez à la mise en place et à l’amélioration continue des pipelines de données. Vos responsabilités principales : Mettre en œuvre et optimiser les plateformes de streaming de données avec Apache Kafka Déployer et superviser des environnements Kubernetes (GKE) et Google Cloud Platform (GCP) Automatiser les déploiements et orchestrer les pipelines via des pratiques CI/CD Garantir la performance, la résilience et la sécurité des plateformes Contribuer à la gestion des incidents, au monitoring et à l’amélioration continue Travailler en étroite collaboration avec les équipes data engineering et infrastructure pour assurer la fiabilité et la scalabilité de la plateforme Stack & Environnement technique Cloud : Google Cloud Platform (GKE, Cloud Storage, Cloud SQL, Cloud Monitoring) Streaming & Data : Apache Kafka (partitionnement, réplication, compaction, sécurité TLS/SASL/ACL, gestion avancée des topics et offsets) Orchestration & Containers : Kubernetes, Docker Monitoring : Prometheus, Grafana. • DevOps & Scripting : CI/CD (GitLab CI, Jenkins), Bash, Python Sécurité & Gouvernance : IAM, politiques d’accès, bonnes pratiques sécurité Agilité : Scrum, gestion de backlog, sprint planning.

Mission freelance
Développeur Full Stack
API TU Conceptions techniques Compétences techniques Nodejs / Nestjs - Expert - Impératif React - Confirmé - Impératif Typescript - Confirmé - Impératif Java (J2EE, Spring, ...) - Confirmé - Souhaitable Connaissances linguistiques: Anglais Professionnel (Secondaire) Description détaillée Pour le 13 ocotobre, nous recherchons 1 développeur confirmé sur nodejs (backend) / nestjs / prisma / React / typescript. Nos développeurs prennent en charge la conception technique, le développement, une partie des tests, et la maintenance des services développés. Caractéristiques du produit: - Animation des prix d'achats des fournisseurs - produit critique déployé - produit Cloud Native sous GCP, avec environ 60% de périmètre métier restant à écrire - refonte V2 technique à lancer en janvier - organisation: 5 développeurs en hybride, 1 techlead, 2 QA/QE, 1 PO, sprints de 3 semaines Qualifications - Confirmé en nodejs (backend) / nestjs / prisma / React / typescript => IMPERATIF - 80% de backend (nodejs / nestjs / prisma) - 20% front au maximum - Il doit s'agir d'un vrai fullstack sur les technos citées, bien que le ratio soit 80/20 entre back et front - Expérience de développement avérée d'API REST dans des SI complexes (transformation digitale de nos domaines métiers) - Expérience avérée en SQL (Postgres, optimisation de requêtes complexes) - Expérience avérée en messaging de type Kafka (Redis est un plus) - Connaissances Cloud type GCP, et technologies de conteneurs (Docker / Kubernetes) - Expert: >7 ans d'xp sur plusieurs clients en transformation digitale majeure

Mission freelance
Développeur full stack JS (H/F)
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Développeur full stack JS (H/F) à Lille, France. Contexte : Les missions attendues par le Développeur full stack JS (H/F) : Dans une structure de 6 développeurs, il sera garant de ses développements et sera moteur dans la mise en place de bonnes pratiques dans les nouvelles technologies. Actions attendues : -Maintien en condition opérationnel des 3 applications des métiers de la compliance et de l'expansion -Développement d’évolutions fonctionnelles -Documentation technique et échange avec les autres développeurs. Quelques éléments techniques à maîtriser : Angular, VueJs, Nodejs, Nestjs MongoDB, PostgreSQL GCP CI/CD, github action Kafka

Offre d'emploi
Ingénieur DevOps (H/F)
🎯 Contexte de la mission Vous intégrerez l’équipe Plateforme Échanges dans un environnement Agile (Agile Master + Product Owner). Votre rôle consistera à optimiser l’industrialisation, la sécurisation et la supervision des plateformes d’échanges stratégiques de l’entreprise, tout en contribuant à leur évolution et à leur résilience. 🛠️ Vos missions principales Améliorer et automatiser l’industrialisation des plateformes d’échanges : AMQ, Kafka, WSO2, Apigee, Bucket GCP. Renforcer la sécurité et la supervision de ces plateformes dans un environnement cloud public. Travailler sur la résilience des solutions Apigee et Kafka. Accompagner la transition vers la fin d’usage d’AMQ et migration vers les solutions cibles. Collaborer en méthodologie agile avec les équipes techniques et fonctionnelles. Participer activement à la veille technologique et proposer des axes d’amélioration continue.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Accre Arce, inscrit à FT
- Prestataire en développement logiciel: EI en BIC ou BNC ?
- Evolution marché DBA ?
- SASU IR Durée premier exercice comptable
- Le marché de l'IT est complètement déréglé ! STOP à cette mascarade ! Il faut s'unir et résister !
- Vous êtes sans missions ? Manifestez vous et echangez vos expériences