Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 3 366 résultats.
Freelance

Mission freelance
Data Engineer INFORMATICA PowerCenter (Scala, Snowflake, PowerShell, DBT, Airflow, GIT, AWS , SQL )

WINSIDE Technology
Publiée le
Informatica PowerCenter
Scala
Snowflake

3 ans
400-570 €
Paris, France
Votre rôle sera de : - Administrer, maintenir et optimiser la plateforme Informatica PowerCenter (serveurs, repository, workflows, sessions, etc.) - Contribuer activement au décommissionnement en cours d'Informatica via la mise en place d’un Lakehouse AWS (Airflow, DBT, Iceberg, etc.). - Concevoir, développer et documenter des workflows data pour alimenter le data warehouse et les systèmes applicatifs - Concevoir, développer et documenter des workflows Lakehouse avec AWS, Airflow, DBT et Python. - Identifier et résoudre les problèmes de performance ou de qualité des données - Contribuer au run de la plateforme (analyse des incidents, MEP, support production, etc.) ; - Collaborer avec les équipes Data, BI et Infrastructure pour garantir la cohérence et la disponibilité des données - Former et assister les utilisateurs internes (équipe data, développeurs, MOA, etc.) - Proposer des améliorations techniques et de bonnes pratiques sur l’utilisation de la plateforme Compétences et qualités attendues : - Vous justifiez d’une expérience de 5 ans minimum dans un environnement similaire - Vous maîtrisez Informatica, Snwoflake, Airflow, DBT, AWS et aimez les challenges - Vous etes experts dans le développement de solution d'intégration de données. - Vous parlez Anglais couramment - Vous connaissez et maîtrisez les outils JIRA et les méthodes « agiles » n’ont pas de secret pour vous ! - Autonome, ouvert d’esprit et bon communiquant, vous disposez d’une grande curiosité scientifique
CDI
Freelance

Offre d'emploi
Ingénieur Big Data

OBJECTWARE
Publiée le
Apache Spark
Cassandra
CI/CD

3 ans
40k-76k €
400-550 €
Île-de-France, France
Contexte : Intégration d´une équipe de développeurs data (Java, Spark, Spring) dont le rôle est la mise en place de pipelines de données à destination de vues NoSQL (Cassandra, MongoDB, Elasticsearch) Hard skills demandés : Maîtrise Développement Objet Maîtrise d’un langage objet (Java) Maîtrise SQL Framework Spring Plateforme Spark Connaissance des Web Applications & Micro-services Maîtrise DevOps (CICD, Git, Jenkins) Connaissance approfondie des bonnes pratiques de développement et des Design Pattern Connaissance Domaine Cloud Connaissance du Métier Data / Big Data Vernis langage Python Hard skills optionnels : Maitrise de Mongo DB , Cassandra, et Elastic Search Conception asynchrone Connaissance Domaine DataScience Connaissance Domaine Cybersecurité Soft skills : Autonomie Motivation Organisation Humilité Négociation Curiosité Partage Sens du service Pragmatique / Réaliste Mindset Sensibilisé à la Qualité de code Sensibilisé à la vie de Production Expérience demandée : Développement objet en environnement de production Expérience de 5 ans min en développement data Expérience dans un grand groupe (expérience de l’inertie et des contraintes d’un groupe) Expérience sur tout le cycle de vie d’une application (besoin, conception, développement, déploiement, maintenance) Expérience souhaitée en amélioration d’une solution existante (contrainte de SLA, performance, montée en charge, refactoring, voir refonte) Les missions sont : Recueillement du besoin utilisateur/BA, conceptualisation de la solution technique associée et l’implémenter Adoptation d´une approche proactive sur la qualité de code avec une méthodologie TDD Amélioration continue du code existant et revue avec les pairs des évolutions Support et sensibilisation des pairs à la qualité du code, aux bonnes pratiques et outillage améliorant l’expérience de développement Inscription dans une démarche agile avec un rythme de livraison soutenu (1 MEP / mois)
Freelance

Mission freelance
Développeur Back-End Python Senior (H/F)

Freelance.com
Publiée le
Ansible
Apache Airflow
CI/CD

1 an
520-580 €
Île-de-France, France
Dans le cadre de l’évolution d’une plateforme technologique stratégique, nous recherchons un développeur back-end Python expérimenté pour intervenir sur une application de traitement et d’analyse d’images satellites. Vous rejoindrez une équipe de développement déjà en place afin de contribuer à l’évolution fonctionnelle et technique d’une solution existante dédiée à la détection d’objets d’intérêt sur des données satellitaires. Votre mission consistera à travailler sur une base de code importante et mature, en participant à l’amélioration continue de l’architecture, des performances et des fonctionnalités. Vous interviendrez notamment sur l’analyse de problématiques complexes, l’optimisation de la gestion des données et la mise en place de solutions robustes permettant d’assurer la fiabilité et la scalabilité de la plateforme.
CDI

Offre d'emploi
Ingénieur DevSecOps

REDLAB
Publiée le
Ansible
Apache
GitLab CI

40k-46k €
Lyon, Auvergne-Rhône-Alpes
Pour notre client, nous recherchons un ingénieur DevSecOps. Au sein d'une équipe de 6 personnes, notre client recherche un Ingénieur DevSecOps orienté Sécurité/PKI * Projet de MCO / RUN sur un produit dans les zones sécurisées, une expérience en exploitation est indispensable. Projets : Mise à plat des gestes d’exploitations (MCO et le MCS du service) en vue de former un infogérant sur tout ou partie des gestes, Finaliser les outils d’exploitation (supervision, exploitation des logs ….), Mise à jour la documentation du service et insertion dans le catalogue de service du client Poursuivre l’automatisation des gestes d’exploitation…
Freelance
CDI

Offre d'emploi
Senior Software Engineer Java – Spring Boot & AWS

KLETA
Publiée le
AWS Cloud
Java
Springboot

3 ans
Paris, France
Nous recherchons un Senior Software Engineer Java pour concevoir, développer et faire évoluer des applications cloud natives sur AWS dans un environnement industriel et à forte exigence de qualité. Vous interviendrez sur des architectures modernes basées sur Spring Boot, microservices et API REST, en intégrant nativement les services AWS (ECS/EKS, Lambda, S3, RDS, SQS/SNS, EventBridge). Vous serez responsable de la qualité du code, de la performance et de la maintenabilité des applications, en appliquant des bonnes pratiques de conception (DDD, Clean Architecture, tests automatisés, observabilité applicative). Vous travaillerez en étroite collaboration avec les équipes DevOps et SRE pour intégrer les applications dans des pipelines CI/CD, garantir une exploitation fiable et optimiser la résilience en production. Vous participerez aux choix d’architecture, aux revues de code et à l’amélioration continue des pratiques de développement. Vous serez également amené à analyser des incidents, proposer des améliorations techniques et accompagner des développeurs plus juniors dans leur montée en compétence.
Freelance
CDI

Offre d'emploi
Ingénieur production/ devops (F/H)

AVA2I
Publiée le
Ansible
CI/CD
Docker

3 ans
40k-45k €
400-550 €
Île-de-France, France
Nous recherchons un(e) Ingénieur(e) de Production / devops avec une bonne compréhension de la partie développement . Profil recherché Profil orienté production / exploitation Capable de comprendre le code et d’échanger efficacement avec les équipes dev À l’aise sur les sujets DevOps / industrialisation / déploiement Compétences techniques attenduesDéveloppement (notions solides / compréhension) Java Spring Boot Angular HTML JavaScript (JS) DevOps (OBLIGATOIRE) Docker Kubernetes CI/CD : Jenkins Automatisation / déploiement : Ansible GitOps (notions ou pratique)
Freelance

Mission freelance
Data Engineer

Coriom Conseil
Publiée le
Apache Kafka
BigQuery
CI/CD

12 mois
400-510 €
Lille, Hauts-de-France
Expertise SQL, ETL - Expert - Impératif CI/CD, github, Terraform, Kafka - Confirmé - Important Power BI, Looker - Confirmé - Important Google Cloud Platform (GCS, BigQuery) - Confirmé - Souhaitable Connaissances linguistiques Anglais Lu, écrit (Impératif) Description détaillée Au cours de sa mission, le consultant : - Participera aux rituels agiles de l'équipe, - Analysera les besoins des utilisateurs et proposera des solutions innovantes et en phase avec les drivers de l'entreprises, - Développera les solutions data (Alimentation, stockage, modélisation, restitution), - Validera la qualité des développements de son équipe, - Améliorera et optimisera le patrimoine actuel de son équipe, - Maintiendra les solutions existantes (Run), - Contribuera à la construction du nouveau socle et des services sur la plateforme Google Cloud, - Accompagnera et acculturera les métiers sur les bonnes pratiques de l'exploitation de la Data
Freelance
CDI

Offre d'emploi
📩 Data Engineer Microsoft Fabric

Gentis Recruitment SAS
Publiée le
Apache Spark
Azure Data Factory
Azure Synapse

12 mois
40k-45k €
400-500 €
Paris, France
Nous recherchons actuellement un Data Engineer pour intervenir au sein d’un grand groupe international du secteur du luxe (cosmétique & parfums), dans le cadre du renforcement de ses équipes data. Contexte Vous interviendrez sur la mise en place et l’optimisation d’une plateforme data moderne basée sur Microsoft Fabric, avec des enjeux autour de la centralisation, de la transformation et de la valorisation des données métiers. Missions principales Développer et maintenir des pipelines de données sur Microsoft Fabric Participer à la conception de l’architecture data (Lakehouse, Data Warehouse) Intégrer et transformer des données issues de multiples sources Assurer la qualité, la fiabilité et la performance des flux de données Collaborer avec les équipes Data, BI et métiers Contribuer aux bonnes pratiques Data Engineering (CI/CD, monitoring, documentation) Stack technique Microsoft Fabric Azure Data Factory / Synapse (ou équivalent) Python / SQL Data Lake / Lakehouse Git / CI-CD Profil recherché 3 à 4 ans d’expérience en Data Engineering Première expérience sur Microsoft Fabric ou forte appétence sur l’écosystème Microsoft data Bonne maîtrise de Python et SQL Expérience sur des environnements cloud (idéalement Azure) Bon niveau d’anglais Soft skills Esprit analytique Autonomie Capacité à monter rapidement en compétence Bonne communication avec les équipes métiers
CDI
Freelance

Offre d'emploi
Ingénieur Systèmes, Réseaux & Cloud GCP H/F

Le Groupe SYD
Publiée le
Exchange Online
GitLab CI
Kubernetes

12 mois
45k-48k €
450-500 €
Rennes, Bretagne
🌟 Quel sera ton poste ? 🌟 💼 Poste : Ingénieur Systèmes, Réseaux & Cloud H/F 📍 Lieu : Rennes (35) 🏠 Télétravail : Flexible 📝 Contrat : CDI ou Indep/portage 👉 Contexte client : Tu rejoins un acteur international du secteur de la restauration et de l’agroalimentaire , présent sur de nombreux sites en France et à l’étranger. Au sein de cette équipe, tu interviendras sur un périmètre stratégique couvrant les infrastructures systèmes, le réseau, la sécurité, la containerisation, le Cloud public (GCP) ainsi que la gestion des projets techniques. Tu auras pour missions de : Concevoir, déployer, optimiser et assurer le MCO des infrastructures. Administrer Windows, Linux, VMware, stockage (NetApp/IBM) et sauvegardes (Veeam). Gérer Exchange Online, AD / Azure AD et intervenir sur les environnements Open Source. Prendre en charge Kubernetes, GitLab CI et Terraform pour l’infrastructure GCP . Administrer les solutions de sécurité (firewalls, proxy, WAF, PAM, SSE, EDR, SSO). Intervenir sur les réseaux Cisco/Nexus : LAN, WAN, routage, SD‑WAN. Être force de proposition , piloter les intégrateurs et maintenir les procédures et documents d’exploitation. Conduire les projets techniques de bout en bout, assurer le reporting et le pilotage des prestataires. Gérer l’ escalade N2 , traiter les demandes utilisateurs et assurer une veille technologique. 🧰 Stack technique : Systèmes : Windows Server, Linux, VMware. Cloud & Infra : GCP, Terraform, GitLab CI, Kubernetes. Stockage & Sauvegarde : NetApp, IBM, Veeam. Sécurité : Firewall, Proxy, Reverse Proxy, WAF, PAM, SSE, EDR, SSO. Réseau : Cisco, Nexus, TCP/IP, LAN, WAN, SD‑WAN, routage. Identité & Messagerie : AD, Azure AD, Exchange Online.
CDI

Offre d'emploi
Développeur SINEQUA Full Stack (F/H)

OCSI
Publiée le
.NET
Angular
API REST

55k-59k €
Paris, France
Nous recrutons un Développeur Sinequa Full-Stack ! Vous êtes passionné(e) par les technologies de recherche, l’IA et le développement web ? Nous cherchons un Développeur Sinequa (.NET / Angular) pour rejoindre notre équipe et travailler sur des projets innovants autour de la donnée et de la recherche intelligente. Ce que vous ferez : Développer et maintenir des applications et connecteurs sur la plateforme Sinequa Développer des interfaces web modernes avec Angular Assurer l’intégration entre le back-end .NET et le front-end Optimiser les performances et l’expérience utilisateur
Freelance
CDI

Offre d'emploi
Ingénieur DevOps AWS - Région PACA - Habilitable

Groupe Aptenia
Publiée le
AWS Cloud
Datadog
Gitlab

6 mois
Provence-Alpes-Côte d'Azur, France
Nous recherchons un Ingénieur DevOps Cloud orienté AWS pour intervenir sur le développement et l’évolution d’une plateforme interne utilisée par des équipes métiers et techniques . Vous participerez à la conception et à l’optimisation des infrastructures cloud, à l’automatisation des environnements et au développement d’outils associés. L’environnement technique inclut AWS, Terraform, Datadog, Python et Vue.js . Une sensibilité aux sujets liés à l’IA est appréciée. Le poste requiert un bon esprit collaboratif , une capacité à comprendre les enjeux métier et une forte curiosité technique.
CDI

Offre d'emploi
Consultant DataOps / Administrateur Hadoop

Craftman data
Publiée le
Ansible
CI/CD
Docker

La Défense, Île-de-France
Dans le cadre de ses projets Big Data internes, notre client recherche un Consultant DataOps & Administrateur Hadoop confirmé , intégré à l’équipe BDP (Big Data Platform) . Le consultant interviendra sur le déploiement, l’industrialisation, l’exploitation et le maintien en condition opérationnelle de clusters Big Data personnalisés, basés sur la TOSIT Data Platform (TDP) , au service des projets data et métiers. 🎯 Rôle et responsabilités 1. Déploiement & industrialisation des clusters Big Data Déploiement automatisé de clusters via pipelines Jenkins Installation et configuration des composants Hadoop via Ansible Adaptation des architectures selon les besoins projets (sécurité, performance, capacité) Contribution aux pratiques CI/CD et Infrastructure as Code Déploiement et administration du TDP Manager Mise en place de Hue pour les environnements Datalab 2 . Administration avancée de la stack Hadoop / TDP Le consultant est responsable de l’installation, la configuration et l’exploitation de : Sécurité & identités : OpenLDAP Kerberos Ranger (politiques de sécurité) Stockage & calcul distribué : HDFS (baie Huawei) Hadoop (YARN, services core) Traitement & accès aux données : Spark Hive Services transverses : ZooKeeper PostgreSQL Responsabilités associées : Gestion des dépendances inter-services Cohérence des versions Optimisation des performances et de la stabilité Résolution des incidents complexes 3. Provisionnement & automatisation des environnements Provisionnement de VM sous VMware Préparation des prérequis systèmes (OS, réseau, stockage) Automatisation via Ansible et scripts Bash Gestion des environnements DEV / RECETTE / PROD 4. Observabilité, supervision & anticipation Mise en œuvre et maintien de la stack d’observabilité : Prometheus Alertmanager Loki / Promtail Grafana Définition des indicateurs de supervision Analyse proactive des alertes Diagnostic et résolution d’incidents 5. Maintien en Condition Opérationnelle (MCO) Administration quotidienne des clusters Hadoop Support aux équipes projets et utilisateurs Datalab Gestion des incidents, demandes d’évolution et correctifs Montées de version Suivi de capacité (CPU, RAM, stockage) Rédaction et mise à jour de la documentation technique 🤝 Interaction & posture attendue Participation active aux rituels d’équipe Coordination avec : Équipes infrastructure Équipes projets data / métiers Référents sécurité Capacité à accompagner et conseiller les équipes dans l’usage de la plateforme Forte capacité de communication transverse 🧠 Compétences clés attendues Techniques Expertise Hadoop / Big Data on-prem Solide expérience DataOps / DevOps Maîtrise de : Jenkins, GitLab CI/CD, SonarQube Ansible, Bash VMware, Docker Stack d’observabilité (Prometheus, Grafana, Loki) Méthodologiques & soft skills : Rigueur et sens de la qualité Forte sensibilité aux enjeux de sécurité Capacité d’anticipation (supervision, performance, capacité) Autonomie et esprit d’équipe Aisance dans des environnements complexes et critiques ⚠️ Points de vigilance Forte interdépendance des composants Hadoop Exigences élevées en matière de sécurité (Kerberos, Ranger) Enjeux de performance et de disponibilité Nécessité d’une coordination transverse permanente
CDD
CDI
Freelance

Offre d'emploi
Ingénieur en sécurité Opérationnelle –  IAM cloud Security - N3

KEONI CONSULTING
Publiée le
AWS Cloud
Python
Terraform

18 mois
20k-60k €
100-550 €
Paris, France
Contexte Accompagner Sécurisation du Cloud public Réglé Contrainte forte du projet : Expert Sécurité Cloud Public (GCP & Azure & AWS) avec une bonne maitrise de l'IAM et de l'automatisation, de Terraform et des chaines CI/CD MISSIONS Au sein d'une équipe d'experts sécurité Cloud public, nous cherchons un Expert opérationnel dans le domaine du cloud public (GCP, Azure et AWS) avec une expérience significative dans la gestion de l'IAM cloud sur AWS, Azure et GCP. Il aura comme objectifs et missions : - Élaborer une stratégie IAM adaptée aux besoins de l'entreprise et conformes à nos règles de sécurité, incluant la gestion des identités, des accès et des permissions. - Évaluer les configurations IAM actuelles sur Azure, AWS et GCP et identifier les vulnérabilités et les améliorations possibles. - Mise en œuvre des meilleures pratiques et contrôles au travers d’outils tels que AWS SCP, GCP Deny Policy et autres. - Accompagner les équipes projet sur les concepts IAM et les outils associés, et promouvoir une culture de la sécurité au sein de l'organisation. - Documenter les processus, les configurations et politiques mises en place. Compétences techniques : IAM GCP - Expert - Impératif IAM Azure - Expert - Impératif Dev. Terraform, Python - Confirmé - Impératif IAM AWS - Junior - Souhaitable Connaissances linguistiques Anglais Professionnel (Impératif) Définition du profil Mise en application de la Politique de Sécurité Contrôle de la Politique de Sécurité, notamment par des Contrôles Périodiques de Niveau 1 Valide et instruit les dérogations contrevenant à la Politique de Sécurité Maintien en Conditions Opérationnelles des Infrastructures de Sécurité (supervision, prise en charge et résolution des incidents/problèmes, installation et configuration) Participation aux audits (internes / externes) Mise en applications des recommandations d'audit et des demandes de remise en conformité Rédaction de guides et standards de sécurité Donne son avis pour l'implémentation des solutions de sécurité Proposition de solutions innovantes pour améliorer la sécurité, la qualité, les performances et les coûts d'exploitation Assure la veille technologique Données complémentaires
Freelance

Mission freelance
Architecte d’Entreprise Senior

ABSIS CONSEIL
Publiée le
API
AWS Cloud
Batch

1 an
740 €
Île-de-France, France
Dans le cadre d’un important programme de transformation digitale , nous recherchons un Architecte d’Entreprise Senior (8+ ans d’expérience) pour accompagner les projets d’évolution du SI, de la phase d’opportunité jusqu’à la mise en production. Objectifs de la mission L’architecte interviendra dans le cadre d’un dispositif structuré d’architecture, incluant processus de gouvernance, revues techniques, rituels transverses et outils de capitalisation. La mission vise principalement à : Produire les analyses d’architecture en phase amont. Formaliser les impacts fonctionnels, applicatifs et data. Garantir la cohérence des évolutions du SI. Accompagner les équipes métiers et IT dans les choix structurants. Assurer la capitalisation dans les référentiels internes. Livrables attendus Diagnostic Express d’Architecture (DEX) destiné aux instances IT. Dossier d’Architecture Fonctionnelle (DAF) incluant état des lieux, scénarios et cibles d’architecture. Contribution à la mesure de conformité en production . Mise à jour des référentiels et dictionnaires de données internes.
Freelance

Mission freelance
Expert Datadog

Tenth Revolution Group
Publiée le
AWS Cloud
Datadog
Kubernetes

3 ans
530-640 €
Paris, France
Datadog - Expert - Impératif Cloud AWS - Confirmé - Important Prometheus/Grafana - Confirmé - Important Vos principales missions : Optimisation et structuration de l’écosystème Datadog Analyser l’implémentation actuelle de Datadog (Logs, APM, Monitors, RUM, Product Analytics) afin d’identifier des axes d’amélioration Harmoniser et consolider les standards existants (naming convention, tagging strategy, gestion des environnements, structure des dashboards et monitors) Améliorer la cohérence et la qualité de l’instrumentation entre les différentes équipes Optimiser l’usage de la plateforme (volumétrie logs, sampling APM, gestion des coûts, rétention)Fiche de poste Expert Observabilité Datadog Définir et partager des bonnes pratiques d’observabilité applicative, infrastructure et produit Contribuer à la stratégie globale de monitoring en complément de Prometheus / Grafana utilisés pour les métriques techniques Supervision, observabilité et fiabilité (SRE) Concevoir, mettre en œuvre et maintenir des dashboards Datadog adaptés aux enjeux Infrastructure, Applicatifs et Produit Structurer et améliorer les monitors et l’alerting (pertinence, réduction du bruit, meilleure corrélation incidents) Formaliser des indicateurs de performance et de fiabilité (SLI / SLO) en collaboration avec les équipes techniques et service management Améliorer la détection proactive des incidents Assurer la complémentarité et la cohérence entre métriques Prometheus/Grafana et observabilité Datadog Accompagnement des équipes et adoption Une forte dimension transverse et pédagogique est attendue : Accompagner les équipes de développement dans l’instrumentation APM, Logs et RUM Collaborer avec les équipes Ops et Service Management pour améliorer l’exploitation des données de monitoring Travailler avec les équipes Produit sur la valorisation des données RUM et Product Analytics Produire et maintenir une documentation claire sur les standards et recommandations définis Match : Formation & expérience : Expérience significative sur Datadog (Logs, APM, Monitors ; RUM et Product Analytics appréciés) Une expérience en environnement Cloud AWS et Infrastructure as Code (Terraform) est un plus Compétences techniques : Datadog : Logs, APM, RUM, Product Analytics, Dashboards, Monitors, SLO Observabilité : compréhension des concepts SLI/SLO, tracing distribué, corrélation logs/métriques/traces Monitoring : Prometheus, Grafana Bonne compréhension des architectures web et performance front (Web Vitals) Compétences transverses : Rigueur, réactivité et esprit analytique Capacité à améliorer l’existant de manière pragmatique Pédagogie et capacité à collaborer avec des équipes pluridisciplinaires (dev, ops, qa, produit, support) Profil recherché Formation & expérience : Expérience significative sur Datadog (Logs, APM, Monitors ; RUM et Product Analytics appréciés) Une expérience en environnement Cloud AWS et Infrastructure as Code (Terraform) est un plus Compétences techniques : Datadog : Logs, APM, RUM, Product Analytics, Dashboards, Monitors, SLO Observabilité : compréhension des concepts SLI/SLO, tracing distribué, corrélation logs/métriques/traces Monitoring : Prometheus, Grafana Bonne compréhension des architectures web et performance front (Web Vitals) Environnement de travail Compétences transverses : Rigueur, réactivité et esprit analytique Capacité à améliorer l’existant de manière pragmatique Pédagogie et capacité à collaborer avec des équipes pluridisciplinaires (dev, ops, qa, produit, support)
Freelance
CDI
CDD

Offre d'emploi
Lead Developer Angular/Node.js

Avanda
Publiée le
Angular
AWS Cloud
DevSecOps

6 mois
Lyon, Auvergne-Rhône-Alpes
Nous recherchons pour un de nos clients, leader de son activite, un Lead Developer Angular/Node.js H/F pour piloter techniquement une équipe produit et contribuer activement au développement d'une application en environnement cloud AWS. Ce poste est a pourvoir a Lyon, presence sur site de 3 jours par semaine. En tant que Lead Developer vos principales missions sont les suivantes : Définir et porter la stratégie technique du produit (architecture, choix technologiques, bonnes pratiques) Assurer la cohérence et la qualité des développements via des revues de code régulières Accompagner la montée en compétences des développeurs (pair programming, coding dojo, tech meetings) Être le référent technique pour les décisions structurantes et l'arbitrage avec le Product Owner Contribuer activement au développement des fonctionnalités (BUILD) et à la maintenance applicative (RUN) Rédiger et maintenir la documentation technique (architecture, stratégie de tests, bonnes pratiques) Participer aux cérémonies agiles et assurer le suivi des activités via les outils de ticketing Proposer des améliorations continues et assurer une veille technologique active
3366 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous