Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 1 996 résultats.
Freelance

Mission freelance
Coordinateur Technique SI & Intégration – Moteur Risques Bancaires (RWA)

Publiée le
CI/CD
Python
SQL

6 mois
400-510 €
Île-de-France, France
Télétravail partiel
Au sein de la DSI d'un grand groupe bancaire, vous rejoignez l'équipe responsable du moteur de calcul des risques pondérés (RWA). Ce moteur stratégique vit une transformation technologique majeure : le passage d'un socle historique Oracle PL/SQL vers une architecture haute performance en Python et DockDB (In-Memory), scalable horizontalement sous OpenShift. Votre Mission En tant que Coordinateur Technique Senior, vous êtes le garant de l'intégration, de la performance et de la fiabilisation de ce nouveau moteur au sein de notre SI. Positionné à l'interface entre les équipes internes et notre partenaire intégrateur, vos responsabilités sont : Pilotage Technique & Challenge : Coordonner les développements réalisés par le prestataire, auditer la qualité du code livré et challenger les choix techniques pour garantir la robustesse de la solution. Intégration & Déploiement (CI/CD) : Assurer l'assemblage des composants logiciels et fluidifier les mises en production via les outils d'automatisation (XL Deploy/Release). Expertise Hybride : Maintenir et optimiser l'existant (Oracle PL/SQL, Tuning 19c) tout en pilotant la transition vers les modules Python / In-Memory. Gestion d'Incidents : Intervenir avec une grande réactivité lors d'incidents de production (analyse de logs, debugging, correction SQL dynamique).
CDI

Offre d'emploi
Développeur FullStack .Net Javascript SQL

Publiée le
.NET
Javascript
SQL

50k-60k €
Paris, France
Télétravail partiel
Développeur Full Stack (.NET / SQL / JavaScript) Contexte du poste Dans une équipe IT à taille humaine (environ 10 personnes dont 7 développeurs), vous rejoignez un environnement technique entièrement Microsoft, en pleine montée en compétences. Le poste s’inscrit dans un projet stratégique : la refonte complète d’un Système d’Information on-premise , tout en assurant la continuité de l’ancien SI jusqu’à la migration totale. Vous travaillerez au sein d’une petite équipe de développeurs expérimentés, dans un cadre où tout n’est pas encore parfaitement structuré : il faut aimer mettre les mains dans le cambouis , proposer, structurer, et participer activement aux décisions techniques. Missions principales Développement & Architecture Participer au développement back-end en .NET 6 et en SQL Server (procédures stockées avancées). Développer en JavaScript natif et contribuer aux interfaces MVC Razor. Mettre en place et faire évoluer une architecture moderne : Hexagonale, DDD, Domain Events . Contribuer au maintien de l’ancien SI pendant la phase de transition. Lire, challenger et améliorer les spécifications fonctionnelles. Responsabilités & Collaboration Travailler de manière autonome sur des sujets de A à Z. Communiquer efficacement avec les Product Owners et les équipes fonctionnelles. Remonter les informations techniques ou fonctionnelles pertinentes. Participer à l’amélioration continue du code, de l’architecture et des pratiques. Contribuer au rituel agile : sprints de 2 semaines, rétrospectives, démonstrations.
Freelance
CDI

Offre d'emploi
Consultant IA generative (H/F)

Publiée le
FastAPI
OpenAPI
PostgreSQL

1 an
38k-65k €
500-700 €
Paris, France
Télétravail partiel
Contexte de la mission : Notre client, grand compte parisien, déploie des solutions d’IA générative pour accélérer sa transformation digitale et créer des applications innovantes. Vous intégrerez une équipe agile, experte pour concevoir et intégrer des modèles LLM (Azure OpenAI, Mistral, Rombos) dans un environnement hybride on-premise et cloud. Votre mission : développer des API, pipelines IA, optimiser la performance et garantir la sécurité des données dans un contexte stratégique à forte visibilité.
Freelance

Mission freelance
Développeur Python Expert – IA

Publiée le
IA
MLOps
Python

12 mois
600-650 €
Paris, France
Télétravail partiel
Développeur Python Expert – Environnement MLOps & Cloud Privé (secteur bancaire) Un grand acteur du secteur bancaire développe et opère en interne une plateforme d’industrialisation de projets data et IA , destinée à accompagner les équipes de data scientists et d’analystes tout au long du cycle de vie de leurs modèles : du développement à la mise en production. Cette solution s’appuie sur un cloud privé on-premise , une stack technologique moderne et open source , et une approche MLOps complète (déploiement, packaging, monitoring, compliance). L’objectif est d’offrir une infrastructure fiable, automatisée et scalable , reposant sur des composants développés en Python, Go et Kubernetes . Dans ce contexte, l’équipe recherche un Développeur Python expérimenté pour prendre en main la librairie interne d’industrialisation des projets IA , pilier central de la solution. Missions principales En tant que Développeur Python Expert , vous aurez un rôle clé dans la conception, l’évolution et la maintenance de la librairie interne dédiée à l’industrialisation des projets IA. Développement & conception Développer et maintenir une librairie Python backend hautement technique, utilisée en production par les équipes data et IA. Concevoir et optimiser les pipelines d’automatisation : packaging, création de conteneurs Docker, génération d’API, déploiements expérimentaux. Intégrer des mécanismes de validation, compliance et monitoring pour assurer la robustesse des déploiements. Contribuer à la qualité du code , aux tests unitaires et à la documentation technique. Architecture & intégration Participer à la conception de l’architecture technique autour de la librairie. Travailler sur l’intégration avec l’écosystème CI/CD (ArgoCD, Argo Workflows) et les environnements Kubernetes on-premise. Collaborer avec les développeurs Go et les équipes MLOps pour garantir la cohérence globale de la plateforme. Expertise & amélioration continue Être référent technique sur les choix d’implémentation et d’architecture Python. Assurer la veille technologique sur les bonnes pratiques backend et MLOps. Participer à l’amélioration continue de la performance, de la maintenabilité et de la fiabilité du framework.
Freelance

Mission freelance
Senior Odoo Developer - Bruxelles (Part time 2/5)

Publiée le
Finance
Odoo
PostgreSQL

4 mois
610-750 €
Bruxelles, Bruxelles-Capitale, Belgique
Nous recherchons un Senior Application Developer Odoo pour réaliser un Proof of Concept lié à l’intégration de données financières (SAP → Odoo) et à la mise en place des processus de Perception & Recouvrement . Objectif du POC Mettre en place, dans Odoo v18 : • l’import de données financières depuis des fichiers CSV issus de SAP • le processus complet de Perception : facturation, paiements, réconciliation bancaire • le processus de Recouvrement : workflows juridiques et suivi des créances • un portail client (à envisager) • des tableaux de bord financiers (reporting) 🏢 Départements impliqués : Finance – Commercialisation – Juridique
Offre premium
Freelance

Mission freelance
Devops Supervision

Publiée le
Flask
Go (langage)
Grafana

6 mois
Île-de-France, France
Télétravail partiel
Nous recherchons un Devops Supervision pour une mission longue en Île de France pour un démarrage ASAP. Au sein du Centre de Service Supervision, chargé de la mise en œuvre des moyens de supervision. La mission consiste à effectuer, sur le périmètre de la supervision réseau : - Des tâches de MCO - Administrer l'existant maison et éditeur - Assurer des développements autour des solutions et outils ci-dessous. Les compétences clés recherchées : - Expertise exigée sur les outils suivants : Grafana, Prometheus, Victoria Metrics sur environnements Linux et Windows - Connaissances des exporters SNMP, ICMP et réseaux nécessaires. - Langages à maîtriser : Python (Requests, Flask, , Grafanalib, Grafana-api, pandas, glob, TQDM, Numpy), Go. Les livrables sont: MCO Administration de la solution en place Développements Python et Go
Freelance

Mission freelance
Architecte Cloud Senior AWS H/F

Publiée le
AWS Cloud
Docker
Kubernetes

6 mois
640-680 €
Guyancourt, Île-de-France
Télétravail partiel
Bonjour, Pour un de mes clients, je suis à la recherche d'un Architecte Cloud Senior H/F. Lieu : Guyancourt Date : ASAP Durée : 6 mois minimum TJM : 680€/J max Mission : Concevoir des architectures Cloud AWS sécurisées et évolutives pour répondre aux besoins des clients Implémenter et déployer des solutions Cloud AWS Conseiller les clients sur les meilleures pratiques en matière de Cloud AWS et les aider à optimiser leurs investissements Gérer et maintenir les infrastructures Cloud AWS, en assurant la disponibilité, la sécurité et les performances. Collaborer avec les équipes de développement et d'exploitation pour intégrer les solutions Cloud AWS dans les workflows existants. Une solide expérience dans la mise en place et la gestion d'infrastructures Cloud et Landing Zone AWS Une connaissance des outils de conteneurisation tels que Docker et Kubernetes Des compétences en Scripting et en développement (KCC/Terraform, Python, etc.) De bonnes connaissances en réseaux Une capacité à travailler en équipe et à collaborer efficacement avec les développeurs D'excellentes compétences en résolution de problèmes et en dépannage.
Freelance

Mission freelance
Administrateur de bases de données Oracle et MS SQL Server (H/F) - 95

Publiée le
Microsoft SQL Server
Oracle
Shell

3 mois
Val-d'Oise, France
Contexte La prestation s’effectuera au cœur des bases de données de production Oracle (HP-UX et Windows) et MS SQL Server, qui supportent les applications critiques de notre client. Dans un contexte de forte exigence de disponibilité et de continuité de service, nous recherchons un renfort DBA disposant d’une solide expertise sur Oracle et SQL Server. Sa mission principale sera de garantir l’administration, la performance et la fiabilité de ces environnements, afin d’assurer une disponibilité des installations en 24/7. Mission • Exploitation quotidienne et Tuning, • Contrôle des performances des bases • Maintenance préventive • Application des patchs • Vérification de l'intégrité des données • Anticipation des problèmes • Application des backup/restores • Suivi des purges • Augmentation des tablespaces, • Rédaction de Script Shell et optimisation des bases • Ordonnancement et Contrôle de l'exécution des batch • Gestion des règles d'accès aux ressources et contrôle de la sécurité • Diagnostic, recommandation, gestion et résolution d'incidents d'exploitation relatifs aux bases de données • Assurer le suivi et la mise en œuvre des migrations opérées • Assurer le support technique et fonctionnel de l'ensemble des composants logiciels • Assurer la production de toute l'architecture • Suivre et coordonner les releases • Assurer le premier niveau d'analyse des incidents sur ces composants logiciel • Garantir l'évolution des outils de l'équipe support sur ces tâches • Mise en place et maintenance des processus et des outils de monitoring • Mise en place et maintenance des processus et des outils de Reporting • Développer et maintenir la documentation sur ces composants et la plateforme. Il pourra être demandé de faire des interventions de nuit d'assistance sur des arrêts et redémarrages d'installation, sur la base d'une fréquence de 1 à 2 nuits par mois.
Freelance

Mission freelance
Lead MLOps Python - Spécialiste IA/RAG

Publiée le
IA
MLOps
Python

3 ans
600 €
La Défense, Île-de-France
Télétravail partiel
Lead Développeur MLOps Python - Spécialiste IA/RAG Cette mission s'adresse à des profils seniors ayant déjà industrialisé des solutions IA/RAG en production et maîtrisant les enjeux de passage à l'échelle. Profil avec un mindset sales: au-delà de ses compétences techniques, dispose d’un profil capable de s’imposer, de proposer des solutions, de prendre des initiatives, de mener des recherches et de tenir ses engagements. Mission Nous recherchons un Lead MLOPS Python pour industrialiser les développements IA/Data Science avec un focus sur les systèmes RAG (Retrieval-Augmented Generation) et les LLM . Contexte Les Data Scientists développent des solutions expérimentales (modèles, RAG, pipelines IA) que vous devrez transformer en solutions robustes déployables en production à grande échelle. Responsabilités principales Industrialisation des systèmes RAG/LLM : Automatiser le processing de documents volumineux (ex: PDFs 250+ pages) Mettre en place des pipelines de chunking et d'indexation automatiques Gérer la montée en charge des bases de connaissances Implémenter des métriques de monitoring pour détecter les dérives des modèles Architecture & Scalabilité : Concevoir des workflows complexes pour tâches longues (pipelines multi-étapes) Déployer sur infrastructure cloud (Azure/AWS/GCP) Containerisation avec Docker/Kubernetes Mise en place de CI/CD spécialisés pour l'IA Développement & Bonnes Pratiques : Refactorisation du code Data Science selon les standards industriels Injection de dépendances, programmation orientée objet Tests automatisés, clean code, modularité Gestion des dépendances et versioning des modèles MLOps & Monitoring : Supervision des performances des modèles en production Détection du drift et mise en place d'alertes Gestion des réentraînements automatiques Tableaux de bord et métriques business Profil recherchéCompétences techniques obligatoires : Python expert (5 - 10+ ans d'expérience) 1 Expérience concrète avec RAG/LLM en production Cloud computing (Azure/AWS/GCP) - déploiement à l'échelle MLOps : pipelines ML, monitoring, drift detection Architecture logicielle : design patterns, injection de dépendances, OOP DevOps : Docker, Kubernetes, CI/CD Compétences techniques souhaitées : Frameworks : LangChain, Haystack, ChromaDB, Pinecone Bases de données vectorielles Streaming de données (Kafka, Pulsar) Orchestration (Airflow, Prefect) Soft skills : Leadership technique : capacité à guider une équipe de Data Scientists Pédagogie : transmission des bonnes pratiques Autonomie sur des projets complexes Mindset industrialisation : passage du POC à la production Environnement technique Stack : Python, FastAPI, SQLAlchemy, Pydantic IA/ML : PyTorch, Transformers, OpenAI API, Azure OpenAI Cloud : Azure (priorité) / AWS / GCP Orchestration : Kubernetes, Docker, Terraform Monitoring : Prometheus, Grafana, MLflow Méthodologie : Agile, TDD, Code Review Exemple de cas d'usage concret "Un utilisateur upload un PDF de 250 pages. Le système doit automatiquement : Découper le document en chunks optimaux Indexer dans la base vectorielle Permettre des requêtes précises ('dates des événements X') Monitorer la qualité des réponses Alerter en cas de dégradation" Votre rôle : Transformer le script Python du Data Scientist en solution industrielle, scalable et monitorée. Modalités Durée : 6-12 mois (renouvelable) Format : Freelance/Régie Localisation : Hybride (2-3 jours sur site) Démarrage : ASAP Profil du candidat Profil recherchéCompétences techniques obligatoires : Python expert ((5 - 10+ ans d'expérience) Expérience concrète avec RAG/LLM en production Cloud computing (Azure) - déploiement à l'échelle MLOps : pipelines ML, monitoring, drift detection Architecture logicielle : design patterns, injection de dépendances, OOP DevOps : Docker, Kubernetes, CI/CD Compétences techniques souhaitées : Frameworks : LangChain, Haystack, ChromaDB, Pinecone Bases de données vectorielles Streaming de données (Kafka, Pulsar) Orchestration (Airflow, Prefect) Soft skills : Leadership technique : capacité à guider une équipe de Data Scientists Pédagogie : transmission des bonnes pratiques Autonomie sur des projets complexes Mindset industrialisation : passage du POC à la production Environnement technique Stack : Python, FastAPI, SQLAlchemy, Pydantic IA/ML : PyTorch, Transformers, OpenAI API, Azure OpenAI Cloud : Azure (priorité) / AWS / GCP Orchestration : Kubernetes, Docker, Terraform Monitoring : Prometheus, Grafana, MLflow Méthodologie : Agile, TDD, Code Review Description de l‘entreprise Pourquoi cette mission est unique Cette opportunité vous permettra de façonner l'avenir de l'IA dans un contexte où vos décisions techniques auront un impact direct sur des millions d'utilisateurs. Vous ne serez pas un simple exécutant, mais un architecte de solutions qui influence la roadmap technologique. Ce qui vous attend : Autonomie technique : Liberté de choix sur les architectures et technologies Visibilité : Présentation de vos réalisations au comité de direction Impact business : Vos optimisations se traduisent directement en gains mesurables Veille technologique : Accès privilégié aux betas Microsoft et APIs exclusives Réseau professionnel : Collaboration avec des experts IA reconnus dans l'écosystème français Vous évoluerez dans un environnement où l' excellence technique rencontre l' innovation business , avec le support d'une équipe qui croit en vos compétences et vous donne les moyens d'exprimer votre talent. Modalités Durée : 12 mois (renouvelable) Format : Freelance/Régie Localisation : Paris La Défense - Hybride (2 jours sur site / 3 jours remote) Démarrage : ASAP
Freelance
CDI

Offre d'emploi
Développeur Big Data Scala / Java (Migration DataHub)

Publiée le
Apache Kafka
AWS Cloud
Big Data

12 mois
45k-56k €
500-530 €
Montreuil, Île-de-France
Télétravail partiel
Contexte / Objectif : Renfort d’une équipe technique en charge de la migration du DataHub vers sa version 2. L’objectif est d’assurer le développement et l’industrialisation de traitements Big Data dans un environnement distribué à forte volumétrie, depuis la conception jusqu’au maintien en production. Missions principales : Étude et conception technique des batchs et pipelines data. Développement Spark/Scala pour traitements batch et streaming. Récupération, transformation, enrichissement et restitution des données (ETL/ELT). Création et publication de batchs Kafka (topics / événements). Participation à l’industrialisation : CI/CD, tests, déploiement et monitoring. Collaboration étroite avec les Business Analysts pour garantir la qualité et la lisibilité des libellés. Gestion autonome de sujets transverses (reporting, suivi, coordination, support niveau 2/3). Stack technique (obligatoire / souhaité) : Obligatoire : Apache Spark (maîtrise), Scala (langage principal), SQL (avancé). Souhaité : Java (notions confirmées), Kafka (bonnes bases), Apache Airflow (expérience appréciée), HDFS/Hive/YARN (bonnes bases), expérience Cloud (GCP ou AWS valorisée), CI/CD (Jenkins, Gitflow), notions DevOps. Méthodologie & environnement : Travail en mode Agile (backlog, rituels, communication proactive). Interaction régulière avec équipes Data, BI, infra et métiers.
Freelance

Mission freelance
236224/TECH LEAD Spring Batch, Hibernate, API REST, React TypeScript, Java 21, SQL Oracle - LILLE

Publiée le
Spring Batch

6 mois
310-340 £GB
Lille, Hauts-de-France
TECH LEAD Spring Batch, Jdbc, Hibernate, API REST, React TypeScript, Java21, SQL Oracle, Sgithub - LILLE mission se déroulerait à Lille Ci-dessous la qualification et descriptif des connaissances souhaitées : - connaissances techniques : Spring Batch, Jdbc, Hibernate, API REST, React TypeScript, Java21, SQL Oracle, Sgithub - séniorité souhaitée : Tech Lead +5 ans - activité pressentie : Change - Compétences fonctionnelles éventuelles : Produits d'Epargne type Assurance Vie ou Produits Structurés  mais ce n'est pas obligatoire Objectifs et livrables Spécification technique Test unitaire
CDI
Freelance

Offre d'emploi
Data Engineer (spécialisation Snowflake)

Publiée le
Agile Scrum
Azure
Data analysis

12 mois
Paris, France
Télétravail partiel
Data Engineer (spécialisation Snowflake) Contexte du poste Au sein de la Direction des Systèmes d’Information, le Data Engineer rejoint l’équipe Data, responsable de la conception, de la mise en œuvre et de la maintenance des solutions d’exploitation et de valorisation des données. Dans un contexte de modernisation du SI et de structuration des usages data, l’entreprise déploie la plateforme Snowflake , solution cloud de référence pour unifier le stockage, le traitement et le partage des données. Missions principales Le Data Engineer interviendra sur l’ensemble de la chaîne de traitement de la donnée : 1. Conception et développement Concevoir, développer et orchestrer les flux de données sur Snowflake (Snowpipe, Streams, Tasks, Snowflake Pipelines). Définir et maintenir les modèles de données (zones Raw, Staging, Core, Data Marts). Développer des pipelines d’ingestion et de transformation de données (batch, near real-time). Garantir la qualité, la performance et la fiabilité des traitements. 2. Intégration et industrialisation Optimiser les coûts, la gouvernance et les performances de la plateforme Snowflake. Documenter les architectures, flux, schémas et traitements. Participer à l’industrialisation des processus Data Engineering (DataOps). 3. Gouvernance et sécurité des données Collaborer avec le Head of Data et le Data Architect pour concevoir une plateforme data conforme aux standards. Mettre en œuvre les bonnes pratiques de sécurité (RBAC, gestion des rôles et privilèges), de catalogage et de gestion des métadonnées. Contribuer à l’amélioration continue des normes de gouvernance data. 4. Support et amélioration continue Assurer le support technique des environnements Snowflake. Identifier les axes d’amélioration et accompagner les évolutions de la plateforme data. Former et accompagner les utilisateurs métiers, analystes et équipes BI.
Freelance

Mission freelance
Consultant - BFI - IPV Equity - connaissance dérivés actions / valorisations / PnL. VBA / Python

Publiée le
Gestion de projet
Python

6 mois
620-640 €
Paris, France
Télétravail partiel
Pour un acteur majeur de la Banque de Financement et d’Investissement (BFI), nous recherchons un consultant expérimenté pour intervenir sur les activités de valorisation et de suivi PnL des instruments financiers de type actions et dérivés actions. Le consultant contribuera à l’analyse des positions, à la mise en place et au contrôle des modèles de valorisation, ainsi qu’au suivi des indicateurs de performance financière. Il participera également à la production de reporting et à l’automatisation des calculs via des scripts VBA ou Python. L’objectif est d’assurer la fiabilité des données, la conformité aux standards internes et la qualité des analyses financières dans un environnement exigeant et à forte sensibilité marché.
CDI

Offre d'emploi
(H/F) Développeur applicatif L4G

Publiée le

33k-40k €
Vaulx-en-Velin, Auvergne-Rhône-Alpes
Adsearch, cabinet de conseil en recrutement, vous propose un poste de Développeur applicatif L4G chez un client final lyonnais dans l’industrie. Poste : Vous intégrez un client final dans le domaine du transport dont le siège est en région lyonnaise. Cette société familiale et historique comprend environ 150 utilisateurs. Elle société externalise beaucoup d’aspects informatiques mais pas le développement. Vous rejoindrez une équipe de 3 personnes qui développent à la fois l’ERP interne, les interconnexions avec le WMS et les outils annexes (interfaces avec leurs partenaires, outils de trakking…) En tant que développeur applicatif vous interviendrez principalement sur l’ERP interne qui est développé en Clarion (vous serez formé(e) sur place) Vous interviendrez également sur les évolutions des outils annexes et les interconnexions WMS, développés en SQL et PC Soft (Windev, Webdev et Windev Mobile). Ces outils ont été développés pour interconnecter les systèmes internes (ERP, WMS…) avec les SI des partenaires. Il est possible que vous interveniez également sur le développement d’un outil en Python. On vous demandera également d’assurer l’évolution des bases de données SQL Server et leur cohérence. Au-delà du développement vous participerez au recueil des besoins utilisateurs puis aux déploiements et formation. Vous serez également amené(e) à piloter des prestataires. Enfin, vous interviendrez ponctuellement sur du support applicatif. Ce poste nécessitera à terme quelques déplacements ponctuels pour les déploiements (environ 2 par an, en métropole et dans les DOM-TOM). Stack technique à retenir : Clarion PC Soft SQL Server
Freelance
CDI

Offre d'emploi
Consultant Technique SQL

Publiée le
Crystal Reports
MySQL
SQL

1 an
Paris, France
Télétravail partiel
Vos missions : - Installation et paramétrage technique des solutions - Paramétrage fonctionnel & customisation (reporting, workflows, méthodes de calcul…) - Interfaçage In/Out (API) - Support & assistance (sur site ou à distance) - Documentation, testing - Suivi technique des projets - Participation aux sprints et à l’amélioration continue Profil recherché - Français courant + excellente communication T- rès bonnes compétences SQL / SQL Server (T-SQL, procédures stockées, admin, schémas relationnels) - Investissement, curiosité et envie d’apprendre - Bonne culture technique et bases solides en bases de données - Connaissances en banque privée ou finance de marchés - Compétences souhaitées : Crystal Reports, bases systèmes Microsoft, XML/JSON, JavaScript Formation ingénieur appréciée
CDI
Freelance

Offre d'emploi
Tech Lead Python

Publiée le
Python

2 ans
40k-56k €
400-550 €
Bordeaux, Nouvelle-Aquitaine
Tech Lead / Lead Developer expérimenté pour piloter un périmètre technique orienté back-end Python au sein d’un environnement AWS serverless. La mission, inscrite dans la durée, s’appuie sur un contexte technologique structurant et une équipe déjà en place. Le rôle inclut une forte expertise Python ainsi qu’une maîtrise des services AWS (Lambda, S3, DynamoDB, API Gateway), complétées par des pratiques DevOps telles que GitLab CI/CD et Docker, tandis que Terraform constitue un atout apprécié. Le Tech Lead contribuera activement à la définition, au challenge et à l’évolution de l’architecture logicielle, participera au recueil des besoins et à la conception, et interviendra sur le développement back-end. Il aura également pour responsabilité d’encadrer techniquement l’équipe, de garantir la qualité des livrables, de sécuriser les choix techniques et d’accompagner la montée en compétence des développeurs.
1996 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous