Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 115 résultats.
Freelance

Mission freelance
Product Manager (H/F)

Freelance.com
Publiée le
Product management

1 an
100-480 €
Bordeaux, Nouvelle-Aquitaine
Contexte de la mission Dans le cadre du développement d’un produit de paiement fractionné (4x) , vous interviendrez au sein du domaine Risk Management B2C d’une direction produit. Vous intégrerez une équipe produit complète composée de : Product Managers Développeurs Data Analysts & Data Scientists L’objectif est de piloter un produit stratégique à fort enjeu business et réglementaire. 🎯 Vos missions Votre rôle sera de piloter et faire évoluer un produit de paiement fractionné , en maximisant la valeur client. À ce titre, vous serez amené(e) à : Piloter le bon fonctionnement du produit (technique & fonctionnel) Recueillir les besoins utilisateurs et les transformer en features Prioriser le backlog en fonction de la valeur business Piloter le delivery avec les équipes tech et data Assurer la communication produit et le partage des insights Suivre la performance via des KPI et une approche data-driven 🎯 Enjeux Améliorer l’expérience client sur le paiement fractionné Optimiser le delivery produit au quotidien Assurer la conformité réglementaire (Directive Crédit Conso – 2026) 🧩 Environnement🔧 Technique .NET Snowflake Jira / Confluence ⚙️ Organisation Méthodologie Agile Scrum Rituels : Daily, Sprint Planning, Refinement, Demo, Retro Collaboration étroite : Produit / Tech / Métier
Freelance

Mission freelance
Ingénieur IA / MLOps / LLMOps (H/F)

SPIE ICS
Publiée le
IA

6 mois
400-550 €
Fontenay-aux-Roses, Île-de-France
Rôle principal Industrialiser les modèles d’intelligence artificielle sur le cluster Kubernetes, structurer les pipelines d’entraînement et d’inférence, et accompagner les équipes Data Scientists et métiers dans leurs projets IA. Missions Concevoir et mettre en place des pipelines MLOps / LLMOps (CI/CD IA) robustes et automatisés. Gérer les workflows d’entraînement des modèles IA. Optimiser l’utilisation des GPU via batching, mixed precision, et parallélisation multi-GPU. Déployer des API d’inférence performantes et scalables. Mettre en place et gérer un registre (registry) des modèles IA. Assurer la gestion des versions des datasets et des modèles. Effectuer une veille technologique constante sur les outils et méthodes IA. Apporter un support technique aux équipes R&D. Réaliser des benchmarks de performance des modèles et des pipelines. Compétences clés MLOps / LLMOps : Expérience dans la mise en place et la gestion de pipelines MLOps, maîtrise des outils tels que MLflow, Weights & Biases, Kubeflow, Argo Workflows, GitLab CI, GitHub Actions, vLLM. Intelligence Artificielle : Expertise en IA générative, deep learning, utilisation des frameworks Hugging Face. Optimisation GPU : Maîtrise de CUDA, techniques de batching, mixed precision, multi-GPU. Langages de script : Python, Bash. DevOps : Intégration et automatisation avec Kubernetes, Docker, gestion des déploiements automatisés.
Freelance
CDI

Offre d'emploi
Chef de projet DATA / Delivery Master DATA

DATAMED RESEARCH
Publiée le
Animation
Gestion de projet
Pilotage

12 mois
40k-65k €
450-630 €
Paris, France
Objectifs et livrables Dans le cadre de cette mission, le Delivery Master Data sera responsable de la coordination et de l’accompagnement des équipes projets afin d’assurer la bonne livraison des initiatives Data. Il occupe un rôle central à l’interface entre les équipes techniques, les chefs de projet et les parties prenantes métiers. Missions principales 1. Pilotage des projets Data Planifier et organiser les projets de bout en bout, de la phase d’étude jusqu’à la mise en production Coordonner les équipes multidisciplinaires (Data Engineers, Data Scientists, Product Owners, etc.) Suivre les KPI et mettre en place des plans d’actions correctifs si nécessaire 2. Gestion de la qualité et des délais Garantir le respect des délais et des standards de qualité Veiller à l’application des bonnes pratiques en matière de Data Governance, sécurité et conformité 3. Gestion Agile Animer les cérémonies Agile (Daily, Sprint Review, Rétrospective…) Favoriser une culture d’amélioration continue et de collaboration 4. Communication et gestion des parties prenantes Assurer une communication fluide entre les équipes internes, les clients et les partenaires Préparer et animer les comités de pilotage et de suivi Gérer les attentes clients et accompagner les évolutions des projets 5. Optimisation des processus Identifier les axes d’amélioration des processus de delivery Mettre en place des actions d’optimisation et d’automatisation Améliorer l’efficacité opérationnelle des équipes
CDI
Freelance

Offre d'emploi
Data Engineering - DBT / SQL Junior (350€ MAX)

BEEZEN
Publiée le
DBT

6 mois
28k-35k €
280-350 €
Île-de-France, France
La prestation s’inscrit au sein de l’équipe technique et participe à l’industrialisation des flux de données. Ses missions principales sont : ● Ingestion Multi-sources : Développer des connecteurs et des scripts pour collecter des données via API (SaaS, partenaires) ou extractions de bases de données. ● Transformation (ETL/ELT) : Nettoyer, enrichir et structurer les données brutes dans BigQuery pour les rendre exploitables par les analystes et Data Scientists. ● Automatisation & Orchestration : Déployer et monitorer les chaînes de traitement (DAGs) pour garantir la disponibilité et la qualité des données au quotidien. Livrables : ● Pipelines de données opérationnels et documentés. ● Scripts de transformation SQL et Python. ● Confi guration des orchestrateurs (Composer/Airfl ow). ● Documentation des schémas de données cibles." ● Maîtriser DBT pour la transformation et l’orchestration des données. ● Travailler sur des environnements Data et Cloud, notamment GCP. ● Exploiter BigQuery et SQL avancé sur de gros volumes de données. ● Manipuler et analyser les données en SQL. ● Utiliser DBT pour structurer les pipelines data
CDI
Freelance

Offre d'emploi
Data Engineer

Signe +
Publiée le

24 mois
40k-45k €
286-450 €
Niort, Nouvelle-Aquitaine
Mission : Un profilData ingénieur / Software ingénieur orienté Data avec une expérience significative sur Azure Databricks, python (software engineering) et PySpark. La connaissance des concepts de Machine Learning, notamment des algorithmes de type bagging et boosting, constitue un atout apprécié. En tant que Data/Software ingénieur, le prestataire interviendra au sein d'une équipe agile SAFe et contribuera, au travers de user stories, aux activités suivantes : -Conception et développement des pipelines Data et ML industrialisées et robustes o Pipelines Batch sous Azure Databricks o Utilisation avancée de PySpark, Delta Lake, MLFlow, , Workflows o Optimisation des performances : partitionnement, gestion mémoire, exploitation GPU o Mise en place de mécanismes de reprise d'erreur, de traçabilité et de monitoring o Collaboration étroite avec les data scientists pour transformer les prototypes en solutions industrielles -Développement logiciel et services o Conception et développement de packages python o Respect des standards de développement du socle (qualité du code, tests unitaires, CI/CD, documentation, …) o API sous Azure Function et/ou Azure Container Apps -Contribution aux phases projets (étude de faisabilité, architecture, conception, réalisation, MEP) et aux différents activités de RUN et d'amélioration continue -Participation active aux rituels agiles 3j/semaine sur site Compétences techniques requises : Azure Databricks PySpark Delta Lake Python
Freelance

Mission freelance
Dev Back/Ops GCP (H/F)

Comet
Publiée le
Azure
FastAPI
Google Cloud Platform (GCP)

6 mois
400-600 €
Île-de-France, France
Rejoignez une application stratégique et innovante développée pour les équipes Marketing Globales d’un grand groupe international. Cette plateforme permet de mesurer, optimiser et piloter la performance de contenus digitaux à grande échelle . Le produit, actuellement en phase de MVP avec une forte adhésion interne, entre dans une étape clé : son passage à l’échelle internationale . Votre rôle : Au sein d’une équipe pluridisciplinaire (PO, UX, Data Scientist, Dev Full-Stack, Data Engineer) et sous la responsabilité du Tech Lead, vous interviendrez sur la transformation de la plateforme en un système scalable, performant et sécurisé . Vos missions : Monitoring & Observabilité : mise en place de logs, alerting, dashboards et KPIs Optimisation du code : refactoring API, amélioration des modèles de données et endpoints Performance : caching, optimisation base de données, gestion des ressources cloud Sécurité : correction de vulnérabilités, amélioration des mécanismes d’authentification Infrastructure : migration de bases de données, scalabilité des services cloud Stack technique : Cloud & Infra : GCP (obligatoire), Azure (nice-to-have) Backend & IA : Node.js, Python, FastAPI, Vertex AI Frontend (plus) : React Bases de données : PostgreSQL, MongoDB
Freelance

Mission freelance
Développeur fullstacks JS React / Node.js (Python / FastAPI)

Comet
Publiée le
FastAPI
Full stack
Node.js

200 jours
400-680 €
Île-de-France, France
Bonjour à tous, notamment aux Leads Fullstack (dominante backend) ⚙️ sur React et Node.js (& Python sur FastAPI) 🔎 Je cherche un profil Dev Fullstack à forte dominante Back(+5 ans d’expérience) pour rejoindre une équipe Produit sur une application stratégique en phase d’accélération. L’objectif de la plateforme est de permettre aux équipes Marketing Globales de mesurer, optimiser et amplifier la performance des assets social media à grande échelle. Le MVP est en cours de développement et entre dans une phase clé d’enrichissement fonctionnel, de scalabilité et d’intégration de capacités IA. 💻 Ce que tu vas faire : - Développer et faire évoluer le Back-End de la plateforme (Node.js & Python / FastAPI) - Concevoir et exposer des APIs robustes et scalables pour accompagner la montée en charge - Intégrer des modèles d’IA via Vertex AI en collaboration avec les équipes Data Science et Data Engineering - Optimiser la modélisation et les performances des bases de données (PostgreSQL & MongoDB) - Contribuer au Front-End en React pour assurer une restitution fluide et performante de la donnée - Participer à la phase d’accélération produit et à la préparation d’un déploiement à grande échelle - Travailler dans une équipe Produit Agile (PO, UX, Data Scientist, Data Engineer, Tech Lead) 🎯 Stack & environnement : Node.js / Python / FastAPI / React / GCP / Vertex AI / PostgreSQL / MongoDB 📍 Mission : IDF 🏠 : 2 jours de TT 📅 Démarrage : ASAP Qu'en penses-tu? Une belle fin de journée
Freelance

Mission freelance
Data Engineer / Software Engineer Data (H/F)

Nicholson SAS
Publiée le
Azure
Databricks
Machine Learning

7 mois
Niort, Nouvelle-Aquitaine
Le contexte Nous recherchons un Data Engineer (ou Software Engineer avec une forte spécialisation Data) pour renforcer une équipe agile en charge de l'industrialisation de projets Data et ML. La mission se déroule dans un environnement technique Azure et s'appuie sur une méthodologie SAFe . Vos missions principales Votre rôle consiste à transformer des prototypes en solutions industrielles fiables et performantes. Vous intervenez sur : Pipelines de données : Conception et développement de flux Batch sous Azure Databricks . Vous gérez l'utilisation de PySpark, Delta Lake et MLFlow. Optimisation technique : Travail sur la performance des traitements (partitionnement, gestion mémoire, exploitation GPU) et mise en place du monitoring (reprise d'erreur, traçabilité). Développement logiciel : Création de packages Python réutilisables. Vous garantissez la qualité via des tests unitaires, de la documentation et l'intégration dans les pipelines CI/CD. API & Services : Développement d'API via Azure Functions ou Azure Container Apps. Collaboration métier : Travail quotidien avec les Data Scientists pour industrialiser leurs modèles (notamment sur des algorithmes de bagging et boosting). Cycle de vie projet : Participation complète de l'étude de faisabilité à la mise en production, incluant le suivi en RUN et l'amélioration continue. Détails de la mission Localisation : Niort (présence obligatoire sur site 3 jours par semaine). Démarrage : 04/05/2026. Durée : Jusqu'au 31/12/2026 (visibilité fin d'année). Tarif : Selon profil et expérience.
CDI
Freelance

Offre d'emploi
Product Owner IA Senior – Transformation des Centres de Relation Client

SMILE
Publiée le
Data analysis
Transformation digitale

3 mois
40k-58k €
400-550 €
Paris, France
Dans le cadre de ses travaux de transformation IA, un grand groupe bancaire français recherche un Product Owner Senior pour accompagner la transformation de ses Centres de Relation Clients (CRC) via l’intégration de cas d’usage IA à forte valeur ajoutée. Le PO sera intégré à une direction Data/IA transverse , en lien direct avec les équipes métier CRC, les UX designers, les experts data (data scientists, data engineers), les équipes IT et les établissements du réseau. Les Centres de Relation Client représentent un axe stratégique de la transformation de l’expérience client. L’enjeu est de structurer, prioriser et piloter des cas d’usage IA dans trois grands domaines : Traitement de la Voix (speech-to-text, détection d’intention, analyse d’émotion) ; Analyse des Mails et Courriers (NLP, routage intelligent, résumé, classification) ; Déploiement ou amélioration d’Agents conversationnels (LLM, chatbot, voicebot) . Le Product Owner sera directement responsable de la mise en œuvre de plusieurs projets IA sur ce périmètre.
Freelance
CDI

Offre d'emploi
Machine Learning Engineer - MLOps

Okara
Publiée le
MLOps

6 mois
Lille, Hauts-de-France
Au sein d'un acteur majeur du retail européen, l'équipe Data & IA Marketplace traite des volumes massifs de données issues de vendeurs tiers. L'objectif est d'automatiser la qualification, la classification et l'enrichissement des catalogues produits pour garantir une expérience utilisateur optimale. Le défi réside dans l'industrialisation de modèles complexes au sein d'une architecture Data Mesh en forte croissance. La Stack Technique Langages : Python, Bash. Cloud : GCP (Google Cloud Platform). Orchestration & MLOps : Airflow, Kubeflow, ZenML, MLflow, Vertex AI. Infrastructure & DevOps : Docker, Kubernetes, Terraform, Ansible, Gitlab CI. Data Quality & Feature Store : Great Expectations, Feast. Ta Mission & Ton Impact : Concevoir et maintenir des pipelines MLOps automatisés (CI/CD) pour l'entraînement et le déploiement des modèles en production. Gérer l'infrastructure cloud via Terraform et assurer le versioning complet des modèles et des données. Implémenter le monitoring de performance (détection de drift, latence) et configurer l'alerting pour garantir la fiabilité des solutions. Accompagner les Data Scientists dans l'adoption des meilleures pratiques de développement (code quality, tests, industrialisation). Intégrer des validations de schémas et des filtres de qualité de données au sein des pipelines de production.
CDI
Freelance

Offre d'emploi
MLOps/LLMOps - Lille (Hybride)

KUBE Partners S.L. / Pixie Services
Publiée le
CI/CD
Docker
FastAPI

1 an
40k-55k €
400-500 €
Lille, Hauts-de-France
🧠 Intitulé du poste Machine Learning Engineer – MLOps / IA / GCP 🎯 Mission principale Assurer l’ industrialisation, le déploiement et l’exploitation en production de solutions de Machine Learning , dans un environnement cloud (Google Cloud Platform), en intégrant des pratiques avancées de MLOps, CI/CD et data engineering . 🚀 Responsabilités clés Déployer et maintenir des applications ML en production Concevoir et orchestrer des pipelines de données Automatiser les déploiements ML Développer des solutions de monitoring et observabilité des modèles Participer à l’ intégration des modèles ML dans les produits digitaux Collaborer avec les data scientist pour transformer les cas d’usage en solutions industrialisées, scalables et robustes Contribuer à la stratégie ML et à la roadmap technique Promouvoir les bonnes pratiques MLOps et software engineering Participer au coaching et mentoring des équipes 🛠️ Compétences techniques requises (impératives) ☁️ GCP 🐍 Python +++ 🤖 Machine Learning / IA ⚙️ MLOps/LLM
Freelance

Mission freelance
MLOps / Data Engineer (Expert Dataiku)

HAYS France
Publiée le
Dataiku
MLOps

6 mois
Nouvelle-Aquitaine, France
Contexte Le domaine SI Dataplatform & BI souhaite renforcer ses capacités d’industrialisation des projets Data Science et IA. La plateforme Dataiku DSS est utilisée pour le développement des modèles ML et nécessite une expertise externe pour sécuriser leur mise en production, leur exploitation dans le temps et leur alimentation en données. La mission s’inscrit à l’interface entre l’équipe Data Science et l’équipe Dataplatform de la DSI, avec une forte orientation d’industri­­alisation (build & run). Objectifs de la mission Industrialiser les projets de Machine Learning développés sous Dataiku DSS Mettre en place une chaîne MLOps robuste, sécurisée et maintenable Garantir la fiabilité, la performance et la gouvernance des flux de données alimentant Dataiku Assurer le bon passage du POC à la production, puis l’exploitation dans le temps Contribuer à la diffusion des bonnes pratiques MLOps & DataOps au sein des équipes Data Périmètre d’intervention • Projets Data Science & IA développés sous Dataiku DSS • Chaînes MLOps (entraînement, déploiement, supervision des modèles) • Connexion de Dataiku aux sources de données de l’entreprise • Environnements DEV / TEST / PROD Livrables attendus Pipelines MLOps Dataiku industrialisés et documentés Modèles ML déployés et supervisés en production Connecteurs Dataiku vers les sources de données opérationnels Documentation d’exploitation MLOps & DataOps Recommandations de standardisation et d’amélioration continue Interactions Rattachement : Responsable de domaine SI Dataplatform et BI avec un détachement opérationnel dans l’équipe Data Science le temps du projet Partenaires clés : équipes IT (projets, devs, MCO), directions métiers (commerce, marketing, supply chain, finance), conformité et sécurité. Data Scientists, Data Engineers, Architectes Data / Cloud, équipes de la direction technique : Infrastructures, Production, Sécurité & Exploitation
CDI
Freelance

Offre d'emploi
Architecte Big Data

HN SERVICES
Publiée le
Apache Kafka
Apache Spark
Google Cloud Platform (GCP)

6 mois
40k-70k €
400-550 €
Paris, France
Vous serez responsable de la conception et de la mise en œuvre d'architectures optimisées et scalables au sein d'une plateforme data, analytique et IA basée hébergée en hybride Cloud/On Premises. Ce poste nécessite une compréhension approfondie de l’écosystème Data en terme de technologies et de pratiques à l’état de l’art (i.e. Hybridation, Datamesh etc…) Les principales activités sont les suivantes : - Collaborer avec les équipes data (Data Engineer, Data Analyst, Data Scientist, Business Analyst, Product Owner, Chef de projet, etc.) pour comprendre les exigences en matière de données, d'usages et de capacités et concevoir et formaliser l’architecture adaptée - Accompagner les équipes data dans la mise en œuvre des architectures définies - Assurer la qualité, l'intégrité et la sécurité des données dans l'environnement de la plateforme data, analytique et IA - Optimiser les processus d'ingestion de données et contribuer à la définition et la mise en œuvre des politiques de gouvernance des données - Évaluer et préconiser les technologies et outils appropriés pour le stockage, le traitement et l'analyse des données - Proposer des optimisations pour résoudre les problèmes d’architecture liés au stockage, à l’accès et à l’exploitation de la plateforme data - Une expérience sur l’accompagnement de projet en lien avec des migrations de plateforme data On premises vers le Cloud (idéalement GCP). Compétences techniques ou métier recherchées : - Vous avez une expérience minimale de 6 ans sur un poste d'architecte data et vous avez une expérience de mise en œuvre d'une plateforme basée sur une technologie Cloud. - Vous avez obtenu un diplôme dans le domaine IT et êtes spécialisé dans la Data. - Vous avez une expérience similaire sur la modélisation des données. - Concepts et technologies liés au Big Data (par exemple, Apache Spark, Hadoop) et aux bases de données SQL/NoSQL. Compétences comportementales recherchées : - Coopérer et fonctionner en transversal - Interagir facilement avec les autres - Négocier et convaincre - Proposer des initiatives ou des solutions - S'adapter aux changements. Compétence complémentaire : - Maitrise des Plateformes Data GCP, Spark, Python, SQL, Kafka, MongoDB Excellente connaissance des concepts et technologies des datalake, datawarehouse / entrepôts de données, lakehouse, des plateformes cloud telles que Google Cloud.
CDI
CDD
Freelance

Offre d'emploi
ML Engineer Google Cloud (Python, Vertex AI, BigQuery) – H/F

SMARTPOINT
Publiée le
BigQuery
Google Cloud Platform (GCP)
IA

1 an
50k-70k €
480-640 €
Île-de-France, France
Dans le cadre de l’amélioration de la personnalisation de l’expérience utilisateur , nous constituons une équipe dédiée aux sujets de machine learning et de recommandation en production . Cette équipe data est composée : d’un Product Owner d’un Data Scientist d’un Lead ML Engineer d’un Machine Learning Engineer L’environnement technique repose principalement sur Google Cloud Platform avec notamment : Python Vertex AI BigQuery Cloud Run Airflow API REST Terraform GitLab CI/CD L’objectif est de concevoir, industrialiser et déployer des solutions de machine learning en production , tout en assurant leur performance et leur scalabilité. Missions Au sein de l’équipe data et ML, vous interviendrez sur l’ensemble du cycle de vie des projets de machine learning en production . Cas d’usage et mise en production Concevoir un premier cas d’usage de personnalisation de l’expérience utilisateur Déployer les modèles en production sur Google Cloud Mettre en place des tests A/B pour mesurer l’impact des recommandations Assurer le monitoring et l’évaluation des performances des modèles Industrialisation des modèles IA Concevoir et maintenir des pipelines machine learning robustes et scalables Mettre en place les architectures MLOps Exposer les modèles via des API REST (FastAPI ou Flask) Industrialiser les modèles développés par les Data Scientists Mettre en place des workflows CI/CD Architecture et infrastructure data Structurer et organiser le stockage des données Garantir la scalabilité, la sécurité et la stabilité des environnements Déployer des infrastructures via Infrastructure-as-Code (Terraform) Collaborer avec les Data Engineers et équipes techniques Collaboration et amélioration continue Participer aux phases de cadrage, planification et delivery Contribuer à la documentation technique Réaliser une veille technologique sur les technologies ML et IA Appliquer les bonnes pratiques de développement et d’architecture data
Freelance
CDI

Offre d'emploi
📩 Data Engineer – Data Quality & Governance

Gentis Recruitment SAS
Publiée le
Agile Scrum
Apache Spark
API

1 an
Paris, France
Contexte de la mission Dans le cadre du développement de son équipe Data Accelerator (DAC), notre client recherche un Data Engineer confirmé orienté Data Quality et Data Governance. DAC est une équipe transverse en charge d’accompagner les équipes métiers et IT sur l’ensemble de la chaîne de valeur de la donnée : collecte, ingestion, transformation, industrialisation, gouvernance et optimisation des performances. L’environnement s’appuie principalement sur les technologies AWS, Databricks, Dataiku et Collibra, avec un fort enjeu autour de la qualité, de la fiabilisation et de la structuration des données au sein du Data Lake. Le consultant interviendra dans un contexte stratégique avec une forte collaboration avec les équipes Data Analysts, Data Scientists ainsi qu’avec le Chief Data Officer. Missions principalesQualification et gestion des données Captation des données structurées et non structurées provenant de multiples sources Intégration et supervision des flux de données Structuration de la donnée (normalisation, sémantique, référentiel) Cartographie des données disponibles Nettoyage des données (suppression des doublons, contrôle qualité) Validation et qualification des données avant intégration dans le Data Lake Participation à la création et à l’amélioration des référentiels de données Industrialisation et performance Développement et optimisation des traitements data Amélioration des performances et maîtrise des coûts des plateformes data Participation aux développements correctifs, évolutifs et adaptatifs Contribution aux dossiers d’architecture Production des tableaux de bord de suivi Gouvernance & collaboration Participation à la définition de la politique data Respect des standards de sécurité, gouvernance et conformité Collaboration avec les équipes métiers, IT et gouvernance data Contribution à l’industrialisation des cas d’usage Data & GenAI
Freelance
CDI

Offre d'emploi
Architect Data & IA ( Python, IA, API, Cloud...) - Secteur Assurance

OBJECTWARE
Publiée le
Agent IA
Cloud
Python

3 ans
40k-75k €
330-640 €
Nanterre, Île-de-France
🧩 Les responsabilités clés (traduction métier) Ce que fera concrètement le consultant : Concevoir une architecture de plateforme IA (TAS Pricing) Définir : APIs Data flows sécurité infra cloud Connecter : modèles IA (Python / Domino Datalab) data platform (CTDF) front/back (Java / Angular) Mettre en place : CI/CD environnements monitoring 👉 + rôle de référent technique / leader de squad Architecture : microservices, API-first Cloud : AWS / Azure / GCP (ou cloud interne BNP) Data : pipelines, ingestion, modelling IA : intégration de modèles (pas forcément data scientist pur) Tech : Python (IA) Java / Angular (exposition des services) DevOps : CI/CD, infra, monitoring Sécurité : IAM, chiffrement, architecture sécurisée GREAT PLACE TO WORK depuis 2019 et BEST WORKPLACE FRANCE 2023-2024 & 2025 Depuis 24 ans, le Groupe Objectware développe ses expertises et practices pour accompagner ses clients dans l’optimisation de leurs performances et leurs enjeux de transformation. Notre expertise en Management de projets, Développement applicatif, Infrastructure, Opération et Sécurité nous permet d’avoir une couverture totale sur le cycle de vie des projets de nos clients.
115 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous