Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 171 résultats.
Freelance
CDI

Offre d'emploi
Architecte Data Azure / Databricks

xITed
Publiée le
Azure Data Factory
Databricks
Microsoft Power BI

12 mois
Lyon, Auvergne-Rhône-Alpes
Dans le cadre d’un projet data stratégique, nous recherchons un Architecte Data spécialisé Azure disposant d’une solide expérience sur l’écosystème Azure Analytics et d’une expertise confirmée sur Databricks . Le consultant interviendra en tant qu’ Architecte de domaine et sera responsable de la conception et de l’alignement de l’architecture data avec les standards du groupe. Il travaillera en étroite collaboration avec les Data Product Owners, Data Engineers, Data Analysts et Data Scientists , ainsi qu’avec la communauté des architectes, afin de garantir la cohérence et la pérennité des solutions mises en place. Le poste nécessite à la fois une vision d’architecture globale , une capacité de coordination technique et une implication opérationnelle dans les discussions techniques. Responsabilités Définir et concevoir l’architecture data sur l’écosystème Azure Garantir l’alignement des solutions avec l’architecture cible Participer aux discussions d’architecture et aux choix techniques Accompagner les équipes data sur les bonnes pratiques d’architecture Concevoir et documenter les architectures de solutions Développer et maintenir les modèles de données logiques et physiques Contribuer à la roadmap produit et à la priorisation du backlog Assurer le leadership technique sur le périmètre data Environnement technique Azure Databricks Azure Data Factory Azure Data Lake Storage (ADLS) Azure SQL Database Power BI
CDI

Offre d'emploi
Software Engineer (MLOps) - H/F/NB (H/F)

█ █ █ █ █ █ █
Publiée le
CI/CD
DevOps
Docker

40k-70k €
Montreuil, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
100960/Product Owner technique Socle IA et Agentique (IA Gen) de la Plateforme Data & IA - Nantes

WorldWide People
Publiée le
IA

12 mois
400 €
Nantes, Pays de la Loire
Product Owner technique sur le périmètre Socle IA et Agentique (IA Gen) de la Plateforme Data & IA. L’objectif est de structurer et d’industrialiser les capacités plateforme qui permettent : - Côté Socle IA, de fabriquer, déployer et opérer des modèles d’IA classique (cycle de vie ML de bout en bout) ; - Côté IA Gen, d’outiller le passage à l’échelle de l’agentique (outils, frameworks, patterns) et de sécuriser le cycle de vie global d’un produit agentique (de la conception à l’exploitation). Les services LLM et les services partagés (OCR, Embedder, Speech2Text) étant déjà pilotés par des PO, l’enjeu de cette mission est de compléter le dispositif sur la brique agentique et de garantir une industrialisation robuste : réutilisabilité, qualité de service, observabilité, gouvernance d’usage et adoption. Cadrage & priorisation (avec le PM) - Qualifier les besoins, formaliser les cas d’usage et critères d’acceptation. - Décliner la vision PM en backlog/roadmap opérationnels, arbitrer valeur/risque/effort. Socle IA – cycle de vie ML - Piloter les évolutions plateforme permettant la fabrication et le déploiement : industrialisation des parcours, standards, documentation, templates - Contribuer aux exigences run : observabilité, performance, fiabilité, exploitabilité. IA Gen – outillage agentique - Définir et piloter la mise en place des outils & frameworks (orchestration, composants réutilisables, patterns). - Structurer le cycle de vie agentique : intégration, tests, évaluation, supervision, sécurité/guardrails, itérations. Pilotage delivery - Animer le backlog (refinement, planning, démos), suivre l’avancement, gérer dépendances/risques. - Coordonner dev/lead tech/data scientists/ops/archi, et sécuriser la qualité des livraisons. Adoption & documentation - Produire/mettre à jour la doc produit (guides, exemples, bonnes pratiques) et accompagner les équipes dans la prise en main. - Mettre en place des KPIs (usage, satisfaction, incidents, coût) et alimenter l’amélioration continue.
Freelance

Mission freelance
POT8951 - Un Data Analyste sur Massy

Almatek
Publiée le
Docker

6 mois
170-470 €
Massy, Île-de-France
Almatek recherche pour l'un de ses clients, un Data Analyste sur Massy ENVIRONNEMENT TECHNIQUE ET EXPERTISES NÉCESSAIRES. -Discuter avec les équipes opérationnelles et dirigeantes pour identifier leurs besoins et leurs difficultés, raffiner et prioriser les besoins avec l’ensemble de l’équipe -Concevoir, développer, faire évoluer la solution logicielle de détection de fraude avec des traitements vidéo en temps réel, des processus d’apprentissage automatique et de labellisation de données, des services d’administration de la solution et de suivi de sa performance, - Valider le comportement de la solution sur une infrastructure de test, identique aux magasins -Contribuer itérativement au projet en tant que ML engineer : collecte des données et préparation, modélisation, développement, évaluation, revue de code, déploiement des solutions, suivi de l’impact; - Communiquer sur les éventuels incidents des services en production -Vous pourrez également participer aux échanges réguliers de notre communauté d’une quarantaine d'ingénieurs (data scientists, engineers, devops) : présentations, - Partage de retours de conférences, débats sur les problématiques ML, de développement logiciel, ...
Freelance
CDI

Offre d'emploi
PRODUCTION OWNER TECHNIQUE GEC

VISIAN
Publiée le
Docker
Kubernetes

1 an
40k-80k €
400-700 €
Paris, France
Le bénéficiaire souhaite une prestation d’accompagnement dans l’objectif d’assurer une mission d'ownership technique du produit "RAG as a Service" Contexte: - Equipe de 20 experts repartis sur 5 poles d'activite (Solutions Engineering, Automation Engineering, Infrastructure Engineering, Product Office, Client Services). - 15+ plateformes de Data Science / MLOps en production (Cloud et on premise) / 600+ utilisateurs Data Scientists - Plusieurs infrastructures, plateformes et services d'IA Generative en production a l'attention de tous les métiers du Groupe. - Un GRID de GPU on premise utilise pourle training et l'inference. - Pratiques DevSecOps / GitOps / MLOps / LLMOps - Automatisation autour des APIs des infrastructures, des plateformes (kubernetes/openshift) et des produits. Les missions principales : - Participation à l’élaboration technique et fonctionnelle du produit IA qui sera attribué en lien étroit avec les équipes Solutions Engineering (veille technologique IA) et DevSecOps (industrialisation). - Garantie du respect des contraintes de sécurité, de conformité et de confidentialité applicables aux standards de production IT du groupe (eg. observabilité, auditabilité, traçabilité, contrôle des accès). - Définition et implémentation des mécanismes techniques permettant aux métiers ou à leur IT d’opérer leur propre gouvernance de votre produit. - Établissement, maintient et agrémentation de la feuille de route technique du produit afin d’apporter de la valeur de manière continue à celui-ci en lien avec les besoins de vos clients métiers. - Accompagnement au quotidien des utilisateurs et décideurs métiers et IT du groupe BNP Paribas qui utilisent votre produit et s’assurer avec eux de la mise en application des bonnes pratiques d’usage de celui-ci au sein de leurs équipes. - Supervision des opérations critiques (changement, déploiement, mise à jour) avec une vision de bout en bout des impacts sur les différents services gérés par l’équipe. - Organisation et documentation de la gestion des incidents?: analyse de root-causes, coordination inter-équipes. - Capacité à être moteur dans l’amélioration des processus internes et l’alignement avec les autres équipes du domaine IA & Données. - Capacité à être le représentant de la relation technique avec les fournisseurs qui contribuent à l’élaboration de votre produit (éditeurs logiciels, équipes d’industrialisation, équipes d’infrastructures).
CDI

Offre d'emploi
Développeur Python / IA

CAT-AMANIA
Publiée le
Agent IA
DevOps
Python

40k-60k €
Levallois-Perret, Île-de-France
AI Delivery accompagne les métiers et les pays dans leurs projets de Data science, depuis la génération de use case jusqu’à la mise en production. Notre équipe, dynamique et internationale, au profil « start-up » intégrée à un grand groupe, regroupe des profils de Data scientist experts en Machine Learning (computer vision, NLP, scoring), un pôle ML engineering capable d'accompagner les DataScientists lors de l'industrialisation des modèles développés (jusqu'à la mise en production) ainsi qu’une équipe AI Projects. AI Delivery met aussi à disposition des lignes de métiers Personal Finance la plateforme de Datascience « Sparrow », qui comporte * une plateforme d'exploration et de développement Python, Sparrow Studio, développée in-house par une équipe dédiée * un framework d'industrialisation des modèles de Datascience, Sparrow Flow, ainsi qu'une librairie InnerSource “pyPF” facilitant les développements des Data Scientist. * une plateforme d'exécution des modèles de Datascience, Sparrow Serving * et un outil de Community Management, Sparrow Academy L’équipe Technical Office, composée principalement de MLOps Engineers, a pour principale mission d’être garante de la qualité des livrables de l’ensemble de la direction, de les déployer sur le cloud privé du Groupe, « dCloud » et enfin d’assurer la haute disponibilité de l’ensemble de nos assets. Cette équipe conçoit, développe et maintient des plateformes et des frameworks de data science. PF fait appel a une prestation en AT pour assurer l’évolution et la haute disponibilité de l'ensemble de nos assets. Le prestataire aura la charge de la disponibilité et de la stabilité de nos différentes plateformes data avec un focus particulier sur notre asset Sparrow. Le prestataire intègrera l’équipe du Technical Office. DevOps, MLOps, Data Science, Cloud sont les moteurs de son quotidien. Les sujets traités par l’équipe sont variés : • Participer à la maintenance/l’évolution des frameworks de data science existants (Python) ; • Participer à la maintenance/l’évolution des pipelines de CI/CD (Gitlab CI, GitOps) ; • Participer à la maintenance/l’évolution de l’Observabilité des plateformes (logging, monitoring, traçabilité) ; • Participer à la mise en production des outils et des solutions IA déployées sur la plateforme ; • Être force de proposition et participer aux POCs. Stack Technique de l’équipe : • Langages : Python, Golang, Bash • GNU/Linux • Kubernetes • DevOps tooling : Docker, Buildkit, Gitlab, GitlabCI, Artifactory, ArgoCD, Helm, Kustomize • Cloud services : Certmanager, Redis, Grafana, Jaeger, Prometheus, ELK, MinIO, Postgres Pre requis : • Expérience dans la prestation en python ; • Maîtrise de GitLab et des processus de CI/CD ; • Bonnes connaissances des infrastructures Cloud (système distribué et Object Storage) ; • Connaissance en machine learning et data science ; • Très bonnes connaissances en Intelligence Artificielle ; • Connaissances en Kubernetes sont un plus ; • Orienté clients, capacité à collaborer et communiquer à l’oral et à l’écrit ; • Niveau d’anglais correct à l’écrit et à l’oral ; • Méthodique et autonome • Intéressé par le monde open source
Freelance
CDI

Offre d'emploi
DevOps Engineer IA

TS-CONSULT
Publiée le
Azure
Nosql
Tensorflow

1 an
Île-de-France, France
Bonjour a tous je suis a la recherche d'un profil DevOps Engineer IA pour l'un de mes clients, Profil recherché : DevOps Engineer avec expertise en MLOps et maîtrise du vibe coding, capable de construire et maintenir des infrastructures robustes pour l'IA tout en automatisant les déploiements et en garantissant la performance des solutions en production. Compétences requises Hard Skills : • 5 ans d'expérience minimum en développement Python avec focus IA/ML • Expérience démontrée en vibe coding avec utilisation productive d'outils IA (GitHub Copilot, Cursor, Claude, ChatGPT) • Expertise en frameworks ML/DL : TensorFlow, PyTorch, Scikit-learn, Hugging Face, LangChain • Expérience confirmée avec les LLMs (fine-tuning, prompt engineering, RAG, agents) • Maîtrise des plateformes Cloud (AWS SageMaker, Azure ML, GCP Vertex AI) • Connaissance des technologies MLOps et pipelines CI/CD pour modèles IA • Compétences en data engineering (preprocessing, feature engineering, pipelines de données) • Maîtrise des bases de données (SQL, NoSQL, Vector DBs) • Expérience en développement d'APIs (FastAPI, Flask, REST) • Bonne connaissance de la conteneurisation (Docker, Kubernetes) • Expertise en testing et qualité du code (pytest, unittest, code coverage) • Connaissance des outils de versioning (Git, GitLab/GitHub) • Un plus : Expérience en Computer Vision et/ou NLP Soft Skills : • Esprit critique développé face au code généré par IA • Capacité à décomposer des problèmes complexes et à formuler des prompts efficaces • Curiosité intellectuelle et veille technologique active sur l'IA • Pragmatisme : équilibre entre vitesse de développement et qualité • Rigueur dans la validation et l'optimisation du code • Autonomie et force de proposition • Excellent relationnel et capacité à travailler en équipe • Esprit agile et adaptatif • Capacité à partager ses connaissances et best practices Résultats attendus (Livrables) • Participation aux workshops avec les équipes IT/métiers et les Data Scientists • Développement et optimisation de modèles IA/ML pour les use cases métiers • Intégration et déploiement des modèles en production (APIs, microservices) • Utilisation experte du vibe coding pour accélérer le développement sans compromettre la qualité • Mise en place de pipelines MLOps (entraînement, versioning, monitoring) • Tests automatisés et validation des modèles (performance, robustesse, biais) • Documentation technique détaillée (code, modèles, APIs, prompts réutilisables) • Optimisation des performances (latence, coûts, scalabilité) • Veille technologique et recommandations sur les nouvelles techniques IA • Partage des best practices de vibe coding avec l'équipe
Freelance
CDI

Offre d'emploi
Machine Learning Engineer - MLOps

Okara
Publiée le
Docker
MLOps

6 mois
Lille, Hauts-de-France
Au sein d'un acteur majeur du retail européen, l'équipe Data & IA Marketplace traite des volumes massifs de données issues de vendeurs tiers. L'objectif est d'automatiser la qualification, la classification et l'enrichissement des catalogues produits pour garantir une expérience utilisateur optimale. Le défi réside dans l'industrialisation de modèles complexes au sein d'une architecture Data Mesh en forte croissance. La Stack Technique Langages : Python, Bash. Cloud : GCP (Google Cloud Platform). Orchestration & MLOps : Airflow, Kubeflow, ZenML, MLflow, Vertex AI. Infrastructure & DevOps : Docker, Kubernetes, Terraform, Ansible, Gitlab CI. Data Quality & Feature Store : Great Expectations, Feast. Ta Mission & Ton Impact : Concevoir et maintenir des pipelines MLOps automatisés (CI/CD) pour l'entraînement et le déploiement des modèles en production. Gérer l'infrastructure cloud via Terraform et assurer le versioning complet des modèles et des données. Implémenter le monitoring de performance (détection de drift, latence) et configurer l'alerting pour garantir la fiabilité des solutions. Accompagner les Data Scientists dans l'adoption des meilleures pratiques de développement (code quality, tests, industrialisation). Intégrer des validations de schémas et des filtres de qualité de données au sein des pipelines de production.
CDI
Freelance

Offre d'emploi
Développeur IA Python (AI-Native Developer)

TS-CONSULT
Publiée le
Azure
Pytorch
Tensorflow

1 an
Île-de-France, France
Bonjour, Actuellement je suis a la recherche d'un profil , Développeur IA Python (AI-Native Developer) Profil recherché : Développeur Python expérimenté, expert en IA/ML et maîtrisant le vibe coding, capable de développer rapidement des solutions innovantes avec assistance IA tout en garantissant la qualité et la maintenabilité du code. Compétences requises Hard Skills : • 5 ans d'expérience minimum en développement Python avec focus IA/ML • Expérience démontrée en vibe coding avec utilisation productive d'outils IA (GitHub Copilot, Cursor, Claude, ChatGPT) • Expertise en frameworks ML/DL : TensorFlow, PyTorch, Scikit-learn, Hugging Face, LangChain • Expérience confirmée avec les LLMs (fine-tuning, prompt engineering, RAG, agents) • Maîtrise des plateformes Cloud (AWS SageMaker, Azure ML, GCP Vertex AI) • Connaissance des technologies MLOps et pipelines CI/CD pour modèles IA • Compétences en data engineering (preprocessing, feature engineering, pipelines de données) • Maîtrise des bases de données (SQL, NoSQL, Vector DBs) • Expérience en développement d'APIs (FastAPI, Flask, REST) • Bonne connaissance de la conteneurisation (Docker, Kubernetes) • Expertise en testing et qualité du code (pytest, unittest, code coverage) • Connaissance des outils de versioning (Git, GitLab/GitHub) • Un plus : Expérience en Computer Vision et/ou NLP Soft Skills : • Esprit critique développé face au code généré par IA • Capacité à décomposer des problèmes complexes et à formuler des prompts efficaces • Curiosité intellectuelle et veille technologique active sur l'IA • Pragmatisme : équilibre entre vitesse de développement et qualité • Rigueur dans la validation et l'optimisation du code • Autonomie et force de proposition • Excellent relationnel et capacité à travailler en équipe • Esprit agile et adaptatif • Capacité à partager ses connaissances et best practices Résultats attendus (Livrables) • Participation aux workshops avec les équipes IT/métiers et les Data Scientists • Développement et optimisation de modèles IA/ML pour les use cases métiers • Intégration et déploiement des modèles en production (APIs, microservices) • Utilisation experte du vibe coding pour accélérer le développement sans compromettre la qualité • Mise en place de pipelines MLOps (entraînement, versioning, monitoring) • Tests automatisés et validation des modèles (performance, robustesse, biais) • Documentation technique détaillée (code, modèles, APIs, prompts réutilisables) • Optimisation des performances (latence, coûts, scalabilité) • Veille technologique et recommandations sur les nouvelles techniques IA • Partage des best practices de vibe coding avec l'équipe Un anglais courant!
Freelance

Mission freelance
DATA ANALYST

Geniem
Publiée le
Python

6 mois
Lille, Hauts-de-France
Data Analyste Le domaine Search&amp et Publication recherche un/une data analyst pour mener à bien des projets de data analyse et de dashboarding Objectif global du projet : Accompagner le métier Search&amp Publication en réalisant des études statistiques, des explorations de données et en construction des Dashboards Contrainte forte du projet GCP + PowerBI + Connaissance Web Les livrables sont Analyses statistiques Compétences techniques : Python, SQL - Confirmé - Impératif Dashboards (Power BI + Data Studio) - Confirmé - Impératif Connaissance données Web - Confirmé - Impératif Google Cloud Platform - Confirmé - Impératif Connaissances linguistiques Français Courant (Impératif) Anglais Professionnel (Impératif) Mission : - accompagner et challenger le métier - être force de proposition sur des solutions adéquats et innovantes pour répondre aux problématiques métiers - réaliser des analyses statistiques préparatoires - réaliser des dashboards clairs et synthétiques - être pédagogue & autonome - communiquer, partager avec les autres interlocuteurs de la direction IT (data scientists, chef de projets et data ingénieurs) - savoir communiquer & restituer des résultats concrets SA MISSION : Mettre en œuvre des outils informatiques, des techniques et des méthodes statistiques pour permettre d’organiser, synthétiser et traduire efficacement des données. SES LIVRABLES : - Modèle et structuration des données - Algorithme / Méthode statistique
Freelance

Mission freelance
Senior Data Engineer – Data Platform Enabler

Gentis Recruitment SAS
Publiée le
Apache Spark
AWS Cloud
DevOps

12 mois
Paris, France
Contexte Dans le cadre du renforcement de sa Data Platform, un acteur majeur de la gestion d’actifs quantitatifs recherche un Senior Data Engineer très opérationnel pour accompagner et faire monter en compétence une communauté de plus de 50 data engineers et data scientists. Le rôle est central : interface entre les feature teams et les équipes plateforme, avec une forte dimension technique et stratégique. MissionsSupport technique hands-on Accompagnement direct des équipes sur leurs problématiques data Développement et optimisation de pipelines end-to-end Identification et réduction de la dette technique Mise en place d’outillage (tests, automation, AI agents…) Amélioration de la Developer Experience Data Platform Evangelism Promotion et adoption quotidienne de la plateforme Partage des best practices et des standards Veille technologique et diffusion interne Animation de communauté de pratique Upskilling & Transmission Évaluation du niveau des équipes Mise en place de formations, workshops, contenus techniques Création de documentation et supports techniques Feedback & Amélioration continue Collecte des besoins utilisateurs Collaboration étroite avec les équipes plateforme Validation technique des assets produits Stack TechniqueCloud AWS (S3, EMR, Glue, Athena, Lake Formation) CloudFormation / CDK Lambda, Fargate Data Engineering Python avancé Spark / Pandas Airflow Parquet Apache Iceberg DevOps CI/CD Jenkins SonarQube Conda Infra-as-Code (idéalement CDK en Python)
CDI
Freelance

Offre d'emploi
Lead Data Engineer Dataiku & Python

OBJECTWARE
Publiée le
Dataiku
Python

3 ans
40k-79k €
400-550 €
Île-de-France, France
Prestations demandées RESPONSABILITES - Conception et implémentation des pipelines de données : • Concevoir et développer des pipelines de données automatisés pour collecter, charger et transformer les données provenant de différentes sources (internes et externes) dans le Data Hub puis pour les transformer en Data Product Data Hub, Data Science ou Data Viz (Power BI). • Optimiser les pipelines de données pour garantir des performances élevées, une faible latence, et une intégrité des données et des traitements tout au long du processus. • Travailler avec les équipes data science et métiers pour comprendre leurs besoins en données et en traitements, et adapter les pipelines en conséquence. - Industrialisation et automatisation des flux de données et des traitements : • Mettre en place des processus d’industrialisation des modèles de machine learning et des flux de données, en garantissant la scalabilité et la fiabilité des pipelines en production. • Automatiser la gestion et le traitement des données à grande échelle, en veillant à réduire les interventions manuelles tout en assurant une supervision proactive des performances et des anomalies. • Collaborer étroitement avec les data scientists et MLOps pour assurer une transition des projets de l’exploration à la production, en intégrant les modèles dans des pipelines automatisés. - Gestion des données et optimisation des performances : • Optimiser les performances des requêtes et des pipelines de traitement des données, en utilisant les meilleures pratiques en matière de gestion des ressources et d’architecture de stockage (raw, refined, trusted layers). • Assurer une surveillance continue de la qualité des données et mettre en place des contrôles de validation pour maintenir l’intégrité des jeux de données. - Sécurité et gouvernance des données : • Mettre en œuvre des solutions de sécurisation des données (gestion des accès, cryptage, audits) pour garantir la conformité avec les réglementations internes et externes. • Travailler en collaboration avec le Data Office pour assurer l’alignement avec les politiques et processus définis. • Maintenir la documentation technique des pipelines et des flux de données, en assurant la traçabilité et la gestion des métadonnées. COMPETENCES - Expérience confirmée en ingénierie des données : Solide expérience dans la conception, la mise en œuvre et l’optimisation de pipelines de données. - Maîtrise des technologies de traitement de données : Expertise dans l’utilisation d’outils et technologies tels que ELT, Spark, SQL, Python, Dataiku, et la gestion de data warehouses et data hubs. - Compétence en sécurité et gouvernance des données : Connaissance des enjeux de sécurité, de conformité réglementaire (GDPR), et de gouvernance des données, avec une capacité à implémenter des solutions adéquates. - Compétences en automatisation et industrialisation : Capacité à automatiser et industrialiser les flux de données et les traitements afférents, en assurant la transition fluide des projets data science vers la production. - Maîtrise de l’anglais : La maîtrise de l’anglais est indispensable pour interagir avec des parties prenantes
CDI
Freelance

Offre d'emploi
Lead MLOps/LLMOps

OBJECTWARE
Publiée le
MLOps

3 ans
47k-97k €
400-710 €
Île-de-France, France
Contexte: - Equipe de 20 experts repartis sur 5 poles d'activite (Solutions Engineering, Automation Engineering, Infrastructure Engineering, Product Office, Client Services). - 15+ plateformes de Data Science / MLOps en production (Cloud et on premise) / 600+ utilisateurs Data Scientists - Plusieurs infrastructures, plateformes et services d'IA Generative en production a l'attention de tous les métiers du Groupe. - Un GRID de GPU on premise utilise pourle training et l'inference. - Pratiques DevSecOps / GitOps / MLOps / LLMOps - Automatisation autour des APIs des infrastructures, des plateformes (kubernetes/openshift) et des produits. Prestations demandées Les missions principales : - Participation à l’élaboration technique et fonctionnelle du produit IA qui sera attribué en lien étroit avec les équipes Solutions Engineering (veille technologique IA) et DevSecOps (industrialisation). - Garantie du respect des contraintes de sécurité, de conformité et de confidentialité applicables aux standards de production IT du groupe BNP Paribas (eg. observabilité, auditabilité, traçabilité, contrôle des accès). - Définition et implémentation des mécanismes techniques permettant aux métiers ou à leur IT d’opérer leur propre gouvernance de votre produit. - Établissement, maintient et agrémentation de la feuille de route technique du produit afin d’apporter de la valeur de manière continue à celui-ci en lien avec les besoins de vos clients métiers. - Accompagnement au quotidien des utilisateurs et décideurs métiers et IT du groupe BNP Paribas qui utilisent votre produit et s’assurer avec eux de la mise en application des bonnes pratiques d’usage de celui-ci au sein de leurs équipes. - Supervision des opérations critiques (changement, déploiement, mise à jour) avec une vision de bout en bout des impacts sur les différents services gérés par l’équipe. - Organisation et documentation de la gestion des incidents: analyse de root-causes, coordination inter-équipes. - Capacité à être moteur dans l’amélioration des processus internes et l’alignement avec les autres équipes du domaine IA & Données. - Capacité à être le représentant de la relation technique avec les fournisseurs qui contribuent à l’élaboration de votre produit (éditeurs logiciels, équipes d’industrialisation, équipes d’infrastructures). Environnement Technique : - Docker / Kubernetes / OpenShift - Frameworks de calculs distribues (Spark, Ray, Dask, OpenMPI) - GPU Computing (CUDA, Rapids, NIMs, Nemo) - Environnements de Data Science Python, Conda, R (opt.) - Programmation en python - Shell scipting - MLFlow / KubeFlow - Outils de CI/CD DevSecOps/GitOps : hashicorp Vault, gitlab, gitlab-CI, Artifactory, ArgoCD, Argo Workflow Environnement de travail : - Team Play avant tout! - Curiosité sans limites!! … - Autonomie, rigueur, qualité. - Sens du service client. - Patience & bienveillance. - Appétence naturelle pour le partage de connaissances. - Automatisation dans le sang. - Anglais courant (fournisseurs et clients en dehors de France, base documentaire entièrement en Anglais) - Laptops au choix (MacOS, Windows)
Freelance

Mission freelance
Product Owner – Plateforme ShareAI

ALLEGIS GROUP
Publiée le
IA
IA Générative

2 ans
Paris, France
La plateforme ShareAI est au cœur de l’écosystème IA : un hub centralisé regroupant assets, use cases, formations, ressources techniques et communautés d’experts. Pour soutenir son évolution, nous recherchons un(e) Product Owner passionné(e) par les technologies et la gestion de contenu, capable de structurer, animer et faire grandir cette plateforme stratégique. En tant que Product Owner ShareAI , vous serez responsable de : 🔹 La gouvernance & l’excellence du contenu Garantir une plateforme toujours à jour, claire, organisée et facile à utiliser. Curater et structurer les contenus : assets IA, formations, documentations, use cases, dépôts de code. Définir les standards, templates et bonnes pratiques de publication. Assurer la qualité, la cohérence et la découvrabilité de toutes les ressources. 🔹 L’animation de la communauté IA Développer et fédérer la communauté ShareAI (data scientists, ingénieurs, product owners, équipes métiers…). Organiser onboarding, tutoriels, ateliers et sessions de support. Gérer les retours utilisateurs et identifier les besoins d’évolution. 🔹 La promotion & la valorisation des initiatives IA Mettre en avant les assets, use cases et success stories internes. Créer newsletters, communications et contenus de valorisation. Animer des campagnes d'engagement et événements communautaires. 🔹 La roadmap & l’amélioration continue Identifier les besoins d’évolution de la plateforme. Collaborer avec les équipes techniques pour optimiser l’expérience utilisateur. Maintenir une vision long terme alignée avec la stratégie IA du Groupe.
CDI
Freelance

Offre d'emploi
Expert.e Sécurisation Cloud AWS et GCP F/H

METSYS
Publiée le
AWS Cloud
Google Cloud Platform (GCP)

1 an
54k-58k €
630-650 €
Yvelines, France
METSYS est un intégrateur de solutions Cloud, Microsoft et Cybersécurité. Pour un de nos clients grands-comptes, de renommée nationale dans son secteur d'activité, nous recherchons un.e Expert.e Sécurisation Cloud AWS et GCP (F/H) pour un démarrage le 23 mars 2026 dans les Yvelines (78). Vous travaillerez en lien étroit avec les équipes Cyber et les équipes de notre Client en charge des offres Landing Zones en Cloud Public GCP et AWS ainsi que les utilisateurs métiers qui y déploient et opèrent leurs applications. Plus globalement, votre rôle sera d’assister notre Client sur les missions Run Sécurité suivantes : Lutter contre les vulnérabilités Cloud : -Administrer l’outil CNAPP qui permet de gérer les vulnérabilités, les audits de configuration et les comportements à risque de nos environnements cloud publics ; -Assurer l’adoption de l’outil auprès des utilisateurs : Documentation, formation, accès, amélioration, suivi des bugs, suivi des licences ; -Aider à maintenir tous les contrôles, politiques et procédures à jour en fonction des normes de l'industrie dans un objectif d'amélioration continue. Bâtir une gouvernance sécurité transverse ; -Assurer le pilotage global des risques opérationnels détectés sur ce périmètre par les différents outils en place ; -Coordonner les parties prenantes (dev, secops, infra, référents sécurité) ; -Produire des indicateurs de suivi de la sécurité opérationnelle afin d’apporter de la visibilité et de la confiance ; -Surveiller, gouverner et valider le niveau de maturité et de conformité aux référentiels (ISO, NIST, RGPD, IA Act.) Accompagner les équipes techniques : -Animer des atelier pour aider les équipes techniques à qualifier les vulnérabilités et à répondre aux alertes sur leurs actifs projets ; -Contextualiser les vulnérabilités découvertes selon l’environnement de notre Client ; -La participation et le soutien technique à la résolution des vulnérabilités ; -L’assistance des équipes techniques à la mise en place des bonnes pratiques de cybersécurité pour les clouds publics ; -L’affectation des vulnérabilités aux bonnes équipes, automatiquement ou manuellement ; -Former les développeurs et data scientists aux bonnes pratiques de sécurité. Participer à la vie de l’équipe sécurité : -Analyser les risques liés aux projets ; -Rédiger des expressions de besoins de sécurité ; -Transmettre la connaissance et montée en compétence de la sécurité cloud des équipes ; -Coopérer avec les pairs et la communauté de la cybersécurité au sein de notre Client pour établir une relation de travail collaborative globale, créer une adhésion et une base solide pour les décisions des parties prenantes. Cette liste n'est pas limitative.
CDI

Offre d'emploi
Consultant Data / IA H/F

VIVERIS
Publiée le

45k-55k €
France
Contexte de la mission : Dans le cadre de projets de transformation digitale et de valorisation de la donnée, nous recherchons un Consultant Data / IA capable d'intervenir sur des environnements à forts enjeux métiers. Le poste proposé combine deux responsabilités clés, au coeur de notre expertise Data : -> Référent technique en interne, vous êtes un pilier pour les équipes : vous éclairez les choix structurants, élevez le niveau d'exigence technique et impulsez les bonnes pratiques. -> Consultant stratégique auprès de nos clients, vous intervenez sur des projets d'envergure, pilotez les orientations techniques et contribuez directement à la réussite et à la transformation des organisations. Dans ces deux dimensions, vous accompagnez les directions métiers et IT pour structurer, valoriser et gouverner leurs données. Votre terrain de jeu : la conception de plateformes data modernes, l'industrialisation des flux et le développement de cas d'usage analytiques à fort impact métier. Responsabilités : * Piloter des projets et encadrer techniquement des profils juniors (data ingénieurs, analysts, scientists) ; * Participer à la conception technique et au développement ; * Participer aux processus d'avant vente ; * Faire une veille technologique efficace ; * Réaliser les entretiens techniques des candidats.
171 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous