Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 86 résultats.
Freelance

Mission freelance
Expert en Conteneurisation (full remote) Anglais mandatory

Signe +
Publiée le
Docker

6 mois
400-660 €
Paris, France

Compétences techniques et expérience Expérience avérée dans des projets d’architecture de données à grande échelle (national ou multi-sources), de préférence impliquant des données sensibles ou critiques (sécurité, souveraineté des données). Maîtrise approfondie des concepts de conteneurisation et d’orchestration , incluant : Conteneurisation des données et des charges de travail (Docker, Kubernetes ou équivalents). Gestion du cycle de vie des données en environnement conteneurisé (stockage, migration, sauvegarde, reprise après sinistre). Connaissance solide des architectures de données (data lakes, entrepôts de données nouvelle génération), avec une compréhension des enjeux de gouvernance, métadonnées, catalogage et traçabilité . Compétences en modélisation des coûts et estimation financière IT , incluant : Capex/Opex, coût total de possession (TCO), scénarios de migration et de montée en charge. Modèles de coûts pour les infrastructures cloud et/ou hybrides sur site. Connaissance des exigences de sécurité et de conformité , notamment : Protection des données, chiffrement, gestion des identités et des accès (IAM), segmentation, auditabilité et traçabilité. Maîtrise des cadres réglementaires pertinents (RGPD, normes nationales de sécurité des données, ISO/IEC 27001, etc.). Expérience en gouvernance des données et gestion de données sensibles : Politiques de conservation, classification des données, gestion des métadonnées et cadres de gouvernance. Expertise en migration et transformation de données , couvrant : Planification, nettoyage, transformation, validation et post-validation des migrations. Capacité à développer et justifier des modèles financiers et des BOQ (Bill of Quantities) pour des projets IT/data. Expérience avérée en dimensionnement et chiffrage de solutions à mettre en œuvre. Qualifications professionnelles et certifications Diplôme en Informatique, Ingénierie, Data Science, Géomatique ou dans un domaine connexe (un Master constitue un atout). Certifications pertinentes (liste non exhaustive) : Conteneurisation / Orchestration : Certified Kubernetes Administrator (CKA) ou équivalent. Cloud : AWS Certified Solutions Architect, Azure Solutions Architect, Google Professional Cloud Architect (selon l’environnement cible). Sécurité : CISSP, CISM ou certifications équivalentes. Une certification en gestion de projet (PRINCE2, PMP ou équivalent) est un plus.

Freelance

Mission freelance
Data Manager - DP Data & IA (Bordeaux)

SQLI
Publiée le
Data management

6 mois
600-800 €
Paris, France

Bonjour, Pour le compte de l'un de mes clients près de bordeaux, je suis à la recherche d'un Data Manager (DP Data & IA). Contexte & Objectifs : Dans le cadre de la transformation digitale client, le Data Manager aura pour mission de piloter les projets Data stratégiques, d’assurer leur gouvernance, et de structurer les initiatives IA émergentes. Il sera le point d’entrée des métiers pour les projets Data, et garant de leur bon déroulement. Missions principales : Gouvernance & Pilotage Cadrer les projets Data avec les métiers & l’IT Définir les business cases et les modèles de gouvernance Prioriser et planifier les demandes Data Constituer les équipes projet avec le Directeur Data Piloter les équipes projet Data et les activités de support Assurer le suivi budgétaire et le respect des objectifs Expertise Data & IA : Superviser la mise en œuvre de solutions BI, Data Lake, Datawarehouse Participer à l’industrialisation de modèles IA (IA Gen, Machine Learning, Data Science) Garantir la qualité des données et la conformité des traitements Contribuer à l’acculturation des équipes métiers à la Data et à l’IA Communication & Coordination : Préparer les comités de pilotage Assurer la coordination entre les équipes techniques, métiers et partenaires Rendre compte de l’avancement, des risques et des blocages

Freelance

Mission freelance
Lead Data Scientist/ Python/ Looker / GCP/ VerteX AI/ BIGQUERY/ Domaine Retail (H/F)

Octopus Group
Publiée le
BigQuery
Composer
Google Cloud Platform (GCP)

6 mois
540-600 €
Ivry-sur-Seine, Île-de-France

Nous recherchons pour le compte de notre client dans le retail, un data scientist senior. Vous aurez pour mission d’exploiter de grands volumes de données issus de différentes sources (Ventes, SAV, stocks, etc.) afin d’effectuer des analyses, générer des insights et mettre en place des modèles prédictifs permettant à la fois d’améliorer l’expérience client, générer de la valeur et transformer les métiers du groupe. Missions : Vous pourrez intervenir sur des sujets clés qui peuvent impacter les différentes activités du groupe : prédiction du churn, optimisation des campagnes marketing et promotionnelles, analyse du parcours client, recommandation de produits, anticipation de la demande, activation d’audiences, ... Vous travaillerez en étroite collaboration avec les membres des équipes produit afin de comprendre au mieux les enjeux métiers, commerciaux et/ou opérationnels ainsi qu’avec les Data Engineers de l’équipe Tech afin d’identifier et exploiter les sources et flux de données pertinents. Dans le cadre des projets menés, vous interviendrez sur les différentes étapes clés, y compris : - Analyser les besoins métiers et proposer des solutions Data Science - Analyser les données à disposition pour en vérifier la pertinence et la qualité, et assurer le cas échéant leur transformation et leur affinement - Développer les modèles répondant aux besoins, en 1er lieu en mode POC, puis industrialiser les modèles développés - Développer des reportings adaptés - Documenter les solutions développées - Mesurer les bénéfices de la mise en place des modèles - Organiser et préparer les comités de pilotage des projets et animer le pilotage globale des sujets autour de l'IA - Participer à la qualification des uses cases et à leur priorisation - Animer l'équipe de Data Scientists

Freelance

Mission freelance
[MDO] ML Engineering /IA (Min 8 XP)

ISUPPLIER
Publiée le
Large Language Model (LLM)

3 mois
400-600 €
Paris, France

Contexte : Dans le cadre du plan stratégique du Groupe BNP Paribas, Growth, Technology, Sustainability le Groupe joue un rôle clé dans la modernisation des Systèmes d'Information et l'accélération de la digitalisation. Pour répondre aux défis de l'innovation et de la sécurité, a été créé le département AI & IT Innovation, chargé de libérer le plein potentiel de l'Intelligence Artificielle pour le Groupe. Le département est composé de six équipes : • L'équipe Innovation Exposition crée et maintient des plateformes d'innovation destinées aux lancements des Proof of Concept (POC) exprimés par les Métiers et les Fonctions. • L'équipe Innovation Factory intervient en support des Métiers et des Fonctions pour accélérer les projets fonctionnels et garantir la bonne gestion et la mutualisation des données. • L'équipe APEX expose les produits autour des solutions collaboratives et assure leur déploiement dans l'ensemble du Groupe. • L’équipe Smart Auto Factory crée et maintient les plateformes nécessaires pour promouvoir et acculturer l'utilisation du RPA, de l’Intelligent Document Processing et du Process Mining tout en maintenant les plates-formes correspondantes. • L’équipe Data Analytics and Management Platforms fournit des plates-formes pour l'analyse, la préparation et la visualisation des données, en soutenant le story-telling et une organisation orientée données. • Le Centre de Compétence en IA (AICC) est chargé de développer et de maintenir les compétences en Intelligence Artificielle. Responsabilités : • Conception et développement des modèles de Machine Learning et Deep Learning adaptés aux besoins métiers. • Mise en place des pipelines d’entraînement et de déploiement robustes et scalables. • Optimisation et industrialisation des modèles en intégrant les meilleures pratiques de MLOps. • Garanti de la qualité, la frugalité et la conformité des modèles développés. • Collaboration avec les équipes de recherche et développement pour intégration des avancées en IA dans les systèmes existants. • Communication et collaboration avec les autres départements et équipes du groupe pour promouvoir l'utilisation de l'IA. Technologies : • Maîtrise des langages et frameworks IA/ML : o Python, Rust, Julia (langages pour IA et performance computationnelle). o Frameworks ML/DL : TensorFlow, PyTorch, Hugging Face Transformers. o Libraries pour le fine-tuning et l’optimisation : PEFT, LoRA, QLoRA, DeepSpeed. • Expérience en NLP et modèles génératifs : o LLMs et agents IA : LLaMA, GPT, Mistral, Mixtral. o Frameworks d’intégration : LangChain, LlamaIndex, Haystack, DSPy. o Orchestration d’agents : CrewAI, AutoGen, AgentGPT. o Recherche d’informations augmentée (RAG) : Elasticsearch, OpenSearch, FAISS, Weaviate. • Compétences en MLOps et industrialisation : o CI/CD pour IA : MLflow, DVC, Kubeflow. o Versioning et déploiement de modèles : ONNX. o Monitoring et observabilité : WhyLabs, Arize AI, Prometheus pour l'IA Vous travaillerez en étroite collaboration avec les équipes Data Science, IT et métiers afin d'industrialiser les solutions d'intelligence artificielle et d'assurer leur performance en production. Missions clés : 1. Conception et entraînemen des modèles IA • Sélection des algorithmes adaptés (ML/DL) • Préparation des données d'entraînement • Optimisation des performances des modèles 2. Mise en production des solutions IA • Intégration des modèles dans des applications ou services • Déployement via des pipelines MLOps (CI/CD, monitoring, versioning) 3. Collaboration avec les équipes métiers et techniques • Comprehension des besoins fonctionnels • Traduction des cas d’usage en solutions IA concrètes 4. Garanti de la qualité et de l’éthique des modèles • Évalution des biais, de la robustesse et de la transparence • Documentation des choix techniques et des limites 5. Veille technologique et amélioration continue • Suivi des évolutions en IA (modèles, frameworks, outils) • Testage de nouvelles approches ou architectures

Freelance

Mission freelance
Data Scientist/ Python/ Looker / GCP/ VerteX AI/ BIGQUERY/ Domaine Retail (H/F)

Octopus Group
Publiée le
BigQuery
Composer
Google Cloud Platform (GCP)

6 mois
540-600 €
Ivry-sur-Seine, Île-de-France

Nous recherchons pour le compte de notre client dans le retail, un data scientist senior. Vous aurez pour mission d’exploiter de grands volumes de données issus de différentes sources (Ventes, SAV, stocks, etc.) afin d’effectuer des analyses, générer des insights et mettre en place des modèles prédictifs permettant à la fois d’améliorer l’expérience client, générer de la valeur et transformer les métiers du groupe. Missions : Vous pourrez intervenir sur des sujets clés qui peuvent impacter les différentes activités du groupe : prédiction du churn, optimisation des campagnes marketing et promotionnelles, analyse du parcours client, recommandation de produits, anticipation de la demande, activation d’audiences, ... Vous travaillerez en étroite collaboration avec les membres des équipes produit afin de comprendre au mieux les enjeux métiers, commerciaux et/ou opérationnels ainsi qu’avec les Data Engineers de l’équipe Tech afin d’identifier et exploiter les sources et flux de données pertinents. Dans le cadre des projets menés, vous interviendrez sur les différentes étapes clés, y compris : - Analyser les besoins métiers et proposer des solutions Data Science - Analyser les données à disposition pour en vérifier la pertinence et la qualité, et assurer le cas échéant leur transformation et leur affinement - Développer les modèles répondant aux besoins, en 1er lieu en mode POC, puis industrialiser les modèles développés - Développer des reportings adaptés - Documenter les solutions développées - Mesurer les bénéfices de la mise en place des modèles - Organiser et préparer les comités de pilotage des projets et animer le pilotage globale des sujets autour de l'IA - Participer à la qualification des uses cases et à leur priorisation - Animer l'équipe de Data Scientists

Freelance
CDI

Offre d'emploi
Analyste d'exploitation / Domain Data - MLOps - Data Platform

VISIAN
Publiée le
Cloud
Machine Learning

1 an
40k-45k €
130-320 €
Île-de-France, France

Analyste d'exploitation / Domain Data - MLOps - Data Platform Un leader dans le domaine des solutions de leasing est à un tournant crucial où l'exploitation des données doit devenir un levier central de transformation et de compétitivité. Plusieurs défis structurels doivent être adressés pour réussir cette transition vers une organisation véritablement axée sur les données (insuffisance du Data Management existant, dépendances fortes à des systèmes legacy qui ont vocation à être décommissionnés à court et moyen termes, limites structurelles des outils et solutions actuels). Le projet doit permettre de valider la capacité de mise en œuvre d'un projet de data science depuis sa phase exploratoire jusqu'à sa phase d'industrialisation. Projet à mener pour une application de ciblage commercial permettant aux commerciaux une approche de vente proactive du crédit-bail pour des clients déjà équipés de contrats cadres. Responsabilités Mise en œuvre des Pipelines Machine Learning : • Concevoir, déployer et maintenir des pipelines de machine learning automatisés, intégrant l'ensemble des étapes du cycle de vie des modèles, de l'entraînement à la mise en production. • Assurer l'intégration des modèles de machine learning dans les environnements de production, en s'assurant de la scalabilité, des performances et de la fiabilité des solutions mises en œuvre. • Collaborer étroitement avec les data scientists et ingénieurs data pour faciliter la transition des modèles depuis les phases d'expérimentation jusqu'à l'industrialisation, tout en optimisant les pipelines de bout en bout. Automatisation et industrialisation des modèles : • Mettre en place des processus d'industrialisation des modèles de machine learning pour garantir une gestion continue et fiable des modèles en production, avec des mécanismes de surveillance automatique. • Automatiser les tâches critiques, telles que l'entraînement, le déploiement, la gestion des versions, et la surveillance des performances des modèles. • Intégrer des solutions de monitoring pour garantir que les modèles en production respectent les critères de performance, de dérive et de précision définis. Adaptation de l'infrastructure et des environnements de production : • Participer à la mise en place d'une infrastructure (Cloud / DMZR) robuste et évolutive qui soutient l'entraînement et l'inférence des modèles à grande échelle. • Optimiser l'utilisation des ressources (GPU, CPU) pour l'entraînement et la mise en production des modèles, en fonction des besoins spécifiques du projet. Surveillance, maintenance et gestion du cycle de vie des modèles : • Mettre en œuvre des systèmes de monitoring pour suivre les performances des modèles en production, détecter les dérives, et initier les actions correctives automatisées. • Assurer une maintenance continue des modèles en production pour garantir leur conformité avec les objectifs métiers, en supervisant la mise à jour des modèles et la gestion de leurs versions. • Gérer le cycle de vie complet des modèles, de la phase d'entraînement initiale à la mise à jour et dépréciation des modèles obsolètes. Collaboration et documentation des processus : • Collaborer étroitement avec les data scientists, les ingénieurs data et les DevOps pour assurer l'intégration fluide des pipelines de machine learning dans l'infrastructure IT existante. • Documenter de manière exhaustive les processus et les pipelines mis en place, incluant les workflows automatisés, les architectures, et les pratiques de surveillance des modèles. • Assurer une communication continue avec les équipes métiers et techniques pour garantir l'alignement sur les besoins et objectifs du programme.

86 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous