Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 111 résultats.
Freelance

Mission freelance
Data Engineer

Phaidon London- Glocomms
Publiée le
Apache Spark
Cloud
PySpark

6 mois
400-550 €
France

Développer et maintenir des pipelines de données robustes à l’aide de Python, Spark et SQL. Collaborer avec les data scientists, les analystes et les équipes d’ingénierie pour fournir des solutions de données de haute qualité. Optimiser les flux de données pour la performance, l’évolutivité et la fiabilité. Intégrer et gérer les données sur les plateformes cloud, en garantissant la sécurité et la conformité. Participer aux décisions architecturales et contribuer à l’évolution de l’infrastructure de données.

Freelance
CDI

Offre d'emploi
Architecte DataOps – MLOps & AI

SAS GEMINI
Publiée le
AI

3 ans
Montreuil, Île-de-France

Contexte de la mission L’équipe AI Production Center , rattachée à la division AI & Innovation de l’IT Groupe, assure la conception, l’industrialisation et le support des plateformes Data Science et IA du Groupe. Une équipe de 20 experts organisée en 5 pôles (Solutions Engineering, Automation Engineering, Infrastructure Engineering, Product Office, Client Services). Plus de 15 plateformes de Data Science / MLOps en production (Cloud & On-Premise), utilisées par plus de 600 Data Scientists . Déploiement de plusieurs infrastructures et services d’ IA générative à destination des métiers. Un GPU Grid On-Premise pour les besoins de training et d’inférence. Généralisation des pratiques DevSecOps / GitOps / MLOps / LLMOps . Forte culture de l’ automatisation autour des APIs, infrastructures (Kubernetes / OpenShift) et produits. Missions principales Support & mentoring avancé : accompagner les utilisateurs et les équipes DataLab en support N3 sur les plateformes IA (best practices, coaching, expertise technique). MCO & supervision : garantir la fiabilité, la disponibilité et la performance des plateformes Data Science en production. MLOps & LLMOps : déployer les outils, workflows et bonnes pratiques pour accompagner les clients dans leurs démarches d’industrialisation. Frameworks distribués & GPU : aider les utilisateurs dans l’exploitation des environnements de calcul haute performance et des accélérateurs matériels. Développement & automatisation : contribuer à la conception, la mise en production, l’amélioration continue et le support des services du DataLab : APIs Workflows MLOps Pipelines Dashboards Environnement technique Conteneurisation & orchestration : Docker, Kubernetes, OpenShift Frameworks distribués : Spark, Ray, Dask, OpenMPI GPU Computing : CUDA, Rapids, NIMs, Nemo Data Science : Python, Conda, R (optionnel) Programmation & automatisation : Python, Shell scripting MLOps : MLFlow, Kubeflow CI/CD & DevSecOps / GitOps : Hashicorp Vault, GitLab, GitLab-CI, Artifactory, ArgoCD, Argo Workflow Environnement de travail Esprit d’équipe et collaboration au cœur du fonctionnement. Curiosité, autonomie, rigueur et recherche de qualité. Sens du service, patience et bienveillance. Partage de connaissances et amélioration continue. Culture de l’ automatisation fortement ancrée. Anglais courant requis (échanges internationaux, documentation en anglais). Matériel au choix : MacOS ou Windows .

Freelance

Mission freelance
Product Owner IA

Signe +
Publiée le
Agile Scrum

6 mois
400-620 €
Grenoble, Auvergne-Rhône-Alpes

Contexte : Le Product Owner sera responsable de la définition, la priorisation et la livraison des fonctionnalités d’une plateforme supportant : Les workflows de machine learning classique. Les outils low-code/no-code destinés aux citizen developers et utilisateurs métiers. Il travaillera en étroite collaboration avec les équipes d’ingénierie, MLOps, gouvernance des données et conformité afin d’assurer des solutions robustes, scalables et orientées utilisateurs. Missions principales : Backlog Definition & Prioritization Définir et maintenir un backlog clair et actionnable aligné avec les besoins utilisateurs et les priorités stratégiques. Traduire les retours des data scientists, analystes et utilisateurs métiers en fonctionnalités concrètes. Contribuer à la planification PI et aux activités de refinement selon les pratiques Agile SAFe. Product Discovery & Validation Mener des activités de découverte pour valider les besoins utilisateurs et tester les idées de solution. Garantir que les fonctionnalités proposées soient désirables, faisables et viables. Collaboration transversale Coordonner avec les parties prenantes internes (engineering, sécurité, gouvernance). Favoriser l’alignement et la convergence entre les domaines techniques et métiers. Adoption & Enablement Accompagner l’onboarding, la formation et la promotion interne des capacités de la plateforme. Suivre l’usage et collecter les retours afin d’alimenter l’amélioration continue. Promouvoir la culture de l’IA et autonomiser les citizen developers grâce à des outils intuitifs et une documentation adaptée. Contribution stratégique Définir et communiquer la vision sur le ML classique et le low-code/no-code. Identifier des opportunités d’innovation et d’efficacité. Suivre les tendances marché et les technologies émergentes. Compétences requises : Expérience confirmée en Product Ownership ou Product Management, idéalement sur des plateformes IA/Data. Bonne compréhension du cycle de vie du machine learning et des technologies low-code/no-code. Expérience en environnements cloud (Azure, AWS, GCP). Connaissance de la méthodologie Agile SAFe. Excellentes compétences en communication et gestion de parties prenantes. Langues : Anglais courant (impératif). Français : un plus.

Freelance

Mission freelance
POT8608-Un Product Owner IA sur Grenoble

Almatek
Publiée le
Azure

6 mois
260-400 €
Grenoble, Auvergne-Rhône-Alpes

Almatek recherche pour l'un de ses clients, un PO IA sur Grenoble. Context : Le prestataire sera responsable de la définition, de la priorisation et de la mise en œuvre des fonctionnalités de la plateforme, afin de soutenir : Les workflows classiques de machine learning, Les outils low-code/no-code destinés aux « citizen developers » et aux utilisateurs métiers. Cela implique une collaboration étroite avec les équipes d’ingénierie, de MLOps, de gouvernance des données et de conformité, afin de garantir des solutions robustes, évolutives et centrées sur l’utilisateur. Livrables attendus: Définition et priorisation du backlog: Établir et maintenir un backlog clair, exploitable et aligné sur les besoins des utilisateurs et les priorités stratégiques. Traduire les retours des data scientists, analystes et utilisateurs métiers en fonctionnalités de plateforme. Contribuer à la planification des Program Increments (PI) et à l’affinage du backlog conformément aux pratiques Agile SAFe. Découverte produit et validation: Mener des activités de discovery afin de valider les problématiques utilisateurs et tester les idées de solutions. Veiller à ce que les fonctionnalités proposées soient désirables, faisables et viables. Collaboration transverse: Coordonner avec les parties prenantes internes (ingénierie, sécurité, gouvernance). Favoriser l’alignement et la convergence entre les domaines techniques et métiers. Adoption et accompagnement de la plateforme: Soutenir l’onboarding, la formation et la promotion interne des capacités de la plateforme. Suivre l’utilisation et recueillir les retours afin d’alimenter l’amélioration continue. Promouvoir la culture de l’IA et accompagner les citizen developers grâce à des outils intuitifs et une documentation claire. Contribution stratégique: Définir et communiquer la vision autour du machine learning classique et de l’approche low-code/no-code. Identifier des opportunités d’innovation et d’amélioration de l’efficacité. Se tenir informé des tendances du marché et des technologies émergentes. Compétences requises: Expérience avérée en tant que Product Owner ou Product Manager, idéalement dans le domaine des plateformes data/IA. Solide compréhension du cycle de vie du machine learning et des technologies low-code/no-code. Expérience dans des environnements cloud natifs (Azure, AWS, GCP). Connaissance de la méthodologie Agile SAFe. Excellentes compétences en communication et gestion des parties prenantes. Compétence linguistique: anglais courant.

Freelance

Mission freelance
Data Engineer (GCP / Python / DBT)

ESENCA
Publiée le
Apache Kafka
API
Flask

1 an
400-430 €
Lille, Hauts-de-France

Nous recherchons un Data Engineer confirmé pour accompagner les produits data de notre périmètre Connaissance Client et Commerce Animation Performance . 🎯 Objectif de la mission Mettre en place une cartographie des données . Concevoir un Datamesh adapté et partagé , incluant son dimensionnement. Déployer un Datamesh avec sondes de contrôle qualité garantissant la fiabilité des données. 🚀 Responsabilités Créer des pipelines robustes et optimisés afin de mettre à disposition les données de manière efficace et avec un coût FinOps maîtrisé. Maintenir et faire évoluer les produits data existants. Collaborer avec les équipes métier dans un environnement Agile (Scrum/Kanban) . 🛠️ Compétences attendues Python (Flask, appels API, Kafka) – Confirmé (impératif). GCP (BigQuery, GCS, Cloud Run, …), DBT – Confirmé (impératif). Github (CI/CD, versioning) – Confirmé (important). Méthodologies agiles (Scrum, Kanban) – Confirmé. Anglais courant – Impératif. ❌ À noter Nous recherchons un Data Engineer , et non un Data Scientist. 📍 Mission longue durée – Démarrage rapide – Contexte stimulant au sein d’une équipe data en structuration.

CDI

Offre d'emploi
Product Owner Intelligence Artificielle (H/F)

FED SAS
Publiée le

60k-70k €
Montrouge, Île-de-France

Fed IT, cabinet entièrement dédié aux recrutements spécialisés sur les métiers de l'informatique (Infra, Data, Développement, MOA, MOE, Management), recherche pour un de ses clients dans le secteur de la Finance, un ou une : Product Owner Intelligence Artificielle (H/F). Le poste est à pourvoir dans le cadre d'un CDI chez le client final. Rattaché au Responsable SI & Projet, vous pilotez la feuille de route IA de l'entreprise. Véritable chef d'orchestre, vous définissez, priorisez et délivrez les produits et fonctionnalités basés sur l'IA, en alignant les enjeux métiers, techniques et éthiques. Vous serez le garant de la valeur apportée par l'IA, et vous instaurez une culture Data-Driven et responsable. A ce titre, vos principales missions seront : - Gestion le Back Log IA : centraliser, prioriser et structurer les demandes IA (nouveaux cas d'usage, évolutions de modèles, améliorations) dans un Back Log clair et actionnable ; - Coordonner des intervenants : orchestrer la collaboration entre consultants externes, Data Scientists, Data Engineers, Développeurs et UX Designers pour assurer la cohérence et la pertinence des livrables ; - Rédiger les spécifications fonctionnelles de manière précise (user stories, scénarios de tests) intégrant les exigences métiers, techniques et réglementaires liées à l'IA ; - Suivre les projets et release management : planifier les livraisons, suivre l'avancement (jalons, sprints, KPIs) et valider les releases IA auprès des parties prenantes ; - Pilotage les tests et validations : coordonner les phases de tests (validation des performances modèles, tests d'intégration, tests utilisateurs) et garantir la conformité des solutions IA ; - Assurer une veille technologique et benchmarks sur le périmètre, surveiller les innovations IA, évaluer de nouvelles technologies et proposer des Proofs of Concept pour anticiper les évolutions du marché ; - Piloter la qualité et l'éthique : s'assurer du respect des bonnes pratiques MLOps, de la gouvernance des données (biais, confidentialité) et des exigences RGPD, …

Freelance

Mission freelance
Product Owner IA / Data

PARTENOR
Publiée le
Data analysis
Product management

1 an
400-550 €
Île-de-France, France

Contexte de la mission Dans le cadre du programme d’accélération de l’Intelligence Artificielle, nous recherche un Product Owner expérimenté afin d’accompagner la Direction Informatique dans la mise en place et le pilotage de produits et services IA. La mission s’inscrit dans un environnement agile à grande échelle et international, avec une forte interaction entre équipes métiers, équipes data/IA et parties prenantes techniques. Le consultant sera en charge des activités suivantes : Définir la stratégie produit sur son périmètre, en lien avec la vision globale de l’entreprise. Identifier, prioriser et gérer les backlogs des différents axes stratégiques. Garantir la mise en œuvre des méthodes de discovery et le suivi du delivery . Coordonner et collaborer avec les équipes de développement, data scientists, ingénieurs IA, métiers et partenaires externes. Définir et suivre les KPIs liés aux produits IA, analyser les résultats et proposer des axes d’amélioration. Participer à la définition des stratégies de gestion et de sécurisation des données. Accompagner la mise en main des produits (documentation, formation, support en conditions opérationnelles).

Freelance
CDI

Offre d'emploi
Data Engineer GCP (F/H)

CELAD
Publiée le
Google Cloud Platform (GCP)

12 mois
42k-50k €
450-470 €
Lille, Hauts-de-France

CDI/Freelance/Portage salarial 💼 – 2 jours de télétravail/semaine 🏠 – 📍 Lille (59) – 5 ans d'expérience minimum Vous souhaitez contribuer à la valorisation de la donnée dans un environnement Retail en pleine transformation digitale ? Vous aimez concevoir des pipelines robustes, fiabiliser les flux et exploiter la puissance du cloud GCP ? Alors cette opportunité est faite pour vous ! 🚀 Vos missions : - Garantir la fiabilité et la disponibilité des données pour les équipes métiers, Data Analysts et Data Scientists - Définir et mettre en place la gouvernance de la donnée et son cycle de vie dans un contexte Retail (gestion de la donnée client, transactionnelle et produit) - Intégrer et superviser les données issues de multiples sources (e-commerce, magasins, CRM, etc.) dans le Data Lake GCP - Développer, nettoyer et structurer les pipelines de données en assurant leur qualité, sécurité et conformité réglementaire (RGPD) - Produire et maintenir les livrables : Data Lake partagé, cartographie des données, code, reporting et documentation technique

Freelance

Mission freelance
Data Engineer GCP/Big Query (H/F)

Come Together
Publiée le
Google Cloud Platform (GCP)

3 mois
440-460 €
Lille, Hauts-de-France

Nous sommes à la recherche d'un profil Data Engineer pour participer aux opérations de build sur les environnements Big Data basées sur Google Cloud au sein de la Direction Data pour notre client acteur majeur de la grande distribution. Sa mission sera de concevoir et développer les nouveaux flux de données en étroite collaboration avec l'équipe actuelle de Data Engineer, Data Scientist et les équipes métiers. Ses principales missions seront les suivantes : - Analyser les besoins des métiers et les traduire en spécifications techniques (en contribuant également à l'élaboration des contrats d'interface et à la modélisation physique) - Développer des pipelines de données au sein de son périmètre - Veiller à la qualité et l'efficience des développements de l'équipe - Contribuer à la construction de la plateforme data et des services en remontant les besoins non couverts par le framework - Travailler en étroite collaboration avec l'équipe actuelle de Data Engineers, Data Scientists et les équipes métiers.

Freelance
CDI

Offre d'emploi
Développeur Full stack - Python (Django) / React

Codezys
Publiée le
API
Django
Kubernetes

6 mois
44 390-47 660 €
310-450 €
Paris, France

Métiers: Développeur Fonctions Etudes & Développement Spécialités technologiques Type de facturation Assistance Technique (Facturation avec un taux journalier) Compétences Technologies et Outils Python; TypeScript; React; Django; GCP; Kubernetes; AWS; SQL; Azure Méthodes / Normes Agile Secteurs d'activités Services Informatiques Description et livrables de la prestation UN TEST TECHNQIUE ET PREVU PAR LE CLIENT AVANT LES ENTERTIENS. SEUL LES CVs AVEC UNE EXPERTISES DJANGO ET REACT SERONT ETUDIES. L'ANGLAIS ORAL EST UN PREREQUIS, LE BUDGET POUR CE BESOIN EST ENTRE 400€ et 450€. Pour l'un de nos clients dans le secteur bancaire, nous recherchons un développeur full stack pour intégrer l'équipe de développement de leur plateforme maison. Cette plateforme, une All Data Platform, a été conçue pour répondre aux enjeux de la data de demain dans le domaine de l’Asset Management. Basée sur les principes du Data Mesh, elle facilite l’ingestion et l’exploitation des données tout en offrant aux Citizen Developers un écosystème sécurisé, modulable et évolutif. Missions principales En tant que membre du lab, le/la prestataire sera responsable de : - Répondre à diverses demandes de POC (Proof of Concept) et de MVP (Minimum Viable Product) sur des sujets variés, toujours en lien avec la chaîne de valeur, - Participer à des missions annexes, courtes, pour réaliser des prototypes ou fournir un accompagnement technique à la cellule produit et aux Data Scientists, - Contribuer à l'amélioration continue des produits et services proposés par l'entreprise, - La prestation nécessitera du développement de prototypes et de l’accompagnement technique, - La prestation réalisera les missions en équipe et nécessitera une communication efficace et adaptée aux différents acteurs du projet, - Création d’applications cloud native sur des systèmes distribué pour les outils dédié à l’IA générative, - Construction d’outils pour aider à automatiser plusieurs processus métier, - Participation au support et à l’onboarding des business case sur la plateforme, - Création de services d’intégration de données, - Prise en charge des outils internes basés sur des systèmes distribués cloud natifs et proposition d’évolution, - Intégrations de solutions IA aux outils existants, - Participation à l’analyse des données et à la rédaction des spécifications fonctionnelles et techniques, - Intervention dans le projet (méthodologie AGILE), - Gestion des incidents post-production et correction du code, - Enrichissement de l’automatisation des tests, - Respect des délais impartis. - ANGLAIS ORAL NECESSAIRE

CDI

Offre d'emploi
Consultant(e) Scientist / Cloud F/H

CONSORT GROUP
Publiée le

42k-55k €
Île-de-France, France

Mission Vous êtes Informatics lover et le monde de la Data vous passionne ? Rejoignez Consortia en qualité de consultant(e) Data Scientist /Cloud. Votre mission principale consiste à intervenir en clientèle sur des demandes d expertise solution/méthodologie. Grâce à votre expertise en Big Data, vous concevez des plateformes permettant de traiter des volumes importants de données et mettez en place des bases de données. Vous veillez à ce que les pipelines de données déployés soient sécurisés et clairs pour analyser et exploiter la donnée.

Freelance

Mission freelance
Date engineer Dataiku

EDUGROUPE
Publiée le
Dataiku

3 ans
400-550 €
Montreuil, Île-de-France

Objectifs : Le bénéficiaire souhaite une prestation d’accompagnement pour le pipeline de traitement des données de l’équipe (suivi de la production des données, maintenance du pipeline, améliorations, intégration des nouveaux besoins). Les activités type seront celles d’un Data Engineer : • Conception et architecture des systèmes de données • Collecte et intégration des données • Nettoyage et transformation des données • Optimisation des performances • Suivi des traitements , analyse des erreurs et correction de bugs, lancement de traitements de reprises • Maintenance des systèmes de données et support technique en cas de problèmes en concertation avec l’ingénieur Devops de l’équipe. • Collaboration avec les data scientist, analystes de données et autres parties prenantes pour comprendre leurs besoins et fournir des solutions adaptées. • Documentation des travaux réalisés Une période de recouvrement d’activité aura lieu en début de prestation. Elle permettra d’examiner les pratiques actuelles et de proposer des actions d’amélioration à mettre en oeuvre dans la suite de l a mission.

Freelance

Mission freelance
IA Engineer Python Golang

VISIAN
Publiée le
Go (langage)
Machine Learning
Python

1 an
400-610 €
Levallois-Perret, Île-de-France

Dans le cadre de sa prestation, l'intervenant externe évoluera au sein de la direction de la Data chez BNP AI Delivery. AI Delivery accompagne les métiers et les pays dans leurs projets de Data science, depuis la génération de use case jusqu’à la mise en production. Notre équipe, dynamique et internationale, au profil « start-up » intégrée à un grand groupe, regroupe des profils de Data scientist experts en Machine Learning (computer vision, NLP, scoring), un pôle ML engineering capable d'accompagner les DataScientists lors de l'industrialisation des modèles développés (jusqu'à la mise en production) ainsi qu’une équipe AI Projects. AI Delivery met aussi à disposition des lignes de métiers Personal Finance la plateforme de Datascience « Sparrow », qui comporte * une plateforme d'exploration et de développement Python, Sparrow Studio, développée in-house par une équipe dédiée * un framework d'industrialisation des modèles de Datascience, Sparrow Flow, ainsi qu'une librairie InnerSource “pyPF” facilitant les développements des Data Scientist. * une plateforme d'exécution des modèles de Datascience, Sparrow Serving * et un outil de Community Management, Sparrow Academy L’équipe Technical Office, composée principalement de MLOps Engineers, a pour principale mission d’être garante de la qualité des livrables de l’ensemble de la direction, de les déployer sur le cloud privé du Groupe, « dCloud » et enfin d’assurer la haute disponibilité de l’ensemble de nos assets. Cette équipe conçoit, développe et maintient des plateformes et des frameworks de data science. PF fait appel a une prestation en AT pour assurer l’évolution et la haute disponibilité de l'ensemble de nos assets. Le prestataire aura la charge de la disponibilité et de la stabilité de nos différentes plateformes data avec un focus particulier sur notre asset Sparrow. Le prestataire intègrera l’équipe du Technical Office. DevOps, MLOps, Data Science, Cloud sont les moteurs de son quotidien.

Freelance
CDI

Offre d'emploi
Architecte IA

VISIAN
Publiée le
DevOps
Docker
Kubernetes

1 an
40k-45k €
400-720 €
Montreuil, Île-de-France

Contexte Équipe de 20 experts répartis sur 5 pôles d'activité (Solutions Engineering, Automation Engineering, Infrastructure Engineering, Product Office, Client Services). 15+ plateformes de Data Science / MLOps en production (Cloud et on premise) / 600+ utilisateurs Data Scientists Plusieurs infrastructures, plateformes et services d'IA Générative en production à l'attention de tous les métiers du Groupe Un GRID de GPU on premise utilisé pour le training et l'inference Pratiques DevSecOps / GitOps / MLOps / LLMOps Automatisation autour des APIs des infrastructures, des plateformes (kubernetes/openshift) et des produits Environnement Technique Docker / Kubernetes / OpenShift / Cloud / Bare Metal Programmation en Python Shell scripting GPU Computing Outils de CI/CD DevSecOps/GitOps Hashicorp Vault GitLab GitLab-CI Kaniko Keycloak Ansible Artifactory ArgoCD Argo Workflow

CDI

Offre d'emploi
Consultant(e) Scientist / Cloud F/H

CONSORT GROUP
Publiée le

42k-55k €
Île-de-France, France

Mission Vous êtes Informatics lover et le monde de la Data vous passionne ? Rejoignez Consortia en qualité de consultant(e) Data Scientist /Cloud. Votre mission principale consiste à intervenir en clientèle sur des demandes d expertise solution/méthodologie. Grâce à votre expertise en Big Data, vous concevez des plateformes permettant de traiter des volumes importants de données et mettez en place des bases de données. Vous veillez à ce que les pipelines de données déployés soient sécurisés et clairs pour analyser et exploiter la donnée.

Freelance

Mission freelance
DATA ENGINEER

HAYS France
Publiée le
BigQuery
Composer
DBT

1 an
Lille, Hauts-de-France

Dans le cadre d’un projet de migration à l’échelle internationale, une équipe Data recherche un(e) Data Engineer pour intervenir sur des environnements Big Data basés sur Google Cloud Platform (GCP) . Le poste est orienté Build , avec un fort accent sur la conception et le développement de flux de données (batch et temps réel). Les missions incluent : L’analyse des besoins métiers et leur traduction en spécifications techniques. La conception et le développement de pipelines de données performants. La rédaction de livrables techniques : dossiers de conception, packages techniques. La contribution à l’amélioration continue de la plateforme data. La collaboration avec des profils variés : Data Engineers, Data Scientists, équipes métiers.

111 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

France

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous