Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 81 résultats.
Offre d'emploi
Data Analyst / Data Scientist Sénior
Publiée le
Collibra
Dataiku
MySQL
40k-70k €
Paris, France
Télétravail partiel
Un·e Data Analyst capable de couvrir l'ensemble de la chaîne de valeur de la donnée, avec une appétence pour la Data Science à moyen terme. Vos principales missions : Recueillir et cadrer les besoins métiers. Extraire, nettoyer et préparer les données. Documenter les jeux de données et les structurer via un outil de catalogage. Concevoir des produits de données à forte valeur ajoutée. Réaliser des tableaux de bord et des visualisations pour faciliter la prise de décision. Contribuer à la démarche Data Mesh en travaillant étroitement avec les "domaines métiers"
Offre d'emploi
Data Architecte
Publiée le
API
Architecture
Go (langage)
3 ans
Île-de-France, France
Télétravail partiel
Nous recherchons un Data Architect pour concevoir, construire, optimiser et maintenir les modèles de données conceptuels et logiques des produits data au sein d’une plateforme moderne. Le poste requiert une forte expertise en architecture data , migration de données et ingénierie de plateformes data , avec un caractère impératif sur la conception et le développement d’Operators OpenShift et d’API permettant de piloter l’infrastructure data. Le Data Architect travaillera en étroite collaboration avec les producteurs de données, les équipes plateforme et les équipes Data Science afin de garantir des solutions data performantes, sécurisées et évolutives.
Offre d'emploi
Data Governance Lead F/H
Publiée le
Data governance
Luxembourg
Télétravail partiel
DSI Group recherche un Data Governance Lead H/F pour son client basé au Luxembourg. Nous recherchons un(e) Data Governance Lead pour jouer un rôle clé dans la structuration et le déploiement de la gouvernance des données du client. Ce poste stratégique est au cœur des enjeux de fiabilité, conformité et valorisation des données, au service des activités assurance, santé et gestion de patrimoine. Vous interviendrez comme référent(e) de la gouvernance data, en lien étroit avec les équipes BI, Data, IA & Data Science, afin de garantir une exploitation responsable, conforme et performante des données dans une organisation résolument data-centric. Vos missions : Définir et déployer le cadre de gouvernance des données à l’échelle du Groupe Concevoir et opérationnaliser les modèles de responsabilité et de propriété des données, en cohérence avec les principes du Data Mesh Mettre en place des standards de qualité, de documentation et des indicateurs clés de gouvernance Structurer les pratiques de gestion des métadonnées, de traçabilité et de cycle de vie des données Garantir la conformité réglementaire (CAA, Solvabilité II, RGPD, CSSF), notamment pour les données sensibles Animer les comités de gouvernance data et accompagner les parties prenantes métiers et IT Collaborer avec les équipes IA & Machine Learning afin d’assurer une exploitation éthique et responsable des données Promouvoir et diffuser une culture data forte au sein de l’organisation
Offre d'emploi
Data Engineer Databricks - Lyon
Publiée le
Apache Spark
Databricks
45k-55k €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
En tant que Data Engineer, vous intervenez sur la conception, le développement et l’optimisation de pipelines de données robustes et scalables. Vous travaillez au cœur des plateformes Data afin de garantir la qualité, la disponibilité et la performance des données utilisées par les équipes métiers, BI et Data Science. Expérience attendue : 3 à 8+ ans en ingénierie Data. Vous correspondez au/à la Data Engineer que nous recherchons si : Vous évoluez efficacement au sein d’équipes agiles et pluridisciplinaires , en collaboration étroite avec les équipes Data, IT et métiers Vous faites preuve d’un fort esprit analytique et d’une grande rigueur Vous êtes autonome , proactif et doté d’un solide sens des responsabilités Vous êtes capable de communiquer clairement avec des interlocuteurs techniques comme non techniques Vous savez prioriser vos tâches , gérer les contraintes et respecter vos engagements Vous disposez d’un bon esprit de synthèse et êtes orienté résultats et valeur métier Vous avez une bonne connaissance des environnements Business Intelligence , Big Data et des architectures Lakehouse Vous avez déjà travaillé sur des plateformes Data modernes (Cloud) Vous maîtrisez SQL comme langage d’interrogation des données et avez des notions de modélisation de données (architecture médaillon, modèle en étoile …) Vous disposez d’un bagage en software engineering , vous permettant d’écrire un code robuste, lisible, maintenable et testable, notamment en Python Vous appliquez les bonnes pratiques de développement : structuration du code, modularité, gestion des dépendances, conventions de nommage Vous êtes sensibilisé aux principes de qualité logicielle (tests unitaires, tests d’intégration, revue de code) Vous êtes à l’aise avec les outils de versioning ( Git ) et les workflows collaboratifs associés Vous savez concevoir des pipelines Data comme de véritables produits logiciels, en tenant compte de la maintenabilité, de l’évolutivité et de l’observabilité
Offre d'emploi
Data Engineer Databricks
Publiée le
Apache Spark
Databricks
45k-60k €
Paris, France
Télétravail partiel
En tant que Data Engineer, vous intervenez sur la conception, le développement et l’optimisation de pipelines de données robustes et scalables. Vous travaillez au cœur des plateformes Data afin de garantir la qualité, la disponibilité et la performance des données utilisées par les équipes métiers, BI et Data Science. Expérience attendue : 3 à 8+ ans en ingénierie Data. Vous correspondez au/à la Data Engineer que nous recherchons si : Vous évoluez efficacement au sein d’équipes agiles et pluridisciplinaires , en collaboration étroite avec les équipes Data, IT et métiers Vous faites preuve d’un fort esprit analytique et d’une grande rigueur Vous êtes autonome , proactif et doté d’un solide sens des responsabilités Vous êtes capable de communiquer clairement avec des interlocuteurs techniques comme non techniques Vous savez prioriser vos tâches , gérer les contraintes et respecter vos engagements Vous disposez d’un bon esprit de synthèse et êtes orienté résultats et valeur métier Vous avez une bonne connaissance des environnements Business Intelligence , Big Data et des architectures Lakehouse Vous avez déjà travaillé sur des plateformes Data modernes (Cloud) Vous maîtrisez SQL comme langage d’interrogation des données et avez des notions de modélisation de données (architecture médaillon, modèle en étoile …) Vous disposez d’un bagage en software engineering , vous permettant d’écrire un code robuste, lisible, maintenable et testable, notamment en Python Vous appliquez les bonnes pratiques de développement : structuration du code, modularité, gestion des dépendances, conventions de nommage Vous êtes sensibilisé aux principes de qualité logicielle (tests unitaires, tests d’intégration, revue de code) Vous êtes à l’aise avec les outils de versioning ( Git ) et les workflows collaboratifs associés Vous savez concevoir des pipelines Data comme de véritables produits logiciels, en tenant compte de la maintenabilité, de l’évolutivité et de l’observabilité
Mission freelance
Consultant AI MLOps
Publiée le
AWS Cloud
IA
IA Générative
3 mois
Paris, France
Télétravail partiel
Kajenthi@RED Global – Recherche Consultant IA/ MLOPS – Freelance – 3 mois - Paris intramuros – Hybride RED Global recherche un Consultant IA/ MLOPS, avec une casquette de Product Owner et Project Manager , en Freelance, sur Paris et avec un client final. Votre mission sera d’intervenir dans la delivery, la gestion de projets et la structuration des processus IA et MLOPS Détails du poste: Lieux: Paris – Hybride Type de contrat : Freelance – 3 mois Démarrage : ASAP 1 entretien uniquement Stack technique: AWS, Python et CI/CD Profil recherché : Plus de 5 ans d’experience en tant que Consultant IA/ MLOPS Expérience en Data Science et Machine Learning Expérience poussée sur AWS Cloud data et Python Il faudra: Piloter le projet Collaborer avec les Business Partners IT pour structurer, qualifier et prioriser les nouvelles demandes liées à l’IA Assurer l’intégration des activités et pipelines IA dans les processus et outils CI/CD Langues : Maîtrise du français et anglais (obligatoire) Si vous souhaitez recevoir plus d’information sur le poste ou si vous pouvez recommander un collègue ou un ami, n’hésitez pas à me contacter par mail au
Offre d'emploi
Data Engineer Python - Dax
Publiée le
Databricks
45k-50k €
Occitanie, France
Télétravail partiel
En tant que Data Engineer, vous intervenez sur la conception, le développement et l’optimisation de pipelines de données robustes et scalables. Vous travaillez au cœur des plateformes Data afin de garantir la qualité, la disponibilité et la performance des données utilisées par les équipes métiers, BI et Data Science. Expérience attendue : 3 à 8+ ans en ingénierie Data. Vous correspondez au/à la Data Engineer que nous recherchons si : Vous évoluez efficacement au sein d’équipes agiles et pluridisciplinaires , en collaboration étroite avec les équipes Data, IT et métiers Vous faites preuve d’un fort esprit analytique et d’une grande rigueur Vous êtes autonome , proactif et doté d’un solide sens des responsabilités Vous êtes capable de communiquer clairement avec des interlocuteurs techniques comme non techniques Vous savez prioriser vos tâches , gérer les contraintes et respecter vos engagements Vous disposez d’un bon esprit de synthèse et êtes orienté résultats et valeur métier Vous avez une bonne connaissance des environnements Business Intelligence , Big Data et des architectures Lakehouse Vous avez déjà travaillé sur des plateformes Data modernes (Cloud) Vous maîtrisez SQL comme langage d’interrogation des données et avez des notions de modélisation de données (architecture médaillon, modèle en étoile …) Vous disposez d’un bagage en software engineering , vous permettant d’écrire un code robuste, lisible, maintenable et testable, notamment en Python Vous appliquez les bonnes pratiques de développement : structuration du code, modularité, gestion des dépendances, conventions de nommage Vous êtes sensibilisé aux principes de qualité logicielle (tests unitaires, tests d’intégration, revue de code) Vous êtes à l’aise avec les outils de versioning ( Git ) et les workflows collaboratifs associés Vous savez concevoir des pipelines Data comme de véritables produits logiciels, en tenant compte de la maintenabilité, de l’évolutivité et de l’observabilité
Mission freelance
Data Product Manager en Data Lab - Rennes
Publiée le
Google Cloud Platform (GCP)
Python
SQL
3 mois
520-570 €
Rennes, Bretagne
Télétravail partiel
Au sein du Data Lab, nous recherchons un Data Product Manager freelance. Nous avons besoin d'un profil pivot, capable de traduire des besoins métier en solutions concrètes. Le poste est résolument hybride : il ne s'agit pas seulement de suivre un planning, mais bien de comprendre ce qui se passe sous le capot pour fluidifier les échanges entre les métiers et l'équipe technique. Les sujets du Data Lab sont divers, Data Science, Data Modelling, Tableaux de bord, IA générative et automatisation des processus métier. Nous ne cherchons pas un gestionnaire de projet classique, mais un profil également capable de faire, de manipuler la donnée et de réaliser des premiers prototypes. • Hybride & Transverse : Pouvoir comprendre les besoins métiers et les traduire en specs fonctionnelles et techniques. Pouvoir "traduire" le besoin vers les équipes de développement. • Technique : Être capable de manipuler la donnée (SQL) et de créer des dashboards simples (type Looker Studio) pour prototyper. • Pragmatique (Esprit Data Lab) : Pouvoir travailler en mode MVP rapide et testable • Relationnel : savoir créer du lien, fluidifier les blocages et avec une véritable aisance relationnelle. Vos responsabilités Cadrage & Spécifications (Le cœur du réacteur) • Traduire le besoin métier en spécifications fonctionnelles claires. • Rédiger les spécifications techniques pour guider les Data Engineers (modélisation, règles de gestion). • S'assurer que ce qui est demandé est techniquement viable sur notre stack. Pilotage & "Faire" • Gérer le backlog et prioriser selon la valeur business. • Effectuer les recettes techniques et fonctionnelles : vous devez pouvoir requêter la base pour valider les livrables avant de les présenter au métier. • Participer activement à la vie du Data Lab et à l'amélioration des processus.
Mission freelance
Data scientist F/H - Lyon (69)
Publiée le
Python
SQL
6 mois
500 €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Notre client dans le secteur Conseil et audit recherche un Data Scientist H/F Descriptif de la mission: Activité principale : • Participation à des ateliers avec des experts métiers pour collecter le besoin et comprendre les données • Conception et développement de traitements de données • Réalisation d’études statistiques • Présentation de résultats sous la forme de rapports d’étude ou de tableaux de bord • Développement d’outils de visualisation de données pour faciliter les analyses • Diffusion et vulgarisation des résultats d’études Le consultant sera également attendu sur les compétences suivantes : • Lien entre la partie métier et la partie data science • Conception fonctionnelle du besoin métier au sein d'un SI • Préparer et participer aux ateliers avec le métier et ses représentants utilisateurs • Appui au pilotage des réalisations, suivi d'avancement du développement Activité secondaire : • Veille technologique sur les outils utilisés au sein du projet • Partage et formation sur les guides de bonnes conduites Stack technique de l'équipe : L'environnement technique du projet est le suivant : • Python • Postgre SQL • Teradata • Hadoop • Jira / Confluence • Git / Bitbucket • PowerBI • Powerpoint / Excel Compétences / Qualités indispensables: • Maîtrise de Python et de ses librairies pour le traitement, l'analyse de données et la modélisation statistique (pandas, polars, scikit-learn, matplotlib, xgboost, pandera, geopandas), • Bonne connaissance des bases de données SQL, notamment PostgreSQL et Teradata., • Proactif et autonome, avec une capacité à prendre des initiatives et à résoudre des problèmes., • Expérience dans le recueil de besoins et l’animation d’ateliers métiers Compétences / Qualités qui seraient un +: Une première expérience dans la coordination des livrables et la communication directe avec le métier est requise.
Offre d'emploi
Product Owner Data / IA – LCB/LAB
Publiée le
Data analysis
LabVIEW
Large Language Model (LLM)
1 an
40k-45k €
400-500 €
Paris, France
Télétravail partiel
🚨 Opportunité – Product Owner Data / IA – LCB/LAB 🚨 Nous recherchons un Product Owner issu de la Data Science souhaitant évoluer vers un rôle PO, pour piloter l’implémentation d’un nouveau moteur de détection LCB/LAB intégrant des briques d’Intelligence Artificielle. 🎯 Au cœur de la mission : Backtesting et modèles prédictifs Modélisation du risque par alertes Développement d’un agent conversationnel LLM pour l’aide au traitement des alertes Visualisation des données via base graphe (Neo4j) 👉 Mission à forte valeur ajoutée, mêlant Data, IA, produit et enjeux réglementaires.
Mission freelance
Expert MS Fabric
Publiée le
Microsoft Fabric
12 mois
Paris, France
Télétravail 100%
Fluent english! Piloter la mise en place et l’architecture de la plateforme Microsoft Fabric , garantir la cohérence technique, la sécurité et la performance des environnements Data, en alignement avec les bonnes pratiques Cloud et DevOps . Responsabilités Définir et implémenter l’architecture cible Microsoft Fabric (Data Factory, Data Engineering, Data Science, Real-Time, OneLake). Mettre en place les standards, patterns et bonnes pratiques (gouvernance, sécurité, performances, optimisation des coûts). Encadrer et accompagner l’équipe projet (Data Engineer, Cloud Engineer, Data Scientist, Purview Expert). Industrialiser la configuration via scripts IaC / DevOps (ARM/Bicep, Terraform, GitHub Actions, Azure DevOps). Assurer le lien avec les parties prenantes (métier, IT, sécurité) et garantir la conformité (RGPD, gouvernance). Suivre l’avancement technique, challenger les choix et valider les livrables.
Offre d'emploi
Développeur Python IA (H/F)
Publiée le
AI
Python
3 ans
50k-60k €
480-550 €
Île-de-France, France
Télétravail partiel
Contexte du poste : Dans un environnement data-driven en forte évolution, nous recherchons un(e) Développeur(se) Python issu(e) du monde de la data , avec de solides connaissances en intelligence artificielle . Vous interviendrez sur des projets à fort impact mêlant data engineering, data science et mise en production de modèles IA. Missions principales : Concevoir, développer et maintenir des applications et pipelines Python orientés data Manipuler, nettoyer et analyser de grands volumes de données (structurées et non structurées) Développer, entraîner et optimiser des modèles de machine learning / IA Mettre en production des modèles (MLOps, APIs, batch ou temps réel) Collaborer avec les équipes Data, Produit et Tech sur des projets transverses Participer aux choix d’architecture et aux bonnes pratiques de développement Rédiger une documentation technique claire (en anglais si nécessaire)
Mission freelance
PMO senior - Finance - Paris
Publiée le
Direction de projet
Gestion de projet
1 an
Paris, France
Télétravail partiel
Contexte du poste L’entreprise est une structure à taille humaine engagée dans une phase de structuration de son organisation projet. Les pratiques de gestion de projet sont encore hétérogènes et peu formalisées, avec des équipes métiers et IT peu habituées à un cadre project management rigoureux. L’enjeu principal est de sénioriser le pilotage des projets, d’instaurer des méthodes communes et d’accompagner progressivement les équipes vers plus de discipline et de lisibilité. Les projets concernent principalement de la digitalisation et de la data “pragmatique” (intégration, outillage, amélioration de l’existant), sans logique de data science avancée. Le poste implique un fort relationnel interne et une capacité à adapter les méthodes aux contraintes d’une petite organisation. Missions - Piloter des projets de digitalisation et de data (intégration, outillage, amélioration de process) - Structurer et formaliser les pratiques de project management au sein de l’organisation - Faire le lien entre les équipes métiers, IT, infra, cyber et les prestataires externes - Accompagner les métiers dans la rédaction et la clarification des expressions de besoins - Anticiper les risques projets (IT, infra, sécurité, dépendances éditeurs) - Mettre en place et faire respecter des rituels et méthodes projet adaptés au contexte - Challenger les équipes tout en restant pédagogique et pragmatique Stack technique - Environnements IT et data (projets d’intégration, outils métiers) - Interaction avec des éditeurs, équipes infra, cyber et développement - Outils de pilotage projet (planning, suivi, reporting – non imposés)
Offre d'emploi
Data Engineer GCP
Publiée le
BigQuery
Google Cloud Platform (GCP)
6 mois
Lille, Hauts-de-France
Télétravail partiel
Nous recherchons un(e) Data Engineer spécialisé(e) sur Google Cloud Platform (GCP) pour renforcer l'équipe Data de notre client Vous serez chargé(e) de concevoir, développer et maintenir des pipelines de données performants et fiables, afin de structurer et valoriser les données de l’entreprise. Votre rôle sera central dans la mise en place d’une infrastructure data moderne et évolutive, au service des équipes métiers, Data Science et BI. Concevoir, développer et maintenir des pipelines de données sur GCP (Dataflow, Dataproc, Cloud Composer, etc.) Mettre en place et administrer des data lakes et data warehouses (BigQuery, Cloud Storage) Intégrer des flux de données provenant de sources variées (API, streaming, batch) Participer à la modélisation et à la gouvernance des données Automatiser les déploiements et superviser les environnements (Terraform, CI/CD) Collaborer avec les équipes Data Science, BI et Produit Garantir la qualité, la sécurité et la conformité des données (RGPD, bonnes pratiques GCP)
Mission freelance
MLOPS Azure
Publiée le
Azure
CI/CD
MLOps
3 mois
290-700 €
Toulouse, Occitanie
Bonjour, je suis à la recherche d'un MLOPS Azure dont vous trouverez la fiche de poste ci-desous: iche de Poste : Expert DevOps Azure / MLOps Intitulé du poste : Expert DevOps Azure spécialisé en MLOps (Machine Learning Operations) Contexte & Objectif Airbus recherche un profil à forte expertise DevOps Azure appliquée à des projets Machine Learning en production. L’objectif est de mettre en place et industrialiser des pipelines CI/CD robustes et sécurisés pour le déploiement de modèles ML dans des environnements fortement contraints. Missions principales Concevoir, mettre en place et maintenir des pipelines CI/CD sous Azure DevOps pour des projets Machine Learning. Gérer les changements d’environnements (dev → test → prod) dans des contextes hautement sécurisés . Déployer des solutions de Machine Learning en production avec des flux CI/CD éprouvés et opérationnels. Automatiser les processus de packaging, versioning et déploiement des modèles ML. Intégrer les bonnes pratiques MLOps (monitoring, retraining, gouvernance des modèles). Collaborer avec les équipes Data Science, Sécurité et Infrastructure pour garantir la conformité et la performance. Assurer la traçabilité et la gestion des artefacts (datasets, modèles, configurations).
Offre d'emploi
Data Engineer GCP
Publiée le
BigQuery
Google Cloud Platform (GCP)
6 mois
Rouen, Normandie
Télétravail partiel
Nous recherchons un(e) Data Engineer spécialisé(e) sur Google Cloud Platform (GCP) pour renforcer l'équipe Data de notre client Vous serez chargé(e) de concevoir, développer et maintenir des pipelines de données performants et fiables, afin de structurer et valoriser les données de l’entreprise. Votre rôle sera central dans la mise en place d’une infrastructure data moderne et évolutive, au service des équipes métiers, Data Science et BI. Concevoir, développer et maintenir des pipelines de données sur GCP (Dataflow, Dataproc, Cloud Composer, etc.) Mettre en place et administrer des data lakes et data warehouses (BigQuery, Cloud Storage) Intégrer des flux de données provenant de sources variées (API, streaming, batch) Participer à la modélisation et à la gouvernance des données Automatiser les déploiements et superviser les environnements (Terraform, CI/CD) Collaborer avec les équipes Data Science, BI et Produit Garantir la qualité, la sécurité et la conformité des données (RGPD, bonnes pratiques GCP)
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Dividendes lors du passage de SASU à EURL
- Séquence France travail pour SASU et ARE
- Ça commence à bouger,non ?
- Passage au réel après dépassement micro : notification URSSAF ?
- WANTED!! Associé(e) commercial BtoB/online, avec une fibre artistique..
- Plateformes freelances : opportunité réelle ou perte de temps ?
81 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois