L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 283 résultats.
Mission freelance
Data Engineer Informatica Talend Power B.I SQL (F/H)
CELAD
Publiée le
Big Data
Informatica
Microsoft Power BI
12 mois
400-460 €
Paris, France
Envie d’un nouveau challenge... CELAD vous attend ! 🚀 Nous poursuivons notre développement et recherchons actuellement un Data Engineer – Plateforme Epargne Financière pour intervenir chez un de nos clients du secteur bancaire. 💻💼 Voici un aperçu détaillé de vos missions 🎯 : - Sécuriser la gestion de l’actualisation de l’offre Epargne Financière en lien avec les équipes partenaires distributeurs et producteurs. - Faire évoluer la solution en respectant les standards à jour : implémentation de changements à valeur ajoutée pour le business et traitement de la dette technique. - Contribuer à la gestion du RUN et renforcer la robustesse de la solution. - Renforcer la supervision et la qualité des données.
Mission freelance
Data & Analytics Engineer (SQL / DBT)
Nicholson SAS
Publiée le
BigQuery
DBT
Google Cloud Platform (GCP)
6 mois
270 €
Lyon, Auvergne-Rhône-Alpes
Secteur : Grande Distribution Localisation : Lyon (Rythme : 3 jours de présence sur site par semaine) Durée : Mission longue visibilité (jusqu’au 16/10/2026) TJM Max : 270 € 🎯 Mission & Contexte Au sein d'une équipe dynamique dédiée au pilotage du secteur Non-Alimentaire , vous participerez à l'automatisation des analyses stratégiques. Votre mission consiste à transformer les données brutes en outils d'aide à la décision (cockpits de performance) pour les Category Managers. 🛠️ Vos responsabilités Data Preparation : Construire les pipelines de données nécessaires aux analyses récurrentes. Développement de Dashboards : Participer à la création et à l'évolution du cockpit de performance (Data Viz). Maintien Opérationnel (Run) : Assurer le bon fonctionnement quotidien des flux (extractions, scripts d'automatisation, vérification des rapports). Collaboration : Travailler en étroite collaboration avec les équipes métiers pour comprendre leurs besoins analytiques. 📦 Livrables Modèles de données structurés sur BigQuery . Tableaux de bord opérationnels sur Tableau . Documentation technique et scripts de maintenance. 💻 Stack Technique Environnement : Google Cloud Platform (GCP). Data : Maîtrise de SQL (requêtes complexes, optimisation). Transformation : Utilisation de DBT (ou forte volonté d'apprendre l'outil). Outils : Git (versioning), environnement Agile (Scrum).
Offre d'emploi
Data Steward
DATAMED RESEARCH
Publiée le
Collibra
Microsoft Power BI
MySQL
24 mois
45k-55k €
400-550 €
Paris, France
Contexte Intervention au sein d’une équipe Data/Gouvernance, avec des enjeux forts autour de la qualité de la donnée , de la conformité et de la fiabilisation des référentiels métiers . Missions principales Assurer la qualité, la cohérence et la fiabilité des données Mettre en place et suivre les règles de gestion et de contrôle de la donnée Définir et maintenir le data catalog et les référentiels métiers Collaborer avec les équipes métiers, IT et data (Data Engineers, Data Analysts…) Identifier et analyser les anomalies de données Mettre en place des indicateurs de qualité (KPI Data Quality) Participer aux initiatives de gouvernance des données (politiques, standards, process) Accompagner les métiers dans la bonne utilisation des données
Offre d'emploi
Tech Lead Databricks
VISIAN
Publiée le
Apache Spark
AWS Cloud
Data Engineering
1 an
Paris, France
Missions Conception, développement et maintenance des pipelines de données Cadrage technique Garant de la mise en production des traitements au sein de la plateforme Optimisation du code pour chaque traitement, maîtrise de l'usage Databricks au regard des coûts Maîtrise de l'architecture médaillon de Databricks, des problématiques de qualité de données, du DevOps Développement sous Databricks (Python / SQL / Spark) Force de propositions techniques Capacité à encadrer / coacher des data engineers juniors, challenger la solution et assurer un rôle de tech lead dans l'équipe Compétences Anglais de bon niveau Connaissance Cloud AWS (confirmé, 3 à 5 ans) Expérience Data Engineer sur pipeline données (senior, 8 à 10 ans) Expérience Tech Lead (confirmé, 3 à 5 ans) Maîtrise Databricks prérequise (confirmé, 3 à 5 ans) Python + SQL + Spark (senior, 8 à 10 ans)
Offre d'emploi
Tech Lead Data & BI (H/F)
1G-LINK CONSULTING
Publiée le
PowerBI
Snowflake
8 mois
Île-de-France, France
Contexte Dans le cadre du développement de ses activités Data & Analytics, notre client renforce ses équipes avec un(e) Data & BI Tech Lead. Vous interviendrez sur des projets stratégiques impliquant des sources de données variées (ERP, CRM, applications métiers), avec pour objectif de structurer les modèles de données, industrialiser les pipelines et garantir la qualité des solutions BI. Vous jouerez un rôle central de référent technique, en accompagnant les équipes Data Engineers et BI Engineers. Missions Traduire les besoins métiers en solutions techniques Concevoir les modèles physiques de données dans Snowflake Définir les choix de modélisation, d’intégration et de transformation Accompagner les Data Engineers sur les pipelines data Encadrer les BI Engineers sur les développements Power BI Promouvoir les bonnes pratiques (qualité, performance, maintenabilité) Mettre en place des pipelines robustes et automatisés Garantir la documentation et la réutilisation des patterns Déployer les pratiques CI/CD et standards de développement Superviser la conception des datasets et rapports Power BI Assurer la performance et la cohérence des solutions livrées Sécuriser les choix techniques sur les sujets sensibles Accompagner la montée en compétence des équipes Assurer le transfert de connaissances Collaborer avec des équipes distribuées (international) Compétences techniques Snowflake Power BI (modélisation, datasets, performance) Data modeling Pipelines data & automatisation Airflow / Astronomer GitHub & CI/CD Connaissance de sources type ERP / CRM (SAP, Salesforce) Expérience en environnement Azure Contexte
Mission freelance
Data Scientist / AI Engineer
ESENCA
Publiée le
CI/CD
Docker
Google Cloud Platform (GCP)
1 an
Lille, Hauts-de-France
Contexte de la mission Dans le cadre du développement de solutions innovantes autour de l’intelligence artificielle, nous recherchons un Data Scientist / AI Engineer capable de concevoir, industrialiser et mettre en production des solutions IA performantes. Le rôle consiste également à instaurer des standards solides d’ingénierie logicielle afin de garantir la qualité, la fiabilité et la scalabilité des solutions développées. Vos missions Concevoir et développer des fonctionnalités basées sur l’intelligence artificielle. Construire et maintenir des pipelines de traitement de données. Industrialiser et monitorer les applications et services IA (latence, coûts, taux de réponse, satisfaction utilisateur). Mettre en place des pratiques MLOps / LLMOps : suivi d’expériences, déploiement, monitoring et observabilité des modèles. Garantir la qualité des données, la sécurité et la conformité réglementaire (notamment GDPR). Structurer les projets IA selon des standards d’ingénierie logicielle robustes (tests, CI/CD, documentation, bonnes pratiques). Participer aux revues d’architecture et diffuser les bonnes pratiques techniques au sein des équipes. Compétences techniques requises Machine Learning / Deep Learning (niveau expert). IA générative : LLM, RAG, prompt engineering, agents et orchestration. Analyse de données avancée. Traitement de données non structurées (PDF, images). Langages : Python avancé, SQL. Conception et intégration d’ APIs . Data pipelines : orchestration, streaming, feature stores. MLOps / LLMOps : CI/CD, Docker, Kubernetes, suivi des modèles, monitoring et observabilité. Bonnes pratiques de développement : structuration des projets, stratégie de tests, documentation technique. Environnement technique Python, SQL GCP Docker, Kubernetes CI/CD, MLOps / LLMOps
Offre d'emploi
Architecte Data H/F
TOHTEM IT
Publiée le
40k-50k €
Toulouse, Occitanie
Le contexte Tu interviens sur la conception de plateformes data modernes dans un environnement industriel aéronautique. Tes missions Dans ce rôle, tu interviens sur plusieurs types de missions : Tu conçois des architectures de données robustes, scalables et performantes pour répondre aux besoins d’analyse. Tu définis les solutions d’extraction, de transformation et de chargement des données (ETL/ELT) depuis différentes sources vers les entrepôts de données, en lien avec les équipes data engineering. Tu collabores étroitement avec les équipes métiers afin de comprendre leurs besoins et de structurer la donnée au sein du système d’information. Tu veilles à la sécurité et à la conformité des données en mettant en place des dispositifs adaptés de contrôle d’accès et d’audit. Tu surveilles les performances des systèmes, identifies les points de blocage et proposes des optimisations. Tu restes en veille sur les évolutions des technologies data, BI et cloud afin de contribuer à l’amélioration continue. Tu participes à la montée en compétences des équipes data (data engineers, data analysts) sur les outils et bonnes pratiques. Tu conçois des plans de migration entre différentes technologies (par exemple d’outils on-premise vers des solutions cloud). Tu contribues activement aux communautés d’expertise en partageant tes idées et retours d’expérience.
Offre d'emploi
Business Analyst - Data (H/F)
STORM GROUP
Publiée le
SEPA
SWIFT
3 ans
55k-60k €
550 €
Île-de-France, France
· Participer à la collecte, la transformation et la gestion des données pour en assurer l'intégrité, la sécurité et la qualité · Animer des groupes de travail avec les sponsors, les business analyst du SI Paiement et les membres de la squad Flux (data viz, data engineer, business analyst) · Rédaction des livrables : spécifications fonctionnelles et techniques / user story, cahiers de recette · Développer et documenter les user stories/spécifications et les cahiers de recette avec l’assistance du Product Owner · Formation et accompagnement des utilisateurs.
Mission freelance
Data Engineering (IA/ML)
Deodis
Publiée le
CI/CD
1 an
650 €
Île-de-France, France
Mission de Data Engineer senior spécialisé en IA/ML , visant à concevoir, optimiser et industrialiser des plateformes data à grande échelle. Le rôle consiste à améliorer les pipelines d’ingestion et de traitement (notamment distribués), assurer la performance et la scalabilité des systèmes, et contribuer activement à l’évolution de l’architecture data (orchestration, stockage, requêtage). Il implique également la mise en place de bonnes pratiques d’industrialisation (monitoring, CI/CD, MLOps), le support technique avancé en production, ainsi que l’accompagnement des équipes data et data science pour garantir une utilisation efficace et robuste des plateformes dans un environnement cloud et conteneurisé.
Offre d'emploi
Chef de projet DATA / Delivery Master DATA
DATAMED RESEARCH
Publiée le
Animation
Gestion de projet
Pilotage
12 mois
40k-65k €
450-630 €
Paris, France
Objectifs et livrables Dans le cadre de cette mission, le Delivery Master Data sera responsable de la coordination et de l’accompagnement des équipes projets afin d’assurer la bonne livraison des initiatives Data. Il occupe un rôle central à l’interface entre les équipes techniques, les chefs de projet et les parties prenantes métiers. Missions principales 1. Pilotage des projets Data Planifier et organiser les projets de bout en bout, de la phase d’étude jusqu’à la mise en production Coordonner les équipes multidisciplinaires (Data Engineers, Data Scientists, Product Owners, etc.) Suivre les KPI et mettre en place des plans d’actions correctifs si nécessaire 2. Gestion de la qualité et des délais Garantir le respect des délais et des standards de qualité Veiller à l’application des bonnes pratiques en matière de Data Governance, sécurité et conformité 3. Gestion Agile Animer les cérémonies Agile (Daily, Sprint Review, Rétrospective…) Favoriser une culture d’amélioration continue et de collaboration 4. Communication et gestion des parties prenantes Assurer une communication fluide entre les équipes internes, les clients et les partenaires Préparer et animer les comités de pilotage et de suivi Gérer les attentes clients et accompagner les évolutions des projets 5. Optimisation des processus Identifier les axes d’amélioration des processus de delivery Mettre en place des actions d’optimisation et d’automatisation Améliorer l’efficacité opérationnelle des équipes
Offre d'emploi
Product Owner IA
DATAMED RESEARCH
Publiée le
Agent IA
Natural Language Processing (NLP)
OCR (Optical Character Recognition)
24 mois
Paris, France
Contexte Intervention au sein d’une équipe Data / IA en forte croissance, avec des enjeux autour de la valorisation des données, de l’industrialisation des cas d’usage IA et de l’alignement avec les besoins métiers. Missions principales Recueillir, analyser et prioriser les besoins métiers liés aux cas d’usage IA Construire et piloter la roadmap produit IA Rédiger les user stories et gérer le backlog produit Collaborer étroitement avec les équipes Data Scientists, Data Engineers et métiers Suivre le développement des modèles IA (ML, NLP, etc.) et leur mise en production Garantir la valeur business des solutions développées Mettre en place des KPIs de suivi de performance des modèles Assurer la communication avec les parties prenantes (métiers, IT, direction)
Offre d'emploi
Consultant Expert Tableau (H/F)
PREREQUIS
Publiée le
Tableau Desktop
6 mois
40k-60k €
400-600 €
Île-de-France, France
Description du poste : Pour l'un de nos clients, nous recherchons un Consultant Expert Tableau disposant d’au moins 6 ans d’expérience pour intervenir sur des projets à forte valeur ajoutée autour de la data visualisation et de la BI. Vos missions : Concevoir, développer et optimiser des tableaux de bord interactifs avec Tableau (Tableau Cloud) Accompagner les équipes métiers dans la compréhension et l’exploitation des données Modéliser et structurer les données en lien avec Snowflake Garantir la performance, la fiabilité et la gouvernance des reportings Participer à la définition des bonnes pratiques BI et data visualisation Collaborer avec les équipes data (data engineers, analysts, etc.)
Offre d'emploi
Business data analyst
DATAMED RESEARCH
Publiée le
Business Object
Data Warehouse
Microsoft Power BI
24 mois
50k-62k €
400-550 €
Paris, France
Contexte Intervention au sein de la DSI/Data d’un acteur de l’assurance IARD (Incendie, Accidents, Risques Divers), dans le cadre de projets de transformation data (pilotage, conformité, sinistres, tarification). Missions principales Recueillir et challenger les besoins métiers (souscription, gestion des sinistres, indemnisation…) Rédiger les spécifications fonctionnelles et technico-fonctionnelles Traduire les besoins en règles de gestion et en exigences data Participer à la modélisation des données (DWH, Data Lake, DataMart) Définir les mappings de données et règles de transformation (ETL) Collaborer avec les Data Engineers sur les flux et pipelines Suivre les développements et garantir la conformité aux besoins Piloter et exécuter la recette fonctionnelle (tests, validation des données) Concevoir et valider des dashboards de pilotage (KPI assurance) Accompagner les utilisateurs métiers (formation, support) La mission est entre Paris et Niort. (2 jours sur Paris, 1 jour sur Niort et 2 jours de TT)
Offre premium
Mission freelance
Data Scientist – Prévision & Optimisation H/F
AXONE BY SYNAPSE
Publiée le
Electronic Design Automation (EDA)
MLOps
Monitoring
6 mois
Roissy-en-France, Île-de-France
Axone by Synapse, cabinet de conseil IT innovant, recherche pour l’un de ses clients pour une mission de longue durée Data Scientist – Prévision & Optimisation H/F . Le consultant interviendra en tant que contributeur individuel senior pour concevoir et développer des modèles avancés de prévision et d’optimisation. Le rôle couvre des problématiques complexes liées à la prévision de la demande, à l’optimisation des ressources et à la simulation opérationnelle. Le consultant travaillera en étroite collaboration avec des data engineers et équipes IA afin de transformer des problématiques métiers en solutions analytiques robustes, scalables et orientées décision. Le consultant interviendra principalement sur l’amélioration de modèles existants de machine learning et sur la couche d’optimisation associée, avec un fort enjeu autour de l’allocation optimale des ressources opérationnelles (planning, workforce, capacité). Le rôle requiert un profil très opérationnel (hands-on), capable de manipuler du code Python avancé, d’intervenir sur des modèles ML existants et surtout de développer et améliorer des modèles d’optimisation (notamment via Gurobi). Le consultant travaillera en étroite collaboration avec les équipes internes et le partenaire externe, avec un objectif clair d’appropriation et d’internalisation des compétences à horizon 12 mois. Objectif et livrable: Développement de modèles de prévision avancés (séries temporelles, probabilistes, hiérarchiques) Conception et implémentation de modèles d’optimisation (MIP, LP, heuristiques) Développement de frameworks de simulation pour la prise de décision opérationnelle Résolution de problématiques métiers complexes et ambiguës via des approches data science Construction de modèles de machine learning prêts pour la production Collaboration avec les équipes engineering pour le déploiement et le monitoring Garantie de la robustesse, explicabilité et performance des modèles Traduction des besoins métiers en solutions analytiques concrètes Collaboration avec équipes opérationnelles et produit pour délivrer des résultats mesurables Communication des insights aux parties prenantes techniques et non techniques Compétences attendues: Expertise en séries temporelles (forecasting avancé, probabiliste, hiérarchique) Maîtrise des techniques d’optimisation (MIP, LP, heuristiques) Solides compétences en Python (NumPy, Pandas, PyTorch, OR-Tools, SimPy, Gurobi) Expérience en modélisation statistique et analyse exploratoire de données (EDA) Déploiement de modèles en production (MLOps, monitoring) Maîtrise SQL et manipulation de données volumineuses Expérience: 6+ ans en Data Science / IA appliquée Télétravail (modalité, fréquence, contraintes): Hybride, 2 à 3 jours/semaine à distance selon localisation et contraintes projet
Offre d'emploi
ML Engineer, Dataiku AWS H/F
LOMEGARD
Publiée le
Apache Spark
AWS Cloud
Dataiku
1 an
50k-65k €
500-560 €
Paris, France
Nous recherchons un ML Engineer pour accompagner le déploiement de modèles de machine learning robustes, performants et évolutifs en production. Vous intervenez dans une équipe dont le rôle stratégique est de valoriser la data. Au sein d’un environnement Data structuré, vous interviendrez sur des projets transverses mêlant data science, data engineering et MLOps. Vos principales responsabilités seront les suivantes : Optimiser la collecte et la préparation des données : data processing, feature engineering, industrialisation des pipelines. Améliorer l’exposition des modèles en production : API, endpoints, performance et scalabilité. Collaborer avec les data engineers pour intégrer les modèles dans la Data Platform. Travailler avec les data scientists afin de déployer les meilleures versions des modèles. Mettre en place des pratiques MLOps : qualité des données, suivi du data drift, monitoring, réentraînement. Assurer le suivi du cycle de vie des modèles en production. Documenter les processus, modèles et systèmes déployés.
Offre d'emploi
Data Analyst Paiement / Monétique (H/F)
STORM GROUP
Publiée le
Azure
Google Cloud Platform (GCP)
Monétique
3 ans
50k-55k €
450-470 €
Île-de-France, France
Les missions du data analyst sont : • Participer à la collecte, la transformation et la gestion des données pour en assurer l'intégrité, la sécurité et la qualité • Animer des groupes de travail avec les sponsors, les business analyst du SI Paiement et les membres de la squad Monétique (data viz, data engineer, business analyst) • Réaliser les recettes des traitements d'intégration et de transformation de données • Développer et documenter les user stories/spécifications et les cahiers de recette avec l’assistance du Product Owner • Formation et accompagnement des utilisateurs.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Simulateur urssaf pour nouvelle regle avec cipav et EURL introuvable ?
- Nouveau volet social dans la déclaration d'impôts sur le revenu
- Retour d'expérience démission-reconversion
- Démission pour création d'entreprise rapide
- Passer de micro à SASU avec des factures en attente : comment récupérer son reliquat ARE ?
- Offre fictifs et offre non sérieuses
283 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois