Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 1 686 résultats.
Mission freelance
DATA Analyst architecture Medallion
Net technologie
Publiée le
Data analysis
3 mois
400-550 €
France
Nous recherchons un consultant DATA Analyst (expérience architecture Medallion mandatory) en Full remote. Dans le cadre du lancement d’un projet data stratégique à dimension internationale, notre client souhaite renforcer ses équipes avec un profil clé pour accompagner les équipes Sales via un outil de pilotage data-driven centralisé. Missions : ➡️ Recueil des besoins métiers Sales / Sales Ops ➡️ Conception du modèle de données (Medallion, Canonical / Shared Data Model) ➡️ Cadrage des pipelines ETL et des règles de qualité ➡️ Mise en place de l’historisation et de la data lineage ➡️ Traduction des besoins business en KPIs, cas d’usage et vues analytiques ➡️ Référent data entre métiers, data & IT
Offre d'emploi
Data Analyste Expert Dataiku
VISIAN
Publiée le
Dataiku
1 an
40k-45k €
400-560 €
Paris, France
Descriptif du poste La mission se déroulera au sein de l'équipe de la direction pour prendre en charge la modélisation sous Dataiku d'un programme data pour la Direction Finance. La mission nécessite une expertise forte sur Dataiku en data analyse (minimum 5 ans de développement sous Dataiku) pour maintenir un flux complexe existant, l'optimiser et développer et automatiser de nouveaux flux suite à l'évolution du projet. Par ailleurs, le Métier Finance impose un respect de jalons de livraison très précis (clôtures comptables régulières notamment) et une réactivité très forte dans la correction des anomalies. Vos principales responsabilités seront : Développement sous Dataiku pour répondre à un cahier des charges précis demandé par la Direction Finance (format de sortie imposé) Maintenance du flux déjà développé et optimisation des différentes étapes Proposition de features innovantes pour optimiser le flux Mise en production dans l'automation node, paramétrage avancé des scénarios d'automatisation qui peuvent utiliser des steps custom en Python Mise en place de contrôles et de checks automatisés Animation d'atelier, participation au Comité de pilotage du projet (en binôme avec un autre data analyste)
Mission freelance
[FBO] Data Scientist/IA (GenIA) - Nantes - 1319
ISUPPLIER
Publiée le
9 mois
300-370 €
Nantes, Pays de la Loire
Contexte de la mission Compétences et expériences demandées : -Expérience +2 ans sur l'IA Gen : prompt engineering, context engineering, construction de workflow avec RAG, tool calling, MCP, implémentation de guardrails. -Expérience significative en Machine/Deep Learning (traitement du langage naturel, traduction automatique, etc.), Vision (vision par ordinateur, reconnaissance, etc.), et sur le cycle de vie des modèles IA (de la conception vers l'industrialisation, puis la supervision en production de sa valeur). Une base solide en Python est requise pour l'exploration des données, l'évaluation d'un modèle ou la construction d'une API python. -Connaissance de SQL -Solide connaissance de Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit -Maîtrise des frameworks ML distribués modernes tels que TensorFlow, PyTorch -Pratiquer une veille active sur vos domaines de compétence. -Participez activement à la construction de la stratégie en effectuant la veille technologique, étant force de proposition sur les nouveaux outils / nouvelles méthodes à utiliser et le partageant avec le reste de l’équipe Activité principales attendues : Machine Learning / Deep Learning - Évaluer le problème métier et prouver la valeur via l'analyse exploratoire des données pour démontrer la valeur d'une approche ML/DL. - Création et production de modèles d'apprentissage automatique industrialisables Traitement de données à grande échelle pour la création de jeux de données d'entraînement - Appliquer les bonnes pratiques de MLOps et d'explicabilité des modèles - Présenter les résultats aux parties prenantes et aider au suivi à long terme de la performance du modèle pour démontrer la valeur de l'IA IA Générative - Évaluer le problème métier et prouver la valeur via l'analyse exploratoire des données pour démontrer la valeur d'une approche IA Gen - Prompt engineering - Bench via des solutions d'évaluation des modèles d'IA Gen - Optimisation des solutions (paramétrage des modèles)
Mission freelance
Data Engineer Confirmé / Senior – GCP / BigQuery / dbt
CHOURAK CONSULTING
Publiée le
Apache Airflow
BigQuery
CI/CD
3 mois
400-650 €
Île-de-France, France
Nous recherchons un Data Engineer confirmé / senior pour intervenir sur une plateforme data moderne au sein d’un acteur du secteur de la santé , avec des enjeux forts de fiabilité, performance et conformité des données. 🎯 Contexte de la mission Vous rejoindrez une équipe Data en charge de la conception, de l’industrialisation et de l’optimisation d’une architecture data moderne sur GCP , orientée qualité, scalabilité et gouvernance. La plateforme repose notamment sur : GCP · BigQuery · dbt · Airflow · CI/CD ⚙️ Missions principales Concevoir et maintenir des pipelines de données robustes et scalables . Modéliser les données dans BigQuery (architecture analytique performante). Développer et maintenir les transformations via dbt (modélisation, tests, documentation). Orchestrer les flux avec Airflow (DAGs, monitoring, gestion des dépendances). Participer à l’industrialisation via des pratiques CI/CD . Garantir la qualité, la performance et la traçabilité des données . Contribuer aux choix d’architecture et aux bonnes pratiques Data Engineering.
Offre d'emploi
Architecte Data (Snowflake - IA Gen) H/F
STORM GROUP
Publiée le
Apache Airflow
AWS Cloud
CI/CD
3 ans
55k-65k €
550-680 €
Lille, Hauts-de-France
Principales missions : - Contribuer aux cadrages des nouveaux besoins techniques des métiers liés à la plateforme SNOWFLAKE - Participer à l’évolution de la plateforme Data (gouvernance, contrôles, automatisation, etc) - Participer aux choix technologiques de l’offre à mettre en place - Analyser les documents d’architecture des assets à faire évoluer et définir les nouveaux PATTERN (architecture fonctionnelle, applicative, technique) - Analyser, définir et cadrer les adaptations nécessaires de l’offre proposée - Documenter les PATTERN retenus à un niveau plus détaillé, de sorte à la rendre exécutable pour les autres Business Units - Être l’interlocuteur privilégié des équipes portant les besoins d’agent/usages IA GEN au sein du pôle DATA - Accompagner au déploiement de la solution définie auprès de la BU et des autres Business Units - Accompagner à la prise en main de la plateforme Data
Mission freelance
DATA ANALYST - Expert (>10 ans) F/H
SMARTPOINT
Publiée le
Apache Spark
Databricks
DataGalaxy
24 mois
550-580 €
Île-de-France, France
Dans le cadre du renforcement du DataLab, nous recherchons un Data Analyst Lead en prestation, rattaché à l’équipe Gouvernance des données. La mission s’inscrit dans un environnement Grande Distribution, multienseignes et multimétiers, avec de forts enjeux de pilotage de la performance, qualité des données, modélisation et usages analytiques à grande échelle. La connaissance du domaine de la Grande Distribution est un critère essentiel. Objectifs de la mission Apporter une expertise en data analyse et en conception de solutions informatiques orientées données. Contribuer à la montée en compétence des Data Analysts du DataLab. Accompagner les équipes produits et projets sur des sujets analytiques et techniques avancés. Animer la communauté des Data Analystes. Coanimer la Data Authority et les ateliers associés, en lien avec l’équipe Gouvernance des données. Principales missions Expertise en data analyse et conception de solutions data. Support avancé aux équipes produits / projets (indicateurs complexes, modélisation, cohérence des solutions). Contribution à la structuration et à l’alignement des KPI métiers. Animation de la communauté des data analystes (ateliers, bonnes pratiques, retours d’expérience). Contribution à la modélisation des données, notamment en faisant vivre le modèle de données communes. Coanimation de la Data Authority et des ateliers associés. Compétences clés attendues Expertise confirmée en data analyse. Capacité à concevoir et challenger des solutions data. Pratique avérée de la modélisation des données. Connaissance significative et opérationnelle de la Grande Distribution (critère indispensable) : enjeux business, indicateurs clés (vente, marge, stock, approvisionnement, performance magasin), compréhension des usages métiers de la donnée. Capacité à accompagner et faire monter en compétence des Data Analysts. Aisance dans l’animation de communautés et d’ateliers transverses. Contexte technique Technologies Big Data : SQL, Databricks, Scala, Python BI / Reporting : Power BI, MicroStrategy Modélisation des données : PowerDesigner Gouvernance des données : DataGalaxy Qualité des données / Data Observability : SODA Méthodologie projet : SAFE (Agilité à l’échelle) Outils Agile : Jira Environnements Big Data : Microsoft Azure & DataBricks Définit, développe, met en place et maintient les outils nécessaires à l'analyse des données par les équipes Data Conçoit les modèles de données et les contrats d'interfaces Est responsable de créer des solutions permettant le traitement de volumes importants de données tout en garantissant leur sécurité MISE EN PRODUCTION Prépare les documents requis pour les Mises En Production (MEP) et pour le Run (document d'exploitation, supervision, ?) Participe à la mise en place des processus et outils de supervision de son produit et des traitements associés Participe au transfert de compétences vers l'équipe en charge du RUN Respecte les bonnes pratiques de développement (optimisation, sécurisation, documentation, etc.) Participe aux différentes cérémonies agiles VEILLE ET SUIVI Assure une veille active sur les technologies et langages utilisés et leurs évolutions afin d'améliorer les compétences des équipes Participe à la résolution d'incidents sur le produit en collaboration avec les parties prenantes
Offre d'emploi
Product Owner Data / IA
VISIAN
Publiée le
Agile Scrum
Microsoft Power BI
Product management
1 an
Paris, France
Contexte : Pilotage de produits analytics destinés aux équipes commerciales, avec un fort enjeu de valeur métier, d’adoption et de fiabilité des données. Activités principales • Définir la vision produit analytics et construire la roadmap. • Recueillir, cadrer et challenger les besoins métiers. • Prioriser le backlog et arbitrer selon la valeur business. • Rédiger les user stories data et critères d’acceptation. • Piloter le delivery des équipes analytics / BI. • Animer les rituels agiles (refinement, planning, reviews). • Suivre l’adoption, l’usage et l’impact business des produits data. • Garantir la qualité, la cohérence et la documentation des indicateurs. • Accompagner les équipes métiers dans l’utilisation des solutions analytics.
Offre d'emploi
Data scientist / Ingénieur IA & Produits - Prompt Engineering & Evaluation
PARTENOR
Publiée le
Agent IA
Deep Learning
IA Générative
1 an
65k-70k €
560-660 €
Puteaux, Île-de-France
Les missions du poste Dans le cadre d'un projet international stratégique, nous recherchons un(e) Ingénieur IA & Produits pour contribuer au développement de solutions d'IA avancées dédiées à l'enrichissement de contenus et de produits à forte valeur ajoutée. L'architecture technique et les problématiques seront alignées avec celles déjà déployées par l'équipe française, avec une forte dimension Prompt Engineering avancé et évaluation des performances. Vous interviendrez au croisement de la recherche appliquée, de l'ingénierie IA et de la logique produit. Vos missions - Prompt Engineering avancé - Concevoir et optimiser des stratégies de prompting complexes - Développer des chaînes de prompts robustes et industrialisables - Adapter les prompts selon les cas d'usage métier - Gérer la variabilité et la stabilité des outputs - Evaluation & métriques - Concevoir des pipelines d'évaluation des prompts - Définir des métriques de qualité (pertinence, factualité, robustesse) - Mettre en place des benchmarks comparatifs - Optimiser les performances selon précision / latence / coûts - Développement & mise en production - Concevoir des solutions intégrant LLM, Deep Learning et architectures agentiques - Développer des workflows multi-agents - Implémenter des modèles NLP (classification, extraction, enrichissement) - Industrialiser les solutions en environnement produit
Mission freelance
Architecte logiciel
Codezys
Publiée le
Angular
Eclipse
Full stack
12 mois
Bordeaux, Nouvelle-Aquitaine
La mission se déroule au sein de la direction Technique Informatique . L'équipe concernée est composée de sept architectes logiciels , répartis sur l'ensemble des sites d'une organisation nationale. Ces architectes logiciels exercent une fonction transverse, intervenant sur l'ensemble des applications du système d'information (SI) de cette organisation. Toutefois, ils disposent d'un portefeuille applicatif qui leur est spécifiquement assigné. Dans le but de répondre aux enjeux des chantiers prévus pour la période 2023-2026, puis 2027-2030, l'équipe doit renforcer son pôle d' Architecture Logicielle en intégrant un Architecte logiciel expérimenté spécialisé dans les technologies suivantes : Java / J2EE, Spring, Spring Batch, Spring Boot, JPA/Hibernate, Angular, et JBoss. L'architecte logiciel accompagnera étroitement les projets menés sur le site principal, notamment : La gestion administrative des allocataires Le référentiel des dossiers retraite Le référentiel de Gestion des Droits Il/elle soutiendra également les équipes de développement dans le cadre des migrations vers le nouveau socle logiciel de l'organisation, notamment : Migration de Java 8 à Java 17 Transition vers Spring Boot Conteneurisation des applications Objectifs et livrables Concevoir l’architecture logicielle des nouvelles applications du SI, en conformité avec le cadre d’architecture ainsi qu’avec les exigences de performance, de sécurité et d’exploitabilité. Superviser et accompagner la conception de l’architecture logicielle, notamment lorsque celle-ci est assurée par les équipes projets, et en assurer la validation. Orienter et suivre les équipes de développement dans l’utilisation des frameworks et lors des migrations vers le nouveau socle technique. Organiser des revues de code et de conception technique afin de garantir la conformité à l’architecture, la bonne utilisation des frameworks, ainsi que le respect des normes et standards. Diffuser les bonnes pratiques au sein de l’entreprise, telles que la modularité et la gestion des dépendances. Assister les équipes de développement dans la résolution des problématiques techniques complexes nécessitant une expertise approfondie. Définir et mettre en œuvre une démarche de contrôle continu de la qualité logicielle.
Mission freelance
PM / PMO Data & Digital Transformation
Gentis Recruitment SAS
Publiée le
AWS Cloud
Data Warehouse
ETL (Extract-transform-load)
12 mois
Paris, France
Contexte La Direction Data et Digital d'un grand groupe du luxe, travaille à structurer ses plateformes et ses projets data dans un contexte international et omnicanal. Les initiatives couvrent : développement e-commerce et omnicanal structuration de données métiers et analytique industrialisation des flux data adoption de bonnes pratiques de pilotage, qualité de données et gouvernance Ils disposent d’équipes data, digitales et technologiques intégrées, alliant innovation, qualité de service et excellence opérationnelle . Mission principale : Supporter le Programme Data et Digital dans : la coordination des initiatives transverses le suivi de la roadmap data & digital la production des reportings projets le pilotage des dépendances entre streams le suivi des risques, des jalons, des budgets l’animation des comités de pilotage l’optimisation des process PMO Ce rôle implique d’être l’interface entre : DSI / Data Office / métier / product owners / équipes techniques . La dimension technique est un atout (compréhension des flux data, reporting, plateformes cloud, outils de gouvernance) mais ce rôle n’est pas axé développement ou ingénierie. Le PMO travaille avec des data engineers, BI, devops, architectes et responsables métier. Technologies & Environnement (contextuel) Un environnement technologique moderne comprenant : outils de gestion de projet : Jira, Confluence, Slack technologies de développement backend : Node.js, PHP/Symfony (hors data) devops / cloud : Docker, Kubernetes, Terraform, AWS compétences data : Python, SQL, outils de data science Pour un PM / PMO, la compréhension de ces environnements permet d’être pertinent dans les arbitrages et le pilotage des initiatives, notamment lorsque les équipes data travaillent avec des technologies cloud ou des plateformes analytiques.
Mission freelance
Sénior Data Engineer SQL & GCP
INFOTEL CONSEIL
Publiée le
Google Cloud Platform (GCP)
3 ans
400-550 €
Roissy-en-France, Île-de-France
Pour un acteur majeur du transport aérien, nous recherchons un Data Engineer Sénior avec une forte expérience en SQL & GCP. L'équipe est constituée de 12 Data engineers, 1 Scrum Master et 1 Product Manager. Les Data Engineers sont responsables des nombreux pipelines de données qui alimentent le DWH mais aussi de ceux qui exportent les données vers les applications consommatrices Ces pipelines sont actuellement hébergés on-premise, mais migreront très prochainement vers GCP (à partir de mars 2026). Anglais courant obligatoire
Offre d'emploi
Responsable d'application RUN - DATA
OBJECTWARE
Publiée le
Control-M
Oracle
PL/SQL
12 mois
40k-60k €
100-520 €
Nanterre, Île-de-France
La Squad Core Data (équipe opérationnelle ~20 personnes) de la Tribe Data France est composée de 5 applications de type "batch" Cette Squad dont l'organisation est full agile (sprints, daily, jira …) et avec l'aide de notre TMA a vocation à : Maintenir et sécuriser au quotidien ces applications Mettre en œuvre sur ce périmètre les évolutions (réglementaire, métier, technique …) ~20-30 projets/an Domaine / Environnement technique : Culture "bach" : perf/volumétrie, gestion de différent type de fichiers (séparateurs, formats fixes, xml …), rejets, manipulation des données … Détails de la prestation : La mission consiste à assurer le suivi et le maintien en condition opérationnelle des applications de la squad Core Data (Bases Commerciales, Interfaces Délégataires ...) - Suivi des traitements batch en production - Support de niveau 2 en cas d'incident en production - Assistance auprès des utilisateurs - Analyse des dysfonctionnements et collaboration avec la TMA qui assure les corrections - Pilotage des plans d'actions pour la résolution des problèmes de fond (incidents récurrents, incidents critiques) - Pilotage opérationnel des trains de maintenance - Application des processus TDI (Traitement des Demandes et Incidents) en vigueur chez BNP Paribas Cardif - Production des indicateurs de performance (taux de disponibilité des applications, suivi du stock de fiches d'assistance) - Gestion/Renouvèlement des certificats Compétences fonctionnelles : Aucune Compétences techniques : - Oracle, SQL, PL-SQL (très présent) - Informatica Powercenter - Linux - Ordonnanceur Control-M - CFT - GIT (Toolchain) Une forte appétence technique est nécessaire afin de pouvoir discuter, être en support et challenger nos différents acteurs : développeurs, experts, centre de test, exploitant …
Mission freelance
Data Engineer Snowflake (Migration SAP / BW)
VISIAN
Publiée le
Snowflake
3 ans
400-550 €
Lyon, Auvergne-Rhône-Alpes
Contexte Dans le cadre d’un programme stratégique de modernisation du système décisionnel, une organisation internationale engage la migration de ses données depuis un environnement SAP BW vers une plateforme Cloud Data moderne basée sur Snowflake. Vous intégrerez une équipe Data d’une dizaine de personnes dédiée à la migration, à l’industrialisation des flux et à la mise en place d’une architecture data scalable, performante et sécurisée. Missions Concevoir et développer des pipelines d’ingestion et de transformation de données depuis SAP et SAP BW vers Snowflake Garantir la qualité, la cohérence et la sécurité des données durant tout le processus de migration Collaborer avec les équipes métiers et IT afin de comprendre les besoins fonctionnels et adapter les solutions data Optimiser les performances des flux et assurer leur scalabilité dans l’environnement Snowflake Participer à la documentation technique et à la mise en place des bonnes pratiques Data Engineering Contribuer à la résolution des incidents et à l’amélioration continue des processus de migration Participer aux échanges techniques au sein de l’équipe projet Livrables attendus Pipelines de données fiables et industrialisés Modèles de transformation optimisés Documentation technique des flux et architectures Recommandations d’optimisation et d’amélioration continue Environnement technique Obligatoire : Snowflake dbt Apache Airflow SQL Python SMP Apprécié : SAP SAP BW
Mission freelance
100352/Coach Agile / Scrum (50%)/Data Analyst (50%) Nantes
WorldWide People
Publiée le
Agile Scrum
Data visualisation
Python
10 mois
400 €
Nantes, Pays de la Loire
Coach Agile / Scrum (50%)/Data Analyst (50%) Nantes : Coach Agile - Animer les cérémonies agiles (daily, sprint planning, review, rétrospectives). - Structurer le backlog et prioriser les tâches. - Former et sensibiliser l’équipe aux pratiques Scrum, Kanban et Lean. - Aider à lever les obstacles, améliorer le fonctionnement interne et le delivery. - Mettre en place des outils simples de suivi (tableaux, indicateurs, rituels). - Faciliter la communication entre les équipes techniques, métiers et exploitation Data Analyst (50%) : - Collecter, nettoyer et analyser les données liées aux flux, usages, équipements et services en gare. - Réaliser des tableaux de bord (Power BI ou équivalent) pour les équipes métiers. - Contribuer aux études statistiques (tendances, performances, incidents, utilisation des outils…). - Proposer des indicateurs pour orienter les décisions opérationnelles. - Travailler avec les équipes terrain pour comprendre les besoins utilisateurs et améliorer les visualisations. Compétences Agile : - Bonne maîtrise de Scrum et/ou Kanban. - Savoir animer une équipe, faciliter, cadrer, apaiser les tensions. - Approche pragmatique (pas dogmatique). Compétences Data : - Maîtrise d’un outil de data visualisation (Power BI, Tableau…). - Développement en Python. - Bon niveau en SQL et manipulation de données. - Capacité à vulgariser les analyses.
Offre d'emploi
Data Engineer / Développeur PostgreSQL – Full Remote
STHREE SAS pour COMPUTER FUTURES
Publiée le
PostgreSQL
6 mois
Paris, France
Nous recherchons un Data Engineer / Développeur PostgreSQL confirmé pour intervenir sur un projet stratégique au sein d’une équipe technique dynamique. Missions : Développement et optimisation de procédures stockées Rédaction et amélioration de requêtes complexes PostgreSQL Participation à la structuration et au maintien de l’architecture data Contribution aux bonnes pratiques de développement et à l’amélioration continue Ce que nous offrons : Mission 100 % télétravail Projet long terme possible Contexte technique stimulant à forte valeur ajoutée Intégration au sein d’une équipe experte
Offre d'emploi
Data Engineer (DBT / Snowflake / Airflow / Python)
bdevit
Publiée le
Apache Airflow
AWS Cloud
CI/CD
36 mois
40k-50k €
450-500 €
Issy-les-Moulineaux, Île-de-France
Contexte : Dans un environnement data à forts enjeux de performance, de fiabilité et de conformité, vous intégrerez une équipe data encadrée par un Tech Lead Data. Vous interviendrez sur la conception, l’industrialisation et l’exploitation de pipelines de données au sein d’une plateforme cloud moderne. Missions Principales : En tant que Data Engineer , vous serez en charge de : Concevoir et développer des pipelines de données robustes et scalables (ELT) ; Intégrer les données issues de sources multiples dans Snowflake ; Développer et maintenir les modèles de données analytiques avec DBT (datamarts métiers, tests, documentation) ; Orchestrer les traitements data via Apache Airflow (DAGs, scheduling, dépendances) ; Optimiser les performances, la qualité et les coûts du Data Warehouse ; Industrialiser les flux data (automatisation, CI/CD, monitoring, reprise sur incident) ; Participer à l’amélioration continue de la plateforme data et être force de proposition sur les choix techniques.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
1686 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois