Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 1 783 résultats.
Freelance

Mission freelance
Data Engineer (1j/ semaine à Toulouse)

Signe +
Publiée le
Google Cloud Platform (GCP)
PowerBI
SQL

1 an
400-450 €
Toulouse, Occitanie
Contexte de la mission : Dans le cadre d’un renforcement d’équipe, notre client recherche un Data Engineer disposant d’une solide expertise en Business Objects (BO) , SQL , Power BI et GCP . La mission s’inscrit dans un environnement international nécessitant un bon niveau d’anglais (oral et écrit). Missions principales : Développer, maintenir et optimiser des rapports et univers sous Business Objects (BO) Concevoir et optimiser des requêtes complexes en SQL Développer des tableaux de bord et reportings interactifs sous Power BI Intervenir sur l’architecture et les traitements de données sur Google Cloud Platform (GCP)
Alternance
Freelance

Mission freelance
Membre de jury d’examen Data Scientist – Évaluation asynchrone (Freelance)

█ █ █ █ █ █ █
Publiée le

Douvaine, Auvergne-Rhône-Alpes

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDI

Offre d'emploi
Product Owner Data F/H - Informatique de gestion (H/F)

█ █ █ █ █ █ █
Publiée le
Apache Kafka
Java
JIRA

Noisy-le-Grand, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Business Analyst Compliance et légal - AML/MAD

OLYMPP
Publiée le
AML (Anti-Money Laundering)
Data management
Gouvernance, gestion des risques et conformité (GRC)

3 ans
400-560 €
Paris, France
Missions principales : 1. Surveillance et conformité AML/MAD Détection et gestion des alertes dans l’outil de monitoring. Définition et mise à jour des scénarios de détection. Intégration de nouvelles entités dans le dispositif. Optimisation des modèles, seuils et listes de contrôle. Support de production et suivi des anomalies. Animation de comités liés au dispositif AML/MAD. 2. Suivi des prestations éditeur Suivi des développements et production d’alertes. Gestion des incidents dans l’outil de suivi. Reporting régulier à la direction IT et animation des comités avec l’éditeur. 3. Criblage sanctions et KYC Suivi des opérations de criblage central et local. Reporting mensuel des résultats. 4. Pilotage transverse Suivi des projets IT, incidents et budgets. Participation à la validation des nouveaux projets. Coordination avec les métiers et les fournisseurs. Support de production et formalisation des comptes-rendus. 5. Support légal (10 % du temps) Participation ponctuelle à des missions légales et de conformité. Profil recherché : Connaissance AML/MAD et des outils de monitoring. Capacité à suivre des projets IT et à coordonner différents acteurs. Rigueur, sens de l’organisation et esprit de synthèse.
Freelance

Mission freelance
Data Engineer - Azure / Databricks / Power BI

CHOURAK CONSULTING
Publiée le
Azure
Azure Data Factory
CI/CD

3 mois
400-550 €
Île-de-France, France
Nous recherchons un Data Engineer confirmé / senior pour intervenir au sein d’un acteur structuré du secteur des services, sur une plateforme data moderne basée sur Microsoft Azure . 🎯 Contexte de la mission Vous rejoindrez une équipe Data en charge de faire évoluer et industrialiser une plateforme analytique reposant sur Azure & Databricks , avec une forte interaction avec les équipes BI et métiers. ⚙️ Missions principales Concevoir et développer des pipelines de données sur Azure. Mettre en œuvre des traitements et transformations sur Databricks (PySpark / SQL) . Modéliser et structurer les données pour la consommation BI. Collaborer avec les équipes Power BI pour optimiser les datasets. Participer à l’industrialisation (CI/CD, bonnes pratiques, documentation). Contribuer à l’amélioration continue de l’architecture data.
Freelance

Mission freelance
React Native Data Engineer

Cherry Pick
Publiée le
Databricks
React Native

12 mois
400-470 €
Paris, France
En quelques mots Cherry Pick est à la recherche d'un "Développeur React Native - Data Engineer" pour un client dans le secteur de la grande distribution. Description 📱 Le Contexte : Un Rôle Pivot Mobile & Data Nous recherchons un profil atypique et polyvalent pour intervenir sur une plateforme technologique alliant une interface utilisateur mobile exigeante et une architecture de données robuste sous Azure. Votre mission principale sera d'assurer la maintenance évolutive et corrective d'une application mobile développée en React Native . En complément, et selon la charge du front-end, vous interviendrez sur la partie Data Engineering pour optimiser les pipelines et les notebooks au sein de l'environnement Azure Databricks . 🎯 Vos Missions : Du Pixel à la Donnée 1. Développement Mobile (Majeure) : Assurer la maintenance corrective (bugs) et évolutive (nouvelles features) de l'application React Native. Analyser les opportunités et la faisabilité technologique des nouvelles fonctionnalités. Réaliser le prototypage, le développement des composants et les revues de code croisées. Garantir l'industrialisation des composants et la documentation pour la mise en production (MEP). 2. Data Engineering (Mineure / Support) : Intervenir sur les traitements back/data en environnement Azure . Développer et maintenir des pipelines de données et des notebooks sous Databricks . Optimiser les traitements via Spark et requêtage SQL complexe. Participer à la structuration et au maintien des bases de données liées à l'application. 3. Qualité & Exploitation : Élaborer les jeux d'essais et réaliser les tests unitaires et d'intégration. Analyser les résultats, traiter les dysfonctionnements et rédiger les rapports de tests. Participer à la résolution des incidents de production et mettre à jour les dossiers d'exploitation.
Freelance
CDI

Offre d'emploi
Business Analyst / Data Analyst

R&S TELECOM
Publiée le
Apache Airflow
Azure Logic Apps
ETL (Extract-transform-load)

1 an
Lyon, Auvergne-Rhône-Alpes
Contexte de la mission : Pour l’un de nos clients, cette mission consistera par l’accompagnement du lancement d’un projet interne stratégique destiné à doter ses équipes commerciales d’un outil de pilotage centralisé axé sur la donnée. Tâches à réaliser : Recueillir et formaliser les besoins métier des équipes Sales / Sales Ops (indicateurs, rapports, cas d’usage). Analyser les sources de données existantes (dont Salesforce) et comprendre le business data model actuel. Concevoir et faire évoluer le modèle de données dans une logique Medallion / Canonical / Shared Data Model. Cadrer et spécifier les pipelines de données (ETL / workflows) avec les outils en place : Fabric Pipeline, dbt, Alteryx, Airflow, LogicApps, PowerAutomate, etc. Définir les règles de transformation et de qualité de données (nettoyage, harmonisation, gestion des doublons, référentiels). Mettre en place et documenter l’historisation et la data lineage de bout en bout (de la source jusqu’aux vues analytiques). Rédiger la documentation fonctionnelle et le dictionnaire de données pour les équipes data et métiers. Jouer le rôle de “go-to person” / référent data pour l’équipe projet, en répondant aux questions et en arbitrant les choix fonctionnels. Accompagner les utilisateurs (explication des KPIs, démonstration des vues, recueil de feedbacks) et proposer des améliorations continues.
Freelance

Mission freelance
Architecte Technique Senior - SI

Codezys
Publiée le
Big Data
DevOps
Java

6 mois
Paris, France
a mission s'inscrit au sein du département Architecture d'un organisme majeur de la protection sociale. Nous recherchons un Architecte Technique Senior (15-25 ans d'expérience) pour rejoindre le pôle Accompagnement et Conformité. Le consultant aura pour responsabilité de faire évoluer l'architecture du SI pour répondre aux besoins utilisateurs tout en assurant l'interopérabilité des nouvelles solutions avec l'environnement existant. Il travaillera en étroite collaboration avec l'Architecture d'Entreprise (Urbanistes) et les équipes d'experts techniques (socles, systèmes, réseaux). Objectifs et livrables Objectifs principaux : La mission consiste principalement à accompagner les projets dans la définition de leur architecture technique en cohérence avec les politiques techniques de l'organisme. Détail des activités : Support aux projets (70% de l'activité) : Accompagner l'élaboration des Dossiers d'Architecture Technique (DAT), contribuer à l'instruction et aux revues d'architecture, et réaliser des études d'impact pour les nouvelles technologies. Démarche d'architecture et conformité : Définir des solutions techniques conformes aux standards et assurer la cohérence avec les briques de production (Gateway, Kubernetes, Middleware...). Collaboration et expertise : Valider les solutions avec les experts techniques et suivre les évolutions des socles. Transformation SI : Accompagner les transformations vers le Cloud et les projets BI / Big Data. Environnement technique : Socle applicatif : JAVA (JEE, Spring, Hibernate), API/SOA (REST, SOAP) Infrastructure & Cloud : Kubernetes, Openshift, Ansible, VMWare, Architecture Microservices. Data (Atout) : Big Data, Spark, Kafka, ELK. Bases de données : PostgreSQL, Oracle, Cassandra. Livrables attendus : Dossiers d'Architecture Technique (DAT). Schémas d'architecture (modélisation Archimate). Architecture Decision Records (ADR) pour la traçabilité des choix. Comptes rendus des comités d'architecture. Analyses de marché et supports de veille technologique.
Freelance

Mission freelance
Azure Data Architect (Maroc)

AVALIANCE
Publiée le
Azure
Azure AI
Azure Data Factory

3 ans
Maroc
Contexte : Définition des besoins assistance au design / rédaction TAD (functional/Non Functional) Accompagner les squads projets dans la mise en place d’architectures data sécurisées et scalables sur Azure Collaborer avec les architectes data, sécurité, entreprise et les DevOps dans chaque squad. Garantir la bonne intégration et l’usage des composants Azure liés à la data. Assurer l’isolation, la sécurisation et le bon routage des accès aux données. Compétences attendues : Expertise Cloud Azure (Infrastructure), notamment : Azure Data Factory Azure Databricks Azure Data Lake Storage Azure Synapse Analytics Connaissances approfondies des problématiques d’architecture sécurisée, d’accès aux données, et de segmentation des environnements. Expérience dans l’intégration Power BI avec des ressources Azure (via Data Gateway, par exemple). Capacité à travailler en environnement agile multi-squad Périmètre technique : Ingestion de données depuis différentes sources (bases relationnelles, fichiers, APIs). Stockage des données dans un Data Lake et modélisation dans un Data Warehouse. Orchestration et transformation via Azure Data Factory et Databricks, intégration potentielle de modèles Machine Learning. Mise en place de pipelines ELT : structuration des données pour les rendre exploitables par les métiers. Restitution des données via Power BI (connexion entre Power BI SaaS et bases PaaS via Data Gateway)
CDI

Offre d'emploi
Ingénieur(e) R&D Data Scientist expérimenté(e) (F/H)

█ █ █ █ █ █ █
Publiée le
Python
Pytorch
Tensorflow

Nantes, Pays de la Loire

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Data Migration Expert / Lead SAP h/f

Freelance.com
Publiée le
SAP
SAP FICO
SAP MM

6 mois
400-650 €
Saint-Ouen-sur-Seine, Île-de-France
Dans le cadre d’un programme international de migration SAP ECC vers S/4HANA, nous recherchons un profil de Data Migration Expert Vous interviendrez de la définition de l’approche méthodologique jusqu’à l’exécution des cycles de migration et la validation métier. Vos missions principales : Piloter et faire évoluer la méthodologie DTM Définir la stratégie de data cleansing et les KPIs associés Structurer les templates de migration (MAD, mapping, séquence DTM) Encadrer les cycles MOCK1, MOCK UAT et chargement PROD Analyser les défauts en première ligne Animer et former la communauté DME Garantir la cohérence méthodologique internationale
Freelance

Mission freelance
Financial Project Management Data Feeding

STHREE SAS pour HUXLEY
Publiée le

8 mois
700 €
France
Au sein de la Direction Financière , le département Financial Data Integrity (FDI) a pour mission de contrôler les données nécessaires pour produire les comptes ainsi que l'ensemble des indicateurs et reporting réglementaires (sous la responsabilité de la Direction Financière). La mission se déroulera au sein du service "Projects" du département FDI et visera à renforcer l'équipe existante sur les projets en lien avec l'alimentation, le contrôle des données et l'optimisation des processus de production du département. L'équipe "Projects" est en charge d'accompagner la transformation du département qui porte sur la refonte des systèmes d'information de la DF, sur les projets d'alimentation au niveau du groupe et plus globalement sur la transformation de nos processus de contrôles et de sourcing. Les missions consistent à : Accompagner les équipes de production FDI dans leurs transformations et notamment sur les projets d'optimisation de leurs processus : * Rédiger les notes de cadrage et les EdB, en relation avec les Métiers concernés. * Proposer des solutions et suivre les travaux des équipes IT * Organiser et animer les réunions en lien avec le projet (comités, ateliers, ...) * Prendre en charge les recettes et tests utilisateurs (plan et cahier de recette, PV, …) Change management : Accompagner les équipes de production dans la mise en place des nouveaux processus et les proposer les adaptations nécessaires. Pour la mission le consultant devra justifié de formation supérieure orientée finance/risques, avec une expérience dans la gestion et le pilotage de projets dans le domaine bancaire. Compétences requises : A l'aise pour requêter dans des datasets complexes, avoir une véritable appétence pour les Systèmes d'information de l'univers bancaire. Des connaissances sur les produits/instruments financiers seraient un plus. Capacité d'adaptation L'organisation, la rigueur et les capacités d'analyse seront également sollicitées. Aisance rédactionnelle. Compétences techniques : - Familiarisation avec les bases de données : requêtage SQL - PowerBI / easyMorph.
Freelance

Mission freelance
Contrôleur de gestion industriel Data / ERP (H/F) - 59

Mindquest
Publiée le
Finance
Microsoft Power BI
SAP

9 mois
Nord, France
Dans un contexte de montée en cadence industrielle, l’entreprise doit renforcer la maîtrise de ses flux matières, la fiabilité de ses données de production et l’alignement entre les opérations, les systèmes d’information et la finance. Aujourd’hui, les outils de suivi matière et les pratiques de déclaration ne permettent pas encore une vision consolidée et précise de la consommation réelle, des écarts de stock et du yield. Les inventaires tournants, les déclarations en fin de shift, la granularité des données issues de l’ERP et l’autonomie des unités de production génèrent des écarts qui doivent être structurés, analysés et maîtrisés. L’objectif est donc de sécuriser les coûts, fiabiliser les reportings et mettre en place un pilotage robuste des performances industrielles. 1. Maîtrise des flux matière & des écarts - Analyse de la consommation théorique (BOM), déclarée (ERP) et ajustée (inventaires). - Réconciliation régulière des écarts et réaffectation aux bons processus. - Suivi et valorisation du scrap, analyse des causes. - Suivi du yield sur l’ensemble de la chaîne de production. - Mise en place d’un Pareto des écarts (stocks, consommations, production). 2. Alignement ERP – Finance – Opérations - Audit des flux ERP : ordres de fabrication, mouvements matières, inventaires, nomenclatures. - Standardisation des méthodes de déclaration et correction des écarts. - Mise en place de contrôles fiables pour garantir la cohérence des données. - Renforcement de la discipline de saisie et de la qualité des données opérationnelles. 3. Développement d’outils analytiques et de pilotage - Création de dashboards de pilotage (Power BI) : o consommation matière par processus, période, référence o yield global et par étape o coût du scrap (fréquence quotidienne/hebdomadaire) o traçabilité intégrale des données vers l’ERP - Automatisation des flux de données : extraction ? transformation ? reporting - Mise en place de contrôles automatisés et d’alertes sur les anomalies - Développement d’un module de projection / forecast (scénarios coûts & performance) 4. Interface opérationnelle & immersion terrain - Présence régulière au sein des unités de production. - Observation des pratiques de déclaration, animation des corrections et bonnes pratiques. - Boucles de feedback avec les managers opérationnels pour améliorer la qualité de données. - Sensibilisation des équipes aux impacts financiers des écarts et déclarations. 5. Structuration, documentation & transfert - Cartographie complète des flux matières et des flux de données. - Documentation opérationnelle : procédures, règles de calcul, standard work. - Formalisation des processus de déclaration et d’inventaire. - Transfert de compétences aux équipes internes (Finance, Supply Chain, Production). - Mise en place d’indicateurs de qualité de données permettant un pilotage autonome.
CDI
Freelance

Offre d'emploi
Chef de projet Data (Expert Power BI)

AVALIANCE
Publiée le
Agile Scrum
Alteryx
DAX

3 ans
40k-75k €
400-680 €
Nanterre, Île-de-France
Description de la mission : Globalement votre mission pourra être de plusieurs niveaux : - Participer aux différents sujets ayant traits à Power BI - Accompagner les métiers dans l’assistance, avec animation formation au besoin, sur Power BI - Organiser des ateliers de best practices avec les métiers sur Power BI - Contribuer à enrichir et consolider le socle Power BI Et plus précisément : - Maîtrise et pratique de SQL sous Oracle indispensable - Participer et réaliser les développements sur Power BI (où vous serez également force de proposition) - Développement des Datasets sous Power BI - Modélisation des tables de faits/Dimensions et optimisation de scripts et modèles de données - Utilisation du langage DAX pour l’ajout des champs calculés et le calcul des mesures (KPI) - Gestion des sécurités et des habilitations dans Power BI - Collaborer au quotidien avec les autres développeurs de notre équipe - Rédaction des documents des spécifications techniques et livrables - Assister les utilisateurs internes pour gérer leurs demandes (analyse et traitement de données, rapports…) Compétences en Chefferie de Projet & Gouvernance DATA : - Proposer et Harmoniser un cycle de vie des développements sur power BI - Coordonner et animer réunions, ateliers et comités liés à la DATA - Concevoir des supports (présentations, synthèses, reportings) - Gérer l’organisation complète des réunions et le suivi d’actions - Faire preuve d’autonomie et être force de proposition - Participer activement à la gouvernance DATA et promouvoir les bonnes pratiques
Freelance

Mission freelance
Data Engineer H/F

OUICODING
Publiée le

1 mois
420-580 €
Paris, Île-de-France
Mission : Concevoir, développer et opérer des pipelines data fiables et scalables, contribuer à l'industrialisation de la plateforme (standards, outillage, observabilité), et accompagner les équipes métiers et IT dans la mise en production et l'adoption. Responsabilités principales : -Ingestion & intégration : ingestion multi-sources (API, fichiers, bases de données), batch et/ou quasi temps-réel, gestion des erreurs et reprises. -Modélisation & transformations : implémentation des transformations (SQL et Python), optimisation des traitements, structuration des données (zones/étapes de transformation). -Industrialisation & CI/CD : contribution aux pipelines CI/CD (Azure DevOps/Git), packaging, déploiements, gestion des environnements. -Qualité, performance, observabilité : tests, contrôles de qualité, monitoring, alerting, analyse des incidents, amélioration continue. -Documentation & standards : documentation technique, bonnes pratiques de développement, revues de code, support à la montée en compétence. Stack / environnement (indicatif) : Azure (services data & automatisation), Snowflake, SQL, Python (dont Snowpark le cas échéant), Git, CI/CD, supervision (logs/metrics), outils de dataviz type Power BI en interface. CDC Prestation Data PDA 3 ETP v...
Freelance

Mission freelance
Expertise DataViz et DataScience

Codezys
Publiée le
Azure
CI/CD
Data science

12 mois
Paris, France
La Data & IA Factory (DIAF) de la Direction Data & IA a pour mission : Opérationnaliser les offres de services Servir de centre d’expertise pour outils, méthodes et technologies Concevoir et maintenir (Build & Run) des solutions Data & IA (ex : OneDataLake, InfoCentres, Polaris) Optimiser le cycle de vie des données, processus et outils Définir l’architecture Data Administrer l’environnement technique BGPN sur site et cloud Objectif principal : concevoir, industrialiser et exploiter des solutions Data & IA performantes, sécurisées et résilientes, adaptées aux usages et à la migration vers le cloud. Expertises opérationnelles : Gestion technique des livrables logiciels Leadership, suivi d’activités, satisfaction client Respect des standards de maintenabilité, exploitabilité et sécurité Communication claire sur l’avancement, risques et difficultés Expertises techniques : Architecture Data : Médaillon, Data Mesh Outils de dashboarding : Tableau, PowerBI Plateformes : Dataiku, Azure, DataBricks, Microsoft Fabric Gestion de la QoS : disponibilité, scalabilité, SLA, monitoring Architecture orientée services, automatisation via CI/CD Méthodologies Agile, SAFe, SCRUM Objectifs et livrables Industrialisation des solutions Data & IA Concevoir, construire et exploiter des solutions robustes et performantes sur le long terme. Opérationnalisation de l’offre Data & IA Transformer en services et produits facilement déployables, réutilisables par différents métiers. Expertise technologique : Encadrer en définissant standards, outils et méthodes Data & IA. Architecture et socles Data : Définir une architecture cohérente, évolutive et pérenne pour plateformes et flux de données. Gestion du cycle de vie des données : Assurer ingestion, qualité, traçabilité et exploitation optimale des données. Exploitation technique : Administrer et faire évoluer les environnements Data & IA, garantissant disponibilité, sécurité et performance. La DIAF souhaite renforcer ses compétences en data visualisation et data science, notamment avec PowerBI, Tableau, Dataiku, DataBricks et Azure, pour définir et industrialiser l’offre Self Service et soutenir le déploiement de la Plateforme DataCloud, tout en améliorant la qualité en environnement on-premise. Une expérience minimale de 10 ans dans des missions similaires est requise pour accompagner l’équipe dans la conception, le développement, le test, la documentation, le support et la communication liés à cette offre Self Service.
1783 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous