L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 120 résultats.
Mission freelance
LUXEMBOURG!chef de projet/business analyst Data ALM(H/F)
Publiée le
BI
Gestion de projet
Rédaction des spécifications fonctionnelles
6 mois
400-580 €
Luxembourg
MISSION LUXEMBOURG! 1 jour de télétravail par semaine. Anglais obligatoire Le service Data Management (DAM) du département informatique de notre client cherche un(e) consultant(e) spécialisé(e) en gestion de projet et analyse fonctionnelle dans le domaine de la Data, pour rejoindre l’équipe Data Intelligence dès janvier 2025, pour une mission de 6 mois renouvelable. Le rôle est central dans le développement d’un programme stratégique AML (Anti-Money Laundering). Principales activités attendues : Gestion de projet & coordination : Piloter et coordonner le programme de reporting et dashboards sur les thématiques AML, KYC, KYT et Surveillance Financière. Recueillir et challenger les besoins métiers Compliance / Risk / AML Office. Élaborer et suivre le planning projet (jalons, livrables, dépendances). Coordonner les parties prenantes et assurer le suivi des développements IT. Gérer les risques et escalader les points de vigilance au Team Manager. Organiser et animer la gouvernance projet (comités de suivi, steering committees). Analyse et accompagnement fonctionnel : Définir le périmètre fonctionnel et rédiger le cahier des charges. Concevoir et valider le cahier de recette. Assister les utilisateurs métier dans les phases de tests et validation. Qualifier les livrables DAM avant le démarrage de la recette utilisateur. Assurer l’assistance post-déploiement pour stabiliser la solution. Communication et reporting : Gérer la communication projet avec les différentes parties prenantes. Produire des reportings réguliers sur l’avancement et les risques. Être force de proposition pour optimiser les processus et apporter de la valeur ajoutée. Qualifications requises : Expérience significative ( 5 ans minimum) sur des projets BI en tant que consultant fonctionnel dans un environnement bancaire. Capacité à travailler sur plusieurs projets en parallèle et à relever des challenges quotidiens. Connaissance fonctionnelle du reporting réglementaire Risk & Compliance. Autonomie, force de proposition, rigueur, esprit analytique, orientation résultats et sens de la confidentialité. Excellentes capacités rédactionnelles et communicationnelles. Maîtrise du français et de l’anglais.
Offre d'emploi
Business Analyst Data & IA
Publiée le
Business Analysis
Dataiku
IA
1 an
40k-45k €
400-620 €
Paris, France
Télétravail partiel
Contexte et enjeux Une organisation de solutions de crédit-bail se trouve à un tournant crucial où l'exploitation des données doit devenir un levier central de transformation et de compétitivité. Cependant, plusieurs défis structurels doivent être adressés pour réussir cette transition vers une organisation véritablement axée sur les données (insuffisance du Data Management existant, dépendances fortes à des systèmes legacy qui ont vocation à être décommissionnés à court et moyen termes, limites structurelles des outils et solutions actuels). Le projet doit permettre de valider la capacité de mise en œuvre du projet de data science depuis sa phase exploratoire jusqu'à sa phase d'industrialisation, plus particulièrement pour le projet de refonte d'une application de valorisation d'assets avancée. Responsabilités Analyse des besoins métiers, des données et des cas d'usage IA Analyse approfondie des besoins métiers liés à la donnée, à l'analytique, à l'IA et au reporting. Comprendre les processus et enjeux fonctionnels pour identifier précisément les informations nécessaires à chaque cas d'usage. Évaluation et qualification des sources de données disponibles afin d'identifier les données pertinentes et fiables. Vérifier leur qualité, cohérence, disponibilité et adéquation avec les besoins métiers. Collaboration étroite avec le Data Office pour : Valider les jeux de données existants Identifier les manques Contribuer à la modélisation des données non encore prises en charge par les systèmes existants Assurer l'alignement avec les standards de gouvernance, traçabilité et qualité Définition et formalisation avec les Data Engineers et les MLOps des besoins fonctionnels en matière de données et d'algorithmes (features, KPIs, modèles IA, reporting), en veillant à leur faisabilité technique et leur pertinence métier. Spécification fonctionnelle et data design Rédaction de spécifications fonctionnelles détaillées, structurées autour de : User stories data Règles de gestion Dictionnaires de données Mappings sources-cibles Schémas conceptuels / logiques orientés data & IA Description des flux de données end-to-end : collecte, transformation, stockage, mise à disposition, consommation. Assurer une vision claire et documentée du cycle de vie de la donnée. Contribution au design des pipelines de données, en coordination avec les équipes techniques (Data Engineers, Data Scientists), pour assurer la faisabilité, la robustesse et la performance des solutions. Interface entre les équipes métier, Data Office et équipes techniques IA / Data / BI Intermédiaire entre le métier, le Data Office et les équipes IT / Data / IA, en garantissant : Une compréhension commune des exigences La conformité entre les besoins fonctionnels et les solutions techniques proposées La bonne disponibilité des jeux de données nécessaires au projet Accompagnement des utilisateurs métiers dans la compréhension et l'appropriation des données fiables et des solutions analytiques ou IA. Suivi de la mise en œuvre des solutions IA & Data Participation au suivi des développements (étapes clés, points d'avancement) avec un rôle d'assurance fonctionnelle. Validation fonctionnelle des livrables data et IA : Vérification de la qualité des données Contrôle de la complétude des jeux de données Revue des KPI, Dashboard PowerBI, notebooks Dataiku, features IA, etc. Recueil et intégration des retours métiers afin d'ajuster les modèles, indicateurs ou jeux de données. Documentation et gouvernance Production et mise à jour de la documentation fonctionnelle et data. Contribution active aux démarches de gouvernance de la donnée pilotées par le Data Office : qualité, conformité, traçabilité, sécurité.
Offre d'emploi
Data Engineer H/F
Publiée le
AWS Cloud
Google Cloud Platform (GCP)
6 mois
Rouen, Normandie
Télétravail partiel
Description du poste : Nous recherchons un Data Engineer pour rejoindre une équipe Data moderne et orientée traitement de données volumétriques. Vous participerez au design, à la mise en place et à l’optimisation des pipelines de données. Missions : Développement de pipelines ETL / ELT Modélisation et structuration de data warehouses / data lakes Optimisation des performances et qualité des données Participation à la mise en place de frameworks DataOps Collaboration étroite avec Data Analysts / Data Scientists
Offre d'emploi
Business Analyst Data / Expert Data Management - Banque
Publiée le
Data analysis
Data governance
Data Lake
6 mois
45k-60k €
470-700 €
Île-de-France, France
Télétravail partiel
Dans le cadre d’un projet stratégique pour une grande banque européenne , nous recherchons deux profils complémentaires : Business Analyst Data et Expert Data Management. Vous interviendrez sur des sujets clés liés à la migration de Datalake et à la gouvernance des données . Vos responsabilités incluront : Participer à la migration et à la valorisation des données. Implémenter des contrôles de Data Governance (Ownership, Definition, Quality). Gérer les Metadata et le Data Lineage . Superviser le End User Computing (EUC) . Définir et exécuter des plans pour garantir la conformité avec les frameworks Data Management & EUC.
Mission freelance
Data Engineer Expert - Infogérance - Lille (H/F)
Publiée le
Microsoft Fabric
Python
6 mois
550-600 €
Lille, Hauts-de-France
Télétravail partiel
Dans le cadre d'un projet ambitieux de transformation digitale, notre entreprise spécialisée dans les technologies de l'information et des télécommunications, située à Lille, cherche à renforcer son équipe avec deux Data Engineers experts. Notre mission : offrir des solutions robustes et évolutives basées sur Microsoft Fabric pour répondre aux besoins stratégiques de nos clients. Vous rejoindrez une équipe dynamique et collaborative, composée de Data Analysts et de spécialistes IT, où votre expertise sera cruciale pour la réussite de projets multicanaux et l'intégration de données complexes. Dans cette mission critique, vous serez un maillon essentiel de notre département Data Operations, travaillant sur des projets à fort impact business. Urgent : un Data Analyst doit rejoindre nos équipes sous 2 semaines, et le staffing global est prévu pour décembre, en vue de démarrer les lots en janvier pour une durée de 6 mois renouvelables, jusqu'à 12 mois selon l'évolution des projets. Missions - Implémenter et optimiser les composants Microsoft Fabric pour répondre à des cas d’usage prioritaires. - Concevoir et industrialiser des pipelines ETL/ELT, APIs et modèles de données avancés. - Assurer l'observabilité, la qualité des données, les tests rigoureux, ainsi que la mise en place des pratiques CI/CD. - Optimisation des coûts/performance, renforcer les aspects sécurité et conformité. - Assurer une collaboration étroite et efficace avec les Data Analysts et les équipes métiers.
Mission freelance
Business Analyst Data (Épargne Retraite / Actuariat / SQL / PBI) – RUN PDK
Publiée le
kelia
Microsoft Power BI
Microsoft SSIS
2 ans
400-550 €
Île-de-France, France
Télétravail partiel
Nous recherchons un Business Analyst Data expérimenté pour intervenir sur un programme stratégique de modernisation du SI Épargne. Vous interviendrez au sein du chantier en charge du puits de données consolidant les flux du progiciel de gestion Kelia et alimentant les usages métiers (décisionnel, actuariat, comptabilité, pilotage épargne…). 🎯 Vos responsabilités Suivi de production & qualité de la donnée Mettre en place et suivre les indicateurs d’exhaustivité et de qualité du PDK Définir des contrôles automatiques sur la chaîne de données Construire le morning report et suivre les anomalies de production Prise en compte des besoins métier Analyser les expressions de besoin des équipes métiers Participer aux ateliers et reformuler les besoins Modéliser les objets métiers et définir les règles de transformation des données Kelia Spécifications & Recette Produire les spécifications fonctionnelles détaillées Concevoir les plans de tests et réaliser les recettes de bout en bout Qualifier, documenter et suivre les anomalies Produire les reportings, PV de recette et supports de réunion
Mission freelance
Data ingénieur (H/F)
Publiée le
Microsoft Fabric
Python
12 mois
Paris, France
Télétravail 100%
Teksystems recherche pour l'un de ses clients grand compte un(e) Data ingénieur (H/F) Missions principales : o Implémentation des composants Microsoft Fabric liés aux cas d’usage prioritaires o Conception et industrialisation de pipelines d’ingestion/traitement (ETL/ELT), APIs et modèles de données avec Microsoft Fabric o Observabilité, data quality, tests, CI/CD et documentation technique o Optimisation coûts/performance, sécurité et conformité o Collaboration étroite avec Data Analysts et équipes métiers
Offre d'emploi
DataOps Engineer
Publiée le
SQL
6 mois
Île-de-France, France
Télétravail partiel
1G-LINK accompagne aujourd'hui de grands comptes dans l'amélioration de l'expérience de ses clients et collaborateurs. Cela passe par la valeur intrinsèque de l'entreprise : la symétrie des attentions. L'intelligence collective et la passion de ses collaborateurs permet à 1G-LINK de proposer des solutions digitales disruptives et à forte valeur ajoutée en réponse aux besoins innovants de ses clients. Notre savoir-faire : La passion de nos collaborateurs favorise leur épanouissement sur des projets à long terme ; La compréhension de l’expérience des équipes métiers permet de s’approprier l’environnement client ; L’expertise des collaborateurs 1G-Link permet d’accompagner le client dans toutes les étapes de sa transformation ; C’est par cette symétrie des attentions au quotidien que les consultants 1G-Link améliorent la chaîne de valeur client. Contexte Dans un environnement data en pleine évolution, notre client recherche un DataOps Engineer expérimenté pour accompagner la montée en puissance de sa plateforme analytique et soutenir les équipes Data dans leurs projets. Le poste combine une forte dimension SQL / optimisation avec un rôle DataOps et support auprès des Data Analysts. Enjeux du poste Garantir la performance et la fiabilité de la couche data, accompagner les Data Analysts dans la production d’analyses efficaces, et contribuer à la migration de la plateforme Dremio vers un socle Kubernetes / OpenShift . Missions principales Optimiser et réécrire les requêtes SQL produites par les Data Analysts pour en améliorer la performance et la maintenabilité. Apporter un support technique et méthodologique aux Data Analysts dans leurs développements. Assurer un rôle de référent DataOps sur la solution (suivi, fiabilisation, automatisation). Participer à la migration de Dremio vers OpenShift , en collaboration avec les équipes infrastructure et sécurité. Comprendre les processus fonctionnels métiers afin d’anticiper les impacts sur la donnée et les performances. Surveiller et diagnostiquer les problématiques de réseau ou de sécurité liées aux différents sous-réseaux utilisateurs. Contribuer à la mise en place des bonnes pratiques d’exploitation et de gouvernance data.
Offre d'emploi
DIRECTEUR MISSION DATA
Publiée le
Microsoft Power BI
SQL
3 ans
40k-65k €
400-650 €
Paris, France
Télétravail partiel
Bonjour 🙂, Pour le compte de notre client, nous recherchons un(e) Directeur mission. Missions principales Pilotage & Management Encadrer et animer une équipe de deux Data Analysts. Apporter de la hauteur de vue et guider la conduite des analyses stratégiques. Challenger les méthodes, les KPI et la pertinence des recommandations produites. Structuration & Priorisation Organiser, articuler et prioriser les sujets data en fonction de la création de valeur. Veiller à l’alignement des projets data avec les enjeux métier et les objectifs stratégiques. Support aux Directions Métiers Accompagner les équipes Marketing dans l’interprétation des analyses et dans la prise de décision opérationnelle. Faciliter l’appropriation des insights, recommandations et plans d’actions. Aider les équipes à monter en autonomie sur les outils de datavisualisation (ex : Power BI). Coordination transverse Assurer la cohérence globale des travaux avec les responsables des pôles Data et Études. Garantir une communication fluide et un pilotage homogène entre les différentes parties prenantes internes.
Offre d'emploi
Data Engineer
Publiée le
Data Warehouse
Oracle
SQL
1 an
40k-45k €
260-460 €
Paris, France
Télétravail partiel
Descriptif du poste Mission dans une équipe en charge du contrôle et monitoring à partir d'un datawarehouse post trade. L'expertise devra apporter une expertise technique sur la base de données Oracle et son eco-système. Mettre en place et maintenir les outils et infrastructure adéquat à l'analyse de données. Une expertise sur les technologies BI est nécessaire ainsi qu'une expertise pointue sur les langages SQL et Python. Veiller aux déploiements des pipelines de données et en assurer la sécurisation technique. Enfin, être force de proposition sur les solutions techniques à mettre en place. L'automatisation des processus d'alimentation des données sera un objectif également. Cette mission recouvre une forte composante technique à la fois sur l'architecture des données et sur la mise à disposition des informations pour les data analyst/scientist de l'équipe tout comme un besoin de comprendre les données sous-jacentes liées à l'environnement.
Mission freelance
Chef de projet technique Data plateforme - Nantes
Publiée le
Agile Scrum
AWS Cloud
Azure
1 an
400-550 €
Nantes, Pays de la Loire
Tâches : Cadrer les différents travaux à réaliser en apportant un regard externe en mettant en lumière les éléments suivants : Besoins utilisateurs et cas d’usage Identification des données Schéma d’architecture Solutions intermédiaire et cible, chiffrées Exigences relatives à la gouvernance des données et à la conformité (cyber, …) Trajectoire de mise en œuvre • Piloter et coordonner les différents interlocuteurs intervenant dans le projet de mise en œuvre de la plateforme Data, de la phase de conception à la mise en production. • Coordonner les équipes techniques et fonctionnelles (Data Engineers, Data Analysts, Product Owners, Architectes, equipe Data métier et spécialisées…). • Garantir la qualité, la cohérence et la disponibilité des données nécessaires au pilotage e-business. • Définir et suivre le backlog produit Data en lien avec les équipes métier et techniques. • Piloter la réalisation à l’aide des outils internes (Jira Align). Attendu : Accompagner la mise en place d’une plateforme Data au service du pilotage e-business d’une entité spécialisée dans l’accélération digitale et e-business. Vous interviendrez en tant que Chef de projet technique Data, au sein d’une organisation agile et transverse, pour coordonner et piloter la construction, l’intégration et la mise à disposition d’une solution Data.
Mission freelance
Data Engineer Python AWS
Publiée le
AWS Cloud
Python
12 mois
620 €
Paris, France
Télétravail partiel
Cherry Pick est à la recherche d'un Data Engineer Python AWS pour l'un de ses clients dans le secteur de l'énergie. Missions : Le Data Engineer sera responsable de la conception, du développement et de la mise en production de l'architecture de données. Il devra notamment : Collecter les exigences des métiers et des utilisateurs Concevoir l'architecture de données Concevoir les pipelines de données Mettre en production l'architecture Assurer la maintenance et l'évolution de l'architecture Le Data Engineer travaillera en étroite collaboration avec : Les Product Owners Les Data Analysts Les équipes métiers (marketing, trading, exploitation, supply chain…) Les équipes DataOps / MLOps
Offre d'emploi
Business Analyst Data & Géodonnées H/F
Publiée le
API
Data analysis
1 an
40k-45k €
400-550 €
Niort, Nouvelle-Aquitaine
Télétravail partiel
La mission s’inscrit dans le cadre de la construction d’un GeoDataHub , une plateforme visant à collecter, centraliser et diffuser des données géographiques externes (open data ou données payantes). L’objectif est de rendre ces données accessibles aux différentes équipes métiers (climat, BtoB, digital, data, etc.) afin de : Modéliser les risques climatiques Optimiser les leviers de tarification et de souscription Développer des dispositifs de prévention et d’alerte Appuyer la gestion de crise en cas d’événements climatiques majeurs Objectifs du GeoDataHub Le projet vise à construire et enrichir plusieurs référentiels géographiques : Connaissance du territoire Climat / météo Caractérisation des bâtiments d’une adresse donnée (MVP prévu pour T4 2025) Caractérisation de l’aléa climatique (scores géoclimatiques – planifié pour 2026) Missions principales S’approprier les parcours métiers et décrire les parcours utilisateurs en lien avec les équipes métier et design. Assurer le lien entre les acteurs métier et techniques (développeurs, testeurs, data engineers). Analyser les anomalies et identifier les causes (outils, parcours, données). Évaluer l’impact métier des solutions livrées (durée de traitement, performance, usage). Concevoir des solutions fonctionnelles cohérentes et alignées sur les besoins exprimés. Rédiger les expressions de besoin et challenger les demandes métiers. Rédiger et découper les User Stories (HU), définir les critères d’acceptation et les spécifications fonctionnelles détaillées (SFD IHM / SFD API). Contribuer à la priorisation du backlog et signaler les alertes ou points de blocage. Livrables attendus Expression de besoin (sous forme d’User Stories) Spécifications fonctionnelles (API, ingestion de données, solutions) Études d’impacts Spécifications de tests & PV de validation Compte-rendus d’activités hebdomadaires Documentation technique en Markdown Compétences techniques et fonctionnelles Rédaction de spécifications d’API et de flux d’ingestion de données Analyse d’anomalies et recettes fonctionnelles Maîtrise des outils : GDR, GAP, VSI Automatisation de tests API Support aux développeurs Bonne compréhension des processus de tarification/souscription (produits IARD ou habitation) Intérêt pour la donnée géographique et climatique Environnement et collaboration Mission réalisée en interaction avec : Les équipes métiers (tarification, souscription, prévention), Les équipes techniques (développement, data, API), Des experts climat et data (modélisation, visualisation).
Offre d'emploi
Data Analysis – AMOA NIveau 3
Publiée le
Business Analyst
18 ans
40k-45k €
100-400 €
Strasbourg, Grand Est
Télétravail partiel
CONTEXTE : La demande porte sur une mission de contribution à des projet de BI en lien avec le Datalake . Ce rôle combine des compétences techniques en analyse de données avec une compréhension approfondie des processus métiers. La demande porte sur une mission de maitrise d’ouvrage spécialisée Data avec un profil Business Analyst orienté Data/BI. MISSIONS Data Analyst / Assistance à Maitrise d’ouvrage Le profil interviendra dans l’équipe offre métier ; rattaché au responsable d’équipe, il interviendra sur des projets orientés DATA impactant le Datalake. Ces projets spécifiques nécessitent : • Une bonne compréhension des besoins de reporting attendus par les utilisateurs métiers • Une bonne compréhension des processus métiers sous-jacents à l’origine de la production des flux de données Nature des tâches : • Compréhension des process métier et des besoins de reporting des interlocuteurs métiers (back office, chefs produit…) • Analyse des données existantes pour définir les modalités de production de ce reporting • Rédaction des spécifications à destination de l’équipe Data (composée de data engineers) pour la phase d’industrialisation : formalisation des données manipulées, des règles de gestion (filtres, relations, etc.), règles de gestion, définition métier des fonctions de collecte de données • Suivi et pilotage du projet jusqu’à la livraison au client Compétences requises : • Fonctionnelles et transversales o Capacité à traduire des besoins métiers en analyses concrètes o Esprit critique et rigueur dans l’interprétation des données o Excellentes compétences en communication et vulgarisation de données complexes o Autonomie, proactivité et capacité à travailler en équipes • Techniques et analytiques : o Utilisation des outils d’analyse de données (SQL, Notebooks Python, Excel, Power Query…) o Utilisation des outils de Visualisation de données (Power BI)
Offre d'emploi
Dev Python Dataiku
Publiée le
API REST
Dataiku
MySQL
6 mois
40k-45k €
100-550 €
Île-de-France, France
Télétravail partiel
Missions principales 1. Développement & Industrialisation dans Dataiku DSS Développer des recipes Python , SQL , Spark et orchestrer les flows Dataiku. Structurer et optimiser les pipelines : ingestion, préparation, transformation, scoring, export. Gérer et maintenir les environnements Python (code env) dans Dataiku. Intégrer les projets au sein des environnements 2. Automation & Orchestration Mettre en place des scenarios (planification, dépendances, notifications, reprise sur incident). Contribuer à l’ industrialisation des flux et au respect des bonnes pratiques DevOps / DataOps. 3. Qualité, Sécurité & Conformité Implémenter des metrics & checks de qualité de données dans les projets. Respecter les exigences du groupe : sécurité, gouvernance, confidentialité, traçabilité. Documenter les projets dans le Wiki Dataiku 4. Support & Collaboration Travailler avec les équipes Data (Analysts, Scientists, Owners) pour cadrer les besoins. Participer à l’optimisation des performances et à la résolution d’incidents techniques. Contribuer à la montée en compétences des utilisateurs Dataiku (bonnes pratiques, support niveau 2).
Mission freelance
Data Engineer Talend / GCP
Publiée le
Google Cloud Platform (GCP)
Microsoft SQL Server
Talend
3 ans
400-530 €
Île-de-France, France
Télétravail partiel
Dans le cadre du renforcement de la Data Factory de notre client grand compte, nous recherchons un Data Engineer Talend / GCP expérimenté. Vous interviendrez sur la conception, le développement et l’optimisation de solutions Data destinées à répondre aux besoins analytiques et opérationnels des métiers. Votre rôle sera clé dans la mise en place d’une infrastructure Data performante, fiable et scalable sur Google Cloud Platform . Missions principales Analyser les besoins métiers et leurs impacts sur la donnée Concevoir et développer des pipelines de données robustes et évolutifs avec Talend et les services GCP (BigQuery, DataForm, Dataflow, Pub/Sub, Cloud Composer) Optimiser la performance et la scalabilité des solutions existantes Collaborer avec les architectes, Product Owners et Data Analystes pour garantir la qualité et la cohérence des données Maintenir une documentation technique claire et complète Mettre en place le monitoring et les contrôles d’intégrité des pipelines Participer à la recette technique et fonctionnelle des livrables Assurer la maintenance corrective et évolutive des traitements en production Garantir la conformité des développements avec les bonnes pratiques Data et Cloud
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Demande de renseignements sur l'état du marché de l'assistance informatique ,
- Facturation électronique 03 : Revenir aux règles de base de la facturation.
- Apport d'affaires : pieges à éviter
- Quel est l'état du marché de l'assistance informatique en ile de france ?
- Mission en perspective, contrat pourri
- Le marché de l'IT est complètement déréglé ! STOP à cette mascarade ! Il faut s'unir et résister !
120 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois