L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 675 résultats.
Offre d'emploi
Tech Lead Data et IA Générative H/F
JEMS
Publiée le
50k-65k €
Nantes, Pays de la Loire
Nous recherchons un(e) Tech Lead Data et IA Générative capable de trouver des solutions innovantes et robustes à l'ensemble des problématiques Data. Vous aurez la charge de : • Assurer la mise en œuvre de l'accès, du référencement et de la qualité de la donnée • Assurer l'industrialisation, la supervision et l'intégration des solutions • Rédiger les normes de développement • Participer à la rédaction du manuel d'exploitation En tant que Tech Lead, vous savez : • Vous présenter et promouvoir des architectures data face au client • Identifier et comprendre les besoins métiers • Former, encadrer et faire évoluer les consultants juniors • Participer à la réponse aux appels d'offres (avant-vente) Référence de l'offre : 36ql69h8p2
Mission freelance
Data engineer Snowflake / DBT
PARTECK INGENIERIE
Publiée le
AWS Cloud
Cloud
DBT
12 mois
400-550 €
75000, Paris, Île-de-France
Data Engineer (H/F) – Environnement Data Platform / Big Data Mission : Au sein d’une équipe Data Platform, vous intervenez sur la conception, l’industrialisation et l’exploitation de solutions data à grande échelle, dans un contexte international. Responsabilités : Conception et développement de pipelines de données (collecte, transformation, valorisation) Analyse de données complexes en collaboration avec les équipes Data Maintenance et évolution d’une plateforme data de type Lakehouse Choix des technologies de stockage et de traitement adaptées Mise en place de bonnes pratiques (code, architecture, data) Veille technologique et amélioration continue des outils et pratiques Profil recherché : Minimum 5 ans d’expérience en Data Engineering / Big Data Solide culture technique et capacité à évoluer dans des environnements complexes Bonne compréhension des enjeux métiers et capacité à vulgariser Compétences techniques : Python, SQL Outils Big Data : DBT, ETL, solutions de stockage (S3, Snowflake, MongoDB ou équivalent) Environnement Cloud (AWS idéalement, Azure ou GCP) DevOps : Docker, CI/CD, environnement Unix Connaissance des architectures data et idéalement Infrastructure as Code Langues : Anglais professionnel requis
Offre d'emploi
Data Domain Owner Senior (H/F) | Secteur bancaire
OMICRONE
Publiée le
Apache Spark
Finance
Hadoop
1 an
Paris, France
Pour le compte de l’un de mes clients dans le secteur bancaire, je recherche un(e) Data Domain Owner Senior pour une mission stratégique avec un démarrage ASAP. Vos missions principales : Piloter et faire évoluer les frameworks data Contribuer à la digitalisation des données Assurer le contrôle de la qualité des données Faire le lien entre les équipes métiers et techniques Profil recherché : Expérience confirmée en environnement data Vision transverse métier / IT Capacité à piloter des sujets stratégiques
Mission freelance
Data Analyst
Insitoo Freelances
Publiée le
Data analysis
2 ans
400-685 €
Bruxelles, Bruxelles-Capitale, Belgique
Located in Lille, Lyon, Nantes, Grenoble, and Brussels, Insitoo Freelances is an entity of Insitoo Group, specialized in Freelances sourcing and supplying.Since 2007, Insitoo Freelances has been a reference in IT thanks to its expertise, transparency, and proximity . We are looking for a Data analyst for our client in Brussels. Key responsibilities : Delivering reports and dashboards that enable management and all teams to continuously monitor performance through interactive dashboards and detect issues at an early stage In addition to internal reports (in OBI and MicroStrategy), delivering a set of external reports (via Arvastat) Providing data to the Strategy department Ensuring the AI team receives the necessary information that allows them to extract insights from the data using statistical techniques
Offre d'emploi
Expert IBM Infosphere - Data Replication
VISIAN
Publiée le
AS/400
IBM DataStage
1 an
Paris, France
Contexte Dans le cadre du programme qui vise à construire une Data Platform intégrée , la réplication des données AS/400 vers le Data Hub est un enjeu clé. IBM Infosphere Data Replication (IIDR) est l'outil en place pour assurer la synchronisation des tables de l'AS/400 (on-premise) vers PostgreSQL (Cloud) . Actuellement, le périmètre des tables répliquées est limité, mais il s'étendra significativement en 2025, avec un objectif de réplication en near-sync. Toutefois, plusieurs défis doivent être adressés : Incidents en production non résolus, liés soit à la configuration existante de IIDR, soit à des instabilités sur la base PostgreSQL. Problèmes de doublons issus de l'AS/400, nécessitant des stratégies de gestion des clés et des identifiants uniques. Difficultés de réplication des tables volumineuses, où les mécanismes standards ne permettent pas d'assurer une synchronisation efficace. Nous recherchons un Expert IBM IDR qui aura pour mission de stabiliser la solution, améliorer la scalabilité et accompagner l'élargissement du périmètre des données répliquées.
Offre d'emploi
Data Analyst
Atlanse
Publiée le
Dremio
ETL (Extract-transform-load)
SQL
3 ans
45k-55k €
400-500 €
Issy-les-Moulineaux, Île-de-France
Dans le cadre d’un projet de simplification et d’optimisation des données, vous intervenez sur l’analyse et l’amélioration des flux de données transactionnelles et géographiques. Vous analysez l’usage des données, identifiez les incohérences et contribuez à la mise en place d’un cadre de gouvernance des données. Votre rôle Analyse des flux et structures de données Analyser la structure des flux de données transactionnelles, les données échangées et leurs usages Identifier les incohérences, redondances ou données inutilisées Proposer des simplifications et optimisations des flux de données Amélioration de la qualité et optimisation des données Réaliser des analyses détaillées de jeux de données pour détecter anomalies, incohérences et problèmes structurels Mettre en place des indicateurs et contrôles de qualité des données pour suivre et piloter les améliorations Contribuer aux actions de nettoyage et de fiabilisation des modèles et structures de données Documentation et structuration des référentiels de données Documenter les flux transactionnels : modèles de données, règles métier, cas d’usage et guidelines Mettre à jour et clarifier le Data Catalog, les modèles de données et les spécifications de flux Définir et formaliser les règles d’utilisation et d’alimentation des données Gouvernance et collaboration Partager les résultats d’analyse avec les parties prenantes Accompagner les équipes dans la définition de plans d’action pour corriger les anomalies détectées Contribuer à la mise en place du cadre de gouvernance des données : rôles, responsabilités, règles de gestion et suivi de la qualité des données Participer aux routines de gouvernance et à l’analyse des impacts IT liés aux évolutions des données
Mission freelance
Data Scientist / GenAI /LLM
Pickmeup
Publiée le
Machine Learning
Python
Pytorch
2 ans
650-750 €
France
Vous intégrerez une équipe Data Science d’envergure (50+ personnes) au sein d’une entreprise tech internationale, leader dans son domaine. Votre mission : prototyper, itérer et mettre en production des modèles de Machine Learning à fort impact business, en étroite collaboration avec les équipes Produit, Data Engineering et Développement. Les projets menés visent à exploiter la richesse de larges volumes de données afin d’ optimiser les performances commerciales, la gestion opérationnelle et la sécurité des utilisateurs sur une plateforme utilisée par des centaines de grandes marques et des milliers de vendeurs dans le monde . Exemples de sujets traités Détection d’anomalies sur les prix ou les comportements vendeurs Analyse de sentiment sur les échanges client / vendeur Estimation des délais de livraison et anticipation des ruptures de stock Développement d’ agents IA pour assister la prise de décision Prédiction et modélisation de phénomènes liés à la supply chain Vos missions Analyser, nettoyer et préparer les données pour la modélisation Concevoir, tester et mettre en production des algorithmes ML / DL Collaborer avec les Data Engineers pour l’industrialisation des modèles Créer des dashboards de suivi et d’analyse de performance Présenter vos travaux en interne et contribuer à la veille scientifique de l’équipe Stack technique Langages & Frameworks : Python, TensorFlow, PyTorch, Keras Data & Cloud : Databricks, Spark, AWS (Redshift, S3), SQL, Airflow, Delta Lake Approches : Time Series, NLP, LLMs, Deep Learning, Heuristiques
Offre d'emploi
Data Engineer(H/F)
QODEXIA
Publiée le
Apache Spark
Azure
Databricks
10 jours
France
QODEXIA est une société de services informatiques implantée en France et en afrique du nord. Partenaire performant, innovant, agile pour aider les entreprises dans leur transforamtion digitale. QODEXIA s'est spécialisée dans le digital, SAP et les nouvelles technologies, accompagne au quotidien les plus grands acteurs de l'industrie, de l'énergie, du Luxe, de la Banque et de l'Assurance sur leurs projets. L’IT est notre passion, les valeurs humaines sont notre capital, c'est de quoi notre ADN est composé. Dans le cadre du développement de son usine digitale orientée Data , notre client recherche 6 Data Engineers expérimentés afin d’accélérer la mise en œuvre de cas d’usage sur la plateforme Databricks. 📍 Localisation : France / Remote 📅 Démarrage : ASAP
Mission freelance
Business Value Stream Architect
ematiss
Publiée le
SAP
TOGAF
6 mois
Île-de-France, France
Pour cette mission, 5 profils sont recherchés : Exemples de modules : • Stream Leader End to End Planning [OPS] => IBP, PP (MRP) • Stream Leader Manage Services [OPS] => CS, FSM • Stream Leader Plan to Deliver [OPS] => PP, MM, EWM • Stream Leader Engineer to Configure [OPS] => PLM, PP (Variantes), VC • Stream Leader Cross Value Streams [OPS] => Cross Value Stream sur tous les streams OPS Dans le cadre du programme X du client et afin de renforcer l’équipe ISIT du programme, nous recherchons plusieurs Business (Value stream) Architectes. Le client bâtit une équipe d’experts capables de lier vision stratégique et exécution opérationnelle. La mission principale : Piloter l’alignement entre les enjeux métiers, l’architecture SI end-to-end, et la puissance de SAP S/4HANA – tout en garantissant agilité, standardisation et innovation. Vous serez le pont entre la stratégie groupe et les réalités terrain, avec un double rôle : • Architecte d’Entreprise : Concevoir des processus bout-en-bout (multi-BU, multi-pays) et des modèles de données cohérents, en brisant les silos. • Expert Fonctionnel SAP S/4 Hana : Challenger les intégrateurs pour maximiser l’adoption du Fit-to-Standard, tout en assurant l’intégration fluide avec l’écosystème IT (CRM, PLM, MES, etc.). Dans ce rôle, vous serez en interface directe avec : • Les Value Stream Leaders (business) • Les Value Tower, Tribe Leaders et App experts (ISIT) • L’Enterprise Architecture (Business & Tech) • Les équipes Cloud, Data et Intégration (CCOE) • Les partenaires et intégrateurs Les missions : Architecture Métier & Transformation End-to-End • Traduire la stratégie business en feuilles de route SI : o Supporter la modélisation de processus par les Value Stream leads et leur équipe (ex : gestion de projet, fabrication, service client) en mode end-to-end, avec une vision multi-SI et multi-pays. o Analyser les drivers, objectifs, exigences, résultats attendus afin de framer la Business & Information Architecture o Analyser les opportunités de mise à disposition des données ( Objects Métiers / Data / Artefact) à travers des architectures orientées services. • Désiloter les organisations : o Identifier les opportunités d’innovation (ex : plateformes data, MDM) et proposer des architectures orientées services. o Définir des règles de gouvernance data (cycle de vie, qualité, intégrité) en collaboration avec les équipes techniques. • Piloter la roadmap de transformation : o Prioriser les initiatives en fonction des contraintes métiers/techniques et des chances de succès. o Garantir l’alignement avec les standards groupe (TOGAF, SAP Activate) et les bonnes pratiques.
Mission freelance
Architecte d'Entreprise
CAT-AMANIA
Publiée le
API
Architecture
3 mois
400-620 €
Île-de-France, France
OFFRE DE MISSION : ARCHITECTE D'ENTREPRISE FREELANCE Secteur : Banque / Assurance Durée : 6 mois (Renouvelable) Lieu : Hybride / Paris Début : ASAP Présentation de la mission Dans le cadre du renforcement de notre département Architecture, nous recherchons un Architecte d'Entreprise freelance. Votre mission consiste à garantir que l'évolution du système d'information reste en parfaite adéquation avec la stratégie globale de l'entreprise. Vous jouerez un rôle central dans la gouvernance et l'urbanisation de notre écosystème informatique. Responsabilités principales Alignement Stratégique : Assurer la cohérence entre les besoins métiers et les solutions technologiques déployées. Gouvernance et Cartographie : Réaliser et maintenir la cartographie du système d’information. Vous serez garant de la documentation (Dossiers d'Architecture) ainsi que de la définition et de la validation des architectures applicatives. Accompagnement Projets : Participer activement aux projets IT structurants et apporter votre expertise lors du choix de solutions logicielles tierces. Urbanisation : Déployer une vision claire de l'urbanisation du SI en s'appuyant sur de fortes compétences technologiques. Profil recherché Formation et Expérience : Diplômé d'un BAC+4/5, vous justifiez d'au moins 2 à 3 ans d'expérience sur un poste similaire, impérativement dans le secteur de la Banque ou de l'Assurance. Expertise Technique : Excellente maîtrise des architectures n-tiers complexes. Vous possédez des compétences avancées en architectures micro-applications, containers et API. Outils : Une expérience confirmée dans le maintien d'une cartographie SI est requise. La connaissance de l'outil Mega HOPEX constitue un avantage significatif. Aptitudes relationnelles : Vous disposez d'une forte capacité de persuasion et de diplomatie pour défendre les préconisations de l'équipe architecture. Vous savez porter vos convictions tout en maintenant une ouverture d'esprit nécessaire au travail collaboratif. Organisation : Capacité démontrée à gérer plusieurs dossiers complexes en parallèle.
Offre d'emploi
Assistant Data Analyst (H/F) - Alternance
█ █ █ █ █ █ █
Publiée le
Apache Spark
Microsoft Excel
Python
Puteaux, Île-de-France
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Mission freelance
Data engineer (H/F)
Insitoo Freelances
Publiée le
Microsoft Power BI
SQL
2 ans
400-430 €
Hauts-de-France, France
Basée à Lille, Lyon, Nantes, Grenoble, Marseille, Paris et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Data engineer (H/F) à Hauts-de-France, France. Les missions attendues par le Data engineer (H/F) : - Participera aux rituels agiles de l'équipe, - Analysera les besoins des utilisateurs et proposera des solutions innovantes et en phase avec les drivers de l'entreprises, - Développera les solutions data (Alimentation, stockage, modélisation, restitution), - Validera la qualité des développements de son équipe, - Améliorera et optimisera le patrimoine actuel de son équipe, - Maintiendra les solutions existantes (Run), - Contribuera à la construction du nouveau socle et des services sur la plateforme Google Cloud, - Accompagnera et acculturera les métiers sur les bonnes pratiques de l'exploitation de la Data Compétences : Expertise SQL, ETL CI/CD, github, Terraform, Kafka Power BI, Looker Google Cloud Platform (GCS, BigQuery)
Offre d'emploi
Data Engineer Python & Power BI (H/F)
STORM GROUP
Publiée le
Microsoft Power BI
Python
3 ans
40k-55k €
400-500 €
Île-de-France, France
Au sein d’une équipe spécialisée en risque de contrepartie, vous contribuez au développement et à l’amélioration d’outils de suivi, d’analyse et de certification des métriques de risque. Vos missions : Développement et optimisation d’outils de reporting et d’analyse Python, Power BI Structuration et modélisation des données pour des usages BI Suivi et contrôle des métriques de risque et des dépassements Participation aux processus de certification et de fiabilisation des données Collaboration avec des équipes pluridisciplinaires (risque, IT, métiers)
Mission freelance
Consultant(e) – Étude de Faisabilité Finance Data
Lùkla
Publiée le
API
Cloud
High Level Design (HLD)
1 an
Marseille, Provence-Alpes-Côte d'Azur
Contexte : Dans le cadre d’un projet Groupe, nous recherchons un(e) consultant(e) pour réaliser une étude de faisabilité visant l’intégration des données financières des terminaux dans les Finance Datamarts Groupe . Le périmètre couvre les processus : Accounts Payable (AP) Accounts Receivable (AR) General Ledger (GL) L’environnement est multi-ERP (IFS, SAP, Sage, Navision…) avec une gouvernance décentralisée et des niveaux de maturité hétérogènes. Objectifs de la mission : Le consultant interviendra exclusivement sur une phase d’étude et d’aide à la décision , incluant : Analyse des processus financiers des terminaux Cartographie des ERP et des flux de données Évaluation de la qualité et de la cohérence des données Analyse des architectures et patterns d’intégration (batch, API, cloud-to-cloud) Étude des aspects gouvernance, sécurité et conformité Définition de scénarios de faisabilité (2 à 3 options) Recommandation finale de type Go / No Go Livrables attendus : Analyse fonctionnelle détaillée Cartographie des systèmes et data Schémas d’architecture de haut niveau (HLD) Scorecards de faisabilité Analyse des risques et plans de mitigation Rapport final consolidé Support de comités de pilotage
Mission freelance
Business Analyst Finance DATA / IA - Paris
Net technologie
Publiée le
Big Data
Elasticsearch
Méthode Agile
9 mois
Paris, France
Dans le cadre d’un programme réglementaire stratégique, nous recherchons un Senior Business Analyst pour contribuer à l’industrialisation d’une plateforme globale de Front Office destinée à renforcer la supervision des activités de trading et de sales. 🎯 Objectif : développer une plateforme de monitoring couvrant communications, ordres, transactions et données associées , intégrant des technologies d’analyse avancées (NLP / IA). 🚀 Missions Recueil et formalisation des exigences fonctionnelles et use cases Rédaction des spécifications fonctionnelles et techniques Coordination avec les Data Engineers et les équipes projet Participation aux sprints Agile et suivi des livraisons Conception de la stratégie data pour l’analyse multi-sources Organisation et pilotage des tests UAT Collaboration avec les équipes Business, Compliance et IT
Mission freelance
Data analyst GCP (H/F) - 94
Mindquest
Publiée le
Google Cloud Platform (GCP)
4 mois
110-480 €
Ivry-sur-Seine, Île-de-France
Dans le cadre de la mise en conformité réglementaire liée à la Facturation Électronique, notre client lance un chantier stratégique d'assainissement et d'analyse de données. L'enjeu est de garantir que les référentiels (Produits, Fournisseurs, Taxes) et les flux financiers sont prêts pour les nouvelles exigences légales. En tant que Data analyst vos missions seront de : * Analyse Exploratoire : Investiguer et manipuler des données brutes pour en extraire de la valeur et identifier les anomalies de structuration. * Audit de Conformité : Vérifier l'alignement des référentiels produits et fournisseurs avec les exigences de la facturation électronique (TVA, SIRET, règles de facturation). * Architecture & Flux : Concevoir et maintenir des pipelines de données via des API, Cloud Run ou Cloud Functions. * Analyse d'Impact : Réaliser des analyses croisées complexes entre les flux logistiques (Retail) et les flux financiers/comptables. * Pilotage : Concevoir des rapports et indicateurs sous Looker Studio pour monitorer l'avancement de la mise en conformité.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
2675 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois