Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 1 428 résultats.
Offre d'emploi
Senior IT PMO – Trading / Data Platform Migration – Remote EU
Avanda
Publiée le
Gestion de projet
JIRA
Market data
2 ans
Paris, France
Avanda est une société de conseil en informatique basée en Suisse. Nous recherchons actuellement un(e) PMO IT Senior pour rejoindre notre équipe internationale chez notre client final mondial dans la région de Zurich. Il s'agit d'une opportunité à long terme (le projet s'étend jusqu'en 2028). Le travail à distance est accepté, avec une présence sur site toutes les 4 à 6 semaines. En tant que PMO IT Senior, vous intégrerez un programme pluriannuel de migration de données de marché vers une plateforme Data & Analytics dans le secteur du Trading. En tant que PMO, vous apporterez votre soutien aux responsables de chantiers et au Chef de Projet dans la planification, la coordination et le pilotage quotidien du programme à travers plusieurs workstreams. Ce poste est ouvert en full remote (UE). VOS RESPONSABILITÉS Accompagner les responsables de chantiers dans la planification, le suivi des avancements et la coordination inter-workstreams Préparer et animer les réunions de projet : ordre du jour, comptes rendus, suivi des actions et registre des décisions Maintenir la documentation projet, les rapports d'avancement et les mises à jour à destination du management Suivre les points ouverts, les risques, les problèmes et les dépendances entre les workstreams, et escalader au Chef de Projet si nécessaire Contribuer à la préparation des documents destinés aux instances de pilotage Soutenir l'intégration des nouveaux membres du projet et assurer l'administration générale du projet
Offre d'emploi
Data Engineer
R&S TELECOM
Publiée le
BI
ETL (Extract-transform-load)
Qlik Sense
6 mois
Montpellier, Occitanie
Contexte de la mission : L’objet de la mission porte sur la réalisation d’une prestation d’expertise technique et de développement des flux et applications Génio & Qlik au sein du pôle décisionnel. Tâches à réaliser : La mission consiste à réaliser les tâches suivantes, en autonomie : · Comprendre et reformuler techniquement les besoins métiers ; · Assister les métiers dans la réalisation des maquettes · Concevoir, modéliser et développer des flux de données et/ou des reportings · Rédiger la documentation technique · Rédiger et réaliser des plans de tests et PV de recette. · Organiser et réaliser les mises en production · Analyser les demandes dans la globalité du SI Décisionnel et adapter les solutions pour optimiser la maintenabilité des applications Compétences recherchées : Obligatoires : Compétences confirmées et des expériences dans un contexte BI OTIC/GENIO V16 (ETL indispensable) QlikView / Qlik Sense (Dataviz indispensable) NPrinting Optionnelles : La connaissance des métiers de l’immobilier est un plus Expérience nécessaire : 7 à 9 ans minimum sur la fonction (profil senior) (profil ITS : Hors grille) Méthodologie : Agile Langues : Français Date de démarrage : 20/05/2026 Localisation : · Locaux du client situés MONTPELLIER Possibilité d’interventions hors site Client : OUI, 40% (limitée à un maximum de 40% du temps de prestation contractualisé – réalisable en France Métropolitaine uniquement) Astreintes / interventions HNO : NON Déplacements sur d'autres site client en France : NON Autre matériel requis : NON
Mission freelance
Data scientiste Ingénieur IA GCP DEVOPS 500 e par j
BI SOLUTIONS
Publiée le
Data science
Google Cloud Platform (GCP)
2 ans
400-500 €
Île-de-France, France
Ingénieur IA GCP DEVOPS 500 e par j Intelligence Artificielle Générative (IAG) Modèles : Maîtrise parfaite des LLMs tels que Gemini et GPT. Frameworks : Vertex AI Agent Builder, LangChain. Data : Expertise en bases de données vectorielles. 2. Écosystème Cloud & Data Science Cloud : Utilisation avancée de GCP (Vertex AI, Model Garden, Compute/Storage). Langages & Libs : Python, Pandas, NumPy, SciPy. ML Classique : Scikit-learn, TensorFlow ou PyTorch; solides bases en NLP et Deep Learning. Visualisation : Matplotlib, Seaborn, Plotly. 3. Software Engineering & DevOps Méthodologies : Agile (Scrum), Software Craftsmanship (SOLID, YAGNI), couverture de tests (Sonar). Outils : Git, CI/CD, principes d'observabilité. 500 e par j
Offre d'emploi
Architecte Big Data
HN SERVICES
Publiée le
Apache Kafka
Apache Spark
Google Cloud Platform (GCP)
6 mois
40k-70k €
400-550 €
Paris, France
Vous serez responsable de la conception et de la mise en œuvre d'architectures optimisées et scalables au sein d'une plateforme data, analytique et IA basée hébergée en hybride Cloud/On Premises. Ce poste nécessite une compréhension approfondie de l’écosystème Data en terme de technologies et de pratiques à l’état de l’art (i.e. Hybridation, Datamesh etc…) Les principales activités sont les suivantes : - Collaborer avec les équipes data (Data Engineer, Data Analyst, Data Scientist, Business Analyst, Product Owner, Chef de projet, etc.) pour comprendre les exigences en matière de données, d'usages et de capacités et concevoir et formaliser l’architecture adaptée - Accompagner les équipes data dans la mise en œuvre des architectures définies - Assurer la qualité, l'intégrité et la sécurité des données dans l'environnement de la plateforme data, analytique et IA - Optimiser les processus d'ingestion de données et contribuer à la définition et la mise en œuvre des politiques de gouvernance des données - Évaluer et préconiser les technologies et outils appropriés pour le stockage, le traitement et l'analyse des données - Proposer des optimisations pour résoudre les problèmes d’architecture liés au stockage, à l’accès et à l’exploitation de la plateforme data - Une expérience sur l’accompagnement de projet en lien avec des migrations de plateforme data On premises vers le Cloud (idéalement GCP). Compétences techniques ou métier recherchées : - Vous avez une expérience minimale de 6 ans sur un poste d'architecte data et vous avez une expérience de mise en œuvre d'une plateforme basée sur une technologie Cloud. - Vous avez obtenu un diplôme dans le domaine IT et êtes spécialisé dans la Data. - Vous avez une expérience similaire sur la modélisation des données. - Concepts et technologies liés au Big Data (par exemple, Apache Spark, Hadoop) et aux bases de données SQL/NoSQL. Compétences comportementales recherchées : - Coopérer et fonctionner en transversal - Interagir facilement avec les autres - Négocier et convaincre - Proposer des initiatives ou des solutions - S'adapter aux changements. Compétence complémentaire : - Maitrise des Plateformes Data GCP, Spark, Python, SQL, Kafka, MongoDB Excellente connaissance des concepts et technologies des datalake, datawarehouse / entrepôts de données, lakehouse, des plateformes cloud telles que Google Cloud.
Offre d'emploi
DATA ENGINEER GCP/Big data
DATAMED RESEARCH
Publiée le
Apache Spark
BigQuery
Cloudera
24 mois
45k-62k €
450-580 €
Issy-les-Moulineaux, Île-de-France
Contexte : migration de On premise vers GCP En tant que Data Engineer, vous serez au cœur de notre stratégie data. Vous concevrez et mettrez en œuvre des solutions innovantes pour collecter, transformer et stocker nos données massives. Votre expertise technique sera essentielle pour les projets et offrir des insights précieux à nos équipes métiers. Vos missions : Conception et développement: Définir et mettre en œuvre des architectures de données robustes (data lakes, data warehouses). Concevoir et développer des pipelines de données automatisés (ETL). Optimiser les performances des traitements de données. Technologies: Maîtrise des langages de programmation : Python, Scala, SQL. Expérience avec les outils de traitement de données : Spark, Hadoop, Kafka. Connaissance des bases de données relationnelles et NoSQL. Expérience avec les clouds (GCP) Collaboration: Travailler en étroite collaboration avec les équipes métiers. Participer à la définition de la roadmap data.
Mission freelance
Tech Lead Data & Viz
Management Square
Publiée le
Data modelling
Microsoft Power BI
Snowflake
1 an
530-570 €
Île-de-France, France
Nous recherchons un Tech Lead Data (Snowflake/dbt) & Power BI pour piloter la delivery technique de produits data et solutions BI : définition des standards, revue de code, CI/CD, qualité, performance et gouvernance (incl. RLS). Vous serez responsable de la chaîne Snowflake → dbt → modèle sémantique → Power BI, de l’industrialisation et du run (incidents/post‑mortems), tout en mentorant l’équipe. Tech Lead Data & Viz pour l'équipe DAAS Expertise Snowflake/Azure Data Factory Aide au cadrage technique sur les initiatives et projets du périmètres. Expertise Power BI sur le périmètre Regions : best practices à rédiger, template, etc
Offre d'emploi
Data Engineer, GCP (H-F)
K-Lagan
Publiée le
Azure
Big Data
Databricks
1 an
42k-50k €
400-550 €
Niort, Nouvelle-Aquitaine
🚀 Et si votre prochain projet faisait grandir vos compétences autant que votre carrière ? Chez K-LAGAN , nous accompagnons les talents sur des projets à forte valeur ajoutée, en alliant expertise technique, innovation et accompagnement personnalisé. Aujourd’hui, nous recherchons un·e Data Engineer GCP (F/H) pour rejoindre l’un de nos clients du secteur assurance , basé à Niort, Nouvelle-Aquitiane. 🎯 Contexte Vous intégrerez une équipe Data en charge de la gestion et de l’optimisation des environnements Cloud GCP. Votre rôle sera central dans l’administration de la plateforme Data, la gestion des droits d’accès, l’optimisation des traitements de données et l’industrialisation des flux au sein de l’écosystème BigQuery. 🚀 Vos missions Gérer et administrer l’environnement BigQuery Assurer la gestion de l’infrastructure Google Cloud Platform (GCP) Administrer les droits et accès pour les équipes Data Intervenir sur l’automatisation via Terraform (IaC) Développer et maintenir les flux Data avec DBT Participer à l’amélioration continue des performances et de la fiabilité de la plateforme Contribuer aux bonnes pratiques de développement et d’industrialisation
Offre d'emploi
Data Engineer TJM MAX 580 Python + Azure + Microsoft Fabric/Cognite
Craftman data
Publiée le
Azure
Microsoft Fabric
Python
6 mois
40k-55k €
400-580 €
Paris, France
Contexte de la mission Grand groupe international du secteur industriel et énergétique, présent à l’échelle mondiale, engagé dans la transformation de ses activités via une entité digitale interne structurée en équipes pluridisciplinaires. Cette organisation conçoit, développe et déploie des solutions numériques à grande échelle afin de soutenir les opérations métiers dans un environnement international. Objectifs et livrables Dans le cadre d’un projet stratégique, nous recherchons un(e) Data Engineer disposant de solides compétences en Python, Azure, Microsoft Fabric et idéalement Cognite. Le/la consultant(e) sera responsable de la conception, du développement et de la mise en production d’une architecture de données robuste et évolutive. Missions principales : Recueillir et analyser les besoins métiers et utilisateurs Concevoir l’architecture de données adaptée aux enjeux du projet Développer les pipelines de données Industrialiser et mettre en production les flux de données Assurer la maintenance, l’évolution et l’optimisation de l’architecture existante Compétences requises : Technologies : Python (expert) Azure Cloud (confirmé) Microsoft Fabric (confirmé, forte maîtrise appréciée) Cognite (confirmé, forte maîtrise appréciée) Langues : Anglais courant (écrit et oral) Profil recherché : Solide expérience en Data Engineering et architecture cloud Capacité à comprendre les enjeux métiers et à les traduire en solutions techniques Autonomie dans la conception, la livraison et l’amélioration continue Maîtrise des environnements data modernes et des bonnes pratiques de mise en production
Offre d'emploi
Architecte Big data sur le Havre
EterniTech
Publiée le
Big Data
Data Lake
Data science
3 mois
Le Havre, Normandie
Je cherche pour un de mes client un Architecte Big data sur le Havre Missions principales : Conception, mise en place et évolution d’architectures data modernes (Data Lakes, Data Warehouses) adaptées aux enjeux métiers et aux volumes de données. Développement et industrialisation de pipelines de données (ingestion, transformation, orchestration) dans des environnements Big Data. Intégration et valorisation des données pour alimenter des cas d’usage avancés, notamment en data science et intelligence artificielle. Développement de modèles analytiques et algorithmes de data science en réponse aux problématiques métiers. Création de tableaux de bord et reporting décisionnel via des outils BI tels que Qlik et Microsoft Power BI. Mise en œuvre et optimisation de moteurs de recherche et d’indexation avancée basés sur Elasticsearch (expertise clé). Gestion, enrichissement et évolution du catalogue de données (data catalog) afin de garantir la gouvernance et la qualité des données. Activités transverses : Analyse des systèmes existants et animation d’ateliers avec les parties prenantes pour cadrer les besoins. Définition des standards techniques, bonnes pratiques et architectures cibles. Dimensionnement, chiffrage et cadrage des solutions data. Accompagnement des équipes projet dans la mise en œuvre des solutions et suivi opérationnel. Transfert de compétences et montée en autonomie des équipes internes. Rédaction de documentation technique, cahiers des charges et rapports d’études. Réalisation d’audits techniques et amélioration continue des processus data. Veille technologique et conseil stratégique sur les outils et architectures data. Environnement technique : Big Data, Data Lake, Data Warehouse, ETL/ELT, Elasticsearch, Qlik, Power BI, Data Catalog, IA / Data Science.
Offre d'emploi
Data Analyste DATA/AMOA Sénior
KEONI CONSULTING
Publiée le
AMOA
Data analysis
SAS
18 mois
20k-60k €
100-600 €
Paris, France
Contexte : Business analyste pour accompagnement de l'équipe Conseil Valorisation de la Data. Dans le cadre de Solutions Data, nous avons besoins d’un profil de Business Analyst DATA/ AMOA Senior pour intervenir rapidement et venir renforcer l’équipe Conseil et Valorisation Data. MISSIONS principales missions : - Assurer une proximité et accompagner les direction métiers sur les usages autour de la donnée - Réaliser les études et apporter le bon conseil vers les métiers sur le volet Data - Assurer le support et l’assistance métier des usages Data - Contribuer à la production des livrables de niveau fonctionnel Et concrètement ? • Recueillir et analyser les besoins métiers, • Apporter le conseil nécessaire aux direction Métier sur l’exploitation de la donnée, • Participer au cadrage des projets Data (études d’impacts, faisabilité) • Contribuer aux études d’opportunité et de faisabilité sur le volet Data, • Garantir la cohérence fonctionnelle et technique du SI • Réaliser les recettes fonctionnelles, qualifier les anomalies et suivre les corrections • Produire des livrables fonctionnels (modélisations de données, SFG, SFD), • Tenir à jour la base documentaire du patrimoine, • Garantir la bonne satisfaction métier Data (qualité, engagement, cout, délai). Environnement technique • Ecosystème DATA SI Décisionnel (SAS) et plateforme Big Data (Cloudera) Pré-requis : Expérience dans des projets Data (SI Décisionnel, plateforme Big data) Sensibilité aux enjeux de gouvernance et qualité des données Connaissance du secteur assurance
Mission freelance
POT9121 - Un Consultant Senior Affaires Réglementaires – RIM & IDMP sur IDF.
Almatek
Publiée le
Data management
6 mois
Île-de-France, France
Almatek recherche pour l'un de ses clients, un Consultant Senior Affaires Réglementaires – RIM & IDMP sur IDF. Mission / Responsabilités : - Développer une compréhension détaillée de la configuration RIM, des processus, des rôles et des responsabilités. - Collaborer avec les équipes RIM Business Run et Data Entry pour traiter les tickets liés aux processus (problèmes / questions / mode opératoire) provenant d’un large éventail de parties prenantes. - Élaborer des propositions d’amélioration des processus, mettre à jour les guides utilisateurs et partager/diffuser ces consignes. Utiliser les canaux les plus appropriés pour traiter les problèmes urgents (par exemple : sessions de partage de connaissances Q&A, newsletters, communications directes). - Travailler avec les équipes métier (experts métiers) pour collecter les demandes d’amélioration et les transformer en demandes de changement (« change requests ») exploitables pour les équipes IT Run. - Participer activement aux sessions de priorisation et de planification des releases RIM. - Participer aux activités de UAT (User Acceptance Testing) en tant que représentant métier, selon les besoins. - Soutenir l’équipe de migration des documents/archives avec des contributions continues sur les processus métier. - Aider les experts data à résoudre les problèmes en cours liés aux données associées aux étapes des processus. Expérience / Compétences : - Expérience démontrée dans les processus réglementaires globaux (Global Regulatory Business Process) incluant : -planification des changements globaux/locaux -planification et suivi des soumissions -planification et suivi des enregistrements -gestion des CCDS et de l’étiquetage local -reporting - Expérience avec Veeva Vault RIM (en tant qu’utilisateur final) fortement préférée. - Expérience en cartographie/modélisation des processus souhaitée. - Diplôme de niveau Master dans un domaine des sciences de la vie, informatique, ou bioinformatique souhaité. - Autonomie, esprit d’initiative et aptitude à résoudre des problèmes (troubleshooting mindset). Compétences techniques: affaires réglementaires - Confirmé - Impératif RIM /IDMP - Confirmé - Impératif Contrainte forte du projet : Diplome pharma/ expertise affaires règlementaires / connaissance RIM / IDMP Connaissances linguistiques : anglais professionnel (Excellentes compétences en communication en anglais.)
Offre d'emploi
Business Analyst DATA
INFOTEL CONSEIL
Publiée le
Cloudera
Informatica
Oracle
2 ans
40k-45k €
400-550 €
Niort, Nouvelle-Aquitaine
Dans le cadre du renforcement de ses équipes, nous recherchons un Business Analyst Data pour intervenir auprès des directions métiers sur les sujets liés à la donnée au sein d’un grand groupe basé à Niort. Vos missions : Assurer une proximité avec les directions métiers et les accompagner sur les usages autour de la Data, Recueillir, analyser et formaliser les besoins métiers, Apporter un conseil aux directions métiers sur l’exploitation et la valorisation de la donnée, Participer au cadrage des projets Data (études d’impacts, faisabilité), Contribuer aux études d’opportunité et de faisabilité sur les sujets Data, Garantir la cohérence fonctionnelle et technique du SI, Réaliser les recettes fonctionnelles, qualifier les anomalies et suivre les corrections, Produire les livrables fonctionnels (SFG, SFD, modélisations de données), Assurer la tenue à jour de la documentation du patrimoine Data, Garantir la satisfaction des métiers sur les sujets Data (qualité, coûts, délais, engagements). Environnement technique : Écosystème Data SI décisionnel : Oracle / Informatica, Plateforme Big Data : Cloudera.
Offre d'emploi
Développeur Data (Foundry) et Fullstack (Python, Typescript)
CAT-AMANIA
Publiée le
Data Engineering
Python
SQL
1 an
58k-60k €
490-500 €
Paris, France
Nous recherchons un profil Data / Full Stack sur la plateforme Foundry de Palantir, pour mettre en place de nouveaux dispositifs data‑centrés visant à répondre aux enjeux réglementaires LCB‑FT (Lutte contre le Blanchiment des Capitaux et le Financement du Terrorisme). Mise en œuvre d’applications d’investigation et traitement d’alertes dans une équipe de développement en montée en compétence sur une plateforme Foundry de chez Palantir. Comprendre rapidement l’écosystème Foundry existant Reprendre un existant, rétro-ingénierie, corrections, améliorations Maintenir et faire évoluer les pipelines de données Pipelines ETL / data workflows Développer ou adapter des workshops Foundry Applications et écrans métier complexes orientés analystes (investigation, suivi des alertes, reporting Assurer la fiabilité, la lisibilité et la maintenabilité des traitements Collaborer étroitement avec les équipes data et métier assurance Assurer avec l’équipe le suivi Run/MCO
Mission freelance
Business analyst
Mindquest
Publiée le
Business Analysis
CRM
Data quality
1 an
400 €
Paris, France
Réaliser des activités de Business Analysis sur des projets liés aux données clients et au référentiel CRM Cadrer les projets : définition du scope, analyse d’impact et coordination des parties prenantes Challenger les équipes et apporter une expertise senior sur les sujets data et compliance Garantir la cohérence, la qualité et la conformité des données clients Participer aux analyses fonctionnelles et techniques autour des référentiels clients Effectuer des requêtes SQL et valider la qualité des données Contribuer aux sujets de gouvernance de données et de customer compliance (RGPD, traitement des données) Collaborer avec les équipes techniques autour des APIs, ETL et intégrations systèmes Participer à la coordination Agile/Scrum avec les équipes projet Accompagner et mentorer des profils plus juniors
Offre d'emploi
Data Scientiste Senior
Etixway
Publiée le
IA Générative
Microservices
Python
1 an
40k-45k €
400-450 €
Noisy-le-Grand, Île-de-France
Nous recherchons pour l’un de nos clients un(e) Data Scientist Senior disposant d’une solide expérience sur les sujets IA et data avancée. Le consultant interviendra sur des problématiques de traitement et valorisation de données avec une forte dimension Intelligence Artificielle et IA générative. Compétences recherchées • Expertise Python • Expérience significative en Data Virtualization • Maîtrise des sujets IA / LLM (Large Language Models) • Bonne compréhension des architectures data et pipelines de traitement • Capacité à intervenir de manière autonome sur des sujets complexes • Expérience dans des environnements grands comptes ou secteur public appréciée Environnement technique • Python • IA générative / LLM / RAG • Data Virtualization • APIs / Microservices • Cloud & outils data modernes
Offre d'emploi
Consultant Data Governance & Data Migration (H/F)
Deodis
Publiée le
Data governance
Data Lake
1 an
38k-50k €
430-600 €
Île-de-France, France
En tant que Consultant Data spécialisé en gouvernance et migration, vous intervenez au cœur d’un programme stratégique de transformation visant à structurer, fiabiliser et harmoniser les flux de données dans un environnement complexe. Intégré(e) au Data Office, vous jouez un rôle clé dans la définition des besoins métiers, la conception des flux de données et le pilotage des livraisons, tout en garantissant la qualité, la traçabilité et la conformité des données. À ce titre, vous animez des ateliers avec les équipes métiers et IT afin de recueillir et formaliser les besoins data, réalisez des analyses d’écart entre les systèmes existants et les solutions cibles, et concevez les data lineage de bout en bout. Vous participez activement aux ateliers de conception fonctionnelle et technique, en apportant votre expertise sur les enjeux de gouvernance, de qualité et d’architecture des données. Vous êtes également en charge du pilotage de la roadmap data, en assurant le suivi des livraisons, l’identification des dépendances critiques et la gestion des risques. Vous maintenez un backlog structuré, suivez les indicateurs de performance et contribuez à la mise en place des standards de gouvernance et de qualité définis par le Data Office. Enfin, vous agissez comme référent sur votre périmètre, en accompagnant les équipes dans l’adoption des bonnes pratiques, en produisant une documentation de qualité (data dictionaries, processus, cartographies de flux) et en contribuant aux actions de change management dans un contexte de transformation à grande échelle.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
1428 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois