L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 394 résultats.
Offre d'emploi
MOA – Application ATHENES Bilingue sur Paris
Publiée le
CSS
Data Lake
Java
3 mois
Paris, France
Télétravail partiel
Je recherche pour un de mes clients un MOA – Application ATHENES sur Paris Pour l’application ATHENES le périmètre couvre : application est dédiée à l'activité de gestion des participations o La prise en charge des éléments du backlog d’ATHENES : Backlog éditeur Interfaçage CDC (flux) DataLake / Tableau Développement de Proximité Bureautique, etc. au travers de la maintenance corrective et évolutive : expression des besoins, analyse, configuration, recette o Le support utilisateur o La gestion des incidents de production, en relation avec les équipes métiers o La documentation des points ci-dessus o Suivi de KPI éditeurs o Relation avec l’éditeur, comitologie en interne et avec l’éditeur Compétences • Forte expérience en maîtrise d’ouvrage et en support sur les métiers liés au franchissement de seuil (seuils, types, déclarations, etc.) et OPA. • Connaissance approfondie de l’outil Signal de CSS/Confluence (paramétrages, configuration des règles d’alertes, ETL Studio, etc.) • Connaissance approfondie sur l’implémentation de Signal chez d’autres clients • Connaissance des règles de franchissements de seuils règlementaires et statutaires sur plusieurs juridictions (EU, USA, G20), OPA, règles sur l’actionnariat (loi Florange) • Connaissance approfondie de l’anglais (éditeur anglophone) • Connaissance approfondie du langage SQL. • Connaissance approfondie d’Excel (VBA, TCD, etc.) et la programmation (Python). • Connaissance des marchés et des instruments financiers • Connaissance des plateformes (Refinitiv) Démarrage: ASAP Durée Longue
Mission freelance
Data Analyst Informatica
Publiée le
Azure
ETL (Extract-transform-load)
Informatica
1 an
300-460 €
Strasbourg, Grand Est
Télétravail partiel
Au sein d’un grand groupe industriel international spécialisé dans les solutions électriques, vous intégrerez le pôle Data rattaché à la DSI. L’équipe Data Quality, composée de 4 personnes, a pour mission de garantir la fiabilité et la cohérence des données (Customer, RH, Produit, etc.) dans un contexte multiculturel. L’enjeu est d’assurer la mise à disposition de données fiables, exploitables et de haute qualité au service des équipes métiers et des partenaires distributeurs. Missions qui vous serez conférés : Assurer la qualité, la cohérence et la complétude des données sur l’ensemble des périmètres (client, RH, produit…). Mettre en œuvre et superviser les processus ETL avec l’outil Informatica , validé comme solution principale au sein du pôle Data. Collaborer avec les équipes métiers pour recueillir, analyser et formaliser les besoins en matière de données. Organiser et animer des ateliers métiers afin de traduire les besoins fonctionnels en spécifications techniques. Participer aux projets d’ AMOA Data : rédaction des spécifications, accompagnement des utilisateurs, suivi de la mise en production. Contribuer à la modélisation et à la gouvernance des données , dans une logique d’amélioration continue. Créer et maintenir des rapports et tableaux de bord dans Power BI.
Offre d'emploi
Expert Kubernetes / Anthos Projet Cloud & Edge Computing-ile de France (H/F)
Publiée le
Agile Scrum
Ansible
Cloud
1 an
Île-de-France, France
Contexte du besoin Dans le cadre d’un projet stratégique de mise en place d’un Cloud hybride basé sur Anthos / Kubernetes , nous recherchons une expertise senior afin d’accompagner le déploiement, l’industrialisation et le support de la plateforme sur des infrastructures Edge. Mission L’expert interviendra au sein d’une équipe Cloud en méthodologie Agile, et sera responsable de : La mise en œuvre d’Anthos / Kubernetes sur des infrastructures Edge Computing hybrides (cloud public + infrastructures locales). Le déploiement complet des environnements , du développement jusqu’à la production. La mise en place de l’automatisation via Ansible et Terraform . La rédaction des documentations techniques et la montée en compétences des équipes infrastructure. Le support opérationnel de la solution en production. L’ accompagnement des équipes projets sur les bonnes pratiques Kubernetes / Anthos. Livrables Environnements déployés (dev → prod) Services automatisés et monitorés Documentation technique complète Compétences & Expertise recherchées +5 ans d’expérience confirmée en Kubernetes , Anthos , et environnements Cloud / DevOps . Très bonne maîtrise de Google Anthos . Excellente connaissance de Terraform et Ansible . Bon niveau sur les outils CI/CD ( GitLab CI ). Compétences solides en virtualisation , Linux et scripting . Connaissance des méthodes Agile (Scrum) . Anglais professionnel dans un contexte international.
Offre d'emploi
Ingenieur de production FINANCIAL MARKET JUNIOR
Publiée le
Market data
1 an
40k-45k €
400-550 €
Paris, France
Missions : Apporter son expertise dans la mise en place, l’évolution et le suivi de production des solutions d’accès aux marchés (Fixed Income, Forex) Gérer les incidents, anomalies, et mener des investigations approfondies sur les problèmes fonctionnels complexes Rédiger des procédures et documentations pour assurer la pérennité des connaissances au sein de l’équipe Maintenir un échange constant avec les équipes projet pour rester informé des nouvelles fonctionnalités et évolutions applicatives Stack technique (extraits clés) Systèmes d’exploitation : Linux, Windows Monitoring : Geneos, ZABBIX Ordonnancement : Control-M Transfert de fichiers : CFT Bases de données : SQLServer, Oracle Réseaux : TibcoRV, FIX, Multicast Langages : Python, Shell, Powershell Outils de suivi : Jira, Service Now
Offre d'emploi
Expert Infrastructure & Automatisation IA/Data
Publiée le
Linux
1 an
Paris, France
Télétravail partiel
Contexte de la mission Vous accompagnerez la modernisation des infrastructures logicielles et serveurs, tout en soutenant les projets IA/Data en production. Vous garantirez leur scalabilité, sécurité et traçabilité dans des environnements critiques du secteur financier. Vos missions • Moderniser et sécuriser les environnements applicatifs et serveurs • Automatiser les déploiements et configurations via Infrastructure as Code (IaC) • Assurer la scalabilité et la sécurité des projets IA/Data en production • Collaborer avec les équipes Data Scientists, DevOps et Sécurité • Participer aux audits et garantir la conformité réglementaire (RGPD, ISO 27001) • Mettre en place des solutions de monitoring et traçabilité des modèles IA
Mission freelance
EXPERT IAM / CLOUD / DATA
Publiée le
Cloud
Cryptographie
IAM
6 mois
490-700 €
Paris, France
🎯 Missions principales : - Capacité à travailler sur les orientations et directions stratégiques du programme cyber, à comprendre les enjeux et la structure du programme, et à proposer des améliorations continues - Rédaction et/ou révision de thématiques opérationnelles du Group Cyber Framework (exigences cyber sur 25 thématiques applicables à toutes les entités du groupe) - Identification des risques cyber, les objectifs et les preuves associées aux exigences cyber sécurité (les preuves à collecter parles entités afin de vérifier qu'elles ont bien implémentées ces exigences - Expertise sur les thématiques typées "Cryptography" "network security" "Data Security" , "AM" and « secure configuration » - Animation des workshops avec les experts de ces sujets cyber, les équipes de productions et les entités afin d'identifier la faisabilité des exigences et les aspects opérationnels associés - Animation des espaces de partage des livrables et des forums mis en place à cet effet.
Offre d'emploi
Product Owner Data – Expertise Power BI, Dataiku & Tableau
Publiée le
Data analysis
Dataiku
Product management
2 ans
40k-70k €
400-550 €
Île-de-France, France
Missions principales Définir la vision produit et la roadmap Data en lien avec les métiers. Prioriser le backlog et rédiger les user stories (méthodologie Agile). Superviser la préparation, la transformation et la qualité des données dans Dataiku. Piloter la production de dashboards et rapports dans Power BI et Tableau. Garantir la gouvernance et la cohérence des modèles de données. Collaborer avec data engineers, data scientists et équipes métier. Suivre les KPI, mesurer la valeur et assurer l’amélioration continue du produit. Compétences requises Excellente maîtrise : Power BI : Modèle tabulaire, DAX, dataprep, publication & sécurité Dataiku : Data pipelines, recipes, automation Tableau : Visualisation avancée, storytelling, calculs Solides compétences en modélisation de données (SQL, Star/Snowflake schema). Très bonne compréhension des enjeux Data et BI.
Offre d'emploi
EXPERT DATA GOUVERNANCE
Publiée le
Azure
Collibra
3 ans
40k-65k €
400-630 €
Paris, France
Télétravail partiel
Bonjour 😊, Pour le compte de notre client, nous recherchons un Expert Data gouvernance senior. Mission : • D’accompagner les clients dans la formalisation de leurs besoins • De rédiger des livrables SOA (Demandes de Service) nécessaires en entrée du processus de production des WebServices • D’assister les Référents Data du Département dans les missions qui leur sont confiées et s’assurer le cas échéant de leur montée en compétence sur les principes et bonne pratique SOA. • De suivre l’avancement de l’ensemble des demandes de Data adressées au Département • De suivre et rapporter l’avancement de ses chantiers au Chef de projet DATA de la Division Étant donné sa position transverse, au cœur de l’organisation des demandes data, d’autres activités liées à sa mission. pourront lui être confiées, comme l’animation ou la participation à différents comités (Comité Opérationnel des Services, Comité Editorial des Services), la participation à l’élaboration et au suivi du catalogue de services, la gestion du patrimoine de services, par exemples. 2.2 Description détaillée des tâches qui constituent la mission Business Analyse / Pilotage • Participer à la mise en place et à la gestion du catalogue des services du Département • Animer des réunions/ ateliers de conception des modèles objets avec métiers et urbanisme • Travailler en équipe avec les Architectes et les urbanistes sur les architectures préconisées par les services transverses (performances, optimisation) • Assister les métiers dans la formalisation de leurs besoins • Rédiger les livrables SOA de cadrage du besoin / spécifications fonctionnelles (Demandes de Service SOA) • Approuver les livrables SOA rédigés par les clients • Vérifier de la cohérence entre les demandes de Service (DDS) rédigées et les Spécifications techniques (RDS, ODS) livrées par les projets • Suivre l’avancement de la réalisation des Services avec les équipes connexes • Suivre l’avancement général des demandes de données avec les équipes connexes (client, métier, gouvernance de la donnée) Conseil et Support • Décliner en interne et en externes (clients) les bonnes pratiques/prescriptions pour la(SOA) • Accompagner les projets consommateurs de la donnée et leur faciliter l’assimilation des principes et leur transition vers le mode SOA • Être force de proposition o sur les méthodes mises en place ainsi que la démarche d’accompagnement o sur les processus d’instruction des demandes avec les Département connexes (Transverses SI et Métier) • Forte contribution à la mise en place des Catalogues de Service dans le cadre de la Plateforme Digital Client Communication • Savoir concevoir et adapter des supports de communication et/ou de la documentation en fonction des messages et des cibles • Réaliser des présentations des gisements aux clients de type métier & DSI • Contribuer à la communication pour favoriser l’acculturation : o Des entités métiers ou des autres entités connexes à la construction de la démarche DATA o Des Directions métiers et entités connexes à la gouvernance des données et à la mise en œuvre de référentiels d'entreprise. 2.3 Résultats attendus et/ou livrables avec échéancier si besoin
Mission freelance
Développeur MDM Blueway (H/F)
Publiée le
API
Blueway
CI/CD
3 mois
400-550 €
Rennes, Bretagne
Contexte Dans le cadre d’un programme de transformation et de modernisation de son système d’information, notre client a engagé une démarche de mise en place d’un outil de Master Data Management (MDM) . Ce projet, porté par les équipes Data, vise à structurer et fiabiliser les référentiels de données afin de soutenir les programmes stratégiques de modernisation du SI et l’accélération des usages Data. Afin d’accompagner le déploiement et la montée en charge des référentiels, notamment autour des données Clients et Équipements , le client souhaite renforcer son dispositif avec un Développeur MDM Blueway . Enjeux du poste Le poste vise à contribuer à la conception et au développement de référentiels de données robustes et pérennes , au cœur des processus métiers et des systèmes applicatifs du client. Missions En tant que Développeur MDM Blueway , vous interviendrez sur l’ensemble du cycle de vie des solutions MDM, en collaboration étroite avec les équipes IT et métiers. Vos missions principales seront : Participer aux ateliers IT et métiers et assurer les comptes-rendus associés Contribuer à la spécification fonctionnelle et à la conception technique des solutions MDM Réaliser les développements sur la plateforme MDM (modélisation, règles, workflows, intégrations) Mettre en œuvre les tests unitaires et participer à la recette technique Assurer le support à la recette fonctionnelle Participer aux phases de livraison et de mise en production Contribuer à la résolution d’incidents et au support de niveau 3 Présenter et démontrer les solutions réalisées auprès des parties prenantes Environnement technique Plateforme MDM Blueway Technologies d’intégration : ESB, API Middleware et messaging : ArtemisMQ Chaînes d’intégration et de déploiement : CI/CD Environnements Linux Périmètre fonctionnel Domaines métiers : Clients, Équipements , avec interactions sur les périmètres Monétique, Supply, Finance , etc.
Offre d'emploi
Développeur Big Data Hadoop/PySpark/Python - 3 à 6 ans
Publiée le
Apache Spark
Hadoop
Python
3 ans
38k-43k €
300-400 €
Paris, France
Télétravail partiel
🏭 Secteurs stratégiques : Banque d’investissement PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Le département a lancé un programme stratégique, qui comporte plusieurs projets d'harmonisation des processus et outils. L'un de ces streams a pour vocation de constituer un datalake sur une stack Hadoop, afin de servir les besoins en data et reporting. Ce datalake a également pour vocation de devenir la brique centrale de l'architecture du SI . Nous recherchons un profil Hadoop / PySpark qui sera en charge, en lien avec l'équipe de production applicative / devops, de mettre en œuvre techniquement les évolutions du datalake. Passionné par les données, capable de s’adapter à un environnement dynamique et en constante évolution, le prestataire doit faire preuve d'autonomie, d'initiative et d'une forte capacité d'analyse pour résoudre des problèmes complexes. 🤝Principales missions : Les tâches suivantes seront confiés au consultant : • Mettre en œuvre de nouvelles ingestions de données, data prep/transformation • Maintenir et faire évoluer nos outils de gestion des pipeline de données (Pyspark + shell scripting) • Adresser à l'équipe devops les demandes relatives aux évolutions de la plateforme • Eventuellement mettre en œuvre une couche d'APIs afin d'exposer nos données
Offre d'emploi
Business Analyste Data
Publiée le
Méthode Agile
40k-56k €
Bordeaux, Nouvelle-Aquitaine
Le Business Analyst Data intervient au sein d’une squad Agile, assurant le suivi quotidien du run et la résolution des incidents. Il accompagne les utilisateurs, analyse leurs besoins et anime des workshops pour définir et clarifier les exigences métier. En collaboration avec les équipes techniques, il coordonne les actions connexes (ouvertures de flux, scheduling…), participe à la conception et à la spécification fonctionnelle des solutions data, ainsi qu’au paramétrage de la plateforme. Il contribue au packaging et à la livraison des évolutions, réalise les tests unitaires et d’intégration, et assure le support lors des mises en production ainsi que durant la période de garantie.
Mission freelance
Data Analyst snowflake, DataBricks Power BI SQL
Publiée le
FinOps
Snowflake
6 mois
La Défense, Île-de-France
Télétravail partiel
Dans ce cadre, une équipe FinOps a été mise en place afin de garantir la maîtrise des coûts Cloud , le respect des budgets et la mise en œuvre d’une gouvernance financière Cloud structurée . La mission s’inscrit au cœur de ce programme stratégique, avec la construction d’une FinOps Tower destinée à centraliser les analyses financières, le monitoring des coûts et les mécanismes d’alerting. Objectifs de la mission Assurer la maîtrise financière des environnements Cloud Azure Mettre en place une plateforme d’analyse FinOps robuste et industrialisée Détecter et prévenir les dérives budgétaires en amont Accompagner les équipes projets sur les bonnes pratiques FinOps Rôle & Responsabilités Mise en place d’ analyses FinOps sur les données de consommation Azure Conception et exploitation d’une sandbox Snowflake pour l’analyse des coûts Cloud Industrialisation des traitements en lien avec l’équipe Data Platform Intégration des données FinOps dans l’écosystème Finance / IT / Applicatif Définition et implémentation de règles d’alerting pour la détection des risques financiers Réalisation de POC pour l’intégration de solutions SaaS (Snowflake, Databricks, GitHub, PowerBI, etc.) Analyse de la consommation des ressources d’infrastructure afin d’assurer la juste utilisation des services Cloud Mise en place de contrôles automatisés FinOps (non-conformités, surconsommation, anomalies) Activités RUN FinOps Surveillance continue des coûts Cloud et gestion des alertes Support FinOps aux équipes projets Définition et suivi des plans de remédiation Gestion des réservations Cloud et identification d’opportunités d’optimisation Accompagnement des projets en phase amont (onboarding FinOps, revues d’architecture, validation budgétaire) Maintenance et enrichissement du reporting FinOps Environnement Technique Cloud : Microsoft Azure Data / FinOps : Snowflake, SQL Restitution & BI : PowerBI Data / SaaS : Databricks, GitHub Scripting / Automation : Python, PowerShell IaC : Terraform Monitoring & requêtage : KQL Livrables clés FinOps Tower opérationnelle (analyses, showback, alerting) Tableaux de bord FinOps à destination des équipes projets Règles d’alerting budgétaire automatisées POCs industrialisés et mis en production Reporting coûts et recommandations d’optimisation Profil de la mission Mission freelance longue durée Forte composante Cloud / Data / FinOps Environnement international – anglais professionnel Forte interaction avec équipes IT, Data et Finance
Mission freelance
Architecte IT transverse Infrastructure / Production
Publiée le
Infrastructure
Production
24 mois
450-900 €
Paris, France
Télétravail partiel
PROPULSE IT recherche un ARCHITECTE INFRASTRUCTURE avec une très bonne expertise de la production. - accompagner des experts techniques et des chefs de projet Infrastructure dans la mise en œuvre de projets Build, qui peuvent couvrir l'ensemble de l'environnement technique du client. - Réfléchir aux préconisations, et challenger les différentes options - Communiquer, et accompagner l'adoption des solutions Connaissances et expériences en Architecture, et de projet production de bout en bout, sur les domaines suivants - les technologies en datacenter : • stockage : EMC, Netapp, • sauvegarde : CommVault • Réseau : CISCO, Checkpoint, Fortinet, F5 - les systèmes d'exploitation serveurs : RedHat Linux et Microsoft Windows - les technologies de virtualisation : VMware, OpenStack, Container Docker - les technologies de bases de données : Oracle, PostgreSQL, MongoDB, SQL Server - les technologies de serveurs d'applications : Weblogic, Tomcat, Apache - les technologies d'orchestration et d'ordonnancement : VRO / VRA, Kubernetes, XOS-Axway - les technologies de Devops : GitLab, Gitub, Ansible, Terraform - les technologies de Provider Cloud : Microsoft Azure, AWS - les technologies de gestion de la sécurité : PKI - les technologies de gestion des identités : LDAP, Active Directory, Bastion - les technologies de supervision et de métrologie : BMC Patrol, Centreon, Nagios
Offre d'emploi
PO DATA - DECISIONNEL
Publiée le
Data management
Dataiku
ETL (Extract-transform-load)
3 ans
40k-70k €
400-600 €
Nanterre, Île-de-France
La prestation consiste à mener au sein de la MOA, des projets décisionnels depuis le recueil des besoins auprès des différents clients internes, jusqu’à la mise en production et l’accompagnement utilisateur. Le PO Décisionnel sera responsable de la qualité et la cohérence des livrables, en assurant une modélisation et l'architecture des données. Les principales missions : Recueillir et analyser les besoins métiers, définir la solution adaptée et estimer la charge du projet. Proposer l’architecture fonctionnelle par une modélisation des données garantissant la cohérence des flux d’informations et la qualité des données utilisées Piloter la mise en place des outils Qlik Sens Gérer la roadmap du projet et définir les priorités en collaboration avec le PM Rédiger les US et gérer le backlog en mode Agile pour garantir une bonne communication avec les équipes techniques. Validation du résultat et en production et assurer le support fonctionnel aux utilisateurs après déploiement. Communiquer l’avancement du projet auprès des différentes parties prenantes et garantir une bonne gestion des instances projets. Effectuer le reporting auprès de la MOA Collectives pour assurer un suivi régulier des projets
Mission freelance
[SCH] Développeur COBOL / Data Mainframe - 1105
Publiée le
10 mois
350-400 €
Courbevoie
Dans le cadre du renforcement des équipes Mainframe, nous recherchons 2 Développeurs COBOL orientés Data pour intervenir sur des évolutions applicatives et la maintenance du patrimoine en production. Mission longue sur site client (banque). Missions : -Analyse d’impacts suite aux demandes projets -Rédaction des spécifications techniques (accès aux données, mappings…) -Suivi ou réalisation des développements Mainframe COBOL -Tests unitaires & tests d’intégration -Livraisons en environnement de recette -Respect des normes qualité, documentation et méthodes internes
Offre d'emploi
TECH LEAD MDM – SEMARCHY xDM
Publiée le
Master Data Management (MDM)
Microsoft SQL Server
Microsoft SSIS
1 an
40k-45k €
400-470 €
Île-de-France, France
Télétravail partiel
🚨 MISSION TECH LEAD MDM – SEMARCHY xDM 🚨 Pour un projet stratégique dans le secteur de l’énergie, nous recherchons un Tech Lead MDM expert SEMARCHY xDM. 📍 Localisation : 92 📆 Démarrage : ASAP / janvier 2026 🏢 Présence : 3 jours sur site / semaine Compétences clés (impératif) SEMARCHY xDM – Expert Master Data Management SQL Server / SSIS Environnement Cloud containerisé (Kubernetes) Profil 10 ans d’expérience minimum Expérience significative sur des plateformes MDM en production Leadership technique, autonomie, capacité à cadrer et structurer Français courant, anglais professionnel apprécié
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Futur freelance architecte logiciel
- Ingénieur preuve de concept, logiciel, simulateur, démonstrateur
- Calcul de l'indemnité de la rupture conventionnelle
- Motif légitime de report de rendez-vous France Travail (création entreprise freelance)
- Création de site Wordpress : BIC ou BNC ?
- Comment j'ai décroché une mission en bypassant l'ESN - et l'outil que j'ai créé
394 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois