L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 1 840 résultats.
Offre d'emploi
Business Analyst Processus & Transformation Digitale (FH)
Publiée le
Business Analyst
2 mois
55k-58k €
470-480 €
Paris, France
Télétravail partiel
Taleo Consulting est un groupe de conseil en management présent à Luxembourg, Paris, Bruxelles, Amsterdam, Genève, Barcelone, Singapour et Lisbonne. Nos valeurs sont : Famille, Fun et Excellence et font partie intégrante de l’ADN de Taleo. Nous comptons aujourd'hui plus de 500 employés à travers nos 8 bureaux internationaux ! Notre expertise financière permet d’apporter à nos clients les meilleures pratiques, des solutions sur mesure et innovantes. Nous intervenons auprès des banques, des assets managers et des assurances. Votre rôle Nous recherchons un(e) Business Analyst Processus & Transformation Digitale (FH) pour accompagner l’un de nos clients, acteur majeur du secteur bancaire & assurantiel. Le poste est à pourvoir à partir du 3 novembre jusqu’au 31 décembre 2025 dans le cadre d’un contrat CDD / Freelance (mission potentiellement renouvelable) , et est situé à Paris . Contexte Dans un contexte de forte ambition sur le développement commercial de notre client, la BU ERE (Epargne & Retraite Entreprises) a lancé depuis plusieurs années plusieurs chantiers de refonte de ses outils digitaux. Ces transformations ont impacté les parcours opérationnels et utilisateurs. Une documentation de ces impacts a été commencée et doit désormais se poursuivre. C'est dans ce contexte que le département ERE cherche à se faire accompagner. Missions & responsabilités · Rédaction, et mise en forme de guides utilisateurs sur les différents espaces digitaux mis à disposition de ses clients et de leurs salariés. · Stratégie de communication auprès des commerciaux de la BU ERE , de leurs clients entreprise, et des salariés de ces derniers. · Collecte auprès des différentes parties prenantes (back office, commerce, services opérations, ingénieurs financiers, équipe digitale) des informations nécessaires à la cartographie des processus opérationnels de la BU (transaction de versement volontaire, transaction d'arbitrage, etc.). · Documentation des processus sur la base de ces informations. · Circuit de validation avec les différentes parties impliquées. · Diffusion à la BU.
Mission freelance
Ingénieur Dataiku data science Technico fonctionnel 450 e/ j
Publiée le
Agile Scrum
Dataiku
2 ans
400-450 €
Île-de-France, France
Télétravail partiel
Ingénieur Dataiku data science Technico fonctionnel 450 e/ j Nous sommes à la recherche d'un consultant Dataiku à la recherche d’un profil dataiku dispo immédiatement Technico fonctionnel Maitrisant Product Owner PO et Dataiku Les deux composantes PO + dev dataiku sont obligatoires Maitrisant l'agilité , le développement Dataiku. Avoir une bonne capacité d'adaptation , une excellente expression ecrite et orale . Bonne présentation. Ingénieur Dataiku data science Technico fonctionnel. Mission en region Parisienne 450 e par j
Offre d'emploi
Support Applicatif Solutions Market Data
Publiée le
Firewall
Proxy
Réseaux
3 ans
42k-52k €
360-410 €
Île-de-France, France
Télétravail partiel
Secteur d'activité : Banque/Finance/Assurance Mission(s) : Support sur solutions éditeur fournissant les market data à la salle de marché. Attendu(s) : assistance aux métiers front office ( en anglais et français ) dans la mise à disposition des flux de market data venant des providers, réception et analyse des demandes d'assistance (tickets), gestion des incidents techniques, troubleshooting, investigations sur les problématiques réseau, identification des incidents récurrents et mise en place des procédures correctives, résolutions des incidents et problèmes, documentation des incidents et procédures associées... Profil (s) : Support applicatif Finance et/ou Banque Méthodologie : agile Télétravail : 60%
Offre d'emploi
Business Analyst / Product Owner (H/F)
Publiée le
Business Analyst
JIRA
12 mois
40k-55k €
350-420 €
42000, Saint-Étienne, Auvergne-Rhône-Alpes
Offre d’emploi : Business Analyst / Product Owner (H/F) 📍 Lieu : Saint-Etienne 💻 Télétravail : 2 jours de remote, 3 jours sur site 📄 Type de contrat : A définir 💰 Rémunération : 40k€ - 55k€ 🚀 Démarrage : ASAP 🎯 Expérience requise : 8 ans - 10 ans SCALIAN souhaite renforcer son équipe à Saint-Etienne en intégrant un Business Analyst / Product Owner (H/F) dans le cadre d’un projet stratégique de transformation numérique visant à accompagner la mise en œuvre des nouvelles obligations réglementaires en matière de facturation. Missions principales : Analyser et comprendre le parcours client et les besoins métiers Participer à la définition des besoins et des cas d’usage Garantir la cohérence fonctionnelle des spécifications et assurer leur traçabilité Contribuer à la rédaction des user stories et à l’animation des sprints Agile Prototyper les fonctionnalités et participer à la mise en œuvre des tests fonctionnels Définir les indicateurs de performance et d’exploitabilité de la solution Accompagner les utilisateurs et les équipes internes dans la prise en main des nouveaux outils Collaborer étroitement avec les équipes techniques et les partenaires externes
Mission freelance
Ingénieur Data - BI & ETL
Publiée le
MySQL
18 mois
100-400 €
Nantes, Pays de la Loire
Télétravail partiel
CONTEXTE : Experience : 4 ans et plus Métiers Fonctions : Data Management, Ingenieur data Spécialités technologiques : BI Vous intégrerez l’équipe BI Entreprise afin de répondre aux nouveaux besoins des métiers (Finance, AdV, Comptabilité, RH, Recrutement, Commerce, Services Généraux). Votre rôle sera central dans l’évolution de notre architecture décisionnelle et dans la modernisation de nos flux de données, avec un accent particulier sur la migration des packages SSIS vers Azure Data Factory (ADF) et le développement de pipelines cloud. MISSIONS Assurer la migration des traitements SSIS existants vers Azure Data Factory, en garantissant performance, robustesse et conformité. Concevoir et développer des pipelines ADF complets, depuis la collecte des données jusqu’à leur intégration dans l’entrepôt (SQL Managed Instance / Snowflake). Créer et maintenir des Data Flows ADF (nettoyage, enrichissement, transformation). Mettre en place et gérer des triggers conditionnels permettant d’orchestrer des traitements complexes. Participer à l’optimisation des coûts et des performances des modèles BI (Power BI, modèles sémantiques, DAX). Documenter les développements et assurer la MCO (Maintien en Condition Opérationnelle) de l’existant. Expertise souhaitée Diplômé(e) d’un Master 2 ou d’une école d’ingénieur en décisionnel, vous justifiez d’une expérience significative en ingénierie de données et êtes à l’aise dans un environnement mixte on-premise et cloud Azure. Vous savez combiner expertise technique, autonomie et relationnel métier. BI & ETL : maîtrise de SSIS, SQL Server (2017+), expérience confirmée en migration de packages SSIS vers ADF. Azure Data Factory : - Développement de pipelines de bout en bout - Conception de Data Flows complexes - Gestion de triggers conditionnels et orchestrations Cloud & Bases de données : SQL Managed Instance, Snowflake (migration, intégration).
Mission freelance
Data Manager H/F
Publiée le
autonomie
Qlik
SQL
6 mois
Paris, France
Télétravail partiel
Data Manager (H/F) Missions : Assurer la gestion et la cohérence des référentiels achats et ventes. Être garant du référencement : codification et gestion du cycle de vie des articles dans l’ERP. Piloter l’intégration et la mise à jour des données qualifiées (tarifaires et articles). Mettre en place les mécanismes de contrôle et de validation. Participer aux phases de test et de mise en production des nouveaux processus. Compétences : • Bonne maîtrise des outils bureautiques (Excel, Office). • Connaissance des bases de données (SQL est un plus). • La maîtrise d’un outil de BI (idéalement Qlik) et des notions en Python seraient un véritable atout.
Mission freelance
Expert Data Hadoop/Hive/Hbase, Databricks 8 ans d’expériences +/s
Publiée le
Apache Hive
Databricks
Hadoop
12 mois
400-520 €
Guyancourt, Île-de-France
Télétravail partiel
Expert Data Hadoop/Hive/Hbase, Databricks 8 ans d’expériences + client logistique basé à Guyancourt (ou Montpellier, Nantes) un Expert Data Hadoop/Hive/Hbase, Databricks 8 ans d’expériences + Localisation Guyancourt / Télétravail 2 à 3 jours par semaine Durée de la mission : 2 ans Mission : Création d’une équipe transverse pour : Monitorer la qualité des données : intégration fraicheur des données sur les plateformes data identifier les sources de données actuelles (cartographie SI des données) créer un backlog de contrôles à mettre en place mise en place d’indicateurs o validation de la qualité de la Data de bout en bout o pilotage des correctifs à mettre en place en amont · Dimensionner et organiser la cellule • La cellule sera en relation avec les équipes de RUN les métiers et les autres Lignes Produit Compétences requises : Hadoop/Hive/Hbase Databricks
Mission freelance
Data Analyst, Power BI / SSAS
Publiée le
Microsoft Analysis Services (SSAS)
Microsoft Power BI
Visual Studio Code
6 mois
540-550 €
Paris, France
Télétravail partiel
Secteur Bancaire Profil : Data Analyst, Power BI / SSAS – Sénior Nombre d’années d’expérience : + 5 ans Contexte : dans le domaine de l'assurance : rôle de data analyst sur une plateforme Data en charge du Build et du Run d'un parc de rapports Power BI dont une partie est basée sur des cubes SSAS eux même créés et maintenus par l'équipe. Compétences : Expertise confirmée sur Power BI et SSAS, Expérience sur l'IDE Visual Studio, Bon niveau SQL, Bonne compréhension besoins métier et capacité à animer des ateliers cadrage, conception et d'accompagnement, Esprit de synthèse
Mission freelance
Ingénieur Automatisation & Data IA
Publiée le
autonomie
18 mois
100-400 €
Paris, France
Télétravail partiel
CONTEXTE Experience : 5 ans et plus Métiers Fonctions : Etudes & Développement, Ingénieur Spécialités technologiques : Cloud, Intégration de données, IA generative, API Monitoring Compétences Technologies et Outils Synapse REST Azure SQL Soft skills Autonomie Rigueur Pour l'un de nos clients dans le secteur du transport, nous sommes actuellement à la recherche d'un Ingénieur automatisation & Data IA. Vous serez en charge de mettre en place et orchestrer des flux d’automatisation et d’analyse de données en s’appuyant sur l’IA générative (OpenAI), un data warehouse cloud (Azure Synapse) et des outils d’automatisation de workflows (n8n). L’objectif est d’optimiser les processus internes, d’améliorer la productivité des équipes et de fiabiliser l’exploitation des données. MISSIONS Vos missions seront les suivantes : Conception et déploiement de solutions d’automatisation : créer, monitorer et maintenir des workflows complexes via n8n, en intégrant des sources multiples (API, bases de données, outils internes). Exploitation de l’IA générative : intégrer les services OpenAI (chat, embeddings, fine-tuning) dans les flux opérationnels et les cas d’usage internes. Gestion de la donnée : mettre en place et optimiser des pipelines d’ingestion et d’analyse dans Azure Synapse, incluant l’intégration de données multi-sources et temps réel. Optimisation et gouvernance : veiller à la performance des requêtes SQL, à la sécurité (RBAC, data masking) et à la maîtrise des coûts liés aux API et aux environnements cloud. Support et amélioration continue : assurer le monitoring, le debug et l’évolution des flux d’automatisation pour répondre aux besoins métiers. Expertise souhaitée Compétences techniques : IA / OpenAI Maîtrise de l’API OpenAI (chat, embeddings, fine-tuning). Connaissances en prompt engineering et intégration IA dans des workflows. Sensibilité aux enjeux de sécurité, de gouvernance et de gestion des coûts liés aux appels API. Data Engineering / Azure Synapse Excellente pratique du SQL avancé (optimisation, transformation, agrégation). Intégration et traitement de données multi-sources et en temps réel. Compétences de base en gouvernance et sécurité (RBAC, data masking). Workflow Automation / n8n Conception, déploiement et maintenance de workflows automatisés complexes. Connexion à divers systèmes via API REST, bases de données, services internes/externes. Mise en production, suivi, debug et optimisation continue des flux automatisés.
Offre d'emploi
Data Engineer Teradata
Publiée le
DevOps
IBM DataStage
SQL
Île-de-France, France
Télétravail partiel
Contexte : Nous recherchons des développeurs Teradata pour accompagner notre client, un grand compte bancaire dans le développement d'application sur la base de puissantes plates-formes DATA. Votre environnement de travail en tant de Data Engineer TERADATA : Développement Teradata / SQL Connaissance de Unix Connaissance de Control M La connaissance de la démarche DevOps est un plus Mode de chargement dans l’entrepôt : T3R , BTEQ , Datastage Teradata Mode d’historisation dans l’entrepôt (CRI, CRE, CRO) Chargement par flux MVS (anciens chargements avec TPT MVS) Chargement par flux Big Data Suivi des chargements sous CONTROL-M Formation succincte de Collecte / alimentation de Datastage Environnement UNIX (répertoires principaux, Usage & Entrepôt) SQL sur SGBD relationnel (Teradata) Outils collaboratifs et documentaires : GIT, Jira, Confluence, MEGA, Zeenea L’environnement technique : BTEQ Teradata Datastage Datawarehouse SQL DevOps
Offre d'emploi
Data Engineer Senior - Tours
Publiée le
Java
Microsoft Power BI
Python
12 mois
40k-45k €
400-640 €
Tours, Centre-Val de Loire
Vos principales responsabilitésComitologie, documentation & cartographie data Préparer et animer les instances transverses DSIM (League Design Data, Guildes Data, etc.) Documenter les assets Data de la plateforme DSIM (SimDoc, Datahub, Datalab) Réaliser la cartographie des données et concevoir/développer les outils associés Expertise Data Apporter un accompagnement technique et un rôle de conseil sur les projets Data / Big Data (Datahub & Datalab) Participer à l’analyse, la conception et la refonte d’assets Data transverses Contribuer au suivi des évolutions et migrations de la stack technique DSIM Facilitation et coordination Jouer un rôle de médiation entre projets transverses Accompagner l’expression des besoins et la rédaction de spécifications technico-fonctionnelles Compétences obligatoires Minimum 10 ans d’expérience dans le domaine Data / Big Data Maîtrise de la modélisation et cartographie Data Maîtrise des environnements : Spark/Java, Kafka Entreprise, Starburst, OpenShift, SQL Excellentes qualités relationnelles : coordination, écoute, pédagogie Compétences optionnelles Power BI SAS Python
Mission freelance
Tech Lead Data
Publiée le
Apache Spark
Azure
Databricks
14 mois
510-520 €
Clermont-Ferrand, Auvergne-Rhône-Alpes
Télétravail partiel
Multinationale iconique sur son marché, cette entreprise est un véritable tremplin dans votre carrière. Sens du travail et innovation permanente vous trouverez l'excellence à tout les étages. Entité : Equipementier Site : Clermont-Ferrand, 3 j sur site client obligatoire par semaine ou 1 semaine sur 2 sur site au choix Prix d’achat max : 520 €HT Date de démarrage : asap Langue parlée : Français / Anglais Durée mission : 14 mois (fin 17/09/2026) Mission : Tech lead data en binôme. Nombre d’années d’expérience : min 6 ans Profil : Tech Lead Data
Offre d'emploi
Architecte Data DevSecOps
Publiée le
DevOps
HashiCorp Vault
Kubernetes
1 an
40k-45k €
100-530 €
Montreuil, Île-de-France
Télétravail partiel
Descriptif du poste Dans le cadre d'une mission au sein d'un grand groupe bancaire, nous recherchons un expert Data et DevSecOps pour accompagner le développement des produits Data. Missions principales Maîtrise des notions DevSecOps et études d'architectures des produits as a Services/Produits Data Maîtrise de l'outillage/écosystème (Vault, Kubernetes/ArgoCD/Helm, Monitoring Elastic/Grafana, GitLab CI, sécurité, Kube operators) Construire les standards et modèles d'intégrations des solutions Data Accompagnement et formation des équipes de solutions Data
Offre d'emploi
Business Analyst (H/F)
Publiée le
50k-55k €
75001, Paris, Île-de-France
Fed IT, cabinet entièrement dédié aux recrutements spécialisés sur les métiers de l'informatique (Infra, Data, Développement, MOA, MOE, Management), recherche pour un de ses clients dans le secteur de la santé basé à Paris, un ou une : Business Analyst (H/F). Le poste est à pourvoir dans le cadre d'un CDI chez le client final. Au sein de la Direction des Systèmes d'Information (DSI), vous aurez la charge d'accompagner les équipes métiers et techniques dans l'avancement des différents projets de la structure. A ce titre, vos principales missions seront : - Étudier les besoins et évaluer les impacts métiers ; - Rédaction des USE CASES et USE STORIES ; - Participer au projet de refonte documentaire ; - Présenter les projets aux parties prenantes ; - Assurer un support pour les développeurs lors de la réalisation des tests et de la recette ; - Surveiller les mises en production(surveillance post MEP) ; - Accompagnement du PO dans la priorisation du backlog ; - Analyser les tickets d'anomalie, y compris la reproduction des anomalies, décrire les dysfonctionnements en anglais via Jira pour correction, présentation des tickets aux parties prenantes…
Offre d'emploi
Chef de projet recette
Publiée le
Openshift
Test fonctionnel
Test unitaire
2 ans
48k-55k €
400-550 €
Guyancourt, Île-de-France
Télétravail partiel
Dans le cadre du pilotage du programme Openshift NextGen, nous sommes à la recherche d'un Chef de Projet Recette expérimenté. Ce programme vise à moderniser l'infrastructure du client en remplaçant la plateforme OpenStack par une plateforme cloud native OpenShift plus performante, sécurisée et alignée sur les standards actuels. Vous rejoindrez l'équipe projet pour renforcer la direction de programme et prendrez la responsabilité complète du stream Recette (Tests et Validation) lié au déploiement et à l'industrialisation de cette nouvelle plateforme stratégique. En tant que Chef de Projet Recette, votre rôle sera de piloter et de garantir la qualité et la conformité du déploiement de la plateforme Openshift, en assurant la coordination entre les équipes techniques (infra) et les équipes métiers/clients. Vos responsabilités clés incluront : Stratégie et planification : Définir le périmètre de recette (technique et fonctionnel), élaborer la stratégie de test et le plan de planification associé. Mise en place des environnements : Coordonner la mise en place et la maintenance des environnements de test nécessaires aux différentes campagnes. Pilotage des campagnes de recette : Rédiger les plans de test détaillés. Mener et suivre opérationnellement les tests (exécution, automatisation, couverture), y compris les recettes clients. Garantir l'exhaustivité et la pertinence des tests menés. Gestion des anomalies : Suivre les anomalies, coordonner les équipes pour les correctifs et s'assurer de leur bonne résolution. Coordination transverse : Animer les comités de suivi du stream recette et des points de synchronisation transverses. Coordonner étroitement avec les équipes de Maintien en Condition Opérationnelle (MCO) et de Maintien en Condition de Sécurité (MCS). Assurer la coordination avec les autres streams du programme. Reporting et amélioration continue : Assurer un reporting clair et synthétique sur l'avancement, les risques identifiés, les plans d'action et les résultats des tests. Contribuer activement à l'amélioration continue des processus de test et de validation.
Mission freelance
DataOps - MS FABRIC/ Azure
Publiée le
.NET
.NET Framework
AWS Cloud
12 mois
500-550 €
Paris, France
Télétravail partiel
Nous recherchons un Data Engineer AWS - Expertise sur MS Fabric Engineer pour rejoindre une squad Data Platform dynamique. Vous travaillerez avec des Data Engineers et DevOps pour concevoir, maintenir et optimiser une plateforme de données cloud , incluant la gestion de Data Lake, le développement de microservices et l’automatisation des déploiements. Missions Développer et gérer des solutions de Data Lake (ADLS Gen2, AWS S3). Concevoir et maintenir des processus de déploiement automatisé avec Terraform. Développer des microservices en Python (C# un plus). Assurer le monitoring et l’exploitation de la plateforme. Participer aux flux ETL et à l’amélioration continue de la plateforme. Collaborer avec les parties prenantes pour proposer des solutions robustes et évolutives. Maintenir la documentation technique et les artefacts de production. Être force de proposition sur les bonnes pratiques SRE, sécurité, qualité et FinOps . Profil recherché Expérience significative en Data Platform et Data Lake (AWS S3, ADLS Gen2). Maîtrise du développement Python (C# un plus) et des environnements cloud (AWS requis, Azure un plus). Compétences en Terraform et automatisation de déploiements. Connaissance des pipelines ETL , du monitoring et des bonnes pratiques SRE . Méthodologie Agile , orientation user-centric et forte capacité de collaboration. Autonomie, rigueur et esprit proactif . Pourquoi nous rejoindre ? Travailler sur des projets innovants autour de la data et du cloud . Collaborer avec des experts techniques dans un environnement Agile. Contribuer à l’ optimisation et l’évolution d’une plateforme moderne et scalable.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Augmentation de la CSG et donc de la flat tax votée à assemblée !
- Obtenir un numéro D.U.N.S en auto entreprise
- Le marché de l'IT est complètement déréglé ! STOP à cette mascarade ! Il faut s'unir et résister !
- CFE Cas spécial ou d'autres (mauvaises) expérience ??
- Activités à choisir
- Stratégie épuisement des fonds jusqu'à la retraite
1840 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois