L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 665 résultats.
Mission freelance
Consultant expérimentés DBT/Snowflake (+5 ans d'exp) Bordeaux (3 jours TT)/sal
Publiée le
DBT
Snowflake
6 mois
400-420 £GB
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
Consultant expérimentés DBT/Snowflake Bordeaux (3 jours TT) AWS TERRAFORM PANDAS Durée : 6 mois renouvelables Expérience nécessaire : 5 à 10 ans Anglais obligatoire Compétences recherchées : SNOWFLAKE DBT AWS TERRAFORM PANDAS Consultant expérimentés DBT/Snowflake Bordeaux (3 jours TT) Tâches à traiter : Data Pipeline Development Infrastructure Management Data Storage and Management Data Processing Optimization Data Comparison and Validation Monitoring and SLA Management Security and Access Control Documentation and Knowledge Transfer
Mission freelance
Product Owner Data / LILLE
Publiée le
Azure DevOps
12 ans
400-480 €
Lille, Hauts-de-France
Télétravail partiel
Nous recherchons pour l’un de nos client un Product Owner Data pour un client basé sur Lille (présentiel 3 jours / semaine). Mission : Cadrage, Analyse, Expression des besoins auprès des directions métiers Priorisation par la valeur du contenu métier, Participation aux rituels avec l’équipe projet, Recette fonctionnelle des développements réalisés, Gestion de Projet, Communication sur l’avancement du produit auprès du management IT et des métiers, Préparation, déploiement du projet et mise en œuvre des actions d’accompagnement des utilisateurs.
Mission freelance
[MISSION LONGUE] Administrateur Lakehouse / Cloudera – Expert Big Data (H/F)
Publiée le
Apache
Apache NiFi
Apache Spark
12 mois
400-650 €
Paris, France
Télétravail partiel
Client final : secteur paiement – mission longue – environnement Cloudera CDP Nous recherchons un Administrateur Lakehouse / Administrateur Cloudera confirmé ou senior pour accompagner l’un de nos clients grands comptes dans la gestion et l’exploitation de son écosystème Big Data. 🎯 Compétences OBLIGATOIRES (critères majeurs) 👉 Maîtrise parfaite des composants Lakehouse suivants : Apache Ranger (Data Security) Apache Atlas (Gouvernance & Lineage) Spark + Apache Zeppelin (Processing) NiFi (Ingestion) Apache Impala (Analytics) Hadoop (HDFS) + Apache Kudu (Data Lake) Hue (Serving / SQL UI) ➡️ Ces compétences sont indispensables : seuls les profils maîtrisant ces briques seront retenus. 🧩 Vos responsabilités Administrer et maintenir l’écosystème Cloudera / CDP (Cloudera Manager, HDFS, Yarn, Zookeeper…). Assurer le MCO/MCS : disponibilité, performances, sécurité, supervision. Documenter les procédures d’exploitation & rédiger des rapports synthétiques. Respecter les SLA et intervenir en cas d’incident. Travailler en environnement ITIL (gestion incidents, problèmes, changements). Automatiser les déploiements via Ansible (certificats, keystores, configurations). Utiliser les outils DevOps : GitHub , Jenkins . Exploiter les environnements Linux (analyse de logs, diagnostic). Participer aux réunions d’équipe, aux projets et aux comités. Être force de proposition sur l’amélioration continue et la supervision. 🌍 Environnement technique Cloudera CDP • Cloudera Manager • HDFS • Yarn • Zookeeper Apache Ranger • Apache Atlas • Spark • Zeppelin • NiFi • Impala Hadoop • Kudu • Hue Ansible • GitHub • Jenkins • Linux 📌 Profil recherché 5 à 7+ ans en administration Big Data / Hadoop / Cloudera impératif. Très forte expertise sur les briques Lakehouse listées ci-dessus. À l’aise en production, ITIL, sécurité, automatisation. Bon niveau d’anglais (échanges éditeurs Cloudera & fournisseurs). Consultant autonome, structuré, capable de rendre compte et d’améliorer l’existant. 🚀 Disponibilité immédiate ou rapide Si vous maîtrisez Cloudera + Ranger + Atlas + Spark + NiFi + Impala + Kudu , contactez-moi directement.
Mission freelance
Expert DATA IA Sénior (SAS, Powershell, Batch, Shell) minimum de 7 ans d’exp/fa
Publiée le
IA
SAS
12 mois
Paris, France
Télétravail partiel
Expert DATA IA Sénior (SAS, Powershell, Batch, Shell) minimum de 7 ans d’exp/ Expert DATA IA Sénior avec un minimum de 7 ans d’expériences sur des projets similaires. Programmation SAS niveau avancé Scripting : Powershell, Batch, Shell Connaissance de méthodologies de parsing Communications, bon relationnel Organisation et rigueur Sens du travail en équipe Autonomie Localisation Paris 12e/ Télétravail Durée de la mission : 2 ans Projet : Dans le cadre des projets transformants sous l'angle d'Agent IA supra, recherche à se renforcer pour piloter/cadrer certains travaux prioritaires avec un forte dominante Marketing. Ce travail nécessite une forte autonomie et une capacité à coordonner des acteurs multiples tout en arrivant à un consensus stratégique et technique. Le candidat devra pouvoir s'appuyer sur son expertise ainsi que celle de son cabinet sur la vertical Data IA : Benchmark, bonnes pratiques sur les besoins en Data pour une IA, modèles IA (création/réutilisation, entrainement, évaluation métier, finops et projection, contraintes bancaires et cyber sur l'IA, interconnexions de produits IA majeurs pour structurer les bons travaux à lancer en priorité pour des livraisons fréquentes et cohérentes)... Avant fin 2025, l'ensemble du chantier doit être pré-cadré (toutes les réunions organisées et cordonnées ; notes de réunions à envoyer le jour J/J+1 et livrables de cadrage complets à fournir) avec une feuille de route à plusieurs niveaux sur 2026 tout en préparant si besoin en 2025 des travaux nécessaires à la bonne tenue des jalons temporels de 2026. Principaux livrables : Construire la feuille de route du stream Data IA avant fin 2025 pour certains projets transformants notamment dans la thématique Marketing en collaboration avec les bon acteurs. Compétences requises : Programmation SAS niveau avancé Scripting : Powershell, Batch, Shell Connaissance de méthodologies de parsing Communications, bon relationnel Organisation et rigueur Sens du travail en équipe Autonomie
Mission freelance
‼️URGENT ‼️ 2x Data Analyst Power BI – Industrie ‼️
Publiée le
CI/CD
Microsoft Power BI
Python
1 an
360 €
Strasbourg, Grand Est
🔍 Nous recherchons deux Data Analysts Power BI pour renforcer une équipe projet dans l’industrie. La mission est de longue durée. 📍 Strasbourg (sur site obligatoire) 📅 Démarrages : 1 ASAP + 1 en janvier 🎯 Missions : ✅ Création & optimisation de dashboards Power BI ✅ Analyse et traitement de données (Python, SQL) ✅ Contribution aux workflows Git CI/CD ✅ Échanges réguliers avec les métiers pour comprendre les besoins 👉 3 à 4 ans d’expérience en Data Analysis 👉 À l’aise en environnement industriel 👉 Force de proposition et autonomie
Mission freelance
Lead technique front React - Fintech - Paris ou Full remote - H/F
Publiée le
GraphQL
Node.js
React
4 mois
500-600 €
Paris, France
Télétravail partiel
Notre client est une entreprise leader dans le secteur fintech. Spécialisée dans les solutions d'investissement et les conseils financiers. Au sein d'une équipe de développement dynamique et à la pointe, composée de deux personnes côté front end et soutenu par une équipe back end et infra dédiée, l'entreprise cherche à renforcer son équipe technique par l'intégration d'un Lead technique front React pour proposer de nouvelles features aux clients. Missions Principales : - Leader l'équipe front composé de 2 personnes au quotidien (20% du temps) - Conception et développement de nouvelles fonctionnalités frontend en React/Typescript (80% du temps) - Gestion et pilotage de projets - Contribution à l'amélioration des pratiques de développement et des processus d'intégration continue - Participation à la conception technique de nouveaux services en collaboration avec l'équipe produit, back end et mobile - Participation aux routines Agile (sprints, stand-ups, revues de code) pour assurer un développement continu et efficace Stack technique : - React - Typescript - GraphQL - NodeJS - Git - SQL
Mission freelance
Data Engineer (F/H) - 56
Publiée le
Apache Kafka
Java
Shell
1 an
Vannes, Bretagne
Télétravail partiel
- Participer à la définition de l’architecture Data avec les architectes et la Squad - Concevoir, affiner et développer des solutions de collecte et de stockage multi-sources (batch et streaming) pour les usages métiers - Mettre en œuvre des tests unitaires et automatisés - Déployer le produit sur les différents environnements - Assurer le bon fonctionnement en production : suivi, assistance, gestion des incidents - Contribuer à l’amélioration continue et à la qualité du code //////////----------))))))))))
Mission freelance
SAP SD DRC - Full remote
Publiée le
SAP SD
6 mois
Espagne
Télétravail 100%
Bonjour à tous, Nous sommes à la recherche d'un profil basé en Espagne ou Polond qui maitrise : L’e-invoicing (facture électronique) Les solutions DRC (SAP Digital Reporting & Compliance) Les moteurs de taxation (Sovos, OneSource, SAP tax determination) La gestion des taxes indirectes (VAT, Sales Tax, GST…) Périmètre : Concevoir, configurer et implémenter toute la partie SD avec fiscalité indirecte Travailler sur des projets internationaux → plusieurs pays / réglementations Convertir les obligations légales / fiscales en process SAP Travailler avec les équipes finance, tax, IT Faire du support post go-live + documentation + testing
Offre d'emploi
Consultant BI / Data Engineer – Secteur Gestion d’Actifs
Publiée le
DAX
Microsoft SQL Server
Microsoft SSIS
1 an
40k-45k €
400-500 €
Île-de-France, France
Télétravail partiel
Secteur : Finance / Gestion de fonds Localisation : Paris / Hybrid Type : CDI Notre client, un acteur majeur du secteur Finance / Gestion d’actifs , recherche un Consultant BI / Data Engineer confirmé afin d’intervenir sur des projets stratégiques de migration, d’évolution et d’optimisation des plateformes décisionnelles. 🎯 Objectif : remplacer un consultant expert, poste à compétences identiques. 🎓 Profil recherché Vous justifiez d’au moins 10 ans d’expérience en BI , avec une expertise forte sur l’environnement Microsoft BI : Compétences techniques indispensables : SQL Server (2016 → 2022) SSIS, SSRS, SSAS (Tabular & Multidimensional) Power BI (Report Server & Online) – DAX – RLS – Administration Azure DevOps / Azure DataFactory / Data Pipeline DataWarehouse, Datamarts, modélisation décisionnelle Reporting réglementaire & opérationnel Atouts supplémentaires Connaissance Fabric / Power BI Online Expérience en migration de plateformes BI Connaissance du secteur Finance / Gestion de fonds (vrai plus) 💼 Vos principales missions Migration SQL Server (2016 → 2022) et modernisation de la plateforme BI Migration SSIS, SSRS, SSAS Tabulaire / Multidimensional Migration Power BI Report Server → Power BI Online Gestion et administration des workspaces, datasets, gateways Conception et optimisation des flux d’intégration (SSIS, ADF) Développement de rapports SSRS / PBI, dashboards et cubes tabulaires Support utilisateurs + amélioration continue Participation à un environnement Agile / SCRUM
Mission freelance
Consultant expérimentés DBT/Snowflake Bordeaux (3 jours TT)/sal
Publiée le
DBT
Snowflake
6 mois
400-420 £GB
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
Consultant expérimentés DBT/Snowflake Bordeaux (3 jours TT) Durée : 6 mois renouvelables Expérience nécessaire : 5 à 10 ans Anglais obligatoire Compétences recherchées : SNOWFLAKE DBT AWS TERRAFORM PANDAS Consultant expérimentés DBT/Snowflake Bordeaux (3 jours TT) Tâches à traiter : Data Pipeline Development Infrastructure Management Data Storage and Management Data Processing Optimization Data Comparison and Validation Monitoring and SLA Management Security and Access Control Documentation and Knowledge Transfer
Offre d'emploi
Responsable applicatif H/F
Publiée le
55k-60k €
75001, Paris, Île-de-France
Je suis Sheeranaze MEHENTAL, Consultante en recrutement au sein de FED IT, cabinet de recrutement spécialisé sur les métiers des systèmes d'information et de la transformation digitale : infrastructure, chefferie de projet, data, cybersécurité, développement et top management. Je recrute pour mon client basé à Paris un Responsable applicatif H/F dans le cadre d'un CDI. Le Responsable Applicatif intervient sur le domaine des paiements pour assurer le support de niveau 2/3, la gestion des incidents, et la participation active aux projets de mise en place et d'évolution du système d'information bancaire. Il rendra compte au Responsable Applications Métiers. Support et gestion des incidents et Support utilisateurs (N2/N3) : prise en charge, diagnostic et résolution des incidents applicatifs en lien avec les métiers (Front, Back, Paiements) Gestion des incidents et des demandes : suivi, priorisation et coordination des résolutions via Jira / Mantis Projets IT et évolutions applicatives Participation au déploiement et à l'évolution du Core Banking System et de ses interfaces (paramétrage, recette, documentation, coordination avec les intégrateurs/éditeurs). Paiements et messagerie financières Gestion et suivi des flux SWIFT (MT, MX/ISO 20022) et SEPA (SCT, SDD, Instant Payment), administration des clés RMA et gestion des Standing Instructions Data & intégration : Manipulation et validation des données structurées (XML, JSON) Coordination DSI / Métiers : Interface avec les équipes internes, les prestataires et éditeurs (Temenos, Swift, autres…) Amélioration continue Mise en place de procédures, suivi des KPI, contribution à l'optimisation des processus métiers et IT
Mission freelance
Senior GCP Cloud Engineer - Génie Civile - Full Remote (H/F)
Publiée le
Google Cloud Platform (GCP)
Python
Terraform
6 mois
500-550 €
Toulouse, Occitanie
Télétravail 100%
Grand groupe dans le secteur GENIE CIVIL, rejoignez une équipe tech ambitieuse en tant que Senior GCP Cloud Engineer le déploiement de deux nouveaux projets pour concevoir, automatiser et maintenir l’infrastructure cloud de notre plateforme sur GCP. Vous jouerez un rôle central dans l’implémentation de solutions scalables et robustes à travers Terraform, Terragrunt, Python, chaîne DevOps avec github et Jenkins. Mission longue durée à pourvoir début janvier 2026. Missions - Développer, déployer et optimiser des Landing Zones sur GCP pour de nouveaux projets stratégiques. - Collaborer étroitement avec les équipes de DevOps pour intégrer des solutions automatisées avec Terraform et Terragrunt. - Assurer le support et la formation des équipes internes ainsi que des clients sur les meilleures pratiques et innovations de GCP. - Gérer les permissions IAM et la configuration VPC-SC afin de garantir l'intégrité et la sécurité de l'environnement cloud. - Interagir régulièrement avec les stakeholders pour comprendre et répondre aux besoins commerciaux et techniques. - Documenter les processus et partager les bonnes pratiques au sein de l'entreprise. - Participer à des sessions de formation pour contribuer à l'évolution technique de l'équipe.
Offre d'emploi
Chef de projet MOE Java Mainframe - Bordeaux (H/F)
Publiée le
COBOL
Java
Mainframe
3 ans
50k-58k €
400-500 €
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
Missions principales : Pilotage & gestion de projet Recueillir, analyser et challenger les besoins métiers. Rédiger et maintenir la documentation projet : spécifications techniques, dossiers d’architecture, dossiers de tests, planning. Élaborer et suivre le planning, la charge, les risques et les budgets des projets. Coordonner les équipes de développement Mainframe & Java (internes et externes). Assurer le suivi de production et piloter les mises en production. Garantir la qualité, les délais et la cohérence technique des livrables. Conception & développement Participer à la conception technique des évolutions applicatives. Superviser ou réaliser des développements simples en environnement Mainframe (Cobol, JCL, DB2) ou Java. Définir les normes, bonnes pratiques et patterns d’architecture. Contribuer à la modernisation des systèmes (API, microservices, migration Cloud, Web Services…). Tests & intégration Élaborer les stratégies de tests : unitaires, intégration, non régression. Organiser et suivre les phases de qualification. Gérer les anomalies et orchestrer les correctifs jusqu’à résolution. Relation avec les métiers & communication Assurer l’interface avec les équipes métier, AMOA, production et support. Animer des ateliers, comité de pilotage et points d’avancement. Accompagner les utilisateurs dans la conduite du changement.
Mission freelance
Data Engineer Spark/Scala
Publiée le
Apache Spark
Scala
3 mois
Paris, France
Télétravail partiel
Data Engineer Spark/Scala Au sein de la DSI Finance de la DSI, le poste recherché porte sur le besoin d’un Data Engineer Spark/Scala confirmé (5-6 ans d’expérience). Objectifs et livrables Objectifs Le prestataire intégrera le projet d’intégration en coordination avec le chantier assiette comptable de référence en tant que Data Engineer. Les développements sur ce chantier s’appuient sur la plateforme Datalake Finance, basée sur la distribution Hadoop HortonWorks qui collecte les données des différents systèmes de synthèse afin de répondre aux nouveaux besoins de reporting Finances & Risques (COREP, calcul RWA, IFRS9, etc.…) Les tâches seront les suivantes : • la mission consistera à prendre part aux développements, au sein du datalake pour acquérir les nouvelles sources de données, les assemblées et les distribuées aux consommateurs, tout en étant garant de la pérennité et la non-régression de l’outillage déjà en place • Vous participerez à la conception et à l’implémentation de ce projet et serez amené, à ce titre, à travailler en méthode Agile avec de nombreux acteurs métiers et les équipes de maintenance Compétences techniques o Expérience dans la mise en œuvre de technologies et frameworks Big Data et NoSQL (Hadoop, Kafka, Spark, Scala, Hive, SolR, HBase, Kerberos) o Spark / Scala : confirmé o A l'aise avec le programmation fonctionnelle (connaissance des librairies ZIO, MONIX, CATS appréciée) o Expérience de travail dans un environnement Agile ; avec outils et méthodologies associés (Confluence, Jira, Scrum, Kanban) Compétences demandées Compétences Niveau de compétence Apache Kafka Avancé Apache Hadoop Confirmé Apache Hive Avancé SCALA Confirmé Spark Confirmé
Offre d'emploi
Product Owner Data H/F
Publiée le
45k-50k €
Annecy, Auvergne-Rhône-Alpes
Télétravail partiel
Nous recherchons un(e) Product Owner confirmé(e) responsable de l'optimisation de la valeur du produit afin de satisfaire les clients et capable de porter la vision produit au sein de l'organisation. Vous aurez la charge de : • Définir et communiquer la vision du produit • Alimenter, partager et prioriser le backlog avec l'équipe • Définir la roadmap stratégique du produit • Défendre le produit auprès des instances de direction • Être le point de convergence de l'ensemble des contributeurs du produit Référence de l'offre : ohsw8wehfq
Mission freelance
Expert Talend / Talend Data Integration Specialist
Publiée le
ETL (Extract-transform-load)
Talend
12 mois
Paris, France
Télétravail partiel
Contexte L’entreprise recherche un expert Talend capable de concevoir, industrialiser et optimiser des flux de données dans un environnement moderne orienté cloud. Le rôle consiste à renforcer l’équipe Data dans un contexte d’industrialisation, de migration ou de modernisation des pipelines existants. Missions Conception et développement Concevoir et développer des pipelines ETL/ELT sous Talend (Open Studio ou Talend Data Integration). Mettre en place des jobs complexes (gestion d’erreurs, reprise, optimisation des performances). Définir et structurer les modèles de données selon les bonnes pratiques. Industrialisation et optimisation Optimiser les performances des jobs existants. Mettre en place les bonnes pratiques de versioning, CI/CD, automatisation des déploiements. Assurer la qualité, la traçabilité et la robustesse des flux. Intégration Cloud / Écosystème Intégrer Talend à un environnement cloud (Azure, AWS ou GCP, selon le client). Exploiter les services de stockage et de traitement du cloud (exemples : Azure Data Lake, AWS S3, BigQuery). Implémenter des orchestrations via Airflow, Talend TAC, ou équivalent. Support et expertise Accompagner les équipes internes dans l'utilisation de Talend. Diagnostiquer et résoudre les incidents sur les chaînes de traitement. Documenter les processus et assurer la mise en production. Compétences techniques attendues Indispensables Talend Data Integration (niveau expert, minimum 5 ans). Maîtrise des jobs complexes : tMap, tFlowToIterate, tJava, tREST, tFileInput/Output, etc. ETL/ELT avancé : transformations, normalisation, gestion des erreurs, optimisation. SQL avancé (PostgreSQL, Oracle, SQL Server ou autre). Connaissances solides en architectures Data (Batch, temps réel, Data Lake, Data Warehouse). Versioning Git. Méthodologies CI/CD (Jenkins, GitLab CI ou équivalent). Souhaitables Connaissances cloud (Azure / AWS / GCP). Orchestration Airflow, Control-M ou équivalent. Talend Administration Center (TAC). Notions en API, microservices, REST. Connaissances en Data Quality / Data Governance (optionnel). Soft skills Capacité d’analyse précise et rigoureuse. Autonomie et fiabilité. Capacité à challenger les besoins métier de manière factuelle. Communication claire avec l’équipe Data. Profil recherché Minimum 5 à 7 ans d’expérience sur Talend. Expérience dans des environnements Data complexes. Capacité à intervenir comme référent ou expert technique.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Traitement fiscal des cotisations sociales payées en 2025 sur CA micro-BNC 2024
- La Société de portage avec qui j'ai signé m'impose la soltion MAY
- Utiliser Qonto pour créer la microentreprise
- Compte dédié micro-entreprise
- Service de comptabilité en ligne fiable et réactif pour une succursale de SASU
- Offre propulse IT
2665 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois