L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 4 881 résultats.
Offre d'emploi
Data Architecte Databricks
Publiée le
Databricks
65k-80k €
Paris, France
Télétravail partiel
Ton quotidien chez Komeet sera rythmé par : Animation des ateliers afin d’étudier et cadrer les besoins clients Préconisation, conception et mise en œuvre des plateformes Data (datawarehouse, datalake/lakehouse ) Rédaction de dossiers d’architecture et spécifications techniques Mise en œuvre des stratégies d’exploitation de plateformes Data Construction et déploiement des pipelines de données (ETL / ELT) à l’aide de langage de programmation ou d’outils de type Low-Code Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. Tests, validation et documentation des développements Réalisation d'audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP
Mission freelance
Développeur ETL / Data Engineer (DataStage, Unix, Control-M)
Publiée le
AWS Cloud
Azure
CI/CD
1 an
Montréal, Québec, Canada
Télétravail partiel
📌 Mission Freelance – Développeur ETL / Data Engineer (DataStage, Unix, Control-M) 🎯 Contexte de la mission : Dans le cadre d’un programme stratégique d’industrialisation et de modernisation de nos chaînes de traitement data, nous recherchons plusieurs Développeurs ETL / Data Engineers maîtrisant DataStage, Unix et Control-M. Un des profils recherchés devra assurer un rôle de Lead Technique sur le développement (pas de gestion projet — un encadrement existe déjà). 🛠️ Compétences techniques requises Obligatoires : Expertise IBM DataStage (développement, optimisation, debugging, bonnes pratiques ETL) Très bonne maîtrise Unix/Linux (bash/ksh, scripts, automatisation) Compétence avérée Control-M (ordonnancement, dépendances, troubleshooting) SQL avancé (optimisation, analyse de performances) Pratique d’outils de versioning (Git, RTC), CI/CD, intégration & déploiements Souhaitées Python ou Java pour automatisation / outils internes Connaissances Data Lake / Data Warehouse Notions Cloud (Azure, AWS ou GCP) 🎯 Rôle & Responsabilités Pour les développeurs : Concevoir, développer et maintenir des jobs ETL sous DataStage Implémenter des scripts Unix et automatisations Intégrer et opérer les chaînes de traitement sous Control-M Analyser les performances, optimiser et fiabiliser les pipelines Participer aux déploiements et aux revues de code Contribuer à la mise en place des bonnes pratiques de développement Pour le Lead Développement : Encadrer techniquement les autres développeurs ETL Assurer la qualité du code, des jobs et des livrables Être point d’escalade pour les problématiques techniques DataStage/Control-M Réaliser des revues techniques, challenger les designs et améliorer les patterns ETL
Offre d'emploi
Consultant·e Senior Data et Power BI
Publiée le
40k-60k €
France
Télétravail partiel
Nous recrutons en CDI un·e Consultant.e Senior Data & BI - Microsoft Fabric & Power BI ! Vous rejoignez une équipe orientée Business Applications et Intelligence Artificielle, avec pour mission de structurer et développer la pratique Data autour de Microsoft Fabric et Power BI. Ce rôle est stratégique pour accompagner nos clients dans la modernisation de leurs solutions analytiques. Vos futurs défis : o Architecture & Data Engineering - Déployer des solutions Microsoft Fabric (OneLake, Lakehouse, Dataflows Gen2, pipelines). - Mettre en place la gouvernance des données, la sécurité et les processus CI/CD. - Collaborer avec les experts Business Apps & IA pour intégrer la donnée dans les applications métiers. o Business Intelligence & Reporting - Concevoir des rapports et dashboards interactifs avec Power BI. - Optimiser les modèles de données et les performances (DAX, M). - Accompagner les métiers dans le self-service BI. o Innovation & Conseil - Participer à la définition de notre offre Data & Analytics. - Contribuer à des projets IA en exploitant les données (préparation, qualité, intégration). - Assurer une veille technologique sur Fabric, BI et IA.
Offre d'emploi
Consultant FinOps Cloud & On-Premise
Publiée le
Azure
Azure DevOps
FinOps
2 ans
55k-65k €
550-610 €
Paris, France
Télétravail partiel
Le Consultant FinOps Cloud et On-Premise (infrastructures locales) œuvrera à l'efficacité et à l'optimisation des coûts de notre environnement multi-cloud et de notre infrastructure sur site. Vous fournirez des informations et des rapports cohérents concernant la conformité, la consommation et l'optimisation des coûts. Vous mettrez en œuvre et maintiendrez la performance financière en fournissant les outils et capacités nécessaires, et devrez suivre et optimiser notre stratégie d'infrastructure en apportant son expertise et son soutien. Responsabilités et missions : Aider à définir et mettre en œuvre une gouvernance Cloud et On-Premise. Produire et améliorer des rapports pertinents sur le Cloud et le On-Premise, exploitables par la Direction pour la prise de décision. Collaborer efficacement avec des équipes transverses à l'échelle mondiale, comprendre leurs besoins, obtenir des résultats grâce à l'analyse de données et établir des partenariats stratégiques. Soutenir les équipes infrastructures & opérations dans la définition des objectifs/KPI, la récupération et la modélisation des données. Travailler en étroite collaboration avec nos équipes infrastructures et opérations pour cartographier les flux de processus de données, permettant au FinOps de développer un modèle unique au sein de notre organisation. Analyser et prévoir les coûts d'hébergement Cloud et On-Premise. Fournir des recommandations d'optimisation des coûts et piloter leur mise en œuvre. Utiliser des outils et technologies pour prendre des décisions fondées sur les données (Data Driven). Soutenir les projets et programmes en fournissant des estimations de coûts. Développer des modèles de coûts et de financement pour appuyer les résultats souhaités via des business cases.
Mission freelance
Business Analyst Crédit (x1)
Publiée le
Business Analyst
12 mois
400-550 €
Champagne, Auvergne-Rhône-Alpes
Télétravail partiel
Intitulé Business Analyst – Domaine Crédit Mission principale Le Business Analyst Crédit est l’interface entre les équipes métiers crédit et les équipes IT afin de traduire les besoins fonctionnels en exigences exploitables. Responsabilités Recueillir et analyser les besoins métiers liés au crédit Rédiger les spécifications fonctionnelles détaillées Participer aux ateliers métiers et IT Assurer le suivi des développements et la conformité fonctionnelle Contribuer aux phases de tests et de validation Accompagner le métier dans la conduite du changement Profil recherché Expérience : Expérimenté : 4 à 7 ans Senior : +7 ans Bonne connaissance fonctionnelle du domaine crédit
Offre d'emploi
Architecte Data & IA H/F
Publiée le
75k-90k €
Nantes, Pays de la Loire
Télétravail partiel
Nous recherchons un(e) Architecte Expérimenté(e), passionné(e) par la technologie, pour travailler soit en interne, en collaborant de manière transversale sur divers projets passionnants, soit directement chez nos clients, en étant au cœur de leurs défis numériques. Si vous souhaitez participer à des projets d'envergure, continuer à apprendre et évoluer dans votre carrière, c'est l'occasion rêvée ! Vous aurez la charge de : • Concevoir, modéliser et évaluer la charge d'implémentation des architectures sécurisées, évolutives, fiables et performantes dans les domaines de la Data et/ou du Digital en situation projet et avant-vente • Réaliser des études comparatives de solutions afin de sélectionner les plus innovantes et adaptées au contexte du projet • Réaliser ou conduire les PoV (Proof of Value) et les PoC (Proof of Concept) • Rédiger le dossier d'architecture technique à travers le High et Low Level Design • Assurer le suivi de la conformité des réalisations projets relatives au dossier d'architecture technique • Veiller au suivi des bonnes pratiques sur l'ensemble du périmètre des réalisations techniques • Mener une démarche d'optimisation des coûts afin de garantir que l'architecture soit à la fois efficace et économique Référence de l'offre : g2fqzc6m6z
Offre d'emploi
Architecte Fabric Power BI / Data Platform
Publiée le
Azure
Data Lake
microsoft
6 mois
Paris, France
Télétravail partiel
Vous intervenez en tant que référent sur la fabrique BI d’un grand groupe international. Votre rôle : définir l’architecture de la data platform, structurer les modèles et pipelines Power BI/Fabric, établir les standards et bonnes pratiques, accompagner les équipes métiers et IT, piloter l’équipe opérationnelle et garantir la qualité des livrables. Vous travaillez à la frontière du conseil et de la technique, en lien avec les architectes et la stratégie Data du client. Environnement Azure moderne, contexte multi-filiales (28 pays), forte visibilité et autonomie.
Offre d'emploi
Business Analyst finance de marché
Publiée le
Business Analyst
Île-de-France, France
Télétravail partiel
Nous recherchons un Business Analyst Finance de Marché pour intervenir sur des sujets Risk & PnL au sein d’un grand environnement bancaire. La mission s’inscrit dans un contexte front-to-back, avec une forte interaction avec les équipes Trading, Risk, Finance et IT. Missions Analyse et recueil des besoins métier (Trading / Risk / Finance) Intervention sur les processus de Trade Capture Analyse et suivi des calculs de PnL (réalisé / non réalisé) Contribution aux sujets de Risque de marché Travail sur des opérations de financement : Repos Pré-emprunts Suivi des problématiques de collatéralisation Rédaction des spécifications fonctionnelles Support aux phases de recette et mise en production
Offre d'emploi
Data Engineer Teradata / Big Data, spécialiste du RUN
Publiée le
Apache Hive
Apache Spark
Big Data
12 mois
40k-48k €
400-480 €
Île-de-France, France
Télétravail partiel
La tribu DATA (DAT) construit et développe des applications sur la base de puissantes plateformes DATA à des fins d’usages variés servant toutes les directions métier du groupe bancaire. Pour répondre à ces usages, DAT est au cœur de la stratégie data-centric du groupe bancaire, et intervient aussi bien au niveau de l’architecture Data, sur les dernières technologies data, Big Data, IA, Teradata, SAS, DMP, Oracle ainsi que sur les solutions analytiques et de datavisualisation. La mission consiste à assurer les fonctions suivantes au sein de la Squad Socles Data de la tribu DAT : Veiller au quotidien à la bonne marche des plateformes Data (Teradata et Big Data) Intervenir au quotidien, sous contraintes de délais, lors des incidents d’exploitation (analyse, diagnostic, résolution). Produire le relevé matinal des exécutions des traitements sur les plateformes « Entrepôt et Usages » et « Big Data ». Analyser les actions correctrices à lancer : – court terme (relance rapide) – moyen terme (consignes pour les pilotes de nuit) – long terme (correctifs d’ordonnancement ou de traitements) Créer les incidents selon le process interne (JIRA). Assurer une communication unique pour les deux environnements DATA Vulgariser la communication technico-fonctionnelle auprès des intervenants (équipes internes et métiers). Mettre en place et diffuser les indicateurs de performance et de délais. Mettre en place des états mensuels des incidents et contribuer aux reportings et comités. Analyser les indicateurs d’assurance qualité de données et communiquer auprès des acteurs concernés. Intégrer des méthodes d’amélioration continue Proposer des améliorations du chemin critique en tenant compte des applications sensibles. Maintenir en condition opérationnelle les moyens, dans le respect des normes et critères de performance. Développer des composants d’amélioration. Définir et mettre en place des outils de normalisation, d’automatisation et de sécurisation de la production. Contribuer à la conception de nouveaux projets et évolutions. Contribuer aux états réguliers de contrôle : habilitations, comptes, connexions… Participer aux projets d’optimisation et d’amélioration de la QDF (Qualité de Fonctionnement)
Mission freelance
Data Engineer Finance et Risque (H/F)
Publiée le
AWS Cloud
Data Warehouse
ETL (Extract-transform-load)
6 mois
400-650 €
Maisons-Alfort, Île-de-France
Télétravail partiel
Localisation : Maisons-Alfort (94) Rythme : 2 jours sur site (lundi & jeudi) / 3 jours télétravail Expérience : +8 ans Démarrage : ASAP Mission longue Expérience en banque obligatoire. Python / Spark / Entrepôts de données / Data Warehouse 1. Description du poste Dans un contexte de transformation globale du SI et d'accélération autour des technologies Data & Cloud, nous recherchons un Data Engineer senior expert en Python , PySpark , traitement de données Spark et parfaitement à l’aise avec l’écosystème AWS . Le rôle implique une forte dimension d’ingénierie logicielle : développement Python , tests unitaires (pytest), participation aux tests fonctionnels automatisés, mise en place de code modulaire , robuste et industrialisé. Au quotidien, le Data Engineer devra concevoir et développer des jobs de traitement de données (notamment via AWS Glue), maîtriser l’ensemble de la stack AWS Data (S3, Athena, Secret Manager…), intervenir ponctuellement sur des instances EC2, et collaborer étroitement avec le Tech Lead afin de respecter les design patterns applicatifs et les standards d'architecture. L’objectif majeur de la mission est de modulariser et architecturer les process Data pour construire des solutions évolutives, intégrées et orientées métier. Le poste nécessite une posture proactive, autonome, dynamique, ainsi qu’un excellent relationnel avec les PM et les équipes métiers, dans un environnement Agile SAFe .
Mission freelance
Ingénieur Fonctionnelle SAP Commerce Cloud 520 e par j
Publiée le
Salesforce Commerce Cloud
2 ans
400-520 €
Île-de-France, France
Télétravail partiel
Ingénieur Fonctionnelle SAP Commerce Cloud 520 e par j Compétences attendues : Formation SAFE Fonctionnelles : • Expertise fonctionnelle sur la solution SAP Commerce Cloud BTC et BTB • Connaissances avancées des sujets relatifs aux Business Process : gestion catalogue, tunnel d’achat, paiement, facturation • Connaissances avancées de l’ensemble de la chaîne de valeurs eCommerce/Omnicanale et marketing Digital BTC et BTB • Expériences significatives sur des missions équivalentes Techniques : • Pratiques des méthodes AGILE (SAFe, Kanban, Scrum) • Expériences significatives dans des environnements IT complexes. Autres : • Capacité d’écoute active et excellente communication • Qualités de Leadership et d’autonomie • Solides capacités d'analyse, de synthèse et de pédagogie • Capacité d’animation et coordination d’équipe 520 e par j
Offre d'emploi
Data Engineer - SPARK/SCALA
Publiée le
Apache Airflow
Apache Spark
PySpark
12 mois
40k-48k €
400-470 €
Montreuil, Île-de-France
Télétravail partiel
Nous sommes à la recherche d’un Développeur Big Data Java/Scala – Projet Migration DataHub V2 Objectif de la mission : Assurer un service de développement Big Data dans un environnement distribué à forte volumétrie. Accompagnement sur les phases de conception, développement, industrialisation et maintien des traitements. Stack et compétences techniques requises : Apache Spark (maîtrise attendue) Scala (langage principal sur la squad) SQL (avancé) Java (notions de base à confirmées) Kafka (bonnes bases sur les événements, topics) Apache Airflow (idéalement une première expérience) Écosystème Hadoop : HDFS, Hive, Yarn (bonnes bases requises) Cloud (une première expérience Cloud valorisée, idéalement GCP ou AWS) CI/CD : Jenkins, Gitflow, notions de DevOps Méthodologie Agile : backlog, rituels, communication proactive Responsabilités principales : Étude et conception technique des batchs Développement Spark/Scala pour traitement de données volumineuses Récupération, transformation, enrichissement, restitution Création de batchs de publication Kafka Participation à la maintenance de la chaîne CI/CD Collaboration étroite avec les Business Analysts pour garantir qualité et lisibilité des libellés Gestion autonome de certains sujets (reporting, suivi, coordination) Profil recherché : Confirmé (3 à 6 ans d’expérience sur des environnements similaires) Proactif, rigoureux, à l’aise dans les contextes techniques exigeants Capacité à interagir avec des interlocuteurs techniques et fonctionnels Démarrage : ASAP Durée : mission longue (visibilité +12 mois)
Mission freelance
Business Analyst – Expertise Aéronautique / Opérations de Vol
Publiée le
Business Analyst
6 mois
400-550 €
Roissy-en-France, Île-de-France
Profil du candidat Contexte Pour un acteur majeur du transport aérien, nous recherchons un Business Analyst, avec une expérience dans le domaine aérien, notamment sur l'élaboration des plans de vol / ou une expérience en tant que pilote d'aéronefs, ou une appétence forte dans ce domaine. Compétences techniques : Une première expérience en tant que Business Analyst ou Product Owner dans un environnement agile (Scrum, Kanban, SAFe). Maîtrise de méthodes centrées utilisateur (design thinking…) Excellente rigueur, esprit d’analyse et sens de l’organisation. Aisance relationnelle, esprit d’équipe et proactivité. Minimum 3 ans d'expérience Compétences transverses : Niveau d’anglais niveau C1 ou C2 obligatoire. Autonomie Très bon relationnel Force de proposition Localisé en Ile de France, télétravail partiel autorisé, présentiel 3 jours par semaine.
Mission freelance
Data Engineer Senior
Publiée le
SAS
6 mois
Bruxelles, Bruxelles-Capitale, Belgique
Télétravail partiel
Nous recherchons un profil Senior Data Engineer très opérationnel, disposant d’une bonne compréhension du métier bancaire. Notre mission principale est de fournir des solutions digitales orientées métier (tableaux de bord, reporting ad hoc) pour les utilisateurs de la banque Corporate (Sales, Métiers, Management, etc.). Après la phase de staging, les données nécessaires sont fédérées dans un environnement de préparation destiné à alimenter les différentes solutions de visualisation via des flux Alteryx. Après avoir acquis une vue complète des systèmes existants, des flux de données et des objectifs métier de l’équipe, le Data Engineer Senior devra : - Améliorer et rationaliser les workflows Alteryx existants en appliquant les principes de clean code, en centralisant la logique, en supprimant les redondances et en améliorant la maintenabilité à long terme. -Mettre en œuvre ces améliorations de manière progressive à travers les environnements, en validant les impacts, en collaborant avec les utilisateurs et en garantissant l’absence de régression sur les tableaux de bord en aval. Description de la fonction : Les principaux axes d’amélioration porteront sur : -Intégration et qualité des données : Collaborer avec l’équipe Data Engineering pour ingérer les données provenant de différents systèmes, en assurant une intégration rapide des nouvelles sources avec un haut niveau de fiabilité et d’exactitude. -Simplification de la conception (design) : Simplifier les flux de données et les processus de conception existants afin d’améliorer l’efficacité, réduire la complexité et optimiser les performances globales du système. - Nettoyage (cleanup) : Identifier les jeux de données obsolètes, les fichiers inutilisés et les workflows abandonnés ; les refactoriser ou les supprimer et contribuer à l’harmonisation des règles d’historisation et de rétention afin de maintenir un paysage data propre et durable. -Conception de macros et de composants : Concevoir et maintenir des macros Alteryx réutilisables pour centraliser les schémas de transformation récurrents, garantir une logique cohérente entre les workflows et réduire la dette technique, tout en documentant et validant les changements avec les utilisateurs impactés. -Harmonisation des processus legacy : Rationaliser la coexistence SAS et Alteryx en supprimant les composants SAS obsolètes et en migrant les transformations utiles vers une logique Alteryx cohérente et maintenable. Réduire les duplications et la complexité multi-plateformes. -Opérations de release : Soutenir et améliorer les processus de déploiement et de mise en production en augmentant l’automatisation et les contrôles qualité afin de rendre les déploiements plus sûrs, plus rapides et plus prévisibles. -Documentation : Appliquer et renforcer les standards de documentation des jeux de données et des workflows, en assurant un nommage cohérent et des descriptions claires pour une compréhension partagée, une découverte facile et une utilisation efficace par tous les membres de l’équipe. -Monitoring : Mettre en place et maintenir des systèmes de surveillance robustes pour suivre la qualité des données et les performances, permettant une identification et une résolution rapides des incidents. -Gestion multi-instances : Superviser la gestion des batchs quotidiens afin d’assurer la cohérence, la synchronisation et une utilisation efficace des ressources à travers les différents environnements.
Mission freelance
Lead Data Engineer Senior
Publiée le
24 mois
450-900 €
Paris, France
Télétravail partiel
PROPULSE IT recherche un Lead Data Ingénieur ayant près de 10 ans d'expérience pour un de ses clients En tant que Lead Data Engineer, vous travaillerez au sein de l'équipe digitale « data et performance », en charge principalement de l'infrastructure data, et du traitement, de l'intégration et de la transformation de la donnée digitale d'Hermès (hermes.com). Vous serez aussi garant·e de sa qualité et sa sécurité et le respect de la vie privée liée à cette donnée. Vous serez rattaché·e au Data Manager et vous animez et pilotez une équipe de 2 Data Engineer au quotidien. Vous travaillerez principalement sur le Cloud de Google (GCP), mais aussi en partie sur le Cloud Amazon (AWS). Le respect de la vie privée étant au cœur de de votre travail, vous devrez être conscient des problématiques liées à la GDPR. Des connaissances sur les problématiques liées à l'e-Commerce sont un plus. Principales Activités : Industrialisation de l'infrastructure de la Data Platform sous GCP - Vous avez pour principale mission d'accompagner l'équipe Data et Performance dans l'industrialisation de sa plateforme data via : - Mise en place d'environnements dédiés et cloisonnés (Dev / Preprod / Production) - L'automatisation du déploiement et la maintenance des environnements via des outils d'infrastructure as code (Terraform) sous GCP - Mise en place de solutions d'observabilités (monitoring, alerting) au sein de GCP Manipulation/Transformation de données (en batch et stream) - Vous accompagnerez aussi l'équipe Data dans ses activités de transformation de données via : - Maintenance pipelines de données en python (batch et stream) - Des pipelines de transformation en SQL/SQLX dans l'outil DataForm (similaire à DBT) - Mise en place et maintenance d'un outil de data quality (ex : great expectations en python) - Aider au développement des workers dans les Cloud AWS pour récupérer la donnée depuis Kafka et l'envoyer vers PubSub dans GCP. - La connaissance de l'outil DataFlow (Apache Beam) est un plus. Collaboration avec les équipes du pole, centrée sur la donnée de qualité - Standardisation de la base de code de l'équipe (linting, CI/CD, divers tests - Maintien et réalisation de schémas d'architectures et documentation des processus internes - Collaboration avec les autres équipes du pôle Data : data analysts, SEO/SEA et emailing - Aider à la mise en place de bonnes pratiques : - Anonymisation et archivage de la donnée dans le respect du RGPD et de la politique interne du traitement de données - Sécurité de l'infra, de la data et du code
Mission freelance
PO Testing & Quality Gate - Datadog
Publiée le
Agile Scrum
API
API Platform
12 mois
480-550 €
Île-de-France, France
Télétravail partiel
Product Owner Technique – Performance Testing & Quality GateContexte Dans un environnement digital à forte volumétrie et à forts enjeux de fiabilité, nous recherchons un Product Owner Technique spécialisé en tests de performance, tests de charge et qualité applicative . Vous interviendrez au sein d’une plateforme transverse fournissant des outils et services de Performance Engineering aux équipes de développement. L’objectif : garantir la performance, la scalabilité et la non-régression des applications avant mise en production.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Calcul de l'indemnité de la rupture conventionnelle
- Service de comptabilité en ligne fiable et réactif pour une succursale de SASU
- Compte dédié micro-entreprise
- Utiliser Qonto pour créer la microentreprise
- Gestion d’entreprise : astuces pour freelances IT
- Freelance : peu de retours sur mes candidatures – vos stratégies ?
4881 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois