Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 1 216 résultats.
Mission freelance
Chef de projet technique Data plateforme - Nantes
Publiée le
Agile Scrum
AWS Cloud
Azure
1 an
400-550 €
Nantes, Pays de la Loire
Tâches : Cadrer les différents travaux à réaliser en apportant un regard externe en mettant en lumière les éléments suivants : Besoins utilisateurs et cas d’usage Identification des données Schéma d’architecture Solutions intermédiaire et cible, chiffrées Exigences relatives à la gouvernance des données et à la conformité (cyber, …) Trajectoire de mise en œuvre • Piloter et coordonner les différents interlocuteurs intervenant dans le projet de mise en œuvre de la plateforme Data, de la phase de conception à la mise en production. • Coordonner les équipes techniques et fonctionnelles (Data Engineers, Data Analysts, Product Owners, Architectes, equipe Data métier et spécialisées…). • Garantir la qualité, la cohérence et la disponibilité des données nécessaires au pilotage e-business. • Définir et suivre le backlog produit Data en lien avec les équipes métier et techniques. • Piloter la réalisation à l’aide des outils internes (Jira Align). Attendu : Accompagner la mise en place d’une plateforme Data au service du pilotage e-business d’une entité spécialisée dans l’accélération digitale et e-business. Vous interviendrez en tant que Chef de projet technique Data, au sein d’une organisation agile et transverse, pour coordonner et piloter la construction, l’intégration et la mise à disposition d’une solution Data.
Offre d'emploi
Data Scientist Senior
Publiée le
Python
SQL
1 an
40k-45k €
400-570 €
Île-de-France, France
Télétravail partiel
Contexte de la Mission Au sein de la Direction Data (Direction du Numérique), l'équipe Data Science (4 DS, 2 DA) recherche un Data Scientist pour renforcer l'analyse d'usages et le pilotage. La Direction Data poursuit trois missions principales : maximiser la collecte conforme, développer la connaissance et l'expérience utilisateurs, et fournir des outils de pilotage et d'aide à la décision. Activités Attendues Audit et enrichissement du socle de données (nouvelles données du datalake) Exploration et analyses des profils et comportements (par canaux d'acquisition et contenus) et impact de la pression publicitaire Mise en place de cas Data Science : compréhension besoin métier, choix d'approches, vulgarisation Prévision d'audience, segmentation utilisateurs, prédiction inactivité/appétence/churn Analyses sémantiques de commentaires ; enrichissement de catalogue via l'IAG Profil Recherché Niveau d'expérience requis : 8 ans en data science (profil senior >5 ans) Expériences IA : Prévisions Recommandation Score d'appétence Anti-churn Sémantique Détection d'anomalies IAG
Offre d'emploi
Data Engineer Senior
Publiée le
Python
SQL
1 an
40k-45k €
400-550 €
Île-de-France, France
Télétravail partiel
Contexte de la mission Au sein de la Direction Data (Direction du Numérique), intégration à l'équipe Bronze (PO, data steward, 2 data engineers) au cœur de la plateforme Data. Stack principale : Python, Spark, SQL (traitements), Airflow (orchestration), Cloud Storage & Delta Lake (stockage), services cloud (BigQuery, Dataproc, Pub/Sub, Cloud Storage), Terraform/Terragrunt (infra). Activités attendues Concevoir et maintenir des pipelines data robustes et scalables ; organiser et structurer le stockage. Mettre en place et maintenir des infrastructures scalables ; assurer sécurité et stabilité des environnements. Construire et maintenir les workflows CI/CD ; accompagner l'équipe sur l'exploitation et requêtage. Gouvernance et conformité (qualité, sécurité, conformité), documentation, veille et participation aux instances Data Ingénieurs.
Mission freelance
Développeur Data / Big Data – ClickHouse – Finance de Marché
Publiée le
Apache Spark
Hadoop
Jenkins
3 ans
Île-de-France, France
Télétravail partiel
Contexte de la mission : Au sein d’une Direction des Systèmes d’Information d’un grand groupe international, vous intégrerez une équipe en charge du pilotage de la liquidité et de la gestion du collatéral . Cette direction mène plusieurs projets stratégiques liés à la conformité réglementaire (Bâle III, FSB, IRRBB) et au pilotage interne des risques structurels . Le bénéficiaire recherche un profil disposant d’une forte expertise technique pour accompagner l’évolution d’un socle applicatif basé sur la technologie ClickHouse® et contribuer à la restitution des données de risques structurels au niveau groupe. Missions principales : Traduire les besoins métiers en solutions techniques robustes et performantes Assurer le développement, la documentation, les tests et le déploiement du code Appliquer les bonnes pratiques internes : code review, pair programming, procédures de test et de déploiement Respecter les jalons projet et les budgets définis Contribuer à l’ industrialisation et l’optimisation des outils existants Participer aux activités de run et de build , avec possibilité d’astreintes Fournir un support technique aux équipes métier et aux utilisateurs finaux Livrables attendus : Analyse du besoin et étude d’impact technique Estimation des charges et planification des travaux Conception, développement et documentation du code Évolution, optimisation et automatisation du code existant Code reviews et tests unitaires, d’intégration et de non-régression Déploiement sur les environnements de test et de production Démonstration des livrables aux utilisateurs et support aux phases de validation (UAT) Suivi et surveillance des traitements de production
Mission freelance
Data Engineer AWS / Snowflake (Urgent)
Publiée le
Amazon S3
AWS Cloud
Gitlab
6 mois
400-550 €
Paris, France
Télétravail partiel
Nous recherchons un Data Engineer AWS / Snowflake confirmé pour intervenir au sein d’une équipe Data sur un environnement cloud moderne, fortement orienté industrialisation, performance et qualité des données. 🎯 Contexte de la mission : Vous serez en charge de maintenir, optimiser et faire évoluer les pipelines et architectures Data existants, dans un écosystème AWS & Snowflake à forte volumétrie. La mission inclut également la prise en main de sujets de développement et d’industrialisation en cours. ⚙️ Vos missions principales : Ingestion & Transformation Développer et maintenir des pipelines Python / PySpark (batch, transformations, industrialisation). Implémenter des processus d’ingestion Snowflake ( Snowpipe, procédures stockées, tables dynamiques, datamarts ). Gérer le datalake, les flux d’ingestion et les orchestrations associées. Architecture & AWS Intervenir sur les services AWS : S3, Lambda, Step Functions, EMR, DynamoDB, RDS, EventBridge, IAM, API Gateway… Optimiser et sécuriser les flux Data sur AWS. Assurer la résilience, les performances et la montée en charge des environnements Data. CI/CD & Infrastructure Maintenir et faire évoluer les pipelines GitLab CI , Travailler avec Docker & Pulumni pour l’industrialisation et l’infrastructure as code. Monitoring & Qualité Mettre en place ou améliorer les mécanismes de monitoring , d’observabilité et de data quality . Documenter, partager les bonnes pratiques et contribuer à l’amélioration continue.
Mission freelance
Data Analyst – Skywise / Data Products / Substances
Publiée le
Product management
Reporting
SAP
3 ans
Toulouse, Occitanie
Télétravail partiel
Nous recherchons un Data Analyst pour rejoindre une équipe Data engagée dans l’optimisation et la valorisation des Data Products au sein de la plateforme Skywise. 📍 Toulouse - 3-4 jours de TT 📅 Démarrage ASAP ou Janvier possible Votre rôle : garantir la qualité, la cohérence et la disponibilité des données, tout en soutenant la création de nouveaux Data Products et le reporting associé. ✅ Créer et améliorer les Data Products (80+ existants) ✅ Maintenir le lien entre HazMat (SAP) et les données Skywise ✅ Concevoir des Data Products Composites (ex. : Chemicals x Logistics) et assurer leur officialisation dans le catalogue Skywise ✅ Développer et maintenir les cockpits et rapports Substances ✅ Fournir des extractions et analyses pour les clients internes
Mission freelance
PO Testing & Quality Gate - Datadog
Publiée le
Agile Scrum
API
API Platform
12 mois
480-550 €
Île-de-France, France
Télétravail partiel
Product Owner Technique – Performance Testing & Quality GateContexte Dans un environnement digital à forte volumétrie et à forts enjeux de fiabilité, nous recherchons un Product Owner Technique spécialisé en tests de performance, tests de charge et qualité applicative . Vous interviendrez au sein d’une plateforme transverse fournissant des outils et services de Performance Engineering aux équipes de développement. L’objectif : garantir la performance, la scalabilité et la non-régression des applications avant mise en production.
Mission freelance
INGENIEUR DATA POWER BI H/F
Publiée le
Microsoft Power BI
Workday
1 an
450-550 €
Vélizy-Villacoublay, Île-de-France
Contexte business / Business context : Accompagner les Business Process Owners en leur fournissant des dashboards et des analyses pertinentes sur les données issues : Principalement de Cornerstone onDemand pour la première personne qui travaillera sur les données formation Sur les données issues de Workday pour la seconde personne qui travaillera sur les données Talent & Performance Périmètre / Scope : (Détailler le périmètre fonctionnel & géographique / Detail functional & geographic scope) Worldwide Objectifs du projet / Goals of project Au sein du HR Data Office, vous accompagnerez les Business Process Owners de la formation et du Talent & Performance dans la définition, la création de tableaux de bords PowerBI et la mise en avant des éléments pertinents pour servir ces deux fonctions.
Mission freelance
Data Engineer Spark/Scala
Publiée le
Apache Spark
Scala
3 mois
330-400 £GB
Paris, France
Télétravail partiel
Data Engineer Spark/Scala Paris o Expérience dans la mise en œuvre de technologies et frameworks Big Data et NoSQL (Hadoop, Kafka, Spark, Scala, Hive, SolR, HBase, Kerberos) o Spark / Scala : confirmé o A l'aise avec le programmation fonctionnelle (connaissance des librairies ZIO, MONIX, CATS appréciée) o Expérience de travail dans un environnement Agile ; avec outils et méthodologies associés (Confluence, Jira, Scrum, Kanban) Au sein de la DSI Finance de la DSI, le poste recherché porte sur le besoin d’un Data Engineer Spark/Scala confirmé (5-6 ans d’expérience). Objectifs et livrables Objectifs Le prestataire intégrera le projet d’intégration en coordination avec le chantier assiette comptable de référence en tant que Data Engineer. Les développements sur ce chantier s’appuient sur la plateforme Datalake Finance, basée sur la distribution Hadoop HortonWorks qui collecte les données des différents systèmes de synthèse afin de répondre aux nouveaux besoins de reporting Finances & Risques (COREP, calcul RWA, IFRS9, etc.…) Les tâches seront les suivantes : • la mission consistera à prendre part aux développements, au sein du datalake pour acquérir les nouvelles sources de données, les assemblées et les distribuées aux consommateurs, tout en étant garant de la pérennité et la non-régression de l’outillage déjà en place • Vous participerez à la conception et à l’implémentation de ce projet et serez amené, à ce titre, à travailler en méthode Agile avec de nombreux acteurs métiers et les équipes de maintenance Compétences techniques o Expérience dans la mise en œuvre de technologies et frameworks Big Data et NoSQL (Hadoop, Kafka, Spark, Scala, Hive, SolR, HBase, Kerberos) o Spark / Scala : confirmé o A l'aise avec le programmation fonctionnelle (connaissance des librairies ZIO, MONIX, CATS appréciée) o Expérience de travail dans un environnement Agile ; avec outils et méthodologies associés (Confluence, Jira, Scrum, Kanban) Compétences demandéesCompétences Niveau de compétence Apache Kafka Avancé Apache Hadoop Confirmé Apache Hive Avancé SCALA Confirmé Spark Confirmé
Mission freelance
LUXEMBOURG!chef de projet/business analyst Data ALM(H/F)
Publiée le
BI
Gestion de projet
Rédaction des spécifications fonctionnelles
6 mois
400-580 €
Luxembourg
MISSION LUXEMBOURG! 1 jour de télétravail par semaine. Anglais obligatoire Le service Data Management (DAM) du département informatique de notre client cherche un(e) consultant(e) spécialisé(e) en gestion de projet et analyse fonctionnelle dans le domaine de la Data, pour rejoindre l’équipe Data Intelligence dès janvier 2025, pour une mission de 6 mois renouvelable. Le rôle est central dans le développement d’un programme stratégique AML (Anti-Money Laundering). Principales activités attendues : Gestion de projet & coordination : Piloter et coordonner le programme de reporting et dashboards sur les thématiques AML, KYC, KYT et Surveillance Financière. Recueillir et challenger les besoins métiers Compliance / Risk / AML Office. Élaborer et suivre le planning projet (jalons, livrables, dépendances). Coordonner les parties prenantes et assurer le suivi des développements IT. Gérer les risques et escalader les points de vigilance au Team Manager. Organiser et animer la gouvernance projet (comités de suivi, steering committees). Analyse et accompagnement fonctionnel : Définir le périmètre fonctionnel et rédiger le cahier des charges. Concevoir et valider le cahier de recette. Assister les utilisateurs métier dans les phases de tests et validation. Qualifier les livrables DAM avant le démarrage de la recette utilisateur. Assurer l’assistance post-déploiement pour stabiliser la solution. Communication et reporting : Gérer la communication projet avec les différentes parties prenantes. Produire des reportings réguliers sur l’avancement et les risques. Être force de proposition pour optimiser les processus et apporter de la valeur ajoutée. Qualifications requises : Expérience significative ( 5 ans minimum) sur des projets BI en tant que consultant fonctionnel dans un environnement bancaire. Capacité à travailler sur plusieurs projets en parallèle et à relever des challenges quotidiens. Connaissance fonctionnelle du reporting réglementaire Risk & Compliance. Autonomie, force de proposition, rigueur, esprit analytique, orientation résultats et sens de la confidentialité. Excellentes capacités rédactionnelles et communicationnelles. Maîtrise du français et de l’anglais.
Mission freelance
Ingénieur DevOps / Cloud Azure - Data & Plateforme Offline
Publiée le
Azure DevOps
Git
Helm
1 mois
400-550 €
Paris, France
Bonjour à tous, Je recherche pour le compte d'un de mes clients plusieurs DevOps. Voici les missions : Contribution fonctionnelle & technique Intégrer de nouvelles fonctionnalités issues de composants open-source et assurer la maintenance des fonctionnalités existantes. Collaborer quotidiennement avec les Data Engineers (échanges sur les cas d’usage, tests, besoins utilisateurs finaux). Infrastructure & automatisation Automatiser le déploiement d’infrastructures Cloud à grande échelle sous Azure , en particulier la gestion de clusters Azure au niveau ressource. Travailler dans une infrastructure 100% Terraform (≈45%) : définition, maintenance et optimisation des modules et stacks IaC. Utiliser Terragrunt pour organiser et orchestrer les déploiements multi-environnements. Automatiser et industrialiser le déploiement d’images Docker et de composants applicatifs au sein de clusters Kubernetes. Concevoir, maintenir et optimiser des charts Helm (≈30%) pour les différents services déployés. Maintenir et développer des scripts et utilitaires en bash (≈20%) et ponctuellement en Python (≈5%). Plateforme Data & environnement offline Déployer et intégrer des composants transverses : Ingress, Keycloak, Nexus… Automatiser et opérer les briques techniques liées aux traitements de données : GitLab, Jupyter/JupyterHub (notamment en environnement offline), Spark, PostgreSQL… Travailler dans des environnements sans accès internet , incluant la gestion interne des identités, l’intégration réseau, et la gestion complète du cycle de vie applicatif. CI/CD & qualité Utiliser la suite Azure DevOps (repos, boards, pipelines). Exécuter et superviser des pipelines CI/CD de tests et de déploiements déjà implémentés. Participer activement aux pratiques DevOps : revue de code, bonnes pratiques Git, amélioration continue des workflows. Architecture & sécurité Contribuer à l’évolution de l’architecture de la plateforme en apportant votre expertise Cloud, Kubernetes ou systèmes distribués. Assurer une veille active sur les sujets technologiques et de sécurité. Appliquer et promouvoir les bonnes pratiques en matière de sécurité des données et de la plateforme. Actualiser et structurer la documentation technique.
Mission freelance
Junior Data Analyst – Power BI
Publiée le
DAX
Microsoft Power BI
Modélisation
3 ans
250 €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
‼️ Junior Data Analyst – Power BI ‼️ FREELANCE / PORTAGE SALARIAL - Longue mission 🔍 Nous recherchons un(e) jeune Data Analyst Power BI motivé(e) et prêt(e) à se lancer sur une mission opérationnelle très concrète : migration de dashboards Power BI existants. 📅 Démarrage ASAP 📍 Lyon 🎯 Mission : ✅ Migrer des rapports Power BI hébergés sur Power BI Server on-premise ✅ Revoir le modèle de données si nécessaire ✅ Garantir la cohérence visuelle & fonctionnelle des rapports Possibilité d'intégrer le client en CDI au bout d'un an de prestation
Offre d'emploi
Data Engineer Databricks - Paris
Publiée le
AWS Cloud
Azure
Databricks
50k-60k €
Paris, France
Télétravail partiel
Ton quotidien chez Komeet sera rythmé par : - Animation des ateliers afin d’étudier et cadrer les besoins clients. - Analyser, conseiller, et faire des recommandations de façon à améliorer l’efficience et l’efficacité de la solution Databricks chez ton client. - Préconisation, conception et mise en œuvre du LakeHouse Databricks - Rédaction de dossiers d’architecture et spécifications techniques - Mise en œuvre des stratégies d’exploitation de la plateforme Databricks - Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. - Tests, validation et documentation des développements - Réalisation d’audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP
Offre d'emploi
PO DATA - DECISIONNEL
Publiée le
Data management
Dataiku
ETL (Extract-transform-load)
3 ans
40k-70k €
400-600 €
Nanterre, Île-de-France
La prestation consiste à mener au sein de la MOA, des projets décisionnels depuis le recueil des besoins auprès des différents clients internes, jusqu’à la mise en production et l’accompagnement utilisateur. Le PO Décisionnel sera responsable de la qualité et la cohérence des livrables, en assurant une modélisation et l'architecture des données. Les principales missions : Recueillir et analyser les besoins métiers, définir la solution adaptée et estimer la charge du projet. Proposer l’architecture fonctionnelle par une modélisation des données garantissant la cohérence des flux d’informations et la qualité des données utilisées Piloter la mise en place des outils Qlik Sens Gérer la roadmap du projet et définir les priorités en collaboration avec le PM Rédiger les US et gérer le backlog en mode Agile pour garantir une bonne communication avec les équipes techniques. Validation du résultat et en production et assurer le support fonctionnel aux utilisateurs après déploiement. Communiquer l’avancement du projet auprès des différentes parties prenantes et garantir une bonne gestion des instances projets. Effectuer le reporting auprès de la MOA Collectives pour assurer un suivi régulier des projets
Offre d'emploi
Consultant·e Data Analyst / Splunk ITSI – Dashboards & Data Infrastructure
Publiée le
Splunk
2 ans
40k-48k €
400-500 €
Paris, France
Télétravail partiel
Qui sommes-nous ? Anafi Consulting est un cabinet de conseil spécialisé dans les transformations technologiques et organisationnelles. Nous accompagnons nos clients grands comptes dans leurs projets stratégiques autour de la Data, du Cloud, du DevOps et du numérique responsable , dans des secteurs tels que la finance, l’énergie, l’IT et les télécommunications . Nous recherchons un(e) Consultant·e Data Analyst / Splunk ITSI pour accompagner les équipes dans la construction de dashboards et la mise en place d’une structure de données dédiée à la supervision des infrastructures. Vous interviendrez au cœur d’un projet long terme visant à renforcer la visibilité, la performance et la fiabilité des environnements techniques via Splunk et ITSI. Vos missions principales Concevoir et développer des dashboards Splunk ITSI pour le suivi et la supervision des infrastructures. Construire et structurer la donnée d’observation (logs, métriques) afin d’alimenter les tableaux de bord analytiques. Configurer et administrer Splunk et ses composants ITSI pour répondre aux besoins de reporting et d’exploitation. Analyser les données et traduire les résultats en indicateurs clairs et exploitables . Participer à l’ industrialisation des traitements de données et à la standardisation des processus analytiques. Collaborer avec les équipes techniques et métiers pour assurer la cohérence et la qualité des données. Fournir un appui analytique aux équipes de pilotage et de décision.
Mission freelance
Développeur AWS Data et spark
Publiée le
API
AWS Cloud
AWS Glue
1 an
540-580 €
Maisons-Alfort, Île-de-France
Télétravail partiel
Dans le cadre d’un programme stratégique de pilotage financier, nous recherchons un Ingénieur Logiciel Data Cloud AWS confirmé (+7 ans d’expérience) pour rejoindre une équipe de développement et d’ingénierie orientée données et services cloud. Vous interviendrez sur la conception, l’implémentation et l’amélioration continue des services AWS nécessaires au traitement, à l’analyse et à la planification financière. Le contexte est exigeant : réglementaire, sécurité, performance, optimisation des coûts et démarche DevOps/DORA. Vous intégrerez une équipe de 9 personnes, dont un pôle cloud/data AWS déjà en place. Vos missions : Concevoir, développer et faire évoluer les services applicatifs AWS (Glue Spark, Lambda, Step Functions, Athena, S3, IAM). Intégrer les services aux différents écosystèmes techniques (plateforme Data, MDM, ZDP, Data Link, Anaplan). Proposer des optimisations, améliorer les architectures existantes, renforcer la robustesse et la performance. Prendre en compte les exigences métiers, réglementaires, sécuritaires et environnementales. Participer à une démarche d’amélioration continue (Lean, DevOps, DORA). Documenter les architectures, formaliser les conceptions, assurer un bon niveau de qualité. Implémenter les bonnes pratiques TDD / BDD. Collaborer en équipe dans un environnement cloud industriel avancé.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Service de comptabilité en ligne fiable et réactif pour une succursale de SASU
- Compte dédié micro-entreprise
- Utiliser Qonto pour créer la microentreprise
- Traitement fiscal des cotisations sociales payées en 2025 sur CA micro-BNC 2024
- Calcul de l'indemnité de la rupture conventionnelle
- Gestion d’entreprise : astuces pour freelances IT
1216 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois