L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 1 945 résultats.
Offre d'emploi
Technical account manager
Publiée le
Gouvernance, gestion des risques et conformité (GRC)
3 ans
Île-de-France, France
Nous recherchons pour le compte de notre client un technical account manager. Vos missions seront : Être le point focal technique entre les besoins clients et les équipes internes (Architecture, Solutioning, Projets). Qualifier et challenger les demandes techniques clients. Piloter les études, conseils et macro-chiffrages , en proposant des solutions standards et optimisées. Garantir la conformité des solutions aux normes, standards et règles d’architecture. Assurer la cohérence entre solution technique, devis et pricing. Accompagner les clients sur l’évolution de leur infrastructure et la gestion de la capacité. Participer à la gestion des risques, aux situations de crise et aux PIR si nécessaire.
Mission freelance
Chef de projet technique Data plateforme - Nantes
Publiée le
Agile Scrum
AWS Cloud
Azure
1 an
400-550 €
Nantes, Pays de la Loire
Tâches : Cadrer les différents travaux à réaliser en apportant un regard externe en mettant en lumière les éléments suivants : Besoins utilisateurs et cas d’usage Identification des données Schéma d’architecture Solutions intermédiaire et cible, chiffrées Exigences relatives à la gouvernance des données et à la conformité (cyber, …) Trajectoire de mise en œuvre • Piloter et coordonner les différents interlocuteurs intervenant dans le projet de mise en œuvre de la plateforme Data, de la phase de conception à la mise en production. • Coordonner les équipes techniques et fonctionnelles (Data Engineers, Data Analysts, Product Owners, Architectes, equipe Data métier et spécialisées…). • Garantir la qualité, la cohérence et la disponibilité des données nécessaires au pilotage e-business. • Définir et suivre le backlog produit Data en lien avec les équipes métier et techniques. • Piloter la réalisation à l’aide des outils internes (Jira Align). Attendu : Accompagner la mise en place d’une plateforme Data au service du pilotage e-business d’une entité spécialisée dans l’accélération digitale et e-business. Vous interviendrez en tant que Chef de projet technique Data, au sein d’une organisation agile et transverse, pour coordonner et piloter la construction, l’intégration et la mise à disposition d’une solution Data.
Mission freelance
INGENIEUR DATA POWER BI H/F
Publiée le
Microsoft Power BI
Workday
1 an
450-550 €
Vélizy-Villacoublay, Île-de-France
Contexte business / Business context : Accompagner les Business Process Owners en leur fournissant des dashboards et des analyses pertinentes sur les données issues : Principalement de Cornerstone onDemand pour la première personne qui travaillera sur les données formation Sur les données issues de Workday pour la seconde personne qui travaillera sur les données Talent & Performance Périmètre / Scope : (Détailler le périmètre fonctionnel & géographique / Detail functional & geographic scope) Worldwide Objectifs du projet / Goals of project Au sein du HR Data Office, vous accompagnerez les Business Process Owners de la formation et du Talent & Performance dans la définition, la création de tableaux de bords PowerBI et la mise en avant des éléments pertinents pour servir ces deux fonctions.
Mission freelance
Data Engineer Spark/Scala
Publiée le
Apache Spark
Scala
3 mois
330-400 £GB
Paris, France
Télétravail partiel
Data Engineer Spark/Scala Paris o Expérience dans la mise en œuvre de technologies et frameworks Big Data et NoSQL (Hadoop, Kafka, Spark, Scala, Hive, SolR, HBase, Kerberos) o Spark / Scala : confirmé o A l'aise avec le programmation fonctionnelle (connaissance des librairies ZIO, MONIX, CATS appréciée) o Expérience de travail dans un environnement Agile ; avec outils et méthodologies associés (Confluence, Jira, Scrum, Kanban) Au sein de la DSI Finance de la DSI, le poste recherché porte sur le besoin d’un Data Engineer Spark/Scala confirmé (5-6 ans d’expérience). Objectifs et livrables Objectifs Le prestataire intégrera le projet d’intégration en coordination avec le chantier assiette comptable de référence en tant que Data Engineer. Les développements sur ce chantier s’appuient sur la plateforme Datalake Finance, basée sur la distribution Hadoop HortonWorks qui collecte les données des différents systèmes de synthèse afin de répondre aux nouveaux besoins de reporting Finances & Risques (COREP, calcul RWA, IFRS9, etc.…) Les tâches seront les suivantes : • la mission consistera à prendre part aux développements, au sein du datalake pour acquérir les nouvelles sources de données, les assemblées et les distribuées aux consommateurs, tout en étant garant de la pérennité et la non-régression de l’outillage déjà en place • Vous participerez à la conception et à l’implémentation de ce projet et serez amené, à ce titre, à travailler en méthode Agile avec de nombreux acteurs métiers et les équipes de maintenance Compétences techniques o Expérience dans la mise en œuvre de technologies et frameworks Big Data et NoSQL (Hadoop, Kafka, Spark, Scala, Hive, SolR, HBase, Kerberos) o Spark / Scala : confirmé o A l'aise avec le programmation fonctionnelle (connaissance des librairies ZIO, MONIX, CATS appréciée) o Expérience de travail dans un environnement Agile ; avec outils et méthodologies associés (Confluence, Jira, Scrum, Kanban) Compétences demandéesCompétences Niveau de compétence Apache Kafka Avancé Apache Hadoop Confirmé Apache Hive Avancé SCALA Confirmé Spark Confirmé
Mission freelance
Tech Lead (ML engineering)
Publiée le
MLOps
1 an
400-700 €
Paris, France
Télétravail partiel
Contexte: Vous rejoindrez une équipe dynamique dédiée au développement et à l’évolution d’une solution de prédiction d’arrivée des colis déployée à l’échelle mondiale. Au cœur d’un environnement international et exigeant, vous aurez pour mission de garantir la robustesse, la disponibilité et la performance d’un produit critique, tout en contribuant activement à son amélioration continue. Missions : Industrialisation & Run Assurer la gestion de la production au quotidien et le maintien en conditions opérationnelles de la solution. Piloter le déploiement des évolutions via des pipelines CI/CD fiables et scalables. Mettre en place et optimiser les systèmes de monitoring et d’alerting pour garantir la qualité de service. Expertise technique Intervenir en tant que référent technique sur des environnements custom complexes. Résoudre des problématiques de performance, scalabilité et optimisation sur des architectures distribuées. Polyvalence & R&D Apporter un support transversal sur d’autres produits de l’écosystème Data/ML du groupe. Participer à une démarche de veille technologique sur des sujets innovants : NLP, Deep Learning, IA générative, automatisation… Proposer de nouvelles pistes d’amélioration, d’industrialisation et d’innovation
Mission freelance
Ingénieur DevOps / Cloud Azure - Data & Plateforme Offline
Publiée le
Azure DevOps
Git
Helm
1 mois
400-550 €
Paris, France
Bonjour à tous, Je recherche pour le compte d'un de mes clients plusieurs DevOps. Voici les missions : Contribution fonctionnelle & technique Intégrer de nouvelles fonctionnalités issues de composants open-source et assurer la maintenance des fonctionnalités existantes. Collaborer quotidiennement avec les Data Engineers (échanges sur les cas d’usage, tests, besoins utilisateurs finaux). Infrastructure & automatisation Automatiser le déploiement d’infrastructures Cloud à grande échelle sous Azure , en particulier la gestion de clusters Azure au niveau ressource. Travailler dans une infrastructure 100% Terraform (≈45%) : définition, maintenance et optimisation des modules et stacks IaC. Utiliser Terragrunt pour organiser et orchestrer les déploiements multi-environnements. Automatiser et industrialiser le déploiement d’images Docker et de composants applicatifs au sein de clusters Kubernetes. Concevoir, maintenir et optimiser des charts Helm (≈30%) pour les différents services déployés. Maintenir et développer des scripts et utilitaires en bash (≈20%) et ponctuellement en Python (≈5%). Plateforme Data & environnement offline Déployer et intégrer des composants transverses : Ingress, Keycloak, Nexus… Automatiser et opérer les briques techniques liées aux traitements de données : GitLab, Jupyter/JupyterHub (notamment en environnement offline), Spark, PostgreSQL… Travailler dans des environnements sans accès internet , incluant la gestion interne des identités, l’intégration réseau, et la gestion complète du cycle de vie applicatif. CI/CD & qualité Utiliser la suite Azure DevOps (repos, boards, pipelines). Exécuter et superviser des pipelines CI/CD de tests et de déploiements déjà implémentés. Participer activement aux pratiques DevOps : revue de code, bonnes pratiques Git, amélioration continue des workflows. Architecture & sécurité Contribuer à l’évolution de l’architecture de la plateforme en apportant votre expertise Cloud, Kubernetes ou systèmes distribués. Assurer une veille active sur les sujets technologiques et de sécurité. Appliquer et promouvoir les bonnes pratiques en matière de sécurité des données et de la plateforme. Actualiser et structurer la documentation technique.
Mission freelance
LUXEMBOURG!chef de projet/business analyst Data ALM(H/F)
Publiée le
BI
Gestion de projet
Rédaction des spécifications fonctionnelles
6 mois
400-580 €
Luxembourg
MISSION LUXEMBOURG! 1 jour de télétravail par semaine. Anglais obligatoire Le service Data Management (DAM) du département informatique de notre client cherche un(e) consultant(e) spécialisé(e) en gestion de projet et analyse fonctionnelle dans le domaine de la Data, pour rejoindre l’équipe Data Intelligence dès janvier 2025, pour une mission de 6 mois renouvelable. Le rôle est central dans le développement d’un programme stratégique AML (Anti-Money Laundering). Principales activités attendues : Gestion de projet & coordination : Piloter et coordonner le programme de reporting et dashboards sur les thématiques AML, KYC, KYT et Surveillance Financière. Recueillir et challenger les besoins métiers Compliance / Risk / AML Office. Élaborer et suivre le planning projet (jalons, livrables, dépendances). Coordonner les parties prenantes et assurer le suivi des développements IT. Gérer les risques et escalader les points de vigilance au Team Manager. Organiser et animer la gouvernance projet (comités de suivi, steering committees). Analyse et accompagnement fonctionnel : Définir le périmètre fonctionnel et rédiger le cahier des charges. Concevoir et valider le cahier de recette. Assister les utilisateurs métier dans les phases de tests et validation. Qualifier les livrables DAM avant le démarrage de la recette utilisateur. Assurer l’assistance post-déploiement pour stabiliser la solution. Communication et reporting : Gérer la communication projet avec les différentes parties prenantes. Produire des reportings réguliers sur l’avancement et les risques. Être force de proposition pour optimiser les processus et apporter de la valeur ajoutée. Qualifications requises : Expérience significative ( 5 ans minimum) sur des projets BI en tant que consultant fonctionnel dans un environnement bancaire. Capacité à travailler sur plusieurs projets en parallèle et à relever des challenges quotidiens. Connaissance fonctionnelle du reporting réglementaire Risk & Compliance. Autonomie, force de proposition, rigueur, esprit analytique, orientation résultats et sens de la confidentialité. Excellentes capacités rédactionnelles et communicationnelles. Maîtrise du français et de l’anglais.
Mission freelance
Data Engineer Confirmé – GCP / DBT / Power BI
Publiée le
BigQuery
DBT
Google Cloud Platform (GCP)
3 mois
100-430 €
Lille, Hauts-de-France
Télétravail partiel
Nous recherchons un Data Engineer Confirmé pour intervenir chez l’un de nos clients dans le cadre de la mise en place et l’industrialisation d’une plateforme data moderne sur Google Cloud Platform . Missions principales : Conception et développement de pipelines de données sur GCP. Modélisation et transformation des données avec DBT / SQLMESH . Mise en place de dashboards et reporting via Power BI . Optimisation des performances et bonnes pratiques de CI/CD. Collaboration étroite avec les équipes Data, BI et métiers.
Offre d'emploi
Consultant·e Data Analyst / Splunk ITSI – Dashboards & Data Infrastructure
Publiée le
Splunk
2 ans
40k-48k €
400-500 €
Paris, France
Télétravail partiel
Qui sommes-nous ? Anafi Consulting est un cabinet de conseil spécialisé dans les transformations technologiques et organisationnelles. Nous accompagnons nos clients grands comptes dans leurs projets stratégiques autour de la Data, du Cloud, du DevOps et du numérique responsable , dans des secteurs tels que la finance, l’énergie, l’IT et les télécommunications . Nous recherchons un(e) Consultant·e Data Analyst / Splunk ITSI pour accompagner les équipes dans la construction de dashboards et la mise en place d’une structure de données dédiée à la supervision des infrastructures. Vous interviendrez au cœur d’un projet long terme visant à renforcer la visibilité, la performance et la fiabilité des environnements techniques via Splunk et ITSI. Vos missions principales Concevoir et développer des dashboards Splunk ITSI pour le suivi et la supervision des infrastructures. Construire et structurer la donnée d’observation (logs, métriques) afin d’alimenter les tableaux de bord analytiques. Configurer et administrer Splunk et ses composants ITSI pour répondre aux besoins de reporting et d’exploitation. Analyser les données et traduire les résultats en indicateurs clairs et exploitables . Participer à l’ industrialisation des traitements de données et à la standardisation des processus analytiques. Collaborer avec les équipes techniques et métiers pour assurer la cohérence et la qualité des données. Fournir un appui analytique aux équipes de pilotage et de décision.
Mission freelance
Développeur AWS Data et spark
Publiée le
API
AWS Cloud
AWS Glue
1 an
540-580 €
Maisons-Alfort, Île-de-France
Télétravail partiel
Dans le cadre d’un programme stratégique de pilotage financier, nous recherchons un Ingénieur Logiciel Data Cloud AWS confirmé (+7 ans d’expérience) pour rejoindre une équipe de développement et d’ingénierie orientée données et services cloud. Vous interviendrez sur la conception, l’implémentation et l’amélioration continue des services AWS nécessaires au traitement, à l’analyse et à la planification financière. Le contexte est exigeant : réglementaire, sécurité, performance, optimisation des coûts et démarche DevOps/DORA. Vous intégrerez une équipe de 9 personnes, dont un pôle cloud/data AWS déjà en place. Vos missions : Concevoir, développer et faire évoluer les services applicatifs AWS (Glue Spark, Lambda, Step Functions, Athena, S3, IAM). Intégrer les services aux différents écosystèmes techniques (plateforme Data, MDM, ZDP, Data Link, Anaplan). Proposer des optimisations, améliorer les architectures existantes, renforcer la robustesse et la performance. Prendre en compte les exigences métiers, réglementaires, sécuritaires et environnementales. Participer à une démarche d’amélioration continue (Lean, DevOps, DORA). Documenter les architectures, formaliser les conceptions, assurer un bon niveau de qualité. Implémenter les bonnes pratiques TDD / BDD. Collaborer en équipe dans un environnement cloud industriel avancé.
Mission freelance
Data Scientist - Expertise OpenMetaData
Publiée le
API
Collibra
DataGalaxy
2 mois
520 €
France
Télétravail 100%
Profil : architecte ayant des connaissances sur l'implémentation de l'outil et son utilisation Attendus : Apporter un retour d’expérience concret (REX) sur la mise en oeuvre d’ OpenMetadata dans un contexte comparable. Challenger la position d’ OpenMetadata au sein de la data stack cible imaginée, en interaction avec les autres briques de la plateforme : ingestion, stockage, Transformation, visualisation, sécurité et gouvernance. Former les équipes socle sur : L’architecture fonctionnelle et technique d’OpenMetadata Les principaux cas d’usage (catalogue, lineage, quality, policy, tagging, etc.) Les modalités d’intégration (connecteurs, API, ingestion metadata). Orienter la stratégie de gouvernance en précisant Le positionnement d’OpenMetadata dans un écosystème comprenant un data catalog fonctionnel déjà existant (Zeenea) Les complémentarités et limites avec d’autres outils du marché (ex. Collibra, Atlan, DataGalaxy, etc.) Explorer plus particulièrement 2 sujets clés : Open Lineage : Intégration, couverture, limites, exploitation pour le suivi de la chaîne de valeur des données. Habilitations & Taggage : Fonctionnement natif d’OpenMetadata, articulation possible avec Apache Ranger et/ou Apache Atlas, gestion des rôles, politiques et classification des données.
Mission freelance
Junior Data Analyst – Power BI
Publiée le
DAX
Microsoft Power BI
Modélisation
3 ans
250 €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
‼️ Junior Data Analyst – Power BI ‼️ FREELANCE / PORTAGE SALARIAL - Longue mission 🔍 Nous recherchons un(e) jeune Data Analyst Power BI motivé(e) et prêt(e) à se lancer sur une mission opérationnelle très concrète : migration de dashboards Power BI existants. 📅 Démarrage ASAP 📍 Lyon 🎯 Mission : ✅ Migrer des rapports Power BI hébergés sur Power BI Server on-premise ✅ Revoir le modèle de données si nécessaire ✅ Garantir la cohérence visuelle & fonctionnelle des rapports Possibilité d'intégrer le client en CDI au bout d'un an de prestation
Offre d'emploi
Chef de projet DATA/MDM H/F
Publiée le
55k-60k €
Lyon, Auvergne-Rhône-Alpes
Vos missions principales : Pilotage de projets Data : vous conduisez des projets structurants de bout en bout, de la définition des besoins à la mise en production. Recueil et challenge des besoins métiers : vous identifiez les enjeux, proposez des solutions adaptées et accompagnez les équipes dans leur appropriation. Coordination transverse : vous êtes l'interface clé entre les équipes métiers, IT et data. Gouvernance de la donnée : vous contribuez activement à la mise en place de référentiels, à l'amélioration de la qualité des données, au catalogage et à la traçabilité. Suivi de la performance data : vous participez à la définition et au pilotage des KPIs liés à la valorisation des données.
Mission freelance
[FBO] Data Engineer avec expertise MLOps
Publiée le
Planification
Python
3 ans
400-590 €
Île-de-France, France
Télétravail partiel
Le bénéficiaire souhaite une prestation d’accompagnement dans le cadre de la mise en place d'une plateforme AIOPS. Les missions sont : En tant que DataOps Engineer avec expertise MLOps, les missions sont : - Deploiement et maintenance des pipelines de données scalables et résilients (batch/streaming) en utilisant Kafka, Airflow, Kubernetes. - Industrialisation du cycle de vie des modèles ML (de l’entraînement au monitoring en production) via des pratiques MLOps (MLflow, Kubeflow, etc.). - Automatisation de l’infrastructure et les déploiements (IaC avec Terraform/Ansible, CI/CD avec Jenkins/ArgoCD). - Garantie la qualité des données (testing, linéage, observabilité) et la performance des modèles (drift detection, monitoring). - Collaboration avec les Data Scientists, Data Engineers pour aligner les solutions techniques sur les besoins métiers. Responsabilités Clés 1. Pipeline de Données & Orchestration - Développement et optimissation des pipelines Kafka (producteurs/consommateurs, topics ) pour le traitement en temps réel. - Orchestrer les workflows avec Apache Airflow (DAGs dynamiques, opérateurs custom Python/Kubernetes). - Automatisation le déploiement et la scalabilité des pipelines sur Kubernetes (Helm, Operators, ressources custom). - Gérer les dépendances entre pipelines (ex : déclenchement conditionnel, backfills). 2. MLOps & Industrialisation des Modèles - Packager et déployer des modèles ML. - Mettre en place des pipelines MLOps : - Entraînement (MLflow, Pipelines). - Testing (validation des données, tests de modèles avec Great Expectations). - Déploiement (, A/B testing). - Monitoring (drift des features/prédictions, logs avec ELK/Prometheus). - Optimisation des performances des modèles en production (latence, ressources GPU/CPU). 3. Infrastructure as Code (IaC) & CI/CD - Définition l’infrastructure en Terraform (modules réutilisables pour Kafka, Kubernetes, IBM Cloud). - Automatisation les déploiements avec Jenkins/ArgoCD (pipelines multi-environnements : dev/staging/prod). - Configuration les clusters Kubernetes (namespaces, RBAC, storage classes, autoscale HPA/VPA). - Sécurisation des accès (Vault pour les secrets) 4. Qualité des Données & Observabilité - Implémentation des tests automatisés : - Qualité des données (complétude, cohérence, schéma) - Validation des modèles (métriques, biais). - Monitorisation les pipelines et modèles : - Métriques techniques (latence, erreurs) et métiers (précision, recall). - Alertes proactives (ex : Dynatrace ou Grafana). 5. Collaboration & Amélioration Continue Participation aux rituels Agile (refinement, retro) et promouvoir les bonnes pratiques Data/MLOps. Control des équipes sur les outils (Airflow, Kafka) et les processus (CI/CD, testing). Assurance d´une veille technologique (ex : évolutions de Kubernetes Operators pour Kafka/ML, outils comme Metaflow). Collaboration avec les Product Owners pour prioriser les besoins métiers.
Offre d'emploi
Data Engineer Databricks - Paris
Publiée le
AWS Cloud
Azure
Databricks
50k-60k €
Paris, France
Télétravail partiel
Ton quotidien chez Komeet sera rythmé par : - Animation des ateliers afin d’étudier et cadrer les besoins clients. - Analyser, conseiller, et faire des recommandations de façon à améliorer l’efficience et l’efficacité de la solution Databricks chez ton client. - Préconisation, conception et mise en œuvre du LakeHouse Databricks - Rédaction de dossiers d’architecture et spécifications techniques - Mise en œuvre des stratégies d’exploitation de la plateforme Databricks - Mis en œuvre des flux d’intégration (en batch ou streaming) de données structurées/non structurées et volumineuses. - Tests, validation et documentation des développements - Réalisation d’audits et projets d’optimisation Nos choix technologiques : - Talend - DataBricks - Snowflake - DBT - Starburst - Tableau / Power BI / Looker - AWS, Azure et GCP
Mission freelance
Ingénieur Système & Data – Monitoring / Maintenance / Big Data
Publiée le
Angular
Apache Spark
Hadoop
3 ans
Île-de-France, France
Télétravail partiel
Contexte de la mission : Au sein de la Direction des Systèmes d’Information d’un grand groupe du secteur financier, vous intégrerez une équipe en charge du pilotage des risques structurels et du reporting financier . L’objectif de la mission est de maintenir et faire évoluer une plateforme technique basée sur la technologie ClickHouse® , en garantissant sa stabilité, ses performances et sa sécurité . Missions principales : La prestation consiste à contribuer aux activités suivantes : Surveillance et monitoring de l’infrastructure ; diagnostic des incidents et anomalies Maintien en conditions opérationnelles de la plateforme (composants, performances, dette technique, montées de version) Rédaction et exécution de scripts de maintenance de l’infrastructure (équilibrage des disques, tuning système, automatisation) Application des exigences de sécurité et des procédures internes (remédiation des vulnérabilités, patching, CI/CD) Définition, estimation et planification des activités techniques Rédaction de spécifications et documentation techniques Support et accompagnement des équipes internes dans la gestion quotidienne de la plateforme
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Utiliser Qonto pour créer la microentreprise
- Traitement fiscal des cotisations sociales payées en 2025 sur CA micro-BNC 2024
- Calcul de l'indemnité de la rupture conventionnelle
- Service de comptabilité en ligne fiable et réactif pour une succursale de SASU
- Compte dédié micro-entreprise
- Gestion d’entreprise : astuces pour freelances IT
1945 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois