L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 4 987 résultats.
Mission freelance
Ingénieur Data / BI
Publiée le
Azure Data Factory
Databricks
Scala
12 ans
400-560 €
Île-de-France, France
Télétravail partiel
Les livrables sont : Code Source Documentation KPI qualité Compétences techniques Databricks - Expert - Impératif Spark SQL - Expert - Impératif Azure Data Factory - Confirmé - Important Scala - Confirmé - Souhaitable Description détaillée Contexte : Le projet Data PUB est le datamart TV qui vise à centraliser et fiabiliser les données nécessaires au pilotage et à l’analyse de l’activité publicitaire TV linéaire. Le datamart se source principalement d’OptiPub, base de référence regroupant les informations issues des différentes applications métiers de la régie publicitaire. Côté restitution, Ouranos fonctionne principalement avec une logique de self-BI : nous mettons à disposition des métiers un univers BusinessObjects et/ou un dataset Power BI standardisé, que les utilisateurs exploitent pour construire leurs propres tableaux de bord et analyses. La finalité est de fournir un socle de données unique et cohérent permettant aux équipes métier d’accéder rapidement à des informations fiables sur l’activité pub TV et de gagner en autonomie dans le reporting. Environnement technique : Azure Data Factory, Databricks, Spark Scala, SQL, Azure DevOps et Power BI. Missions : - Concevoir et développer des pipelines d’ingestion de données via Azure Data Factory. - Développer et optimiser des flux de transformation de données en Spark SQL. - Maintenir des pipelines de traitement de données en Scala (faible part) - Maintenir et développer de nouveaux indicateur de qualité de données - Participer au refactoring du code existant pour améliorer sa performance et sa maintenabilité - Garantir la qualité du code et veiller au respect des normes de développement au sein de l’équipe. - Implémenter des tests unitaires et assurer la fiabilité des solutions. - Maintenir les solutions de monitoring de l’application Digital. Profil recherché : - Profil orienté Analytics Engineer - Maîtrise avérée de Spark SQL - Bonne connaissance en modélisation BI - Expérience confirmée sur l’écosystème Microsoft Azure (Data Factory, Databricks, Azure DevOps). - Bonne connaissance de Git et des pratiques DevOps. - Sens de la communication, force de proposition et capacité à travailler en équipe. - Rigoureux, attaché aux bonnes pratiques de développement et à la qualité du code. Ingenieur Data 5-8 ans Définition du profil Il est garant du bon fonctionnement et de la disponibilité des données dont il a la responsabilité. Il assure la prévention des dysfonctionnements des données et contribue à la bonne utilisation de celles-ci
Mission freelance
Expert Workday F/H
Publiée le
Big Data
Pilotage
Workday
18 mois
100-500 €
Paris, France
Télétravail partiel
CONTEXTE Experience : 7 ans et plus Métiers Fonctions : Pilotage de projet ou de programme, Expert Spécialités technologiques : Data Visualisation, Restitution, Satisfaction client, Sage Protocoles de communication • Projet d’implémentation Workday (ensemble du scope RH, hors payroll) pour la Vague MISSIONS Objectifs : • Sécuriser l’interface Workday – Payroll (Sage) • Supporter l’interface avec notre Active Directory • Pilotage du Build des intégrations qui sera réalisé par le Partner Workday / intégrateur HR Path • Tests • Définition du plan de bascule détaillé en partenariat avec les différentes parties prenantes (IT / Business / Partner, etc.) • Autres activités en lien avec la mise en place d’intégrations avec Workday Expertise souhaitée Profil : • 7 ans d’expérience minimum sur ce poste • Expertise confirmée Workday • Expérience d’intégration avec Workday (Payroll) • Anglophone (ou Germanophone) • Sait collaborer avec plusieurs entités différentes • Sait travailler sous pression (deadline courte) Soft-Skills : • Leadership et esprit d’initiative • Rigueur et sens de l’organisation • Orientation résultats et satisfaction client • Gestion des attentes et des résistances au changement • Capacité à travailler en transversal avec les métiers, la DSI, la sécurité, etc. • Excellente communication écrite et orale
Mission freelance
Data Engineer/ Expert GCP
Publiée le
BigQuery
Cloud
Data science
12 mois
530 €
Toulouse, Occitanie
Mon Client recherche un Data Engineer expérimenté (min. 5 ans en Cloud Engineering GCP) pour intervenir sur un nouveau projet GCP natif dans le domaine Trade-Corporate Sales , à partir du 5 janvier 2026 pour une durée initiale d’un an. La mission, basée exclusivement sur site à Toulouse , vise à concevoir et construire la première itération de la solution cloud. L’expert interviendra sur la mise en place des composants et services GCP , le développement de pipelines de données (Cloud Storage, Dataform, BigQuery) ainsi que l’ intégration d’un moteur de machine learning conçu par les data scientists (probablement via Vertex AI). Il contribuera également à la création d’un tableau de restitution sous Power BI et à la coordination avec une équipe fullstack . Au-delà de la réalisation technique, la mission inclut un fort volet de transfert de compétences pour autonomiser l’équipe interne. Le profil attendu doit allier expertise technique GCP , capacité de conception et de documentation fonctionnelle , autonomie , engagement et aisance relationnelle en environnement collaboratif anglophone.
Offre d'emploi
Développeur backend Java Core Sénior - Multithreading calculs distribués (7 ans et plus)
Publiée le
Big Data
DevOps
Java
3 ans
50k-70k €
500-600 €
Paris, France
Télétravail partiel
🏭 Secteurs stratégiques : Banque d’investissement PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Au sein d’une équipe qui travaille sur une application d'aide à la décision pour le trading. Elle permet de gérer des données historiques sur les clients, et les données de marché, ainsi que des données intraday et des mesures de risques, il permet aussi de visualiser les axes de trading. L’application utilise Angular 15 comme front end, Java 11 et Python 2 en back end, et Apache ignite pour le calcul distribué, et Mongo DB comme base de données. Pour la partie déploiement, on utilise Docker / Kubernetes et Jenkins
Offre d'emploi
Business Analyste Data
Publiée le
Méthode Agile
40k-56k €
Bordeaux, Nouvelle-Aquitaine
Le Business Analyst Data intervient au sein d’une squad Agile, assurant le suivi quotidien du run et la résolution des incidents. Il accompagne les utilisateurs, analyse leurs besoins et anime des workshops pour définir et clarifier les exigences métier. En collaboration avec les équipes techniques, il coordonne les actions connexes (ouvertures de flux, scheduling…), participe à la conception et à la spécification fonctionnelle des solutions data, ainsi qu’au paramétrage de la plateforme. Il contribue au packaging et à la livraison des évolutions, réalise les tests unitaires et d’intégration, et assure le support lors des mises en production ainsi que durant la période de garantie.
Mission freelance
Expert CyberSécurité Cloud & GenAI
Publiée le
Azure Active Directory
Microsoft Fabric
Python
1 an
550-600 €
Paris, France
Télétravail partiel
Intégré(e) aux équipes Sécurité et Architecture, vous interviendrez comme expert sécurité sur des plateformes Cloud, Data et GenAI , avec une forte dimension gouvernance et conseil. Vos principales responsabilités : Concevoir et déployer des contrôles de sécurité sur Azure et M365 Sécuriser les tenants Azure , souscriptions et identités Implémenter des pratiques DevSecOps Réaliser des analyses de risques liées aux usages IA et LLM Auditer les architectures et formuler des recommandations sécurité Participer aux revues de code et à l’assistance sécurité des équipes 🛠️ Gouvernance & DevSecOps Définition de blueprints sécurité Mise en conformité des environnements Cloud & IA Automatisation des contrôles et supervision sécurité
Mission freelance
Chef de Projet Technique DATA
Publiée le
BI
Coordination
Data analysis
6 mois
Paris, France
Télétravail partiel
Dans le cadre de l’évolution de ses systèmes décisionnels, nous recherchons un Chef de Projet Technique confirmé. Vous rejoindrez une équipe Data engagée dans l’optimisation des flux décisionnels et la maîtrise des impacts transverses. Votre rôle Vous structurez et coordonnez les analyses d’impacts, pilotez les adaptations nécessaires et sécurisez l’avancement opérationnel. Vos responsabilités • Centraliser et analyser les impacts sur les flux, référentiels et composants Data. • Piloter les ateliers techniques et les échanges avec les équipes Data, IT, et Métiers. • Construire une vision consolidée des risques, dépendances et actions à engager. • Maintenir le planning et coordonner les contributeurs internes. • Préparer les livrables de reporting et les comités projet. • Garantir la qualité des analyses produites et la fiabilité des éléments de décision.
Mission freelance
Architecte Data
Publiée le
Amazon S3
AWS Glue
DBT
6 ans
680-700 €
Paris, France
Télétravail partiel
Dans le cadre de l’accélération de sa stratégie data & omnicanale , un acteur majeur du retail / e-commerce renforce sa Data Platform afin de mieux exploiter ses données clients, ventes, logistique et marketing. Nous recherchons un Architecte Data pour accompagner les équipes et garantir une architecture performante, scalable et sécurisée, capable de soutenir de forts volumes et des usages analytiques avancés. Votre rôle Intégré(e) aux équipes Data (Product Owners, Data Engineers, Data Scientists, équipes Marketing & Supply), vous interviendrez de manière transverse sur la conception et l’évolution de l’architecture Data de la plateforme. Vos principales responsabilités Définir et garantir la cohérence de la stack Data (ingestion, traitement, exposition) Assurer le respect des normes et standards d’architecture Data & Cloud Mettre en place et sécuriser les contrats d’interface entre les différentes équipes (data, applicatif, BI) Auditer l’architecture existante et proposer des axes d’optimisation (performance, coûts, scalabilité) Accompagner les équipes sur les bonnes pratiques data (qualité, gouvernance, sécurité) Réaliser une veille technologique et contribuer à l’introduction de nouvelles solutions data Participer aux phases de tests et d’intégration de nouvelles briques techniques 🛠️ Developer Experience & FinOps Contribution à l’écriture et à l’industrialisation de modules Terraform / Terragrunt Accompagnement des équipes sur l’ Infrastructure as Code et les pipelines CI/CD Définition des standards de développement, de déploiement et d’exploitation Mise en place du suivi budgétaire par équipe et par usage (FinOps) Implémentation des outils de monitoring, alertes et seuils Identification, priorisation et pilotage des optimisations de coûts Cloud
Offre d'emploi
INGÉNIEUR(E) DEVOPS -INFRASTRUCTURE AS CODE (IaC)
Publiée le
Azure Kubernetes Service (AKS)
F5
ITIL
3 mois
40k-45k €
400-550 €
Le Havre, Normandie
Télétravail partiel
INGÉNIEUR(E) DEVOPS -INFRASTRUCTURE AS CODE (IaC) ype de mission : Régie Durée : 3 mois (renouvelable) Démarrage souhaité : Immédiat Localisation : Présentiel 3 j/semaine minimum à prévoir sur site client au Havre Contexte : Éditeur de logiciels, environnement cloud hybride Azure/on premisesCONTEXTE DE LA MISSIONDans le cadre de la consolidation de son infrastructure cloud hybride Azure et de sa transformation vers une architecture microservices, notre client recherche un Ingénieur DevOps / IaC spécialisé en automatisation Terraform/Ansible sur environnements Azure pour reprendre, rationaliser et industrialiser l'existant.L'environnement technique repose sur une infrastructure hybride Azure/on premises à dominante Microsoft et Linux (Red Hat, Debian), avec une trajectoire d'évolution vers des architectures conteneurisées sur des distributions Kubernetes cible à statuer (RKE2, K3s, OpenShift). MISSIONS PRINCIPALES1. Reprise et rationalisation IaC (prioritaire) • Auditer les scripts Terraform et Ansible existants sur environnements Azure/on prem, identifier les dettes techniques et risques • Refactoriser en modules Terraform Azure réutilisables (VNet, NSG, VM, AKS, ACR, Key Vault, etc.) et rôles Ansible avec conventions de nommage/versioning • Identifier et automatiser les tâches récurrentes manuelles/semi-annuelles via Azure DevOps Pipelines ou GitHub Actions • Documenter l'ensemble (guides d'usage, runbooks d'exploitation)2. Automatisation cycle de vie des certificats SSL/TLS• Concevoir et mettre en œuvre des pipelines de discovery, renouvellement et déploiement automatisés intégrant Azure Key Vault • Intégrer avec le PKI existant ou ACME le cas échéantImplémenter mécanismes de validation et rollback• Coordination appréciée avec load balancers F5 (LTM/WAF) et pare feu Check Point3. Contribution à la transformation – architecture microservices• Définir et appliquer les bonnes pratiques IaC/DevOps/GitOps sur Azure (stratégies de branches, PR, promotions multi environnements via Azure DevOps ou GitHub)• Mettre en place et administrer un sandbox Kubernetes agnostique (RKE2/K3s/OpenShift) avec intégration Azure (Azure Arc si pertinent)• Outiller l'évaluation des stacks (ingress, CNI/CSI, Azure Monitor, sécurité)• Produire matrices de critères, recommandations et runbooks MCO (Maintien en Condition Opérationnelle) / MCS (Maintien en Condition de Sécurité)COMPÉTENCES TECHNIQUES REQUISESObligatoires• Microsoft Azure : maîtrise des services IaaS/PaaS (VNet, NSG, VM, Storage, Application Gateway/WAF) et expérience fournie en admin Azure• Azure DevOps ou GitHub Actions : pipelines CI/CD, intégration Terraform, gestion des secrets via Key Vault, policy as code• Systèmes Linux (Red Hat/Debian) et Windows Server, virtualisation (proxmox, hyper-v, nutanix) /bare metal• Maîtrise de développement scripts Terraform, Ansible, bash/sh Appréciées• Kubernetes: automatisation distributions agnostiques (RKE2/K3s/OpenShift), Helm/Kustomize, ingress, RBAC, ARGO/CD• Load balancers F5 (LTM/WAF) et pare feu Check Point• Connaissances développement Python• Certification ITIL et Kubernetes (CKA) PROFIL RECHERCHÉIngénieur(e) DevOps / IaC (5–10 ans d'expérience) orienté automatisation sur cloud-hybrid, capable d'auditer et de rationaliser des patrimoines IaC hétérogènes, alliant vision d'architecture cloud, rigueur documentaire et capacité à élever le niveau des équipes internes Windows/Linux. --
Offre d'emploi
Coach Technique et Développeur
Publiée le
Cloud
DevOps
1 an
40k-45k €
400-540 €
Île-de-France, France
Télétravail partiel
Descriptif du poste Coaching des ingénieurs de la squad Voices (pratiques craftsmanship, montée en compétences sur les technologies de développement de la squad) et prise en charge d'une partie des développements. Répartition des activités Coaching 35% pair programming env. 5% de support au delivery des développeurs de l'équipe (sous format 'cours magistraux' en salle de réunion par exemple) env. 10% relecture de code env. Delivery 50% Cette répartition d'activité en % est indicative et à ajuster selon les besoins de la squad en accord avec l'IT Owner de la squad.
Mission freelance
Data Analyst - Talend
Publiée le
SQL
Talend
2 ans
350-500 €
Niort, Nouvelle-Aquitaine
Télétravail partiel
Pour l'un de nos clients niortais, nous recherchons un Data Analyst Talend : '- Préparer, nettoyer et mettre en qualité les données - Livrer les TDB et accompagner les utilisateurs dans leurs usages - Fournir un appui analytique à la conduite d’exploration et à l’analyse complexe de données - Être force de proposition dans les analyses de données, la sélection et définition des KPI, les tableaux de bord et les formes de présentations possibles. - Communiquer à travers les équipes du service, Poste basé à NIORT.
Mission freelance
Business analyst Data
Publiée le
Business Analyst
Data quality
1 an
520-580 €
Paris, France
Télétravail partiel
Notre client, filiale bancaire d’un grand groupe industriel international, recherche un(e) Business Analyst Data confirmé(e) pour renforcer ses équipes. Vos missions principales Assurer la qualité des données dans le respect des standards définis Traiter et suivre les tickets liés aux anomalies ou demandes d’évolution des données Travailler en interaction étroite avec les métiers Data (Data Stewards, Data Owners) pour garantir la cohérence et la fiabilité des données Participer aux comités de pilotage et aux ateliers métiers/IT pour la mise en œuvre des actions correctives Suivre et documenter les processus de data quality et les indicateurs de performance associés Contribuer à l’amélioration continue des outils et des process de gouvernance de données
Mission freelance
Manager Réseau Sécurité Datacenter - Cloud privé
Publiée le
Cloud
24 mois
450-900 €
Paris, France
Télétravail partiel
PROPULSE IT recherche un Manager/Pilote - Réseau et Sécurité Datacenter afin d'assister le client dans le pilotage de l'aquipe de consultants experts Le service s'occupe de la conception, la mise en œuvre et l'industrialisation de l'Infra réseau et sécurité au sein des datacenters et cloud privé. Cela, de l'élaboration de la stratégie, la conception, à la mise en œuvre technique et le support des Infras en datacenter (Cloud privé on premise) Le poste consiste à : - Seconder le manager des équipes d'experts - Accompagner l'établissement de la Roadmap - Optimiser les processus et les livrables, ainsi que l'organisation - Accompagner le pilotage des projets - Gérer les priorité, fluidifier le fonctionnement - Budgets Contexte des projets de l'équipe : Virtualisation, Stockage et le socle Réseau datacenter - Etude et analyse des opportunités d'évolution des infras Réseau & Sécurité - Mise en œuvre de projets d'infras réseau & sécurité - Support technique N3 sur les technologies réseau & sécurité Contexte technique • Réseaux LAN : Cisco Fabric Path/VxLAN, • Solutions de sécurité dans le cloud (Proxy ZScaler, Idp OKTA …) • Infras de Sécurité : Checkpoint, Fortinet, Palo Alto et F5 (LTM et APM) • Scripting Shell, Ansible Network Automation, Terraform • Système : Redhat linux 8, Windwos 2019 Les compétences fonctionnelles attendues sont les suivantes (par ordre de priorité) : • Conception des architectures et expertise • Support N3 en réseau et sécurité, notamment ZScaler, Checkpoint, Fortinet et F5 • Rédaction/ Enrichissement de base de connaissances • Reporting de l'activité projet au management
Mission freelance
Expert Cloud
Publiée le
Cloud
24 mois
400-800 €
Paris, France
Télétravail partiel
PROPULSE IT recherche pour un de ses clients un Expert Cloud Dans le cadre de notre transformation numérique (Go2Cloud) et de l'optimisation des infrastructures d'hébergement d'applications web et des sites internet, notre client recherche un Expert Cloud capable de concevoir, déployer et maintenir des architectures cloud robustes et sécurisées. Ce rôle clé impliquera une forte expertise technique ainsi qu'une capacité à accompagner les équipes dans la modernisation des applications et l'industrialisation des processus. Cette modernisation a pour objectif la préparation à la migration d'une API architecturée en MicroServices (Symfony PHP / API REST) actuellement sur un hébergement « OnPremise » chez un hébergeur (Virtual Machine VMWare) vers un hébergement dans le Cloud public. Les compétences du profil sont demandées sur l'environnement Microsoft Azure ET sur Amazon Web Services. En effet un arbitrage interne est en cours pour déterminer le Cloud cible, cet arbitrage aura été effectué pour le début de cette mission. L'expert Cloud interviendra sur les aspects suivants : 1. Modernisation des applications - Accompagnement à la transformation applicative (microservices, conteneurisation, mise en place de workflows) - Refactorisation / Réarchitecture des applications nécessaires - Migration d'applications vers le cloud en respectant les meilleures pratiques du Cloud Provider choisi (Azure ou AWS) 2. Déploiement et exploitation des plateformes Cloud public - Mise en place et gestion des infrastructures dans la landing zone Cloud public - Supervision et optimisation des performances des environnements cloud - Maitrise des coûts générés par les ressources cloud 3. Conception et architecture cloud - Définition d'architectures scalables, sécurisées et résilientes - Gestion de la sécurité et des bonnes pratiques sur le Cloud public 4. Orchestration et gestion des conteneurs - Déploiement et administration d'applications conteneurisées - Maîtrise de Kubernetes et des services Cloud public associés - Automatisation et gestion des workflows via des outils adaptés 5. Automatisation et DevOps - Mise en œuvre d'outils Infrastructure as Code : Terraform, Helm, ArgoCD - Développement et optimisation des pipelines CI/CD (DevOps, GitLab CI/CD) - Déploiement et gestion des stratégies GitOps
Offre d'emploi
BA/MOA - Data Quality (7 ans et plus)
Publiée le
Gestion de projet
Méthode Agile
3 ans
45k-70k €
450-620 €
Paris, France
Télétravail partiel
🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 💡 Contexte /Objectifs : Dans le cadre de la réglementation Basle III, le référentiel client CIB doit améliorer son niveau de qualité et s'aligner avec les autres Référentiel de la banque. En lien avec les équipes IT et Ops, la mission proposée a pour objectifs de lister les améliorations techniques et opérationnelles nécessaires pour spécifier les actions (MOA). 💡 Missions : A l'aide de la documentation et en interviewant les entités, lister les améliorations nécessaires pour améliorer la qualité du référentiel. Spécifier les actions opérationnelles et les besoins de développements pour s'aligner au Référentiel groupe. Analyse et Integration de nouveaux indicateurs de qualité produits par CDO et le programme (CRM KQI) dans le BAU. A l'aide des outils informatiques (Base de données Python, Excel, Business Object, Tableau), extraire et produire les indicateurs et volumétries permettant de piloter les progrès de la qualité. Participer aux réunions et aux groupes de travail, rédiger les minutes et les conclusions. préparer les supports de réunions. En tant que MOA du projet pour Référentiel Ops, rédiger les documentations (spécifications, procédures, ...).
Offre d'emploi
Consultant Sécurité Opérationnelle / DLP – Secteur Banque & Services Financiers
Publiée le
Cybersécurité
Prévention des pertes de données (DLP)
3 ans
Île-de-France, France
Télétravail partiel
Nous recherchons un Consultant Sécurité Opérationnelle pour intervenir au sein d’une équipe SSI rattachée à la Direction des Risques, du Contrôle Permanent et de la Conformité d’un acteur majeur du secteur bancaire. 🎯 Périmètre de la mission Le consultant interviendra sur un large scope sécurité incluant : Analyse et catégorisation des alertes DLP Sensibilisation des collaborateurs à la sécurité des SI Signalement des incidents de sécurité Amélioration des politiques DLP Gestion et suivi des scans de données sur les NAS Création et maintien de procédures sécurité Réponse aux incidents de sécurité (antivirus, phishing, vishing, malware…) Traitement des spams et sollicitations associées Livrable attendu Reporting hebdomadaire sur les évènements DLP et les incidents de sécurité traités
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Freelance : peu de retours sur mes candidatures – vos stratégies ?
- Gestion d’entreprise : astuces pour freelances IT
- Traitement fiscal des cotisations sociales payées en 2025 sur CA micro-BNC 2024
- L'EI à l'IS est-elle toujours plus intéressante qu'à l'IR ?
- ESN qui cherche à trop marger
- micro entreprise avant validation ARE
4987 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois