L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 6 112 résultats.
Mission freelance
Directeur de Programme Cybersécurité – Secteur Pharmaceutique
Publiée le
Audit
Cloud
Cybersécurité
12 mois
750-890 €
Île-de-France, France
Télétravail partiel
Notre client, acteur international majeur du secteur pharmaceutique , mène une transformation profonde de sa posture cybersécurité afin de garantir la résilience, la conformité et la continuité de ses opérations critiques à l’échelle mondiale. Dans ce cadre, il recherche un Directeur de Programme Cybersécurité expérimenté, capable de piloter un portefeuille complexe de projets stratégiques et d’appels d’offres dans un environnement fortement réglementé et multi-partenaires. 📌 Missions principales 1. Pilotage global du programme cybersécurité Définir et mettre en œuvre la stratégie de cybersécurité et la feuille de route associée. Piloter la trajectoire pluriannuelle de projets (IAM, SOC, GRC, Cloud Security, OT Security, Data Protection, etc.). Garantir la cohérence, la qualité et la rentabilité du portefeuille de projets. Identifier et gérer les interdépendances entre projets et programmes transverses (IT, Digital, Qualité, Compliance). 2. Gestion de projets majeurs & pilotage d’appels d’offres Conduire les appels d’offres cybersécurité : Rédaction de cahiers des charges et RFP techniques/fonctionnels. Analyse des offres, organisation des soutenances et sélection des prestataires. Négociation des contrats, SLA et gouvernance fournisseur. Superviser la mise en place opérationnelle des solutions retenues : cadrage, planification, suivi, acceptation et transfert vers les opérations. Coordonner les partenaires intégrateurs et éditeurs (infogérance, SOC, cloud providers, IAM vendors, etc.). S’assurer du respect des engagements contractuels, financiers et techniques. 3. Gouvernance, conformité et risk management Piloter la gouvernance cybersécurité en lien avec la DSI, la direction de la conformité, la qualité et les métiers. Garantir la conformité réglementaire (ISO 27001, NIST, GxP, GDPR, FDA 21 CFR Part 11). Assurer la traçabilité et l’auditabilité des actions de cybersécurité. Contribuer à la gestion des risques et à la mise à jour des politiques de sécurité du groupe. 4. Communication & accompagnement du changement Animer les comités de pilotage et de direction . Fournir un reporting régulier au CISO, CIO et à la direction générale. Accompagner les équipes métiers et IT dans la montée en maturité et la sensibilisation à la cybersécurité. Assurer la vulgarisation des enjeux techniques auprès des décideur
Mission freelance
Chef de Projet Cyber Junior
Publiée le
Cybersécurité
Gestion de projet
6 mois
300-350 €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Bonjour, Je suis à la recherche Chef de Projet Cyber Junior: Missions principales : Ø Accompagner les équipes projet dans la prise en compte des exigences de la discipline Cyber, en particulier en facilitant le travail des Security Champions (sensibilisation, cadrage, suivi des actions). Ø Coordonner et structurer l’activité des Security Champions, en assurant un appui méthodologique, un suivi régulier de leurs travaux et en garantissant la bonne articulation avec les autres parties prenantes (équipes techniques, référents cyber, pilote de la discipline). Ø Piloter la réalisation des états des lieux des vulnérabilités applicatives (SCA/SAST/DAST), en veillant à la complétude, à la cohérence et à la bonne exploitation des résultats fournis par les équipes techniques. Ø Contribuer à l’élaboration et à la priorisation des roadmaps de remédiation, incluant vulnérabilités applicatives et obsolescences, en facilitant l’arbitrage entre les enjeux métiers, planning projet et exigences de sécurité. Ø Définir et maintenir une grille de maturité Cyber par activité et par exigence, afin de donner de la visibilité sur le niveau d’avancement, les écarts, et les axes de progression. Ø Assurer le pilotage opérationnel au travers de rituels récurrents
Offre d'emploi
Product Owner Data H/F
Publiée le
45k-50k €
Annecy, Auvergne-Rhône-Alpes
Télétravail partiel
Nous recherchons un(e) Product Owner confirmé(e) responsable de l'optimisation de la valeur du produit afin de satisfaire les clients et capable de porter la vision produit au sein de l'organisation. Vous aurez la charge de : • Définir et communiquer la vision du produit • Alimenter, partager et prioriser le backlog avec l'équipe • Définir la roadmap stratégique du produit • Défendre le produit auprès des instances de direction • Être le point de convergence de l'ensemble des contributeurs du produit Référence de l'offre : ohsw8wehfq
Mission freelance
un Chef de Projet / Consultant Senior en Credit Management (H/F)
Publiée le
Cash Management
1 an
400-600 €
Île-de-France, France
Télétravail partiel
Dans le cadre d’une transformation stratégique au sein d’une nouvelle entité internationale, notre client du secteur énergie pilote un vaste programme d’optimisation du Credit Management , du cash-flow et des processus financiers. Vos missions Piloter la transformation des processus de gestion du risque client et du cash-flow. Mettre en place et optimiser les processus de crédit : réduction du DSO, amélioration du BFR. Gérer un programme d'assurance-crédit dans un cadre international. Suivre et évaluer les risques financiers clients/fournisseurs. Contribuer à la transformation digitale : outils SAP, ARC, Power BI, BOxi. Assurer la fiabilité du reporting et jouer le rôle de référent méthodologique. Proposer des innovations, nouveaux outils, études d’optimisation et simplification. Piloter l’activité de prêt entreprise de bout en bout.
Offre premium
Mission freelance
Release Manager
Publiée le
Gestion des risques
Gouvernance
Site Reliability Engineering (SRE)
6 mois
Paris, France
Au cœur d'un programme stratégique de transformation, vous agissez comme le chef d'orchestre de la livraison applicative pour des domaines critiques de la monétique. Votre rôle est de garantir la fluidité entre la conception produit et la mise en production réelle. Pilotage du Train (ART) : Vous dirigez les sessions de PI Planning et synchronisez les engagements de livraison des différentes squads. Gestion des Risques : Vous identifiez les dépendances critiques et résolvez les conflits de roadmap entre les équipes Tech, Produit et Sécurité. Gouvernance des Partenaires : Vous pilotez la relation opérationnelle et contractuelle avec les éditeurs de progiciels tiers, incluant le suivi budgétaire et les Change Requests. Suivi de la Performance : Vous monitorerez les KPIs de vélocité et de fiabilité pour assurer un reporting transparent auprès du management. Amélioration Continue : Vous diffusez les bonnes pratiques SRE et DevSecOps pour automatiser et sécuriser les cycles de release.
Mission freelance
[MISSION LONGUE] Administrateur Lakehouse / Cloudera – Expert Big Data (H/F)
Publiée le
Apache
Apache NiFi
Apache Spark
12 mois
400-650 €
Paris, France
Télétravail partiel
Client final : secteur paiement – mission longue – environnement Cloudera CDP Nous recherchons un Administrateur Lakehouse / Administrateur Cloudera confirmé ou senior pour accompagner l’un de nos clients grands comptes dans la gestion et l’exploitation de son écosystème Big Data. 🎯 Compétences OBLIGATOIRES (critères majeurs) 👉 Maîtrise parfaite des composants Lakehouse suivants : Apache Ranger (Data Security) Apache Atlas (Gouvernance & Lineage) Spark + Apache Zeppelin (Processing) NiFi (Ingestion) Apache Impala (Analytics) Hadoop (HDFS) + Apache Kudu (Data Lake) Hue (Serving / SQL UI) ➡️ Ces compétences sont indispensables : seuls les profils maîtrisant ces briques seront retenus. 🧩 Vos responsabilités Administrer et maintenir l’écosystème Cloudera / CDP (Cloudera Manager, HDFS, Yarn, Zookeeper…). Assurer le MCO/MCS : disponibilité, performances, sécurité, supervision. Documenter les procédures d’exploitation & rédiger des rapports synthétiques. Respecter les SLA et intervenir en cas d’incident. Travailler en environnement ITIL (gestion incidents, problèmes, changements). Automatiser les déploiements via Ansible (certificats, keystores, configurations). Utiliser les outils DevOps : GitHub , Jenkins . Exploiter les environnements Linux (analyse de logs, diagnostic). Participer aux réunions d’équipe, aux projets et aux comités. Être force de proposition sur l’amélioration continue et la supervision. 🌍 Environnement technique Cloudera CDP • Cloudera Manager • HDFS • Yarn • Zookeeper Apache Ranger • Apache Atlas • Spark • Zeppelin • NiFi • Impala Hadoop • Kudu • Hue Ansible • GitHub • Jenkins • Linux 📌 Profil recherché 5 à 7+ ans en administration Big Data / Hadoop / Cloudera impératif. Très forte expertise sur les briques Lakehouse listées ci-dessus. À l’aise en production, ITIL, sécurité, automatisation. Bon niveau d’anglais (échanges éditeurs Cloudera & fournisseurs). Consultant autonome, structuré, capable de rendre compte et d’améliorer l’existant. 🚀 Disponibilité immédiate ou rapide Si vous maîtrisez Cloudera + Ranger + Atlas + Spark + NiFi + Impala + Kudu , contactez-moi directement.
Offre d'emploi
Business Analyst Conformité
Publiée le
Business Analyst
3 ans
40k-72k €
400-570 €
Île-de-France, France
Télétravail partiel
En tant que Business Analyst Conformité , vous interviendrez sur les sujets suivants : Recueil et analyse des besoins métiers Conformité (LCB-FT, sanctions, embargo) Rédaction des spécifications fonctionnelles liées au filtrage et au criblage (clients, transactions, paiements) Paramétrage et évolution des règles de filtrage et scénarios Fircosoft Analyse des alertes (faux positifs / faux négatifs) et proposition d’optimisation des règles Participation aux projets de mise en conformité réglementaire (OFAC, UE, ONU, HMT, etc.) Coordination avec les équipes IT, Conformité, MOA/MOE et éditeurs Contribution aux phases de tests (UAT), recettes fonctionnelles et mise en production Rédaction de la documentation fonctionnelle et support aux utilisateurs Suivi des incidents, des évolutions et des demandes métiers
Mission freelance
Business Intelligence / Data
Publiée le
Microsoft Power BI
Microsoft SQL Server
Microsoft SSIS
3 mois
100-400 €
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
En tant que Consultant(e) Business Intelligence, vos principales missions seront : Exploitation des flux de données existants : alimentation des bases, extractions de données Maintenances correctives, évolutives et préventives sur les problématiques liées aux données mises à disposition des métiers ou des partenaires Analyse des besoins métier, appréhension du contexte des maintenances et projets ainsi que veille aux bonnes pratiques de développement Conception et développement de flux de données et/ou restitutions pour les projets à mettre en place Assurer le support de recette et les mises en production dans le respect des normes en vigueur
Mission freelance
DATA ENGINEER - SNOWFLAKE
Publiée le
Snowflake
6 mois
100-400 €
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
Dans le cadre d’un programme stratégique de modernisation de la plateforme data , notre client recherche un Data Engineer expérimenté (5 à 10 ans d’expérience) pour renforcer son pôle Data & Cloud Engineering. La mission s’inscrit dans un environnement à forte composante technologique, reposant sur une architecture cloud-first hébergée sur AWS , et visant à industrialiser, fiabiliser et automatiser les traitements de données à grande échelle. Le consultant interviendra sur la conception et l’optimisation des pipelines de données (Snowflake, DBT, Pandas), la gestion de l’infrastructure via Terraform , et la mise en place de processus de monitoring, sécurité et SLA . L’objectif principal est de garantir la performance, la qualité et la traçabilité des données tout en accompagnant la transformation digitale de l’entreprise dans un cadre agile et collaboratif .
Offre d'emploi
Ingénieur DevOps Big Data (H/F)
Publiée le
Ansible
Apache Kafka
Cloudera
1 an
55k-65k €
500-520 €
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
Support Technique Niveau 2 et 3 sur Cloudera Data Platform • Analyser, diagnostiquer et résoudre les incidents complexes impactant la plateforme Cloudera. • Assurer un support de niveau 2 et 3 pour les équipes techniques et métiers. • Gérer les escalades des incidents critiques et collaborer avec l’éditeur si nécessaire. • Implémenter et améliorer les outils de monitoring avancés pour détecter et anticiper les problèmes. • Optimiser la performance des services et traitements Hadoop, Spark et Kafka. Gestion et Optimisation de Kafka • Administrer et optimiser l’infrastructure Kafka sur Cloudera. • Gérer la scalabilité et la résilience des clusters Kafka. • Assurer une supervision efficace des topics, brokers et consommateurs. • Résoudre les incidents liés à la latence, au throughput et à la gestion des offsets. • Mettre en place des stratégies de sécurisation et de haute disponibilité de Kafka. Automatisation et Développement • Développer et maintenir des scripts Shell, Ansible et Python pour automatiser le support et l’exploitation. • Automatiser la gestion des incidents récurrents et les procédures de maintenance. • Déployer des pipelines CI/CD pour les services Cloudera, Kafka et les bases de données associées. Optimisation et Dimensionnement de l’Infrastructure • Travailler sur le dimensionnement et le tuning des clusters Cloudera pour une meilleure gestion des charges de travail. • Dimensionner les divers clusters ElasticSearch en fonction des consommations des ressources. • Analyser et proposer des évolutions d’architecture en collaboration avec les architectes en fonction des besoins métier. • Assurer une veille technologique et être force de proposition pour améliorer la plateforme. Documentation et Transmission de Connaissances • Documenter les incidents récurrents, les procédures de résolution, les bonnes pratiques et le manuel d’utilisation de l’offre. • Former les équipes internes sur les outils de monitoring, Kafka, Cloudera et l’analyse des incidents. • Rédiger des guides de troubleshooting pour faciliter le travail des équipes de support niveau 1 et 2.
Mission freelance
Consultant Data SAS / SQL – Migration & Modèle Pivot – Contexte Épargne
Publiée le
ETL (Extract-transform-load)
SAS
SQL
2 ans
400-490 €
Île-de-France, France
Télétravail partiel
Description de la mission : Dans le cadre d’un programme de modernisation du système d’information épargne , nous recherchons un consultant data confirmé pour intervenir sur la construction et l’industrialisation d’un modèle de données Pivot entre les systèmes existants et un nouvel outil de gestion. Vos missions : Analyser les traitements existants sous SAS Enterprise et comprendre les flux de données en place Concevoir et faire évoluer le modèle de données Pivot servant de passerelle entre les systèmes source et cible Industrialiser et fiabiliser les traitements SAS pour garantir la qualité et la traçabilité des données Participer aux phases de tests unitaires, intégration et suivi des anomalies Rédiger la documentation technique (SFD, suivi de compteurs, rapports de traitement) Contribuer à la préparation et au passage des runs de migration
Mission freelance
Data Engineer AWS (S3, Glue, Athena, Python) 5 à 10 ans/sal
Publiée le
AWS Glue
Python
6 mois
430-520 £GB
Paris, France
Télétravail partiel
Data Engineer AWS (S3, Glue, Athena, Python) 5 à 10 ans Anglais obligatoire Compétences recherchées : Data Engineer AWS (S3, Glue, Athena, Python) Tâches à traiter : Understanding of scientific data in the pharma CMC space Requirements clarification with stakeholders, effort estimation for PI planning Good knowledge of Lean & Agile practices AWS data engineering: S3, Glue (Jobs/Workflows), Athena ETL/ELT development: Python, Glue ETL, schema evolution, partitioning Data modeling: harmonized domain models, star/snowflake schemas, metadata management SQL optimization: Athena performance tuning, cost-aware query design, partition/pruning strategies Testing and quality: unit/integration tests for pipelines, DQ frameworks Documentation and KT: runbooks, architecture diagrams, KT planning and execution Migration experience: parallel-run strategy, cutover planning, backfill, data reconciliation
Mission freelance
‼️URGENT ‼️ 2x Data Analyst Power BI – Industrie ‼️
Publiée le
CI/CD
Microsoft Power BI
Python
1 an
360 €
Strasbourg, Grand Est
🔍 Nous recherchons deux Data Analysts Power BI pour renforcer une équipe projet dans l’industrie. La mission est de longue durée. 📍 Strasbourg (sur site obligatoire) 📅 Démarrages : 1 ASAP + 1 en janvier 🎯 Missions : ✅ Création & optimisation de dashboards Power BI ✅ Analyse et traitement de données (Python, SQL) ✅ Contribution aux workflows Git CI/CD ✅ Échanges réguliers avec les métiers pour comprendre les besoins 👉 3 à 4 ans d’expérience en Data Analysis 👉 À l’aise en environnement industriel 👉 Force de proposition et autonomie
Mission freelance
Business Analyst Senior (H/F) - Expertise DATA & Pilotage Commercial
Publiée le
Data analysis
Test fonctionnel
6 mois
400-520 €
Île-de-France, France
Télétravail partiel
Pour le compte d'un acteur majeur du secteur bancaire, nous recherchons un Business Analyst confirmé (6-9 ans d'expérience) pour rejoindre un projet stratégique de structuration des données commerciales. Vous serez le point de contact central entre les directions Métier (Pilotage Commercial) et les équipes techniques (DSI). Votre expertise en analyse de données sera déterminante pour garantir la fiabilité et la pertinence des solutions livrées. Vos missions principales : Analyser, challenger et formaliser les besoins des utilisateurs Métier liés au pilotage de la performance commerciale. Concevoir les solutions fonctionnelles et rédiger les spécifications détaillées pour la DSI. Prendre en charge la stratégie de recette et son exécution : préparation des jeux de données, validation des cas de tests, et analyse précise des résultats. Identifier et sécuriser les impacts du projet sur les applications existantes de reporting et de pilotage. Garantir la qualité et la cohérence des données tout au long du projet.
Offre d'emploi
Ingénieur de production-devops
Publiée le
DevOps
3 ans
Île-de-France, France
Nous recherchons pour le compte de notre client grand compte (secteur bancaire) un ingénieur de production devops. Les objectifs de la mission sont les suivants : Assurer le support technique des environnements de développement, de recette et de production. Déployer les nouveaux packages et releases applicatives. Coordonner et contribuer aux opérations de migration ainsi qu’aux répétitions associées. Maintenir la documentation technique liée aux déploiements, aux serveurs et aux flux de données. Assurer l’exploitation et le suivi de la production. Contribuer aux opérations d’upgrade des infrastructures techniques (OS, bases de données, middlewares, outils DevOps, etc.) Maîtriser les outils de monitoring (Dynatrace, OpenSearch). Mettre en œuvre et maintenir les outils DevOps (Ansible, Jenkins, Terraform, Argo CD, Docker). Créer et configurer des batchs sous l’ordonnanceur Autosys. Développer des scripts Shell pour l’automatisation. Industrialiser et automatiser les processus de release. Suivre les tests de performance et anticiper les évolutions techniques.
Mission freelance
Data Engineer Spark/Scala
Publiée le
Apache Spark
Scala
3 mois
330-400 £GB
Paris, France
Télétravail partiel
Data Engineer Spark/Scala Paris o Expérience dans la mise en œuvre de technologies et frameworks Big Data et NoSQL (Hadoop, Kafka, Spark, Scala, Hive, SolR, HBase, Kerberos) o Spark / Scala : confirmé o A l'aise avec le programmation fonctionnelle (connaissance des librairies ZIO, MONIX, CATS appréciée) o Expérience de travail dans un environnement Agile ; avec outils et méthodologies associés (Confluence, Jira, Scrum, Kanban) Au sein de la DSI Finance de la DSI, le poste recherché porte sur le besoin d’un Data Engineer Spark/Scala confirmé (5-6 ans d’expérience). Objectifs et livrables Objectifs Le prestataire intégrera le projet d’intégration en coordination avec le chantier assiette comptable de référence en tant que Data Engineer. Les développements sur ce chantier s’appuient sur la plateforme Datalake Finance, basée sur la distribution Hadoop HortonWorks qui collecte les données des différents systèmes de synthèse afin de répondre aux nouveaux besoins de reporting Finances & Risques (COREP, calcul RWA, IFRS9, etc.…) Les tâches seront les suivantes : • la mission consistera à prendre part aux développements, au sein du datalake pour acquérir les nouvelles sources de données, les assemblées et les distribuées aux consommateurs, tout en étant garant de la pérennité et la non-régression de l’outillage déjà en place • Vous participerez à la conception et à l’implémentation de ce projet et serez amené, à ce titre, à travailler en méthode Agile avec de nombreux acteurs métiers et les équipes de maintenance Compétences techniques o Expérience dans la mise en œuvre de technologies et frameworks Big Data et NoSQL (Hadoop, Kafka, Spark, Scala, Hive, SolR, HBase, Kerberos) o Spark / Scala : confirmé o A l'aise avec le programmation fonctionnelle (connaissance des librairies ZIO, MONIX, CATS appréciée) o Expérience de travail dans un environnement Agile ; avec outils et méthodologies associés (Confluence, Jira, Scrum, Kanban) Compétences demandéesCompétences Niveau de compétence Apache Kafka Avancé Apache Hadoop Confirmé Apache Hive Avancé SCALA Confirmé Spark Confirmé
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Calcul de l'indemnité de la rupture conventionnelle
- Service de comptabilité en ligne fiable et réactif pour une succursale de SASU
- Compte dédié micro-entreprise
- Utiliser Qonto pour créer la microentreprise
- Gestion d’entreprise : astuces pour freelances IT
- Freelance : peu de retours sur mes candidatures – vos stratégies ?
6112 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois