Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 1 605 résultats.
CDI

Offre d'emploi
Data Architect

Publiée le
AWS Cloud
Azure
BI

65k-80k €
Paris, France
Télétravail partiel
Rejoignez la Data Fabric d'INVENTIV IT pour concevoir et faire évoluer des Platform Data et Data Market Place complexes pour nos clients internationaux. En tant qu'Architecte Solution Data Senior, vous serez le garant de l'architecture Cloud Hybride (AWS/Azure) , de la performance Big Data et de la Gouvernance de nos solutions. 🎯 Vos Missions et Livrables Clés (Alignement Technique) 1. Architecture Cloud Hybride et Stratégie Conception Hybride : Définir et concevoir l'architecture de la plateforme Cloud Data cible en tirant parti des services de données d' AWS et AZURE . Feuille de Route : Élaborer la roadmap d'implémentation et de migration vers ces plateformes en intégrant les solutions Snowflake et Databricks . Gouvernance Data : Définir et implémenter la Gouvernance des Données (qualité, sécurité, accès) au sein de la Data Fabric et du Data Market Place. BI & Analytics : Auditer les systèmes BI historiques et concevoir des solutions modernes d'analyse et de BI sur la nouvelle plateforme. 2. Industrialisation et Ingénierie Avancée DataOps & DataSecOps : Mettre en œuvre et garantir les meilleures pratiques DevOps et DataSecOps dans le cycle de vie des données (CI/CD, sécurité par conception). Transformation Modulaire : Standardiser et industrialiser les transformations de données critiques en utilisant l'outil DBT ( Data Build Tool ). Augmentation/ML : Évaluer et intégrer des outils d'aide à la conception ou d'analyse avancée comme Dataiku dans l'écosystème du Datalab. FinOps : Intégrer les pratiques FinOps pour optimiser les coûts sur les plateformes AWS et AZURE . 3. Leadership, Conseil et Design Animation : Mener des ateliers collaboratifs et de Design Thinking pour traduire les besoins métier en architectures techniques précises. Support & Référentiel : Être le référent technique Snowflake/Databricks et fournir un support d'expertise aux Data Engineers et aux équipes Sécurité Cloud. Audit et Documentation : Réaliser des audits complets et garantir une restitution documentaire de haut niveau (normes, architectures cibles). 🛠️ Environnement Technique Vous évoluerez sur un environnement Cloud et Big Data complet : DomaineTechnologies et Concepts Cloud PublicAWS (Architecture) & AZURE (Architecture) Plateformes DataSnowflake (Data Warehouse), Databricks (Engineering/ML), DBT (Transformation) Outils AvancésDataiku , Big Data , Solutions BIMéthodes & OpsDevOps , DataSecOps , Gouvernance , FinOps
Freelance

Mission freelance
Mainframe business analyst

Publiée le
Business Analyst
Mainframe

12 mois
430-480 €
Paris, France
Télétravail partiel
Hanson Regan is looking for Mainframe business analyst for a 12 month mission based in Paris Le projet vise à remplacer depuis Novembre 2024 la solution globale de paiements du client. Dans ce contexte d’hypercare / atterrissage pour passage en RUN, nous souhaitons renforcer l’équipe avec un profil de Designer (Business Analyst comptabilité de Trésorerie). La mission se déroule dans un contexte international (les échanges écrits / parlés se font en français et/ou anglais) et dans un environnement agile. Missions : • Contribuer aux clôtures comptables ; • Suivre les solutions déjà livrées, et les anomalies en cours ; • Identifier les éventuelles nouvelles anomalies et collecter les besoins de la comptabilité dans un souci d’amélioration des processus ; • Rédiger nouvelles anomalies dans outil JIRA groupe ; • Piloter et réaliser des tests ; • Travailler sur des reprises d’historiques ; • Animer des ateliers en français et en anglais avec les différents contributeurs fonctionnels projet (métiers; Tech France et Central; éditeur) ; • Suivre opérationnellement le bon fonctionnement de la solution. Compétences techniques : Technologie Mainframe (Cobol / DB2 / IMS) - Niveau 3 sur 4 Confluence - Niveau 3 sur 4 JAVA - Niveau 2 sur 4 Suite Office - Niveau 2 sur 4 SASGuide - Niveau 2 sur 4 SAS Mainframe - Niveau 2 sur 4 BUS - Niveau 2 sur 4 Monde Open (SAS UNIX, Plan VTOM) - Niveau 2 sur 4 MicroStrategy (EDS) - Niveau 2 sur 4 Application SAP (gestion des référentiels, rejets, etc) - Niveau 2 sur 4 Teletravail: 2 jours de présentiel à Courbevoie Start Date: ASAP End Date: 17/11/2026 Afin de répondre aux besoins de nos clients, nous n'acceptons que les candidatures de freelances travaillant au sein de leur propre entreprise (SAS, SASU, SARL, EURL, etc.). N'hésitez pas à me contacter si vous souhaitez discuter de ce poste plus en détail.
Freelance

Mission freelance
Lead Dev Python

Publiée le
PySpark
Python

6 mois
Paris, France
Télétravail partiel
Lead dev python / spark, freelance, 6 mois de contrat initial, paris intramuros Attractives opportunité pour un(e) Lead Developer / Python de rejoindre notre client final basé dans Paris intramuros et qui accompagne quotidiennement des millions de particuliers et de professionnels. Vous interviendrez en tant qu’expert en développement Python / Spark au sein d'une petite équipe sur un projet data innovant. Tâches principales · Lead Dev Python + Spark / PySpark · Fournir des conseils · Intervention sur des opérations exceptionnelles · Faire évoluer la plateforme · Organiser et structurer des mises à jour de versions
Freelance

Mission freelance
Stream Lead GL / FA / AR – Oracle ERP Cloud Finance

Publiée le
Oracle

6 mois
810 €
Paris, France
Description du poste Nous recherchons un Stream Lead Oracle ERP Cloud Finance expérimenté, disposant d’une expertise approfondie sur les modules General Ledger (GL) , Fixed Assets (FA) , Accounts Receivable (AR) et Subledger Accounting (SLA) . Le consultant sera responsable de la conception et de la mise en œuvre de solutions différenciantes répondant aux besoins du client, en s’appuyant sur une maîtrise approfondie des processus financiers et de la technologie Oracle Cloud. Missions principales Traduire les besoins métier du client en solutions fonctionnelles et techniques Oracle ERP Cloud . Participer à la définition de l’architecture de la solution et à la planification du delivery . Collaborer avec les équipes projet pour garantir la cohérence, la performance et la maintenabilité des livrables. Piloter et encadrer une équipe de consultants sur les domaines GL, FA, AR et SLA. Animer des ateliers de conception et de validation avec les parties prenantes métier et IT. Contribuer aux décisions clés du projet et proposer des solutions transverses aux problématiques identifiées. Produire la documentation fonctionnelle et technique : design, configuration, plan d’implémentation. Accompagner les phases de tests, d’analyse des anomalies et de correction . Assurer la montée en compétence des membres de l’équipe sur la solution Oracle Cloud. Participer activement à l’ amélioration continue des processus et des solutions livrées. Compétences requises Expertise confirmée sur les modules Oracle ERP Cloud : General Ledger (GL) Fixed Assets (FA) Accounts Receivable (AR) Subledger Accounting (SLA) Maîtrise de la Requirements Analysis , Solution Architecture , Solution Planning , Costing & Pricing . Solides compétences en pilotage d’équipe et en prise de décision fonctionnelle . Capacité à animer des ateliers métiers et à interagir efficacement avec des interlocuteurs variés (métier, IT, direction). Aptitude à concevoir des solutions innovantes et évolutives alignées avec les standards du secteur. Excellente communication écrite et orale en français et anglais . Profil recherché Expérience significative sur des projets Oracle ERP Cloud Finance (6–10 ans minimum). Capacité démontrée à encadrer des équipes multi-sites. Expérience dans un environnement Agile ou hybride . Basé en France (obligatoire). Informations complémentaires Langues : Français et Anglais courants Localisation : Paris Présence sur site : 60 % Disponibilité : ASAP
Freelance

Mission freelance
Expert Alteryx H/F

Publiée le
Alteryx

3 ans
Paris, France
Télétravail partiel
Mission principale Concevoir, optimiser et maintenir des workflows complexes dans Alteryx afin de répondre aux besoins de transformation, d’automatisation et de fiabilisation des données au sein des équipes métiers et IT. L’expert Alteryx sera également chargé d’accompagner les utilisateurs dans l’adoption de la plateforme et la mise en place des bonnes pratiques. Responsabilités Analyser les besoins métiers et traduire les exigences en solutions dans Alteryx. Concevoir, développer et maintenir des workflows et macros complexes (préparation, transformation et automatisation des données). Optimiser la performance et la robustesse des processus existants. Mettre en place des standards et bonnes pratiques pour l’utilisation d’Alteryx au sein des équipes. Former et accompagner les utilisateurs (analystes, risk managers, contrôle de gestion, etc.). Participer à l’intégration d’Alteryx avec d’autres systèmes (bases de données, BI, cloud). Assurer la documentation et la traçabilité des workflows. Contribuer à la veille technologique autour des outils d’automatisation et de data preparation. Compétences techniques Maîtrise approfondie de Alteryx Designer et Alteryx Server . Excellentes connaissances en manipulation et modélisation de données. Bonne maîtrise du SQL (optimisation de requêtes, jointures complexes). Connaissance d’outils complémentaires : Tableau, Power BI, Python ou R (serait un plus). Compréhension des architectures data (ETL, API, entrepôts de données). Connaissance des environnements cloud (Azure, AWS ou GCP) appréciée. Compétences fonctionnelles Compréhension des activités et produits des marchés financiers (actions, taux, dérivés, change, etc.). Sensibilité aux problématiques de conformité, risque et reporting réglementaire. Capacité à dialoguer avec des interlocuteurs variés : métiers, IT, data engineers, contrôleurs.
CDI
Freelance

Offre d'emploi
Business Analyst technico-fonctionnel modélisation des données

Publiée le
Business
Modélisation

24 mois
55k-60k €
393-600 €
Paris, France
Télétravail partiel
Compétences techniques : Solide compréhension des principes de modélisation de données (modèle relationnel, en étoile, ...). Expérience significative sur des projets data cloud GCP. Très bonne maîtrise de BigQuery et du langage SQL avancé. Bonne connaissance des services GCP : Cloud Storage, etc. Connaissance d'outils de transformation de données. Connaissance de Collibra, Jira et Confluence. Soft skills Esprit analytique, rigueur, pédagogie. Aisance relationnelle et capacité à travailler en autonomie comme en équipe. Capacité à vulgariser des concepts techniques auprès d'interlocuteurs non techniques. Anglais B2/ C1 minimum Compétences fonctionnelles Expérience avérée en recueil de besoin métier, rédaction de spécifications fonctionnelles, conception de solutions data. Capacité à interagir avec des équipes pluridisciplinaires (métier, IT, data science, PO). Connaissance du secteur aérien, de la distribution ou de l'e-commerce est un plus (GDS, NDC, offres dynamiques...). Sur site 3 jours par semaine à Toulouse ou Paris
CDI

Offre d'emploi
Manager - Practice Azure H/F - CDI - PARIS IDF

Publiée le

85k-95k €
Île-de-France, France
Télétravail partiel
Manager - Practice Azure H/F - CDI - PARIS IDF Je recherche pour le compte de mon client, Expert Cloud, son/sa futur(e) Manager de la Practice Azure. L'équipe conçoit et déploie des architectures d'infrastructure modernes avec des solutions cloud publiques et hybridess s'appuyant sur la plateforme Azure. En tant que Manager - Practice Azure, vous serez amené(e) à : Participer à la création et au développement du pôle (recrutement, participation aux phases d'entretien, monter en compétences de vos collaborateurs, entretiens annuels…) Organiser et encadrer les réunions d'équipe Piloter les projets et assurer le bon delivery Avoir des objectifs d'équipe et jouer un rôle dans le développement de la marque employeur Participer aux phases d' avant-vente Définir les solutions en fonction des exigences et contraintes clients Superviser et mettre en œuvre , dans le cadre des projets, les préconisations techniques établies dans le cadre des cahiers des charges Définir et améliorer les standards , patterns d'architecture et le catalogue de services Assurer une veille technologique Profil recherché : Expérience confirmée en tant qu'Architecte Cloud Azure, ainsi qu'une expérience de pilotage de projet technique. Forte expertise sur Microsoft Azure et son écosystème Une première expérience managériale et/ou Lead Technique Curieux(se), dynamique, esprit leadership Belle expression écrite et orale, en français et en anglais. Le poste est à pourvoir ASAP (démarrage selon votre préavis) à Paris IDF , en CDI. Vous vous projetez dans cet environnement ? Cette offre correspond à votre projet de carrière ? Envoyez-moi votre CV !
Freelance

Mission freelance
POT8639 - Un consultant SAP BO/BI/BW Sur Malakoff

Publiée le
Sap BO

2 mois
270-430 €
Malakoff, Île-de-France
Télétravail partiel
Almatek recherche pour l'un de ses clients, Un consultant SAP BO/BI/BW Sur Malakoff . Enjeux du projet L’enjeux de ce projet est la résolution d’incidents, l’amélioration de la solution et la montée en compétence de l’équipe indienne Objet du cahier de consultation L’objet de la consultation est d’identifier un prestataire capable de traiter les sujets suivants sur une période initiale de deux mois en autonomie : Traitement des incidents sur la BI achat, Finance et contrôle de gestion Mener des ateliers afin de collecter les nouveaux besoins métier Participer et coordonner les UAT en collaboration avec notre équipe en Inde Faire monter en compétence l’équipe indienne (passer en revue les principes techniques BW et valider leur bonne maitrise). Améliorer les monitoring (mettre en œuvre du reporting pour simplifier le suivi) Environnement technique de la prestation Technologies utilisées SAP BW 7.5 on Hana SAP BO 4.3 Power BI SAP diverses version de l’ERP Prestation attendue Traitement des incidents sur la BI achat, Finance et contrôle de gestion Mener des ateliers afin de collecter les nouveaux besoins métier Participer et coordonner les UAT en collaboration avec notre équipe en Inde Faire monter en compétence l’équipe indienne (passer en revue les principes techniques BW et valider leur bonne maitrise. Améliorer les monitoring (mettre en œuvre du reporting pour simplifier le suivi) Mise à jour de la documentation Langue : Anglais, Français Expérience : Confirme (5+ ans)
Freelance
CDI

Offre d'emploi
Développeur(se) Azure Data Fabric confirmé(e)

Publiée le
MySQL

18 mois
40k-45k €
100-500 €
Paris, France
Télétravail partiel
CONTEXTE : Experience : 5 ans et plus Métiers Fonctions : Etudes & Développement, Développeur Spécialités technologiques : Transformation digitale ; Gouvernance des données Dans un contexte de transformation digitale orientée data, nous recherchons un profil senior capable de concevoir, développer et maintenir des solutions de traitement et d’ingestion de données sur la plateforme Azure Data Fabric. Vous serez un acteur clé dans l’industrialisation des flux de données, l’optimisation des pipelines, et la mise en œuvre de solutions scalables et performantes. Le poste implique à la fois un rôle opérationnel, d’expertise technique et de leadership sur les bonnes pratiques de l’écosystème Azure. MISSIONS 1. Conception et développement ▪ Participer à l’analyse des besoins métiers et techniques en matière de traitement de données. ▪ Concevoir et développer des pipelines d’ingestion, de transformation et de distribution des données sur Azure Data Factory. ▪ Intégrer les services Azure liés à la Data Fabric qui seront nécessaire : ex : Azure Data Lake Storage Gen2 etc... ▪ Implémenter des modèles de données et des solutions de traitement ▪ Encadrer la modélisation des flux de données complexes (batch et streaming) et proposer des architectures “data-driven” adaptées aux enjeux métiers. 2. Conception et développement de pipelines avancés ▪ Concevoir, développer et maintenir des pipelines avec Azure Data Factory et/ou Azure Synapse Pipelines. ▪ Définir et mettre en œuvre des stratégies de surveillance (monitoring) et d’alerting des pipelines. ▪ Optimiser les performances et les coûts des traitements (partitionnement, parallélisation, contrôle qualité). 3. Support et amélioration continue ▪ Assurer le support dans l’utilisation de la plateforme. ▪ Être force de proposition sur l’optimisation des traitements, la réduction des coûts Azure, et les innovations technologiques. ▪ Suivre la performance et la fiabilité des solutions déployées via Azure Monitor, Log Analytics, Application Insights. Expertise souhaitée Compétences requises : Techniques : ▪ Azure Data Factory - Expert ▪ Azure Data Lake Storage Gen2 - Confirmé ▪ Azure Synapse Analytics (dedicated & serverless) - Confirmé à expert ▪ Azure Event Hub / Stream Analytics - Bonne connaissance ▪ Sécurité Azure & gouvernance - Bonne connaissance ▪ Python / SQL / PowerShell - Confirmé ▪ Architecture Data / Cloud - Expérience significative ▪ PowerBI Confirmé Compétences comportementales : • Bon relationnel et sens de l’écoute • Autonomie et esprit d’initiative • Esprit analytique et rigueur • Capacité à vulgariser les sujets techniques pour les métiers • Esprit d’équipe Profil recherché : ▪ Bac+3 à Bac+5 en informatique, ingénierie, data ou équivalent. ▪ Expérience significative en développement de solutions data sur Microsoft Azure. ▪ Minimum 5 ans d’expérience sur des projets data complexes en environnement cloud (Azure de préférence). ▪ Très bonne connaissance de l’écosystème Azure et de ses services data. ▪ Bonne compréhension des architectures data modernes (data lake, real-time,event-driven). ▪ Sensibilité forte à la performance, la sécurité et la gouvernance des données. ▪ Autonomie, rigueur, curiosité technologique, esprit d’équipe. ▪ Bon niveau de communication, capable d’interagir avec les équipes métiers et IT.
Freelance
CDI

Offre d'emploi
SAP IBP - Ile de France

Publiée le
SAP
SAP ECC6
SAP S/4HANA

3 mois
40k-45k €
280-420 €
75000, Paris, Île-de-France
Télétravail partiel
Contexte de la mission Dans le cadre d’un programme de transformation stratégique SAP au sein d’un grand acteur du secteur aéronautique, nous recherchons un Consultant SAP IBP confirmé pour accompagner la mise en œuvre de la solution SAP Integrated Business Planning (IBP) . L’objectif du programme est de moderniser et harmoniser les processus de planification de la supply chain, en intégrant les meilleures pratiques du marché et en tirant parti des capacités temps réel offertes par SAP IBP. Responsabilités principales Participer à la conception et au déploiement de SAP IBP dans le cadre du programme SAP S/4HANA. Recueillir et challenger les besoins métiers (planification de la demande, approvisionnement, inventaire, S&OP). Configurer les modules IBP (Demand Planning, Supply Planning, Inventory Optimization, Control Tower). Concevoir et documenter les processus cibles de planification intégrée. Animer les ateliers fonctionnels avec les équipes métier et la DSI. Définir et mettre en place les règles de planification, de gouvernance et de gestion des données. Contribuer à l’intégration d’IBP avec les autres systèmes (S/4HANA, ERP legacy, CRM, Data Lake, API). Réaliser les phases de tests (unitaires, intégration, UAT) et assurer la recette fonctionnelle. Accompagner les métiers dans la conduite du changement (formations, support, communication). Apporter une expertise sur l’optimisation de la performance des processus supply chain dans un contexte industriel exigeant (aéronautique). Compétences clés recherchées Expertise confirmée en SAP IBP (au moins 2 projets de déploiement). Maîtrise des sous-modules : IBP for Demand, IBP for Supply, IBP for Inventory, S&OP . Bonne connaissance des principes Supply Chain Planning (MRP, S&OP, DRP, APS). Expérience dans le secteur industriel (idéalement aéronautique ou manufacturing complexe ). Familiarité avec SAP S/4HANA et son intégration avec IBP. Connaissances sur les environnements API-first, Cloud, CI/CD appréciées. Pratique des méthodologies Agile / SAFe . Excellente communication et capacité à interagir avec les métiers, la DSI et les intégrateurs.
Freelance
CDI

Offre d'emploi
Senior Data engineer AWS

Publiée le
Terraform

18 mois
40k-45k €
100-550 €
Paris, France
Télétravail partiel
CONTEXTE : Experience : 7 ans et plus Métiers Fonctions : Data Management, Software engineer Spécialités technologiques : Data Compétences Technologies et Outils AWS Spark Airflow Snowflake Secteurs d'activités Services Informatiques Conseil en organisation, stratégie MISSIONS Rattaché(e) au périmètre du Responsable Data Platform, vos missions consisteront à : - Développer des pipelines et ETL sur AWS vers Snowflake - Mettre en place des stockage optimisé grâce aux technologies lakehouse et en particulier DeltaLake - Créer des jobs manipulant la donnée avec SQL et Python (pandas et ou Polars) - Réaliser les traitements de volume de données massives avec PySpark - Développer et maintenir des infrastructures avec de l’IaC et en particulier avec Terraform - Orchestrer les différents traitements via Airflow - Déployer et maintenir des applications via la CI/CD - Participer aux réflexions et au design d’architecture - Bonne capacité de vulgarisation et de communication - Participer aux rituels agiles de l’équipe - Contribuer à la documentation technique et fonctionnelle 5 à 10 ans en tant que Data Engineer, avec une expérience significative sur AWS. Un positionnement en tant que techlead serait un plus. De l’expérience dans un contexte BI serait un plus. Un positionnement ou une expérience en tant que DevOps serait un plus. Expertise souhaitée Python, PySpark, AWS (EMR, S3, Lambda), Airflow, SQL, Snowflake, Terraform, Databricks, Gitlab.
Freelance

Mission freelance
Développeur confirmé PeopleSoft H/F

Publiée le
SIRH

2 ans
500-700 €
Paris, France
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Développeur confirmé PeopleSoft H/F à Paris, France. Les missions attendues par le Développeur confirmé PeopleSoft H/F : Description de la prestation : 1) La mission consiste à prendre en charge le développement de nouveaux projets dont les spécifications fonctionnelles auront été préalablement rédigées par l’un(e) de nos 3 MOA après atelier(s) avec les différents métiers RH. Grâce à l'expérience en développement PeopleSoft (impérativement confirmée), le consultant sera force de proposition dans les solutions à implémenter. 2) Lamission consiste également à prendre en charge la maintenance évolutive et corrective (fonctionnelle et technique) : - faire évoluer et, dans une moindre mesure, corriger les programmes et interfaces existants en fonction des nouvelles demandes ou d’éventuelles anomalies détectées. - rédiger et compléter si nécessaire les spécifications techniques associées Description du projet : Le projet vise à assister l’équipe dans la mise en place d'évolutions sur TGRH (outil/interfaces) bâti sur l’ERP PeopleSoft HCM dans sa version 9.2 associée aux PeopleTools dans leur version 8.58.
Freelance

Mission freelance
Data Engineer Spark/Scala

Publiée le
Apache Spark
Scala

3 mois
330-400 £GB
Paris, France
Télétravail partiel
Data Engineer Spark/Scala Paris o Expérience dans la mise en œuvre de technologies et frameworks Big Data et NoSQL (Hadoop, Kafka, Spark, Scala, Hive, SolR, HBase, Kerberos) o Spark / Scala : confirmé o A l'aise avec le programmation fonctionnelle (connaissance des librairies ZIO, MONIX, CATS appréciée) o Expérience de travail dans un environnement Agile ; avec outils et méthodologies associés (Confluence, Jira, Scrum, Kanban) Au sein de la DSI Finance de la DSI, le poste recherché porte sur le besoin d’un Data Engineer Spark/Scala confirmé (5-6 ans d’expérience). Objectifs et livrables Objectifs Le prestataire intégrera le projet d’intégration en coordination avec le chantier assiette comptable de référence en tant que Data Engineer. Les développements sur ce chantier s’appuient sur la plateforme Datalake Finance, basée sur la distribution Hadoop HortonWorks qui collecte les données des différents systèmes de synthèse afin de répondre aux nouveaux besoins de reporting Finances & Risques (COREP, calcul RWA, IFRS9, etc.…) Les tâches seront les suivantes : • la mission consistera à prendre part aux développements, au sein du datalake pour acquérir les nouvelles sources de données, les assemblées et les distribuées aux consommateurs, tout en étant garant de la pérennité et la non-régression de l’outillage déjà en place • Vous participerez à la conception et à l’implémentation de ce projet et serez amené, à ce titre, à travailler en méthode Agile avec de nombreux acteurs métiers et les équipes de maintenance Compétences techniques o Expérience dans la mise en œuvre de technologies et frameworks Big Data et NoSQL (Hadoop, Kafka, Spark, Scala, Hive, SolR, HBase, Kerberos) o Spark / Scala : confirmé o A l'aise avec le programmation fonctionnelle (connaissance des librairies ZIO, MONIX, CATS appréciée) o Expérience de travail dans un environnement Agile ; avec outils et méthodologies associés (Confluence, Jira, Scrum, Kanban) Compétences demandéesCompétences Niveau de compétence Apache Kafka Avancé Apache Hadoop Confirmé Apache Hive Avancé SCALA Confirmé Spark Confirmé
Freelance
CDI

Offre d'emploi
CDP Palo Alto Prisma Access (ne postulez pas si pas expérience dessus) H/F

Publiée le
Palo Alto

36 mois
48k-65k €
530-710 €
Paris, France
Télétravail partiel
Dans le cadre du déploiement mondial de la solution Palo Alto Prisma Access / ZTNA pour plus de 50 000 utilisateurs , le groupe renforce son équipe projet. L’objectif : assurer une coordination fluide entre les équipes architecture monde, les experts Palo Alto et les équipes locales IT basées à Paris et en province. Vos missions En tant que Chef de Projet Technique , vous serez au cœur du dispositif opérationnel : Coordonner les activités de déploiement global du service ZTNA / Prisma Access. Assurer l’interface entre les équipes d’architecture et les consultants Palo Alto (design & configuration). Piloter les phases de migration et d’onboarding utilisateurs (50 000 clients). Centraliser et documenter les retours, incidents et demandes d’évolution. Participer aux réunions de pilotage technique et à la planification des releases. Garantir la cohérence des configurations et le respect des standards du groupe. Accompagner l’intégration dans les environnements locaux (Paris / Province)
Freelance

Mission freelance
Security Solutions Operations Lead

Publiée le
IAM
JIRA
Microsoft Purview

3 ans
400-800 €
Paris, France
Télétravail partiel
Nous recherchons pour notre client un Security Solutions Operations Lead spécialisé dans l’Identity & Data Governance, basé à Paris. 6 mois de prestation ensuite embauche Ce n’est pas un poste d’architecture ou de gouvernance pure, mais un rôle opérationnel : maintenir, gérer, supporter et faire évoluer les solutions d’identités (IAM / IGA) déjà en place. Vos taches : Gérer au quotidien les solutions d’identité (Identity Governance, Identity Administration, Identity Analytics). Mettre à jour, maintenir et documenter les procédures techniques Installer les mises à jour logicielles / patchs Travailler avec l’équipe Infra (notamment LDAP / AD / Entra). Suivre les prestataires / intégrateurs (Sailpoint, Microsoft Purview) Surveiller les performances et renforcer la sécurité Être d’astreinte sur certains systèmes critiques. Assurer le support utilisateurs + résoudre les incidents
Freelance

Mission freelance
Data Engineer AWS - PySpark/Databricks

Publiée le
Amazon S3
Apache Spark
AWS Cloud

12 mois
550-600 €
Paris, France
Télétravail partiel
Contexte : Nous recherchons un Data Engineer pour participer à une mission sur un environnement cloud AWS. Le candidat évoluera au sein d’une équipe digitale internationale et contribuera à la conception, au développement et à la mise en production de solutions data à grande échelle. Profil recherché : Expérience confirmée en tant que Data Engineer ou rôle équivalent. Capacité à collecter les besoins métiers et utilisateurs et à les traduire en architecture de données. Expérience dans la conception et le développement de pipelines de données robustes et évolutifs. Autonomie et rigueur dans la mise en production et la maintenance d’architectures data. Bonnes capacités de communication et aptitude à travailler en équipe multidisciplinaire. Compétences techniques requises : Python – maîtrise avancée (4/4) PySpark – maîtrise avancée (4/4) Databricks – niveau confirmé (3/4) AWS – niveau confirmé (3/4) Anglais – professionnel (3/4) Conditions de travail : Télétravail : 2 jours par semaine Présence obligatoire sur site : 3 jours par semaine Lieu : Paris Début de mission : 08/12/2025 Processus de sélection : Codingame à compléter dans les 48h après réception. Proctoring appliqué pour le codingame. Soutenances techniques prévues après le codingame.
1605 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous