Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 4 252 résultats.
CDI
Freelance

Offre d'emploi
Data Analyst Dataiku/Tableau/Script Python

OBJECTWARE
Publiée le
Dataiku
Python
Tableau Desktop

3 ans
40k-61k €
400-550 €
Île-de-France, France
Prestations demandées Production de dashboards Tableau • Exploration des données et mise en place de KPI pertinents, en concertation avec le Top management d’A3I et les offering managers • Création de dashboards permettant un suivi de l’adoption, de l’usage et de la performance des offres • Optimisation des dashboards existants (lisibilité, structuration). Préparation de données • Transformation et enrichissement des données via Dataiku. • Exploration et manipulation SQL sous PostgreSQL. • Contribution à la gestion de la qualité des données. Compétences techniques requises • Data Visualisation • Expertise Tableau • Très bonne maîtrise de SQL • Bonne maîtrise de Dataiku (préparation, traitements Python, recettes avancées). Soft Skills • Autonomie. • Rigueur et sens de la qualité. • Capacité d’analyse. • Force de proposition • Excellentes compétences de communication (écrite & orale). • Capacité à travailler en transversal, à fédérer et à challenger les parties prenantes. • Capacité à proposer et maintenir des standards dataviz cohérents entre les différentes offres IA.
Freelance

Mission freelance
Proxy Product Owner Data (RUN & BUILD) – Full Remote

Signe +
Publiée le
Snowflake

12 mois
330-340 €
Paris, France
Proxy Product Owner Data – RUN focus / BUILD focus Contexte Mission au sein d’un datalake cybersécurité (Security Analytics) dans un environnement grand compte. Le client a ouvert la possibilité de réaliser la mission en full remote afin d’élargir le sourcing et sécuriser un profil compétent. Durée 6 mois minimum (renouvelable) Mode de travail Full remote Responsabilités – RUN focus Piloter la transition Build → Run et stabiliser l’exploitation Gérer et prioriser le backlog incidents ServiceNow (arbitrage risques / impacts métier) Analyser, coordonner et suivre les incidents avec les équipes de développement Communiquer auprès des utilisateurs et parties prenantes Rédiger des SOP (Standard Operating Procedures) pour les incidents récurrents Mettre en place le monitoring et l’alerting (fraîcheur, qualité, disponibilité des données) Garantir la performance et la fiabilité opérationnelle des solutions data Contribuer au support et à la montée en compétence des utilisateurs (Power BI, modèles de données) Responsabilités – BUILD focus Participer aux cérémonies agiles et assister le Product Owner Enrichir le backlog Jira (spécifications data, règles de transformation, critères d’acceptation) Réaliser les UAT avec les parties prenantes cybersécurité Analyser les sources de données nécessaires à la construction des KPI Optimiser la logique de calcul des indicateurs Concevoir les modèles de données sous Snowflake et Power BI Superviser l’orchestration et les planifications des flux Maintenir la documentation fonctionnelle Gérer et opérer le backlog BUILD Compétences requises Forte expérience sur des projets Data / BI Maîtrise de Azure Data Factory, Snowflake, Power BI Très bon niveau SQL (analyse, contrôle, optimisation) Expérience confirmée en tant que Product Owner / Proxy PO en environnement Agile (Scrum, Jira) Bonne culture IT générale (API, réseaux, protocoles) Anglais courant obligatoire Soft skills Excellente communication et capacité de vulgarisation Forte autonomie (contexte full remote) Capacité d’arbitrage et sens du résultat Aisance avec des environnements complexes et contraints (cybersécurité)
Freelance

Mission freelance
Senior Platform Engineer (CaaS)

Codezys
Publiée le
Ansible
AWS CloudFormation
Azure

12 mois
Paris, France
Nous ne recherchons pas un profil "Ops" traditionnel, mais un véritable " Platform Builder". Le candidat idéal doit posséder une solide culture produit et avoir déjà construit ou maintenu des plateformes CaaS/PaaS internes à grande échelle. Voici les points non-négociables (Hard Skills) : • Kubernetes (Expertise avancée) : Architecture, networking (CNI), sécurité et gestion de clusters managés (EKS/GKE). • Infrastructure as Code : Maîtrise experte de Terraform & Terragrunt en production (multi-stack, gestion d'état). • GitOps & CI/CD : Expérience impérative de ArgoCD (ApplicationSets, bootstrap) et de GitLab CI (pipelines dynamiques). • Cloud Providers : Expertise confirmée sur AWS ou GCP (VPC, IAM, OIDC). Les "Plus" qui feront la différence : • L'écosystème Cloud-Native : Karpenter, Kyverno, External-Secrets, KEDA. • Observabilité : Stack OpenTelemetry et Grafana (Mimir, Loki, Tempo). • Certifications : CKA, CKAD ou CKS.
Freelance

Mission freelance
Data Engineer - Secteur Assurance et Prévoyance (H/F)

EASY PARTNER
Publiée le
Apache NiFi
Bash
Gitlab

230 jours
420-450 €
Lyon, Auvergne-Rhône-Alpes
Contexte du poste Dans le cadre d'un projet de refonte de son SI, notre Groupe renforce son dispositif Data au sein de la Direction des Systèmes d’Information. L’objectif est de concevoir, développer et maintenir des flux de données fiables et industrialisés au service des équipes métiers Épargne et Services Financiers. Le poste est rattaché au DAS Épargne & Services Financiers et s’inscrit dans un environnement orienté data, qualité et automatisation. Missions Missions principales En tant que Data Engineer, vous interviendrez sur la conception, le développement et l’industrialisation des flux de données, dans un contexte finance / assurance à forts enjeux de qualité, de traçabilité et de performance. Concevoir et implémenter le socle data du Master Data Management (MDM) Intégrer et transformer les données issues de différentes sources Sécuriser et industrialiser les flux dans le respect des standards de qualité et de traçabilité attendus Mettre en œuvre des traitements de données (collecte, transformation, stockage) Garantir la qualité, la fiabilité et la performance des flux Travailler en lien étroit avec les équipes métiers et IT Contribuer aux bonnes pratiques de développement, d’automatisation et de CI/CD Stack technique Compétences requises (niveau confirmé) Data & traitement : Apache NiFi, requêtage et traitement de données (SQL / NoSQL) Connaissance des formats et protocoles : JSON, XML, CSV, REST API Base de données & stockage : PostgreSQL, Stockage objet (S3) DevOps & industrialisation : GitLab, GitLab CI, Pratiques CI/CD Compétences appréciées Langages & scripting : Python, Bash
Freelance

Mission freelance
Expert Sécurité Cloud Public – IAM GCP / Azure / AWS (Terraform & CI/CD)

Deodis
Publiée le
Google Cloud Platform (GCP)

1 an
500 €
Île-de-France, France
Au sein d’une équipe d’experts en sécurité cloud public, l’Expert Sécurité Cloud interviendra sur la sécurisation d’environnements multi-cloud (GCP, Azure et AWS). Il aura pour mission de définir et mettre en œuvre une stratégie IAM robuste, incluant la gestion des identités, des accès et des permissions conformément aux politiques de sécurité en vigueur. Il analysera les configurations existantes afin d’identifier les vulnérabilités et proposera des améliorations en s’appuyant sur les bonnes pratiques et des mécanismes de contrôle tels que les SCP AWS ou les Deny Policies GCP. Il participera également à l’automatisation des déploiements via Terraform et Python au sein de chaînes CI/CD, accompagnera les équipes projets sur les concepts et outils IAM, et contribuera à la documentation des processus et standards afin d’assurer la conformité et l’amélioration continue de la sécurité des environnements cloud.
Freelance
CDI

Offre d'emploi
Application Security Expert - H/F

AMD Blue
Publiée le
Cloud
Cybersécurité
OWASP

3 ans
40k-45k €
480-550 €
Lille, Hauts-de-France
Qui sommes-nous ? Chez AMD Blue , l'innovation est notre passion, et nous sommes fiers de présenter nos expertises de pointe. Avec une présence établie sur l'ensemble du territoire français et une récente expansion aux États-Unis, nous sommes résolument tournés vers l'avenir. Dans le cadre d’un besoin client, nous avons l' opportunité d'accueillir un nouveau membre au sein de notre Tribu Cyber . Contexte de la mission : Notre client souhaite renforcer ses capacités en cybersécurité pour assurer la protection et la sécurisation de l'ensemble de son groupe. L'objectif est d'accompagner sa transformation digitale en accélérant certains projets stratégiques, notamment via le conseil et l'expertise en sécurité applicative pour les solutions actuelles et futures (infrastructure, plateforme, application, data & IA). Descriptif de la mission : Les missions sont : Accompagner les équipes de notre client en les aidant à intégrer la cybersécurité dès les phases de choix de solution et de design. Créer et faire évoluer les standards de cybersécurité (politiques et guidelines) permettant la mise en application des bonnes pratiques. Prendre part à des revues d’architecture cybersécurité des applications. Partager ses connaissances en matière de cybersécurité auprès de son équipe et des interlocuteurs techniques et métiers.
Freelance

Mission freelance
POT9017 - Un Chef de Projet Senior SAP - Pilotage stream MRO à Niort

Almatek
Publiée le
SAP

6 mois
Niort, Nouvelle-Aquitaine
Almatek recherche pour l'un de ses clients, Un Chef de Projet Senior SAP - Pilotage stream MRO à Niort La mission consiste à piloter le stream métier MRO, en lien direct avec les équipes de maintenance, la DSI interne et les sites internationaux (UK/US). Les enjeux : gouvernance projet, consolidation des besoins, data cleansing/migration, préparation des UAT, qualité et conformité EN9100/PART145. Compétences recherchées : Expertise SAP PM/CS/MRO (SRV?05 idéalement) Pilotage projet SAP (10+ ans) Connaissance des processus MRO Idéalement : expérience aéronautique / contraintes qualité Anglais courant Disponibilité pour travailler on?site à Niort
Freelance

Mission freelance
Expert Data Streaming Kafka

JobiStart
Publiée le
Apache Kafka
Spark Streaming

3 ans
400-550 €
Paris, France
Expert en systèmes distribués, votre mission est de concevoir, déployer et administrer les clusters Apache Kafka au cœur de l'échange de données en temps réel de la banque. Vous intervenez sur la configuration fine des brokers, la gestion des topics, des schémas (Schema Registry) et des partitions pour garantir une haute disponibilité et une tolérance aux pannes maximale. Vous accompagnez les équipes de développement dans l'implémentation des producteurs et consommateurs, ainsi que dans l'utilisation de Kafka Streams ou ksqlDB pour le traitement de flux. Vous assurez le monitoring proactif des performances (latence, débit), la sécurité des flux (SSL/SASL/ACLs) et le troubleshooting complexe en environnement de production critique. Vous êtes le référent sur les stratégies d'archivage et de réplication inter-sites.
Freelance

Mission freelance
Architecte d'Entreprise SI Retail / SAP S4 / CLOUD (H/F)

Octopus Group
Publiée le
SAP FICO
SAP MM
SAP S/4HANA

6 mois
680-800 €
Ivry-sur-Seine, Île-de-France
Octopus Group est à la recherche d'un.e Architecte Entreprise senior ayant des compétences sur SAP S/4 pour accompagner un de nos clients sur un important programme de transformation de son SI. Le Déploiement de SAP S4/Hana pour son activité Retail est au coeur de cette transformation. Il est question ici du déploiement de nouveaux modules liées en plus de modules déjà existants et de leur évolution. Nous recherchons donc un.e Architecte Entreprise capable d'accompagner notre client dans ce vaste programme SAP touchant directement à son activité. La conception fonctionnelle est en cours, notamment autour des modules MM, PP, FICO , toute la gamme S4 pour la gestion des stocks/appros/backs magasins/field service... Réflexion en cours sur les modules POSDT, OAA ... Et des briques d'intégration autour de la BPM, Datasphere... - Chiffrages par niveau de complexité (notamment dans la logique Rise SAP Pricing & sujet archi techno middleware/data etc.)
Offre premium
CDI
Freelance

Offre d'emploi
Service Delivery Manager Infrastructures & Systèmes (RUN)

Lùkla
Publiée le
Data Center
Infrastructure
ITIL

1 an
Courbevoie, Île-de-France
Contexte : Intégré au domaine Application & Systèmes, vous accompagnez l’équipe RUN Application & Système dans un environnement critique : Data Centers, virtualisation, stockage et sauvegarde. Votre rôle : garantir la continuité et la performance des services IT. Missions : Piloter le RUN quotidien : incidents, problèmes, changements, escalades et gestion de crises. Superviser les opérations sur 2 Data Centers. Assurer le suivi des SLA et KPI, reporting client et comités de pilotage. Piloter les prestataires et contrats de services, suivi budgétaire. Valider les impacts techniques, suivre les remédiations sécurité et obsolescences. Compétences requises : Infrastructures et Data Centers, virtualisation VMware/Nutanix, stockage et sauvegarde. Environnements CITRIX. Culture ITIL solide (certification appréciée). Expérience en pilotage d’infogérance.
Freelance

Mission freelance
[LFR] Ingénierie Workplace, Sénior à Nantes - 1289

ISUPPLIER
Publiée le

10 mois
200-435 €
Nantes, Pays de la Loire
Description et localisation : Gérer et faire évoluer l’environnement Workplace Windows 11. Maintenir et optimiser la gestion des postes via Microsoft Intune / Endpoint Manager. Industrialiser et automatiser les processus de configuration et de déploiement. Assurer le support niveau 3 sur les incidents complexes. Rédiger et maintenir à jour la documentation technique. Contribuer à l’amélioration continue et à la sécurisation du poste de travail. Windows 11 Administration, configuration et résolution d’incidents. Microsoft Intune Intégration et packaging d’applications. Gestion des politiques (CSP, compliance, configuration). Suivi et optimisation du parc. Automatisation / Scripting Maîtrise de PowerShell pour automatiser les déploiements et diagnostics. Documentation : Rédaction de procédures, dossiers d’exploitation et guides techniques. Support & Expertise : Intervention en niveau 3 sur le périmètre Workplace. • Type de projet (support / maintenance / implementation /…) : Ingénierie poste de travail, expertise technique Intune • Type de prestation (Client / Hybrid / Remote) : Hybrid • Nombre de jours/semaine ou par mois (à préciser : /s ou /m) chez le client : 2j sur site par semaine • Urgency : No • Les astreintes (HNO, etc.) : Non • La possibilité de renouvellement (oui/non) : Oui
Freelance

Mission freelance
Consultant en Data Gouvernance pour une société de gestion de portefeuille

Mon Consultant Indépendant
Publiée le
Direction de projet

5 mois
760-780 €
Paris, France
MERCI DE LIRE ATTENTIVEMENT L'ANNONCE ET DE POSTULER UNIQUEMENT SI VOTRE PROFIL CORRESPOND AUX CRITERES EXIGES Une société de gestion de portefeuilles (fonds d'investissement et mandats) souhaite définir et déployer une gouvernance de la donnée. Les travaux consistent à rédiger la charte de gouvernance, faire adhérer les parties prenantes, notamment les métiers, à cette gouvernance, définir le dictionnaire de données de l'entreprise et le propriétaire de chaque point de donnée, documenter la criticité des données et les contrôles de qualité réalisés. La modélisation de processus fera aussi partie de la mission. Les familles de données qui seront concernées par la mission sont : Instruments financiers, Emetteurs, Prix et données de marchés, ESG, Indices et Benchmark, Portefeuilles, données d'inventaires, opérations financières, calcul de performance, calcul de risques... Expérience indispensable en déploiement d'une Data Gouvernance dans un environnement proche (société de gestion, banque d'investissement, capital market, banque privée).
Freelance
CDI

Offre d'emploi
Product Manager CORTEX XDR & TREND MICRO CLOUD EMAIL PROTECTION

PSSWRD
Publiée le
Cybersécurité
Palo Alto
SOC (Security Operation Center)

1 an
Issy-les-Moulineaux, Île-de-France
👀 Je recherche pour l'un de nos clients basé à Issy-Les-Moulineaux un Product Manager Cybersécurité expérimenté, intégré à l'équipe SOC/VOC, afin d'être le KeyPeople sur les outils CORTEX XDR (Palo Alto) & CLOUD EMAIL & COLLABORATION PROTECTION (Trend Micro). 💪 MISSIONS Expertise technique des outils + gouvernance opérationnelle : • Répondre aux demandes autour de l’outil (ex. exceptions, règles, paramétrages) ; • Être garant des process d’usage ; • Audits réguliers des outils : revue des comptes / accès / conformité ; • Alerting de capacité/usage (ex : “vous êtes à 98% d’usage → prévoir + de licences”) ; • Alignement roadmap / ambitions / capacités réelles de l’outil. ⚙️ OUTILS CONCERNÉS 1. Palo Alto Cortex XDR (120.000 users) 2. Trend Micro — périmètre sécurité, pas “mail gateway” (180.000 users) : • Anti-phishing / règles de détection / faux positifs ; • Protection Teams/Drive (cloud), détection virus ; • Support investigation phishing (logique détection/traitement), pas SPF/relais/config mail.
CDI

Offre d'emploi
Architecte DevOps - CI/CD & Kubernetes (Cloud OVH) (H/F)

█ █ █ █ █ █ █
Publiée le
Ansible
CI/CD
DevOps

55k-65k €
Saint-Denis, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDI

Offre d'emploi
Ingénieur Data - Média

Deodis
Publiée le
Apache Spark
Azure DevOps
Databricks

3 ans
40k-51k €
400-500 €
Boulogne-Billancourt, Île-de-France
Les livrables sont Code Source Documentation KPI qualité Compétences techniques Databricks - Expert - Impératif Spark SQL - Expert - Impératif Azure Data Factory - Confirmé - Important Scala - Confirmé - Souhaitable Connaissances linguistiques Français Courant (Impératif) Description détaillée Contexte : Le projet Data PUB - Digital vise à centraliser et harmoniser l'ensemble des données relatives à la diffusion publicitaire digital (impressions, chiffre d'affaire etc) pour permettre un reporting fiable selon différentes dimensions (canal de vente, origine, équipes commerciales, annonceurs etc) et garantir une vision unifiée de la performance digitale. Environnement technique : Azure Data Factory, Databricks, Spark Scala, SQL, Azure DevOps et Power BI. Missions : - Concevoir et développer des pipelines d’ingestion de données via Azure Data Factory. - Développer et optimiser des flux de transformation de données en Spark SQL. - Maintenir des pipelines de traitement de données en Scala (faible part) - Maintenir et développer de nouveaux indicateur de qualité de données - Participer au refactoring du code existant pour améliorer sa performance et sa maintenabilité (réécriture en DBT) - Garantir la qualité du code et veiller au respect des normes de développement au sein de l’équipe. - Implémenter des tests unitaires et assurer la fiabilité des solutions. - Maintenir les solutions de monitoring de l’application Digital.
Freelance

Mission freelance
Développeur CRM Salesforce Service Cloud (H/F)

Axysse
Publiée le
Apex
Node.js
Salesforce

1 an
400-480 €
Nantes, Pays de la Loire
📍 Nantes (3 jours sur site / 2 jours télétravail) 📅 Démarrage souhaité : Avril 2026 📆 Mission longue durée (jusqu’à 36 mois) 🎯 Contexte de la mission Dans le cadre d’un programme stratégique de transformation digitale orienté expérience utilisateur omnicanale , nous recherchons 1 Développeur CRM Salesforce Service Cloud afin de renforcer un pôle IT dédié aux services digitaux à destination de millions d’utilisateurs quotidiens. Vous interviendrez sur un écosystème Salesforce complet , connecté à de multiples applications web, outils marketing, plateformes data et solutions multicanales (voix, chat, réseaux sociaux, webservices, etc.). L’objectif : 👉 Renforcer la robustesse, la qualité et la performance du CRM 👉 Contribuer à une vision client 360° 👉 Accélérer le time-to-value des services digitaux 🧩 Vos responsabilités Intégré(e) à une organisation Agile Scrum, vous interviendrez sur : Développement et évolution des fonctionnalités Service Cloud Traitement des User Stories (évolutions, correctifs, TMA) Développements Apex, LWC, Visualforce, intégrations API Participation aux cérémonies Agile (Sprint Planning, Review, Retro…) Code review croisée et documentation Confluence Déploiement (merge request) et mises en production Intégration d’applications Web avec Salesforce Gestion des interconnexions SI internes et partenaires via API Vous contribuerez activement à la montée en qualité du CRM (règles de gestion, normalisation, RGPD, gestion des opt-ins, automatisation des processus…). 🛠️ Environnement technique Salesforce CRM – Service Cloud Lightning Web Components (LWC), Aura, Apex, SOQL API REST / Webservices Marketing Cloud DataLake (Azure) Power BI NodeJS / VueJS / ReactJS (environnement applicatif connecté) Heroku (un plus) JIRA & Confluence 📍 Organisation Basé à Nantes 3 jours sur site (lundi à mercredi) Télétravail possible les autres jours Déplacements ponctuels à Paris MEP occasionnelles en horaires décalés

Déposez votre CV

  • Fixez vos conditions

    Rémunération, télétravail... Définissez tous les critères importants pour vous.

  • Faites-vous chasser

    Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.

  • 100% gratuit

    Aucune commission prélevée sur votre mission freelance.

4252 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous