Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 9 548 résultats.
Offre d'emploi
TEch Lead Databricks
Craftman data
Publiée le
Apache Kafka
Apache Spark
Databricks
3 mois
Paris, France
Site : Paris ; 2 jours/semaine obligatoire sur site Date de démarrage : asap Missions : Ingestion de données en temps réel Kafka. Expertise sur l’ingestion, le traitement et l’analyse de données. Expertise sur la modélisation de données. Conception d’une architecture technique viable. Animation, Gestion des risques techniques. Compétences fonctionnelles : Méthodes Agiles et conduite de projet. Expérience sur des projets DATA afin de guider la squad avec prise de recul technologique Profil : TECH LEAD - Data Bricks Nombre d’années d’expérience : + de 3 ans Compétences techniques requises : Kafka ou ingestion de données Databricks Data Intelligence Platform Sparks Scala Data acquisition data models
Mission freelance
Product Analytics Manager
Codezys
Publiée le
Google Analytics
SQL
12 mois
Bordeaux, Nouvelle-Aquitaine
La mission du Product Analytics Manager consiste principalement à assurer l’accès aux données à travers l’analyse et l’utilisation d’outils en mode self-service. Vos responsabilités : Être le référent de l’outil d’analytics self-service en front-end, tel qu’Amplitude ou Mixpanel. Servir de point de contact principal pour les équipes business concernant l’utilisation de cet outil. Former les équipes business, analytics, ainsi que les nouveaux arrivants, à l’utilisation des outils et à l’analyse des données. Accompagner les équipes commerciales et analytics dans la compréhension des écarts de données entre différentes sources, notamment entre les données front-end et back-end. Collaborer avec les équipes business, analytics et produit pour générer des insights à partir des données front-end, que ce soit par la création de dashboards, l’autonomisation à l’analyse ou la réalisation d’analyses directes. Mettre en place des processus pour monitorer la qualité des données collectées. Maintenir une documentation claire et à jour concernant les événements enregistrés dans l’outil self-service. Travailler en étroite collaboration avec le Data Product Owner responsable des données front-end, afin d’aligner structures et besoins en data. Veiller à ce que les dashboards soient conformes aux besoins exprimés par les différentes équipes. Maintenir une relation active avec les fournisseurs des outils d’analytics, rester informé des nouveautés et signaler tout problème éventuel.
Mission freelance
Testeur Technique / Performance (API & Conteneurs)
xITed
Publiée le
Apache Kafka
Grafana
Openshift
1 an
480-530 €
Nantes, Pays de la Loire
Testeur Technique / Performance (API & Conteneurs) Nous recherchons un Testeur Technique / Performance pour intervenir sur l’homologation technique d’applications critiques en environnement conteneurisé . Missions principales Définition et mise en œuvre de la stratégie de tests techniques Réalisation de tests de performance / charge sur API HTTP Préparation des environnements de tests Analyse des résultats et diagnostic des dysfonctionnements Rédaction des livrables d’homologation (GO / NO GO) Industrialisation et automatisation des tests Support aux équipes Dev & Ops Environnement OpenShift, conteneurs, API REST, Java / Spring Boot, Angular, Kafka, Jenkins, Git, Kibana, Grafana, Prometheus, AppDynamics. Compétences clés Solide expérience en tests de performance / charge NeoLoad fortement apprécié (outil de référence) Autres outils acceptés : JMeter, OctoPerf, HP Perf Center, etc. Bonne maîtrise des architectures conteneurisées / OpenShift Expérience en tests non fonctionnels (performance, robustesse, exploitabilité) Capacité d’analyse et de diagnostic technique Informations Mission longue Démarrage : mars 2026 Localisation : région nantaise Télétravail partiel
Mission freelance
🚀 Consultant SAP S/4HANA – PLM & Product Compliance (H/F)
Signe +
Publiée le
PLM (Product Lifecycle Management)
SAP
3 mois
400-640 €
Vélizy-Villacoublay, Île-de-France
Dans le cadre d’un programme majeur de transformation du système d’information , notre client déploie une solution SAP S/4HANA commune pour l’ensemble de ses entités et pays. Le consultant interviendra en tant que référent SAP PLM & Product Compliance au sein d’un programme couvrant les domaines Finance, Production, Logistique, Services clients, Achats et Conformité. Les principales missions sont : Garantir les livrables du périmètre (qualité, planning, budget) Participer à la définition des processus Engineering To Configure et accompagner les responsables fonctionnels S’assurer que la solution technique et fonctionnelle répond aux exigences métiers et réglementaires Coordonner les travaux avec les équipes techniques internes et l’intégrateur Contribuer à la sécurisation du core model SAP S/4HANA Démarrage ASAP – Mission longue.
Mission freelance
Dev back Python
HAYS France
Publiée le
FastAPI
Github
Python
3 ans
100-370 £GB
Lille, Hauts-de-France
🚀 VOS MISSIONS : Construire les composants logiciels permettant de mettre en œuvre ces différents produits. La mise en œuvre de ces composants implique le développement de fonctions, classes et tests. Ces développements se feront en Python La bonne qualité des fonctionnalités livrées grâce à votre niveau d’exigence, aux revues de codes, aux tests automatiques et de performance. Participer à l'élaboration de la CI/CD selon les pratiques DevOps dans la Google Cloud Platform et Github. Assurer une documentation complète des développements et des configurations au sein du référentiel documentaire Adeo (Github / Gitbook). Les équipes produits, ainsi que les développeurs qui la composent, sont à la fois responsables du build et du run associé. 🥇 VOTRE PROFIL Nous recherchons une personne avec expérience confirmée (au moins 5 ans en développement), qui souhaite toucher à tout et sait s’adapter aux différents contextes, une personne curieuse, passionnée par le développement et sa qualité. Maitrise des frameworks backend python : Fastapi (API REST) Notions de Kafka pour effectuer des échanges de données et en connaissance des bonnes pratiques Vous avez des compétences en matière d’automatisation de tests (unitaire, integration, TDD, BDD) Vous aimez intervenir dans tout le processus agile Vous êtes familier avec les services Cloud de Google Vous êtes sensible aux principes, aux pratiques et aux outils DevOps (Terraform, Kubernetes, Docker, CI/CD) Bonne compréhension des bases de données PostgreSQL et MongoDB De nature curieuse, vous effectuez une veille constante des technologies du marché afin de pouvoir partager le fruit de vos recherches avec vos coéquipiers notamment sur les avancées technologiques autours de l’IA Vous êtes autonome et faites preuve d’initiative mais vous avez aussi à cœur de partager et de travailler en collectif avec votre équipe
Offre d'emploi
Manager service Système et Infrastructure (H/F)
QODEXIA
Publiée le
Administration Windows
Kubernetes
Nutanix
10 jours
Noisy-le-Grand, Île-de-France
QODEXIA est une société de services informatiques implantée en France et en afrique du nord. Partenaire performant, innovant, agile pour aider les entreprises dans leur transforamtion digitale. QODEXIA s'est spécialisée dans le digital, SAP et les nouvelles technologies, accompagne au quotidien les plus grands acteurs de l'industrie, de l'énergie, du Luxe, de la Banque et de l'Assurance sur leurs projets. L’IT est notre passion, les valeurs humaines sont notre capital, c'est de quoi notre ADN est composé. Pour le compte de l’un de nos clients grand compte opérant dans le domaine de la finance, nous recrutoins un Manager service Système et Infrastructure (H/F)
Offre d'emploi
Chef de projet IT Remédiation DORA (Luxembourg)
EXMC
Publiée le
DORA
1 an
Luxembourg
Dans le cadre de la mise en conformité avec le règlement DORA (Digital Operational Resilience Act) et les directives EBA, nous recherchons un Chef de Projet IT pour piloter la remédiation de l'ensemble de nos externalisations. Critères candidat · Niveau d'études minimum : Bac + 3 · Expérience en gestion des risques, conformité réglementaire ou légale souhaitée Missions principales Pilotage et gouvernance · Accompagner le responsable des externalisations dans le déploiement de la stratégie de conformité · Assurer le suivi global des remédiations pour l'ensemble du portefeuille de contrats · Préparer les supports de CODIR sur l'avancement des travaux · Faciliter la coordination entre les différentes parties prenantes (métiers, juridique, prestataires, mandants, direction) · Animer les COPRO et divers meeting de suivi Qualification et analyse · Qualifier les prestations externalisées et évaluer leur criticité selon les critères DORA/EBA · Accompagner les métiers dans l'utilisation des outils de qualification · Mettre à jour et maintenir les registres (ROI, EBA, registre interne groupe) Aspects contractuels et juridiques · Accompagner les juristes dans l'intégration des clauses DORA dans les avenants · Challenger les clauses contractuelles selon le contexte de la prestation réalisée · Négocier avec les prestataires pour sécuriser les engagements nécessaires Conformité et audit · Participer à la collecte des éléments pour les audits internes et externes · Préparer les dossiers pour le Commissariat aux Assurances · Rédiger les plans de sortie et accompagner leur mise en œuvre et leurs tests
Mission freelance
Expert Infrastructure
Deodis
Publiée le
Hardware Security Module (HSM)
Maintien en condition opérationnelle (MCO)
1 an
Île-de-France, France
Poste d'Administrateur Système Storage au sein de la division Mainframe Delivery Platform. Assure les fonctions de support , de Mise en Condition Opérationnelle et de déploiements des produits BP²I sur l'ensemble de périmètre stockage du groupe BNP Paribas (DFHSM, Ca1 Vantage…). Confirmé en administration Storage mainframe, il contribuera aux projets d'évolution robotique et d'optimisation de la capacité disques (DASD) et tapes (VTS) de nos plateformes z/OS. Fera une analyse de l'existant, proposera les améliorations, participera aux mises en œuvre des solutions validées, mesurera les gains de manière récurrente. Nos différents environnements (dont des Sysplex et geoplex) exigent un haut niveau de fiabilité et de rigueur.
Mission freelance
Consultant Fonctionnel Senior Oracle ERP Cloud Finance (O2C / AR)
ARKAMA CS
Publiée le
Oracle ERP Cloud
6 mois
Hauts-de-France, France
📢 Appel d’Offre – Consultant Fonctionnel Senior Oracle ERP Cloud Finance (O2C / AR) Dans le cadre d’un déploiement international du core model Finance sur Oracle ERP Cloud , notre client recherche un(e) Consultant(e) Fonctionnel(le) Senior Oracle Finance , avec une expertise forte sur le périmètre O2C / Comptabilité Clients (AR) . Objectif de la mission Renforcer l’équipe projet en garantissant le paramétrage , la cohérence transverse et la couverture des besoins métiers sur la solution Oracle ERP Cloud Finance, dans un contexte multi-pays . Missions principales Piloter et/ou réaliser le paramétrage Oracle ERP Cloud – Finance (directement ou via intégrateur groupe). Collaborer avec un intégrateur local pour s’assurer que les spécificités pays sont correctement prises en compte, sans impact sur le core model. Rédiger les spécifications fonctionnelles (dossiers de spécifications) selon les besoins métiers. Garantir la cohérence fonctionnelle transverse entre les pays déployés et le core model. Contribuer aux échanges métiers / IT pour sécuriser les choix fonctionnels et l’alignement solution. Langues Anglais professionnel (impératif)
Mission freelance
Data Engineer Senior F/H
SMARTPOINT
Publiée le
Apache Spark
CI/CD
Data Lake
12 mois
400-530 €
Île-de-France, France
Nous recherchons un Data Engineer Senior pour rejoindre une équipe spécialisée dans la gestion et l’exploitation des données au sein d’une grande organisation numérique. L’équipe intervient au cœur de la plateforme Data et collabore étroitement avec les différentes directions techniques pour transformer la data en levier stratégique et opérationnel. L’équipe actuelle est composée d’un Product Owner, d’un Data Steward et de deux autres Data Engineers. La mission s’inscrit dans un contexte de traitement de volumes de données importants et de projets transverses autour de la connaissance utilisateur et de la mise à disposition d’outils de pilotage internes. Missions de l’équipe Collecter et centraliser des sources de données hétérogènes. Assurer la conformité, la sécurité et la qualité des données. Participer aux initiatives de gouvernance des données. Missions du Data Engineer En interaction avec les membres de l’équipe, le Data Engineer aura pour responsabilités de : Participer aux phases de conception, planification et réalisation des projets data. Construire et maintenir des pipelines de données robustes et scalables. Accompagner l’équipe dans l’exploitation et le requêtage des données. Organiser et structurer le stockage des données pour en faciliter l’accès et l’usage. Mettre en place et maintenir des infrastructures scalables capables de gérer l’augmentation rapide du volume de données. Développer et maintenir les workflows de CI/CD pour les pipelines data. Partager les bonnes pratiques et contribuer à la montée en compétences des autres data engineers. Garantir l’évolutivité, la sécurité et la stabilité des environnements de données. Participer activement aux instances techniques de l’équipe. Contribuer à la mise à jour et à la qualité de la documentation technique. Effectuer une veille technologique proactive sur les outils et méthodes data. Stack technique Langages & traitements : Python, SQL, Spark Orchestration : Airflow Stockage : Cloud Storage, Delta Lake Cloud & services associés : Google Cloud Platform (BigQuery, Dataproc, Pub/Sub) Infrastructure & IaC : Terraform, Terragrunt CI/CD & versioning : GitLab, GitLab CI/CD Méthodologie : Agile (Scrum ou Kanban) Profil recherché Minimum 7 ans d’expérience en Data Engineering. Expertise solide en structuration et traitement de données, code et architecture data. Expérience significative dans la conception et la maintenance de pipelines data . Expérience dans un environnement Google Cloud Platform et utilisation de BigQuery et Dataplex Universal Catalog. Maîtrise des langages Python et SQL et du framework Spark . Expérience avec Delta Lake , Terraform, Terragrunt. Maîtrise des outils GitLab et GitLab CI/CD. Capacité à vulgariser et communiquer sur des sujets techniques complexes. Autonomie, rigueur et capacité à travailler en équipe dans un contexte Agile. Qualités personnelles Esprit d’équipe et collaboration. Proactivité et sens de l’initiative. Curiosité technologique et veille active. Capacité à documenter et partager les bonnes pratiques.
Mission freelance
Cloud Engineer NAS H/F
Freelance.com
Publiée le
NAS
NetApp
3 mois
Île-de-France, France
Description du poste Nous recherchons un(e) Cloud Engineer NAS pour rejoindre une grande organisation internationale basée à Paris 17. Vous serez responsable de la gestion de l’infrastructure de stockage , incluant la conception, le déploiement et l’optimisation de solutions NAS et cloud, ainsi que la protection des données , la sécurité et conformité , la planification des capacités, et le tuning des performances . Vos missions principales : Concevoir, déployer et optimiser des solutions NAS et cloud. Mettre en place des stratégies de backup et de reprise après sinistre. Assurer la sécurité des données et la conformité aux standards réglementaires (GDPR, ISO 27001…). Réaliser des analyses de capacité et automatiser la gestion du stockage. Identifier et résoudre les problèmes de performances et participer à la maintenance corrective et préventive.
Mission freelance
Business Analyst / AMOA – Asset Management
NEXORIS
Publiée le
Finance
12 mois
650 €
Île-de-France, France
Missions Notre client, acteur de renom en gestion d'actifs, recherche un Consultant Business Analyst / AMOA (H/F) dans le cadre d'un renfort pour sa DSI afin d’intégrer une équipe en charge de l’interface entre les métiers et les équipes de développement. L’équipe intervient autour d’un entrepôt de données central et d’un ensemble de briques applicatives permettant : - l’alimentation, la transformation et la mise à disposition des données, - la production de reportings et d’indicateurs, - le développement d’interfaces à destination des utilisateurs métiers et d’autres applications du SI. La mission a pour objectifs principaux : - Renforcer la capacité de l’équipe MOA à instruire et cadrer les demandes métiers, - Améliorer la qualité de formalisation des besoins et leur traduction en spécifications exploitables par les équipes de développement, - Contribuer activement à la gestion et à la priorisation du backlog, - Sécuriser les phases de recette - Participer à l’amélioration continue des pratiques dans l'équipe (documentation, organisation des sprints, suivi des demandes).
Mission freelance
Consultant Data gouvernance Collibra (BCBS 239)
STHREE SAS pour COMPUTER FUTURES
Publiée le
Collibra
Data management
9 mois
Île-de-France, France
Contexte : Cadre réglementaire pour les banques : Exigences Bâle 2 renforcée, besoin de données fiables pour piloter les risques et pression sur qualité et traçabilité de données Objectifs : Implémentation de Collibra (choix du siège) comme levier RDARR : La plateforme de gouvernance des données ❖ Glossaire, dictionnaire, référentiels ❖ Rôles et responsabilités (ownership) // Documentation et workflows ❖ Data lineage ❖ Cohérence et transparence des données utilisées Missions Phase Data Owner Assignment : suivant la définition théorique que nous avons donné en interne sur les rôles et Responsabilités, 4 profils : Data Owner, Stewart, Producer et User ❖ Préparer et faire valider la matrice des R&R auprès des Data Owner à partir du scope CONNECT ❖ Faire valider les Rôles et Responsabilités auprès des Data Owner sur les IDP Connect (Local file, Mapping table, RDT, Scoring, Rating …) Phase Alimentation Collibra : ❖ « Ecosystème input CONNECT » Use case de l’implémentation dans Collibra) 1/ Préparer les différents templates (par entités CONNECT) pour Collibra avec les besoins fonctionnels demandés pour Collibra 2/ Identifier les sources de données (avec l’aide de spécifications techniques) 3/ Faire compléter le lineage de data par l’IT 4/ Tester les templates sur K dans l’import Collibra et valider les schémas (Vérifier que le lineage fonctionne correctement avec les données attendues en provenance des systèmes) 5/ Mettre en production les templates 6/ Effectuer et Organiser les correctifs nécessaires en partenariat avec l’IT. 7/ Participer au meetings bi-weekly avec le siège sur l’avancement des travaux – Fournir l’avancement nécessaire dans JIRA et/ou au Data Officer ❖ «Ecosysteme Autres » Selon le siège, « nous » livrons des spreadsheets pour le compte du regulatory reporting. Cadrage encore flou. Cependant l’idée serait d’auditer certains services pouvant « toucher » aux outils du siège (suivant liste pré définie) afin de vérifier que des données sont envoyées au siège et par quel biais. - Prendre les outils recensés par le siège (Check si ces outils génèrent des flux pour les besoins des reportings règlementaires au siège) - Sonder sur les User de ces outils et les flux existants - Organiser la description de ces flux en vue de l’intégration dans Collibra . - Vérifier que le flux soient déclarés en interne dans la cartographie des outils avec architecte IT
Offre d'emploi
Product Owner Cloud Azure
KLETA
Publiée le
Azure
Product management
3 ans
Paris, France
Nous recherchons un Product Owner Cloud Azure pour piloter la roadmap d’une plateforme cloud mutualisée et accompagner son évolution continue. Vous serez en charge de structurer et prioriser le backlog produit en lien avec les équipes Cloud, DevOps et Architecture. Vous traduirez les besoins des équipes métiers en fonctionnalités concrètes, rédigerez des user stories et définirez des critères d’acceptance clairs. Vous participerez activement aux cérémonies agiles et assurerez une communication fluide entre les équipes techniques et les parties prenantes. Vous suivrez les indicateurs de performance du produit et contribuerez à l’amélioration continue de l’expérience des équipes utilisatrices d’Azure. Votre rôle sera clé pour garantir que la plateforme apporte une réelle valeur ajoutée et reste alignée avec la stratégie cloud de l’entreprise.
Offre d'emploi
Ingénieur réseau infrastructure - CDI/Freelance - Osny 95 H/F
GROUPE ARTEMYS
Publiée le
12 mois
75010, Paris, Île-de-France
Qui sommes-nous ? On est une ESN spécialisée dans le domaine des infrastructures à taille humaine, avec plus de 30 ans d’histoire. Mais ce qui fait notre vraie différence ? On ne se contente pas de dire qu’on valorise nos collaborateurs, on le prouve au quotidien. Chez Artemys , on crée un univers où l’humain passe avant tout . Des valeurs ? Oui, et pas qu’en théorie Convivialité , parce que bosser dans une bonne ambiance, ça change tout Proximité , pour que chaque membre de l’équipe ait sa place et une voix Écoute , parce qu’on est convaincus que vos idées comptent autant que votre travail. 📍 Le terrain de jeu ? Notre siège est situé au cœur du dynamique 10e arrondissement de Paris, mais nos opportunités de postes s'étendent dans tous les arrondissements parisiens et la proche banlieue. Votre mission (si vous l’acceptez) : Installation & configuration des équipements réseaux (Cisco / Palo Alto) Déploiement d’infrastructures complètes (réseau, serveurs Linux, AD, stockage) Mise en place sécurité (firewalls, WAF, VPN) Support aux environnements d’intégration & gestion inventaire Interventions sur sites clients pour finalisation des interconnexions L’environnement technique : Cisco networking (impératif) Palo Alto (important) Linux RedHat / Oracle Linux (souhaitable) Supervision / log management (Grafana, OpenSearch) Présence : 4 jours / semaine sur site Déplacements : internationaux à prévoir Vous, notre perle rare : Vous avez 4 ans d’expérience (minimum) en environnement challengeant Vous avez déjà travaillé avec des grands comptes Vous parlez anglais (niveau conversationnel) Le process pour nous rejoindre : simple et clair ! Échange RH : On discute de vos motivations et de l’adéquation avec nos valeurs (promis, pas de robotisation ici). Entretien opérationnel : Un échange approfondi pour clarifier vos missions. Proposition d'embauche : Si tout colle, on vous accueille officiellement chez Artemys ! Conditions de rémunération : 48000 € - 52000 € (Selon votre expertise) 450 € - 500 € en freelance Sans négliger les avantages indispensables : Carte SWILE (Tickets Restaurant, transports et CE). 12 RTT, Mutuelle Groupe, Participation Groupe. Accompagnement RH, suivi managérial de proximité (Méthode Agile) Événements entreprise : Afterworks, Tech Meetups, soirées d’intégration, events sportifs, soirées gaming… Bienvenue dans l’aventure ARTEMYS Chez nous, chaque talent compte. Peu importe votre âge, vos origines, votre identité, votre religion ou votre orientation : ce qui nous intéresse, c’est vous et ce que vous avez à apporter. On s’engage à répondre à toutes les candidatures sous 72 heures, parce qu’on sait combien l’attente peut être stressante. Et ici, l’inclusion n’est pas qu’un mot : tous nos postes sont ouverts aux personnes en situation de handicap, et on fait tout pour créer un environnement où chacun peut s’épanouir. Prêt, feu, candidatez !
Mission freelance
DevOps azure Python IAM sur Paris
EterniTech
Publiée le
Azure DevOps
CI/CD
IAM
3 mois
Paris, France
Nous recherchons pour un de nos clients dans le secteur des assurances un Consultant DevOps Azure – Python / IAM capable d’accompagner des équipes métiers dans l’exploitation, l’optimisation et la montée en compétence autour de leurs modèles (ex : hydrologie, sismique, etc.). Le périmètre comprend des sujets d’infrastructure cloud, de code Python, d’outillage DevOps et de support opérationnel Localisation : Paris Durée : 6 à 12+ mois (mission longue) Secteur : Assurance Missions principales Accompagner les équipes métiers dans le développement, l’optimisation et l’exécution de leurs workflows Python Mettre en place et maintenir des solutions Azure Cloud robustes et automatisées Développer/optimiser des pipelines CI/CD Structurer une approche Infrastructure as Code Conseiller et sécuriser la plateforme (IAM, Identities, Permissions)
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
9548 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois