L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 4 412 résultats.
Offre d'emploi
MOA BI Entrepôt de donnée
Publiée le
Modélisation
SQL
1 an
Paris, France
Télétravail partiel
Les missions consisteront à : Prendre en charge du besoin des directions Métier Étudier les solutions en collaboration avec la maitrise d’ouvrage et le métier ; Rédiger les spécifications technico-fonctionnelles ; Réaliser la maintenance corrective et évolutive des traitements Datastage ; Assister les utilisateurs dans leur utilisation de l’entrepôt ; Réaliser les tests unitaires ; Contribuer aux choix techniques et fonctionnelles en respectant le cadre des outils et technologies disponibles et validés par la DTO Réaliser les estimations de coûts demandés en collaboration avec les chefs de projet/membres de l’équipe ; Contribuer activement à l’optimisation des applications Participer au dialogue avec les services utilisateurs Préparer les supports pour les comités L'ensemble des actions cité ci-dessus est à réaliser en collaboration avec les MOA et sous la direction du chef de projet.
Mission freelance
Consultant Power BI / Progiciel ITSM Orleans ou Paris, 3 jours de TT
Publiée le
ITSM
Microsoft Power BI
2 mois
Paris, France
Télétravail partiel
Consultant Power BI / Progiciel ITSM/ SMAX VIO Sur Orleans ou Paris, 3 jours de TT. Démarrage asap. Power BI, dans le cadre d'une migration d'outils ITSM de Jira vers SMAX Compétences · Esprit d'analyse et qualité rédactionnelle. · Rigueur, bon relationnel et pragmatisme. · Maîtrise de PowerBl. · Des connaissances techniques sur SMAX VIO ou Progiciel ITSM équivalent seraient un plus. · Facultés d'adaptabilité, d'autonomie, de réactivité et de sens du service. Le client actuellement un programme de transformation technique et organisationnelle avec un basculement de son outil logiciel JIRA supportant ses processus ITIL vers l'outil cible du Groupe (UNITY basé sur SMAX V10) afin de se conformer aux pratiques et processus partagés au niveau de l'ensemble du groupe. Dans le cadre du projet UNITY, le 1er lot de travaux portant sur les processus de gestion des incidents (GDI), gestion des problèmes (GDP) et gestion des changements (GDC) est en cours de tests sous UNITY. Un 2nd lot de travaux portant sur les processus de gestion de la demande (GDD) débute sur le dernier trimestre 2025. Missions La mission consistera, en renfort de l'équipe projet UNITY : · Dans un premier temps, à implémenter sous PowerBl les rapports opérationnels de pilotage des processus du 1 er lot de travaux. · Dans un second temps, à participer à l'analyse d'écarts, l'élaboration du besoin et des spécifications ainsi qu'à implémenter sous Power BI les rapports opérationnels de pilotage, pour les processus du 2nd lot de travaux. Compétences · Esprit d'analyse et qualité rédactionnelle. · Rigueur, bon relationnel et pragmatisme. · Maîtrise de PowerBl. · Des connaissances techniques sur SMAX VIO ou Progiciel ITSM équivalent seraient un plus. · Facultés d'adaptabilité, d'autonomie, de réactivité et de sens du service.
Offre d'emploi
Lead Technique Windows / DevOps – Environnement Critique & Haute Disponibilité (H/F)
Publiée le
Active Directory
Ansible
Azure
1 an
60k-75k €
450-600 €
Monaco
Assurer le MCO / MCS des infrastructures Windows Server. Piloter les incidents majeurs , analyser les causes racines et sécuriser les reprises. Gérer le cycle de vie du socle Windows : patching, montée de versions, durcissement, plans d’obsolescence. Encadrer les évolutions techniques : PKI, GPO, AD, DNS, DFS, IIS, Clustering . Contribuer aux projets d’industrialisation et d’automatisation ( PowerShell, Ansible, Terraform si possible). Participer à la rédaction des DAT, DEX, DCT , procédures opérationnelles et documentations. Collaborer avec les équipes projets, sécurité, réseau, virtualisation et automatisation. Apporter une expertise Windows/DevOps dans les phases de design, build et run. Garantir la conformité, la performance, la fiabilité et la sécurité de la plateforme. Windows Server 2012R2 → 2022 Active Directory, GPO, PKI , DNS, DHCP IIS , Web Services, reverse proxy DFS, Clustering , File Services PowerShell , scripts d’automatisation Outils de supervision : Centreon / Grafana / Icinga (selon profils) CI/CD / Automation : Ansible, Terraform, GitLab CI (appréciés) Virtualisation : VMware vSphere Notions cloud appréciées : Azure (AAD, hybrid join, IaaS) Méthodologies : ITIL, Change Management, gestion d’obsolescence
Offre d'emploi
Data Analyst
Publiée le
Google Cloud Platform (GCP)
PL/SQL
Python
1 an
Paris, France
Télétravail partiel
OBJECTIF Le projet est actuellement lancé avec une mise sous contrôle qualité des données critiques et des plans d’action de remédiation avec les systèmes informatiques de gestion. Le département nécessite l’expertise d’un Data Analyst afin d’améliorer l’analyse des données au sein de l’entreprise. Ce poste est essentiel pour interpréter et analyser la qualité des données clés du business et du métier, tout en collaborant étroitement avec les équipes métiers et IT. Le Data Analyst sera en charge de la mise en oeuvre des analyses pour élaborer les contrôles de qualité de données et les KPIs, d’assurer le maintien et les évolutions du Data Quality Dashboard, de participer aux plans d’action de remédiation, en collaboration avec l’équipe Data du département, et avec les responsables informatiques / métiers des applications.
Mission freelance
Data Platform Engineer – Snowflake / Terraform (Full Remote – Belgique)
Publiée le
Snowflake
6 mois
580 €
Paris, France
Télétravail partiel
Contexte du poste : Dans le cadre du renforcement de ses équipes Data & Cloud, notre client recherche un Data Platform Engineer spécialisé dans la conception, le déploiement et la maintenance d’infrastructures data à grande échelle. L’objectif est de bâtir un écosystème de données robuste, automatisé et sécurisé , supportant l’ensemble des pipelines et applications data de l’entreprise. Le poste est basé en Belgique , mais 100 % remote est possible. Missions principales : Concevoir, développer et maintenir l’infrastructure sous-jacente aux plateformes data (Snowflake principalement). Industrialiser le provisioning et la configuration via Terraform (Infrastructure as Code) . Garantir la scalabilité, la sécurité et la performance de la plateforme data. Mettre en place et maintenir les pipelines CI/CD (Git-based workflows). Gérer la sécurité des secrets et credentials via les outils dédiés (Vault, AWS/Azure/GCP Secret Manager). Collaborer avec les équipes Data Engineering, Cloud et Sécurité pour assurer la cohérence et la fiabilité de la plateforme. Contribuer à la documentation technique, au suivi Jira et à l’amélioration continue du delivery. Compétences techniques requises : Excellente maîtrise de la plateforme Snowflake (architecture, performance tuning, RBAC, best practices). Expertise confirmée en Terraform , notamment pour la création de modules et l’automatisation des déploiements cloud. Expérience sur des workflows CI/CD Git-based (GitHub Actions, GitLab CI, Jenkins...). Maîtrise d’au moins un outil de gestion des secrets : HashiCorp Vault, AWS Secrets Manager, Azure Key Vault ou GCP Secret Manager. Bonne connaissance de l’ écosystème DevOps et des outils de suivi (Jira, Confluence). Profil recherché : 5 à 8 ans d’expérience en ingénierie data ou cloud infrastructure. Solides compétences en Industrialisation et Sécurité des environnements data . Esprit analytique, autonome et rigoureux. Capacité à travailler dans un environnement international et collaboratif. Langue : Anglais courant (obligatoire) .
Offre d'emploi
Ingénieur DevOps IA
Publiée le
Linux
Python
1 an
40k-45k €
330-500 €
Île-de-France, France
Télétravail partiel
Descriptif du poste Au cœur du AI Innovation Lab d'un groupe bancaire international multi‑entités, vous aurez pour mission de concevoir, déployer et expérimenter des Proof‑of‑Concept (POC) innovants autour des agents autonomes et des modèles de langage (LLM) appliqués aux jeux de données d'infrastructures IT. L'objectif : fournir des aides intelligentes à la production, faciliter la supervision, l'automatisation et la résolution proactive d'incidents. Le poste s'inscrit dans une démarche agile, collaborative et orientée industrialisation à terme. Missions principales Concevoir et gérer des environnements d'expérimentation Kubernetes/Docker avec intégration CI/CD (Jenkins, GitLab CI/CD, ArgoCD). Automatiser la collecte, la pré‑traitance et l'exploitation des datasets d'infrastructure (logs, CMDB, monitoring) pour entraîner et alimenter des agents basés sur LLM. Développer et intégrer les pipelines de déploiement d'agents IA en collaboration avec les data‑scientists et ingénieurs IA (utilisation de LangChain, AutoGen ou équivalents). Implémenter des scripts et outils en Python, Bash, Go pour l'automatisation des tâches infra, l'orchestration et le monitoring. Garantir la sécurité du développement et des déploiements dans un environnement réglementé : DevSecOps, outils SAST/DAST, gestion des accès, conformité RGPD. Produire la documentation technique des POC, rédiger les spécifications d'industrialisation pour les équipes produit. Assurer une veille technologique continue sur les évolutions des architectures agentiques, LLM et de l'automatisation infra. Compétences techniques clés - Systèmes d'exploitation : maîtrise avancée de Linux/Unix et des concepts réseaux (TCP/IP, HTTP, DNS, VPN). Cloud & IaC : AWS, Azure, GCP – Terraform, Pulumi, CloudFormation. Conteneurisation & orchestration : Docker, Kubernetes, Helm. CI/CD : Jenkins, GitLab CI, ArgoCD. Automation configuration : Ansible, Puppet, Chef. Langages : Python (expert), Bash, Go (appréciés). Monitoring & logging : Prometheus, Grafana, ELK Stack.
Mission freelance
CONSULTANT(E) MOA BI EXPERIMENTE(E)
Publiée le
BI
MOA
24 mois
325-650 €
Paris, France
Télétravail partiel
Descriptif détaillé de la mission : ➢ Identifier, analyser et comprendre les besoins métier, problématiques à résoudre et opportunités à concrétiser. ➢ Conseiller et assister les équipes métier dans la priorisation, la formalisation des besoins et de la recette, les problématiques et les opportunités. Être le référent du métier. ➢ Coordonner les parties prenantes métier et techniques, et accompagner le changement associé (y compris la transition en RUN). ➢ Identifier et proposer, en étroite collaboration avec les équipes Solutions et Business Applications, les solutions data ou reporting qui permettent d'y répondre. ➢ S'assurer que le delivery correspond aux besoins du métier ➢ Contribuer à la documentation de la solution. ➢ Être force de proposition sur les opportunités d'améliorations des solutions. ▪ Environnement technique de la mission : ➢ SSIS / SQL SERVER ➢ IBM COGNOS ➢ TABLEAU ➢ AZURE ▪ Date début de mission : ASAP ▪ Durée estimée de la mission : 3 mois (renouvelables)
Mission freelance
Développeur C++ / Qt BANQUE F/H
Publiée le
Apache Kafka
C/C++
Linux
12 mois
400-550 €
Île-de-France, France
Télétravail partiel
Contexte du projet Les projets OPTIQ et Resilience visent à développer de nouvelles fonctionnalités et à améliorer des fonctionnalités existantes liées aux applications OPTIQ (plateforme de trading Euronext) et Resilience (interface utilisateur d’OPTIQ). Euronext est la principale infrastructure de marché de capitaux en Europe, couvrant l’ensemble de la chaîne de valeur : cotation, négociation, compensation, règlement-livraison et conservation, ainsi que des solutions pour les émetteurs et les investisseurs. Équipe & environnement L’équipe Trading Systems est répartie entre Paris et Porto . À Paris, elle compte environ 30 personnes (développeurs, QA, managers) et est responsable de plusieurs applications critiques de trading, notamment OPTIQ® et Resilience . 🎯 Description des prestations & livrablesDéveloppement & code Développement de code robuste, performant et testable Utilisation des technologies suivantes : C++ (14 / 17 / 20) Qt 6.8 / QML Python Environnements Linux RedHat / Windows Bases de données MySQL Intégration avec Kafka Écriture de requêtes SQL performantes et analyse de requêtes complexes Respect des standards de développement et de la couverture de tests unitaires Participation aux revues de code et aux merge requests Documentation Rédaction de documents de solution à partir des spécifications fournies par les business analysts Maintien d’une documentation technique à jour pour les développements réalisés Amélioration continue Contribution active à l’amélioration continue des processus et pratiques de développement CI/CD Création et maintenance des pipelines CI/CD Utilisation de Jenkins et Ansible
Mission freelance
DevOps AWS Sénior
Publiée le
AWS Cloud
Azure DevOps
DevOps
6 mois
400-550 €
Lille, Hauts-de-France
Télétravail partiel
🚨 Urgent – Mission Freelance DevOps AWS Sénior (H/F) 📍 Localisation : Saint-André-Lez-Lille (Nord) 🏢 Présentiel : 2 jours / semaine après onboarding réussi (ce qui induit full présentiel pendant l'onbording) 🗓️ Démarrage : 5 janvier 📆 Durée : 6 mois 🎯 Contexte de la mission Dans le cadre d’un renfort immédiat , nous recherchons un DevOps AWS sénior pour intervenir chez l’un de nos clients sur un environnement cloud structurant et fortement intégré aux outils Microsoft. 🛠️ Environnement technologique • AWS (environnement complet et structuré) • Landing Zone AWS : AD, IPAM, HZ, PHZ, Firewall, IAM • Réseau : Transit Gateway / VPC • Conteneurisation : EKS / Kubernetes • Forte intégration avec O365 • CI/CD & déploiements : Azure DevOps 👨💻 Attentes de la prestation • Intervenir sur l’exploitation et l’évolution des environnements AWS • Maintenir et faire évoluer les clusters EKS / Kubernetes • Participer à la gestion des configurations et des déploiements via Azure DevOps • Contribuer à la sécurisation, la stabilité et la performance des plateformes cloud • Collaborer étroitement avec les équipes infra, sécurité et applicatives • Être force de proposition sur les bonnes pratiques DevOps / Cloud
Offre d'emploi
Développeur Python orientation DevOps - Secteur télécom - Paris (H/F)
Publiée le
DevOps
Docker
Kubernetes
52k-57k €
Paris, France
Télétravail partiel
Missions Développer et maintenir des applications backend en Python pour la gestion et le traitement de données. Concevoir des architectures robustes et scalables adaptées aux besoins internes et aux usages clients. Développer et intégrer des API performantes et sécurisées (REST / GraphQL). Optimiser la fiabilité, la performance et la maintenabilité des applications existantes. Contribuer aux pratiques DevOps dans la construction et l’amélioration des chaînes CI/CD. Compétences techniques recherchées Stack à maîtriser Langage : Python Frameworks : Django, FastAPI, Flask, DRF Bases de données : PostgreSQL, SQL Server API : REST, GraphQL Environnement technique Cloud : AWS Conteneurisation : Docker (notions attendues) ; Kubernetes apprécié CI/CD : participation ou mise en place de pipelines d’intégration continue Versioning : Git
Offre d'emploi
Consultant BI Fonctionnel
Publiée le
BI
1 an
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Dans le cadre du renforcement d’un Bureau d’Études Décisionnel, nous recherchons un Consultant BI Fonctionnel Senior pour intervenir sur des projets stratégiques de conception, d’évolution et de maintenance de chaînes BI. Vous intégrerez une équipe experte intervenant sur des environnements décisionnels complexes, au cœur des enjeux métiers et data, avec une forte interaction entre les équipes fonctionnelles et techniques. Objectifs de la mission Renforcer l’équipe en charge des études et de la qualification décisionnelle Contribuer à la conception fonctionnelle de solutions BI de bout en bout Assurer un rôle clé d’interface entre les métiers (MOA) et les équipes techniques Participer activement aux projets en méthodologie Agile (Scrum) Vos missions: Rattaché(e) au responsable du pôle décisionnel, vous interviendrez notamment sur : L’analyse et la formalisation des besoins métiers La rédaction de : conceptions générales spécifications fonctionnelles générales spécifications fonctionnelles détaillées La structuration et le pilotage des travaux en mode Agile : rédaction, chiffrage et priorisation des User Stories participation aux cérémonies Scrum (posture proche Product Owner) Le suivi des développements et la validation fonctionnelle La structuration des activités dans un outil de ticketing (JIRA) La participation aux phases de cadrage et aux projets RUN (anomalies et évolutions) Le rôle de garant(e) de la cohérence fonctionnelle et technique des solutions BI proposées Environnement technique ETL / Traitement : DataStage, SQL Stockage : Teradata, PostgreSQL Dataviz / Restitution : Power BI (datasets, dataflows, rapports) Méthodologie : Agile / Scrum Outils : JIRA (idéalement), outils de modélisation type HOPEX / MEGA (apprécié)
Mission freelance
Data Analyst – Skywise / Data Products / Substances
Publiée le
Product management
Reporting
SAP
3 ans
Toulouse, Occitanie
Télétravail partiel
Nous recherchons un Data Analyst pour rejoindre une équipe Data engagée dans l’optimisation et la valorisation des Data Products au sein de la plateforme Skywise. 📍 Toulouse - 3-4 jours de TT 📅 Démarrage ASAP ou Janvier possible Votre rôle : garantir la qualité, la cohérence et la disponibilité des données, tout en soutenant la création de nouveaux Data Products et le reporting associé. ✅ Créer et améliorer les Data Products (80+ existants) ✅ Maintenir le lien entre HazMat (SAP) et les données Skywise ✅ Concevoir des Data Products Composites (ex. : Chemicals x Logistics) et assurer leur officialisation dans le catalogue Skywise ✅ Développer et maintenir les cockpits et rapports Substances ✅ Fournir des extractions et analyses pour les clients internes
Mission freelance
Devops / Sysops (F/H)
Publiée le
Ansible
Git
Microsoft Windows
1 an
330-400 €
Montpellier, Occitanie
Télétravail partiel
Voici les missions demandées : Administration et optimisation des systèmes Windows. Développement et automatisation via PowerShell et intégration avec Visual Studio. Mise en place et gestion de pipelines CI/CD. Utilisation et gestion des outils DevOps (Git, Ansible, CI/CD). Supervision et monitoring des systèmes (bonus : Grafana). Contribution à l’orchestration et au déploiement sur Kubernetes (bonus). Collaboration avec les équipes de développement et d’exploitation pour fluidifier les processus.
Mission freelance
Product Owner – Dématérialisation de factures et EDI (e-invoicing / e-reporting)
Publiée le
12 mois
Finistère, France
Contexte : Notre client, un acteur majeur dans son secteur, engage un projet stratégique de dématérialisation de factures et de mise en conformité avec la nouvelle loi de finance pour 2026 (e-invoicing / e-reporting). Dans ce cadre, nous recherchons un Product Owner pour piloter les évolutions de la plateforme EDI et garantir l’alignement des solutions avec les besoins métiers et réglementaires. Missions principales : Pilotage du backlog : Prioriser et affiner les user stories en collaboration avec les équipes techniques et métiers, dans le cadre de sprints de 3 semaines. Expertise fonctionnelle : Apporter une connaissance pointue en dématérialisation de factures et en EDI, notamment avec les normes standards du marché (EAN, etc.). Conformité réglementaire : S’assurer que les solutions développées respectent les exigences de la loi de finance 2026 (e-invoicing / e-reporting). Coordination technique : Travailler avec une stack technique incluant SEEBURGER (plateforme EDI), Talend (chaîne de traitement), et Google Cloud (stockage). Animation d’ateliers : Organiser et animer des réunions de cadrage, de recette et de suivi avec les parties prenantes. Flexibilité et adaptation : Être présent à temps plein sur site en phase de démarrage, avec une flexibilité accrue par la suite.
Mission freelance
EXPERT INFRA AS CODE
Publiée le
24 mois
375-750 €
Paris, France
Télétravail partiel
PROPULSE IT recherche un Consultant senior avec une Très bonne expérience de l'Infra As code, en environnement On Premise (Cloud Privé) Dans le cadre du projet « IAC » et de la maintenance évolutive de la chaine de déploiement continue, le client souhaite se renforcer avec une prestation d'expert technique sur l'infra As Code et le CI/CD. Cette prestation sera menée au sein d'une équipe « DevOps », utilisant la méthodologie « Scrum » et le principe du « GitOps ». - Réaliser et modifier différents rôles et playbooks Ansible - Réaliser et modifier différents modules Terraform - Réaliser et modifier différents jobs et pipelines Gitlab-CI - Assurer le support N3 de la chaîne CI/CD. - Participer à l'alimentation de la roadmap technique et à l'élaboration des normes d'exploitation
Mission freelance
Program PMO / Pilotage Multi-Workpackages (>10)
Publiée le
Gestion de projet
12 mois
530-550 €
Paris, France
Télétravail partiel
Dans le cadre d’un programme stratégique de transformation IS/IT de grande envergure, notre client lance plusieurs initiatives majeures visant à moderniser l’environnement technologique , industrialiser les modèles de delivery , et accélérer la transition vers le Cloud , tout en renforçant les pratiques Data & DevOps. Ce programme, piloté au niveau exécutif (exposition au Comité IT , reporting consolidé pour le CFO Groupe ), implique un pilotage complexe multi-interlocuteurs , une gouvernance renforcée, et un besoin de structuration précise des activités et de la stratégie associée. Les projets associés portent notamment sur : l’ optimisation des modes de delivery (approche factory / service center), la structuration de nouveaux parcours Data & IT , la modernisation de l’écosystème applicatif , l’ amélioration de la gouvernance et de la performance globale du portefeuille IS/IT, la mise en place de nouveaux partenaires technologiques (via RFP), et la consolidation d’un pilotage global du programme (KPIs, OKR, business case). Afin d’accompagner ce changement, nous recherchons trois profils PMO expérimentés capables d’intervenir sur des périmètres complémentaires : gouvernance globale, pilotage multi-workpackages, et structuration d’un nouveau projet incluant une procédure de sourcing. Missions principales Coordonner et animer 15 workpackages du projet. Suivre le planning, le budget et la qualité des livrables. Identifier, piloter et atténuer les risques projet. Gérer la livraison des partenaires externes, suivre leurs livrables, faire le suivi qualité. Mettre en place et maintenir un reporting projet clair et structuré. Préparer les supports de pilotage pour les instances de gouvernance & comités (incluant Steering Committees). Compétences techniques essentielles 1. Suivi projet avancé Planification (MS Project, Smartsheet ou équivalent) Suivi budgétaire, contrôle des coûts Gestion des risques / plan d’actions (matrices, scoring, mitigation) 2. Connaissances techniques Data & intégration Architecture Data (compréhension des data pipelines, ingestion, transformation) Architecture applicative & intégration Connaissance des environnements ETL / orchestrateurs Bonus : Dataiku, Talend, Apache Airflow 3. Reporting opérationnel Conception de dashboards KPIs Structuration de reportings projet pour comité de pilotage Production de synthèses claires (PowerPoint, Confluence)
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
4412 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois