L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 6 105 résultats.
Mission freelance
Expert Réseau & Sécurité – Fortinet / Automatisation (H/F)
Freelance.com
Publiée le
Ansible
F5
Fortinet
1 an
450-500 €
Toulouse, Occitanie
Dans le cadre d’un renforcement d’équipe, nous recherchons un Expert Réseau & Sécurité pour une mission longue durée au sein d’un environnement Datacenter critique à forte exigence de disponibilité et de performance. Il s’agit d’un poste orienté infrastructures de sécurité (build, run, design, automatisation) — hors gestion des politiques de sécurité. Vos missions Au sein d’une équipe experte, vous interviendrez sur : Build / Run / Design Expertise N3 sur Firewalls Fortinet (architecture, déploiement, MCO, troubleshooting avancé) Automatisation des infrastructures (playbooks, pipelines, industrialisation) Intégration des infrastructures de sécurité dans un écosystème réseau complexe Contribution aux évolutions d’architecture Maintien en Conditions Opérationnelles Supervision et traitement des incidents/problèmes Gestion des changements et opérations HNO Participation aux astreintes (≈ 1/semaine par trimestre) Permanences hebdomadaires Gouvernance & Amélioration Continue Application et contrôle des standards de sécurité Participation aux audits internes / externes Mise en conformité et suivi des recommandations Rédaction de guides et standards Veille technologique & propositions d’optimisation (performance, qualité, coûts)
Offre d'emploi
Technicien Réseau confirmé (H/F)
Experis France
Publiée le
28k-38k €
La Hague, Normandie
Technicien Réseau confirmé (H/F) - La Hague Vous savez que chaque geste compte ? Dans un environnement sensible et stratégique, votre expertise réseau contribue directement à la réussite d'un projet industriel d'envergure. Nous recrutons un Technicien Réseau confirmé (H/F) pour intervenir à 100% sur site, dans le cadre d'un projet d'agrandissement majeur d'un site industriel situé à La Hague. Votre mission : Au sein d'une équipe à taille humaine, vous participez à un projet structurant avec un fort enjeu d'implémentation réseau sur de nouveaux espaces. À ce titre, vous : Participez à l'installation et à l'implémentation des infrastructures réseaux sur les nouveaux sites Intervenez sur des environnements techniques exigeants Contribuez à la mise en œuvre d'architectures réseaux en lien avec les équipes expertes Assurez vos interventions dans le respect des normes de sécurité et des contraintes du site Environnement : Vous intervenez au sein d'une organisation structurée par domaines d'expertise. Vous êtes rattaché(e) à l'équipe en charge de l'intégration réseau et travaillez en étroite collaboration avec les équipes cybersécurité afin de concevoir et déployer des architectures sécurisées. Conditions : Localisation : La Hague (100% sur site) Horaires : 8h00 - 16h00 Démarrage : dès que possible Rémunération : 28K€ à 38K€ selon profil
Offre d'emploi
Interopérabilité : Ingénieur Intégration, Data & Cloud
1PACTEO
Publiée le
ETL (Extract-transform-load)
Google Cloud Platform (GCP)
Intégration
12 mois
44k-94k €
400-750 €
75000, Paris, Île-de-France
Dans le cadre de ses activités, notre client recherche un Ingénieur Intégration, Data & Cloud. L’ingénieur intervient sur la conception, le développement et l’exploitation de solutions d’intégration, de traitement de données et d’architectures cloud, dans un contexte orienté automatisation, data et DevOps. Il contribue directement à la mise en place de solutions d’interopérabilité entre systèmes hétérogènes (on-premise et cloud), en assurant la fiabilité, la fluidité et la sécurisation des échanges de données. Missions principales Intégration & Orchestration Développement et orchestration de flux d’intégration avec Magic xpi Automatisation des échanges de données entre systèmes (on premise ↔ cloud) dans une logique d’interopérabilité Intégration de services via APIs REST (authentification, appels sécurisés, transformation des données) Conception et orchestration de workflows d’intégration avec Application Integration (GCP) Cloud & Architecture (Google Cloud Platform) Conception et déploiement de solutions cloud sur Google Cloud Platform (GCP) Mise en place et gestion d’architectures data et d’intégration favorisant l’interopérabilité entre applications Gestion des environnements dev / recette / production Data Engineering & Analytics Modélisation de données et conception de pipelines ETL / ELT Traitement de volumes de données importants Optimisation de requêtes SQL avancées Analyse et data warehousing avec BigQuery Transformation et modélisation analytique avec dbt (staging, intermediate, marts, tests de qualité, documentation, versioning) ETL & Outils Data Conception et développement de flux ETL avec SQL Server Integration Services (SSIS) Automatisation des traitements d’intégration de données multi-sources Développement & Scripting Programmation Python SQL avancé Scripting et automatisation (batch processing, jobs automatisés) DevOps & CI/CD Mise en place et maintenance de pipelines CI/CD avec GitHub Automatisation des tests, builds et déploiements via GitHub Actions Gestion du versioning et des bonnes pratiques de développement Automatisation Low-Code Création de flux Power Automate (cloud et desktop) Utilisation de connecteurs et intégrations avec des systèmes tiers Méthodologies & Qualité Travail en méthodologie Agile / Scrum Application des bonnes pratiques de développement et de data engineering Contribution à la documentation technique et à l’amélioration continue
Offre d'emploi
Data Engineer senior
Atlanse
Publiée le
Agile Scrum
AWS Cloud
AWS Glue
1 an
60k-67k €
500-600 €
Paris, France
En tant que Data Engineer Senior PySpark, vous jouez un rôle clé dans la performance et la fiabilité des traitements de données à grande échelle. Vous êtes en charge de l’optimisation des pipelines existants et de l’organisation des activités de RUN & stabilisation, en veillant à prioriser les actions à forte valeur ajoutée dans un environnement Agile. Votre rôle Optimisation et refonte des pipelines data · Auditer, refactorer et faire évoluer les modules de data engineering : Refining Covariates Modelling, Exposition · Optimiser les pipelines PySpark pour améliorer les performances de traitement à grande échelle (partitioning, gestion des joins, cache, skew et volumétrie) · Renforcer la modularité, la lisibilité, l’évolutivité et la scalabilité des pipelines · Contribuer à la réduction de la dette technique et à la modernisation du legacy Industrialisation et qualité des développements · Structurer un framework flexible permettant l'ajout de nouvelles features et facilitant l’industrialisation des développements · Mettre en place les tests unitaires, d’intégration et fonctionnels · Formaliser des standards de développement Stabilisation, RUN et amélioration continue · Améliorer la stabilité des pipelines grâce au monitoring et à l’application des bonnes pratiques CI/CD · Structurer et prioriser les actions de RUN et de stabilisation · Définir et piloter un plan d'optimisation priorisé avec des gains mesurables Passage à l’échelle et évolution de l’architecture data · Adapter les pipelines pour un déploiement mondial / multi régions en tenant compte des enjeux de volumétrie et de passage à l’échelle · Optimiser le ratio coût / performance des traitements · Travailler en étroite collaboration avec les Data Scientists et les ML Engineers
Mission freelance
📩 Data Engineer Microsoft Fabric
Gentis Recruitment SAS
Publiée le
Azure
Azure Data Factory
CI/CD
12 mois
Paris, France
Contexte Dans le cadre de la modernisation de sa plateforme data, un grand acteur du secteur de l’énergie renforce ses équipes data pour accompagner le déploiement de solutions basées sur Microsoft Fabric . L’objectif est de structurer une architecture data moderne, scalable et orientée métier, afin de répondre aux enjeux de valorisation des données (trading, consommation, production, performance énergétique). Missions Concevoir et développer des pipelines de données sur Microsoft Fabric Participer à la mise en place d’une architecture data (Lakehouse, Medallion Architecture) Intégrer et transformer des données issues de multiples sources (IoT, marché, SI internes) Optimiser les performances et la qualité des données (data quality, monitoring) Collaborer avec les équipes métiers (trading, risk, opérations) pour répondre aux besoins analytiques Contribuer à l’industrialisation des traitements (CI/CD, bonnes pratiques) Stack technique Microsoft Fabric (OneLake, Data Factory, Synapse, Power BI) Azure (Data Platform) Python / PySpark / SQL Data Lake / Lakehouse Git / CI-CD
Mission freelance
Manager de Transition – Systèmes, Réseaux & Infrastructures (H/F)
Mobiskill (WEFY Group)
Publiée le
Administration réseaux
Infrastructure
Réseaux
6 mois
450-550 €
Paris, France
🧩 Manager de Transition – Systèmes, Réseaux & Infrastructures (H/F) 📍 Localisation : Île-de-France (multi-sites) 🕐 Démarrage : ASAP 📄 Contrat : Freelance (possibilité de pré-embauche) 🧭 Contexte Dans le cadre d’une transition organisationnelle au sein d’une DSI structurée, nous recherchons un(e) Manager de Transition pour piloter le domaine Systèmes, Réseaux et Infrastructures . L’environnement est riche, avec des enjeux forts de disponibilité, sécurité, performance et modernisation des infrastructures IT , dans un contexte multi-sites et multi-services. 👉 L’objectif est d’assurer la continuité des opérations tout en accompagnant les évolutions techniques et organisationnelles. 🎯 Missions principales🧑🤝🧑 Management & organisation Encadrer une équipe d’environ 10 personnes Structurer les activités (RUN / BUILD / projets) Piloter la performance collective et individuelle Assurer la continuité de service 🏗️ Pilotage des infrastructures Superviser les environnements : Serveurs (physiques & virtualisés) Réseaux (LAN / WAN / Wi-Fi) Stockage & sauvegarde Garantir le maintien en conditions opérationnelles (MCO) Piloter les incidents majeurs et la gestion de crise Suivre les indicateurs de performance (SLA, disponibilité) 🚀 Build & transformation Définir les architectures techniques Piloter les projets de modernisation (virtualisation, cloud, réseau…) Contribuer à la roadmap infrastructure Superviser les mises en production 🔐 Sécurité & conformité Décliner la politique de sécurité sur le périmètre Gérer les vulnérabilités et plans de remédiation Participer aux audits de sécurité 💰 Gouvernance & budget Piloter les budgets infrastructures Gérer les fournisseurs (constructeurs, opérateurs, licences) Contribuer aux appels d’offres 🔄 Amélioration continue Industrialiser les processus (ITIL ou équivalent) Automatiser les déploiements Documenter les architectures et procédures 🛠️ Environnement technique Systèmes : Linux / environnements virtualisés Réseaux : LAN / WAN / SDN / VPN Cloud & automatisation (Terraform, Ansible, etc.) Supervision & monitoring Scripting : Python / Shell
Offre d'emploi
Agent de Saisie – Données Patrimoniales Ferroviaires H/F
JEMS
Publiée le
30k-36k €
Levallois-Perret, Île-de-France
Contexte: Notre client déploie un programme pluriannuel de numérisation, de structuration et de mise à jour des données patrimoniales ferroviaires (Voie, Caténaire, Signalisation, Appareils de Voie). Dans ce cadre, nous recherchons plusieurs profils pour renforcer les équipes en charge de ce programme. Les missions s'appuient sur les outils du Système d'Information du Patrimoine de l'Infrastructure ainsi que sur les référentiels techniques métier. Les intervenants seront intégrés au sein d'une équipe projet multi acteurs, en environnement fortement réglementé et normatif, avec des interactions régulières entre les équipes terrain et les équipes data. Vos missions seront les suivantes: • Saisir et intégrer les données patrimoniales ferroviaires dans les outils SIPH, GAIA, ARMEN ou SPOT à partir de documents sources (plans, schémas, carnets de montage, fiches techniques). • Réaliser les imports et exports de données via FME (formats DWG, DXF, SHP, MDB, GDB, CSV, Excel). • Lire et interpréter des plans techniques ferroviaires (armement voie, piquetage caténaire, ADV) pour garantir la qualité de la saisie. • Contribuer au contrôle de cohérence des données intégrées. • Rédiger des comptes rendus d'avancement et signaler les anomalies détectées. • Travailler en coordination avec les vérificateurs et experts métier. Référence de l'offre : a7ljhhkyoj
Offre d'emploi
Expert Poste de travail H/F
Les Filles et les Garçons de la Tech
Publiée le
ITIL
Objet de stratégie de groupe (GPO)
OS Windows
6 mois
40k-50k €
400-550 €
Blagnac, Occitanie
Pour l'un de nos clients, nous recherchons un Expert Poste de Travail H/F. Vous interviendrez sur l’ingénierie, l’administration et l’évolution des environnements postes de travail. Missions principales : Assurer le support niveau 3 (incidents complexes, analyse et résolution) Participer à l’ingénierie et à l’intégration des postes de travail (hardware & software) Contribuer à l’évolution des environnements (tests, déploiement, nouvelles technologies) Collaborer avec les équipes Build Workplace sur les projets et déploiements Garantir la conformité, la performance et la sécurité du parc Produire et maintenir la documentation technique Accompagner et faire monter en compétences les équipes support N1/N2 Vous intervenez également sur le RUN (MCO/MCS), l’amélioration continue des environnements et la gestion des déploiements applicatifs.
Offre d'emploi
Business analyst WMS F/H - Marketing (H/F)
█ █ █ █ █ █ █
Publiée le
Marseille Chanot - Palais des Congrès et des Expositions, Provence-Alpes-Côte d'Azur
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Mission freelance
Business Analyst / Data – AML Monitoring - Paris
Net technologie
Publiée le
AML (Anti-Money Laundering)
Business Analysis
Data governance
1 an
Paris, France
Dans le cadre du programme AML Monitoring , nous recherchons un(e) Business Analyst orienté Data pour accompagner les initiatives d’amélioration de la couverture des risques AML sur plusieurs lignes métier. 🎯 Enjeux : amélioration de la résolution d’entités et de la qualité / enrichissement des données au sein de la chaîne AML. 🚀 Missions Définition des Business Requirements et rédaction des spécifications fonctionnelles Définition et exécution de la stratégie de tests Coordination avec les équipes de développement Reporting d’avancement, gestion des risques et des incidents 📊 Sur les initiatives Data : Intégration des solutions de Entity Resolution dans la chaîne AML Mise en place du référentiel d’entités et suivi de la qualité des données Définition et implémentation de contrôles automatiques Analyse des incidents et rédaction de Production Incident Reports
Offre d'emploi
Product Owner Big Data
KLETA
Publiée le
Big Data
Product management
3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Product Owner Big Data pour piloter la roadmap d’une plateforme data industrielle et maximiser la valeur des produits data. Vous analyserez les besoins métiers et techniques, structurerez le backlog produit et proposerez des trajectoires d’évolution alignées avec la stratégie data de l’entreprise. Vous travaillerez étroitement avec les équipes Data Engineering, Data Science, BI, Cloud et DevOps pour traduire les besoins en user stories claires, définir des critères d’acceptance et prioriser les fonctionnalités à forte valeur ajoutée. Vous accompagnerez la mise en place de produits data fiables, documentés et exploitables, en intégrant des enjeux de qualité, de gouvernance et de performance. Vous animerez des ateliers avec les parties prenantes, participerez aux cérémonies agiles et suivrez des indicateurs d’usage et de création de valeur. Vous aurez également un rôle clé dans la communication entre équipes techniques et métiers, en facilitant l’alignement stratégique et en promouvant une culture produit orientée données et impact business.
Offre d'emploi
Data Architecte - LLMOPS
VISIAN
Publiée le
Kubernetes
Large Language Model (LLM)
Machine Learning
1 an
40k-45k €
400-700 €
Paris, France
Contexte: Equipe de 20 experts repartis sur 5 poles d'activite (Solutions Engineering, Automation Engineering, Infrastructure Engineering, Product Office, Client Services). 15+ plateformes de Data Science / MLOps en production (Cloud et on premise) / 600+ utilisateurs Data Scientists Plusieurs infrastructures, plateformes et services d'IA Generative en production a l'attention de tous les metiers du Groupe. Un GRID de GPU on premise utilise pourle training et l'inference. Pratiques DevSecOps / GitOps / MLOps / LLMOps Automatisation autour des APIs des infrasturcutres, des plateformes (kubernetes/openshift) et des produits. Environnement technique: - Docker / Kubernetes / OpenShift / Cloud / Bare Metal - Programmation en python - Shell scipting - GPU Computing Outils de CI/CD DevSecOps/GitOps : hashicorp Vault, gitlab, gitlab-CI, kaniko, keycloak, ansible, Artifactory, ArgoCD, Argo Workflow
Mission freelance
Chef de projet GMAO / data senior - H/F - 93
Mindquest
Publiée le
Databricks
ETL (Extract-transform-load)
Python
3 mois
Seine-Saint-Denis, France
Pilotage de projets: - Piloter des projets décisionnels autour de la GMAO, de la phase de cadrage à la mise en production - Garantir la livraison des projets dans le respect des délais, des coûts et des exigences de qualité - Assurer un reporting régulier auprès du management sur l’avancement des projets Coordination & gouvernance: - Faire le lien entre les équipes d’architecture, d’intégration et de développement - Définir et faire appliquer les normes, méthodes et bonnes pratiques - Être garant du respect des processus de gouvernance de la donnée - Veiller au bon usage des données dans les projets Cadrage fonctionnel & expérience utilisateur: - Contribuer à la définition des besoins métiers - Participer à la conception des solutions en intégrant les enjeux d’expérience utilisateur - Définir les fonctionnalités à implémenter Data engineering & performance: - Développer et maintenir des traitements de données robustes sur Databricks - Optimiser les performances des jobs et des rapports existants - Assurer la fiabilité, la qualité et la disponibilité des données Suivi & amélioration continue: - Remonter de manière proactive les risques, alertes et points de blocage à votre manager - Maintenir et enrichir la documentation projet (technique et fonctionnelle) - Contribuer à l’amélioration continue des processus et des outils
Offre d'emploi
Data Analyst Dataiku/Tableau/SAS
OBJECTWARE
Publiée le
Dataiku
SAS
Tableau software
3 ans
40k-83k €
400-610 €
Île-de-France, France
La mission consistera à fournir des analyses & reportings sur la qualité des données du client, sur les outils Dataiku et Tableau. Recueillir les expressions de besoin des Directions et organiser / animer les ateliers de cadrage avec les métiers • Réaliser la préparation des données sous Dataiku • Mettre à jour le dictionnaire de données/ Documentation • Développer en mode agile (sprint de 2 semaines, daily meeting, sprint planning, sprint review, retrospective, démonstrations,…) • Créer les dashboards sous Tableau • Organiser la recette avec les métiers • Appliquer les bonnes pratiques de l’équipe en matière de datapreparation/ datavisualisation • Effectuer la migration des projets sous SAS vers Dataiku
Offre d'emploi
Technicien d’Exploitation Poste de Travail / WIndows - H/F
ECONOCOM INFOGERANCE ET SYSTEME
Publiée le
30k-34k €
Bruyères-le-Châtel, Île-de-France
Nous vous invitons à relever de nouveaux challenges et à évoluer sur des projets d'expertise et d'innovation en prenant part à l'aventure Econocom. A travers sa marque Workplace Infra Innovation, l'activité Services en région Ile De France accompagne plus de 40 clients grands comptes et institutions publiques dans tout secteur d'activité dans la transformation de leur système d'information, à travers la mise à disposition de moyens humains et techniques. Le contexte client : Le Technicien d'Exploitation assure le maintien en condition opérationnelle du parc postes de travail, contribue aux opérations d'exploitation de niveau 1 sur l'infrastructure, et prend en charge le support fonctionnel de niveau 2 d'applications scientifiques ou développées en interne. Il travaille en proximité avec les équipes systèmes, réseau, développement logiciel et support applicatif. Vos responsabilités incluent : • Diagnostiquer et résoudre les incidents matériels, logiciels et applicatifs de niveau 2 et 3. • Prendre en charge les demandes d'assistance nécessitant une intervention physique ou de proximité. • Installer, configurer et mettre à jour les postes et logiciels standard ou spécifique. • Assurer le support, la maintenance et l'exploitation poste de travail. • Réaliser des interventions de niveau 1 sur l'infrastructure (supervision, redémarrage, contrôle physique, câblage simple). • Prendre en charge le support fonctionnel niveau 2 des applications scientifiques (ex. : MATLAB, SQL Tools, Visual Studio, outils d'analyse) et des logiciels métiers internes. • Analyser, reproduire, diagnostiquer et documenter les incidents applicatifs complexes. • Travailler conjointement avec les équipes de développement ou N3 pour les anomalies avancées. • Garantir la mise à jour des tickets, référentiels et de la CMDB. • Contribuer au maintien en condition opérationnelle global de l'environnement Contrat : en CDI Localisation : Bruyères le Chatel (91) Autre : pas de télétravail possible Référence de l'offre : 57z9yghcm7
Mission freelance
Data Analyst Power BI
Groupe Aptenia
Publiée le
Azure
Microsoft Power BI
Python
8 mois
400 €
Strasbourg, Grand Est
🔍 Nous recherchons un Data Analyst Power BI pour renforcer une équipe Data dans un contexte industriel international 🎯 Vos missions principales ✅ Concevoir et développer des dashboards Power BI pour les métiers (reporting, analyse) ✅ Interagir avec les équipes business pour comprendre et traduire les besoins ✅ Contribuer à la valorisation des données dans un environnement Azure / Databricks ✅ Collaborer avec les équipes Data Engineering en France et en Allemagne 🧩 Contexte Environnement industriel Interaction directe avec le siège en Allemagne Enjeux Data à l’échelle européenne et internationale Volonté de renforcer l’expertise Data côté France
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- J'ai lancé un outil IA pour automatiser la rédaction pro des freelances — vos retours ?
- Mission validée en freelance, ESN veut basculer en CDI : que faire ?
- profil effacé
- Etat du marché 2026: rebond ou stagnation ?
- Déclaration TVA suite dépassement plafond
- Nouveau volet social dans la déclaration d'impôts sur le revenu
6105 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois