Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 3 179 résultats.
Freelance

Mission freelance
[SCH] Expert Data SQL / SSIS – Support & Migration (Lyon) - 1044

Publiée le

10 mois
350-450 €
Lyon, Auvergne-Rhône-Alpes
Dans le cadre d’un projet de migration et d’industrialisation des procédures Data, la DSI recherche un expert SQL / SSIS pour intervenir en support des équipes techniques et garantir la qualité, la performance et la conformité des infrastructures livrées. L’environnement technique est orienté Microsoft Data Platform (SQL Server, SSIS) avec une composante Kubernetes pour le déploiement et la supervision des traitements. Missions principales : -Assurer le support Data sur les environnements MS SQL et SSIS. -Recetter les infrastructures livrées : contrôle des droits, circuits de livraison, performance et intégrité des traitements. -Collaborer avec les équipes Infrastructure et Métier pour identifier les besoins et garantir la cohérence des flux. -Participer à la migration des procédures dans un cadre industrialisé (“mode usine”). -Produire la documentation technique et fonctionnelle à destination des équipes de développement. -Contribuer à la qualité, la performance et la sécurité des environnements Data. Objectifs & livrables attendus : -Environnements SQL/SSIS validés et optimisés. -Documentation technique claire et complète pour les développeurs. -Plan de migration et de transformation industrialisé. -Reporting d’avancement et analyse des performances. Profil recherché : - >8 ans d’expérience en environnement Data Microsoft (SQL, SSIS). -Expertise en projets de migration et en industrialisation de procédures. -Solide maîtrise du développement et des tests SQL / SSIS. -Bonne compréhension des environnements Kubernetes (déploiement / supervision). -Connaissance Teradata appréciée. -Excellente aisance rédactionnelle et rigueur documentaire.
Freelance

Mission freelance
EXPERT TECHNIQUE CYBER SECURITE & DEVSECOPS GENAI

Publiée le
Azure DevOps
Cybersécurité
DevSecOps

1 an
400-680 €
Île-de-France, France
Télétravail partiel
Les expertises attendues pour réaliser cette prestation sont listées ci-après : • Sécurité opérationnelle sur Microsoft 365, Azure Cognitive Services, Copilot, Fabric, Power Platform, Azure ML • Maîtrise des outils de DevSecOps : CI/CD sécurisés, IaC (Terraform, Bicep), Sentinel, Defender for Cloud, Purview • Expertise sur la sécurisation des tenants Azure, souscriptions, RBAC, MFA, Conditional Access, Privileged Identity Management • Expérience terrain sur le design et le déploiement de contrôles de sécurité dans des environnements AI hybrides • Connaissance des risques spécifiques liés aux LLM et aux services GenAI (prompt injection, data leakage, model poisoning) • Références : missions pour des groupes bancaires et industriels sur la sécurisation de plateformes GenAI Microsoft • Compétences complémentaires : scripting (PowerShell, Python), analyse de logs, automatisation de contrôles de sécurité
Freelance

Mission freelance
230156/Expert Data SQL/SSIS/Teradata/kubernetes - Lyon

Publiée le
Microsoft SSIS

3 mois
Lyon, Auvergne-Rhône-Alpes
Expert Data SQL/SSIS/Teradata/kubernetes- Lyon Tâches : • Support data ( MS SQL & SSIS) • Recetter les infras livrées (gestion des droits, des circuits de livraison, des performances) • Echanger avec l'entité Infra & l'entité cliente Profil recherché : • Expérience projets de migration (mode usine, industrialisation de transformation de procédures) • Expérience MS SQL, SSIS • Expérience développement & tests • Teradata serait un plus • Environnement Kubernetes • Aisance rédactionnelle (documentation à fournir aux développeurs) Expected skills Skills Skill level Terradata Advanced SQL Expert SSIS Confirmed KUBERNETES Advanced
Freelance

Mission freelance
Data Analyst Ms Power BI / DataFlows– Montpellier

Publiée le
AWS Cloud
AWS Glue
Data analysis

12 mois
400-530 €
Montpellier, Occitanie
Télétravail partiel
Contexte : Le secteur de l’énergie renouvelable, notamment l’éolien et le solaire, connaît une croissance rapide et nécessite une exploitation optimale des données pour piloter les activités, assurer la qualité des installations et suivre la performance énergétique. Dans ce contexte, nous recherchons un Data Analyst Power BI confirmé pour renforcer les équipes Data et contribuer à la transformation digitale et analytique de l’entreprise. Mission principale : Le Data Analyst Power BI aura pour objectif de maintenir, améliorer et développer les tableaux de bord métiers critiques , tout en garantissant la qualité et la fiabilité des données . Ses missions incluent : Assurer le maintien en condition opérationnelle (MCO) des tableaux existants. Concevoir et déployer de nouveaux tableaux Power BI adaptés aux besoins métiers. Détecter, analyser et corriger les anomalies de données , et sensibiliser les métiers à la qualité des données. Documenter les évolutions, anomalies et retours métiers. Collaborer avec les équipes métiers et techniques (AWS, Dataiku, Power Platform…) pour assurer la cohérence et la performance des tableaux de bord.
CDI
Freelance

Offre d'emploi
Consultant MOA Support FO (H/F)

Publiée le
Java
Microsoft Power BI
Nosql

3 ans
50k-60k €
500 €
Île-de-France, France
Télétravail partiel
Missions : • Collecter, analyser et formaliser sous forme de spécifications les besoins fonctionnels et/ou techniques et définir les tests d’acceptances. • Participer au découpage sous forme de ticket JIRA avec les développeurs et compléter leur rédaction (pendant les phases de préparation de PI, ou pendant le PI planning). • Tester les développements, et qualifier les releases. Dans ce cadre, définir la stratégie de tests, formaliser les cahiers de recette et réaliser les tests fonctionnels afin de garantir la bonne adéquation des solutions développées avec les exigences client d’une part et garantir la sécurité et la stabilité des solutions déployées d’autre part. Organiser et assurer la communication avec les différents partenaires (Front, Risques) • Participer à la production des livrables liées aux releases : release note, document d’homologation, documentation fonctionnelle, etc • Maitriser et faire évoluer les outils d’analyses (basés sur PowerBI, Python). • Assurer le support de production, en particulier sur les analyses fonctionnelles. Créer les tickets JIRA associé lorsque des correctifs sont nécessaires. • Participer aux différents rituels Agile.
Freelance
CDI
CDD

Offre d'emploi
Chef de projet - Déploiement Télécom

Publiée le
Ansible
Apache Airflow
Apache Spark

1 an
54k €
500 €
La Défense, Île-de-France
Télétravail partiel
Dans le cadre du renforcement de la capacité de support sur la nouvelle offre DATAHUB , l’ingénieur support Data aura pour mission d’assurer le maintien en condition opérationnelle, le support de niveau 2 et l’optimisation des plateformes Apache Spark , Apache Airflow / Astronomer et Starburst (Trino) , déployées sur Kubernetes (IKS) et prochainement sur OpenShift . Le poste consiste à intervenir sur les incidents de production, analyser les causes racines, contribuer à l’optimisation des traitements et accompagner les équipes métiers dans l’utilisation efficace et sécurisée des plateformes. L’ingénieur participera également à la documentation technique, à la mise en œuvre des bonnes pratiques d’exploitation et à l’amélioration continue de l’écosystème DataHub. Il travaillera en étroite collaboration avec les équipes Data, Infrastructure et Sécurité afin de garantir la performance, la fiabilité et la scalabilité des environnements de production.
Freelance
CDI

Offre d'emploi
Ingénieur DevSecOps

Publiée le
DevSecOps
Gitlab

1 an
40k-45k €
400-500 €
Île-de-France, France
Télétravail partiel
Descriptif du poste Le bénéficiaire souhaite une prestation d'accompagnement dans l'objectif d'intégration des nouveaux services dans l'orchestration CI sur GitlabCI et de faciliter la migration de Jenkins vers GitlabCI. Contexte La plateforme devsecops supporte actuellement la CI pour 3000 applications, plus de 10 000 utilisateurs, et plus de 17 000 repo gitlab. Missions Étudier les services et pipelines existants sur gitlabCI et jenkins Refactorer le code Création et maintenance de services CI : en bash, python, yaml, groovy pour utiliser les outils de sécurité, data, CI (exemple : Artifactory, Gitlab, Sonarqube, Fortify, Sonatype, Seeker, SandboxAQ, JFrog Xray, starburst, airflow) Réalisation des tests de non régression, d'intégration Documentation interne et documentation utilisateur Développement des services orchestrés
Freelance

Mission freelance
Consultant·e senior Metadata & Contenus

Publiée le
Data analysis
Gestion de projet

4 mois
580-640 €
Paris, France
Télétravail partiel
Contexte Mission d’étude au bénéfice d’un client (organisation de presse – anonymisée), sans prestation de développement à ce stade. Coordination avec la DSI en charge des métadonnées. Échanges préalables déjà tenus ; la présente fiche formalise le périmètre à présenter avant contractualisation. Interlocuteurs et coordination Côté client : DSI en charge des métadonnées. Demande associée : partage des coordonnées des personnes clés côté prestataire pour une présentation du périmètre de mission avant formalisation. Objectif de planification Cible de chiffrage : avant Noël. Démarrage envisagé : début 2026, sous réserve de validation par la DSI. Objectifs « high level » de la mission (phase initiale) Analyse concurrentielle des métadonnées : comparaison [Client – organisation de presse] vs Reuters, AP, et autres acteurs à déterminer. Analyse des besoins clients en metadata dans leurs systèmes CMS / DAM / MAM, avec un focus spécifique sur les usages « AI‑friendly ». Recommandations d’actions. Description détaillée du besoin 1) Analyse concurrentielle des métadonnées Construire une grille de comparaison couvrant : modèles de métadonnées (schéma, champs obligatoires/optionnels), taxonomies/ontologies, politiques de nommage, qualité/complétude, mécanismes d’identifiants, historisation/versioning, exposition via APIs, et modalités de licence/usage. Cadrer les sources publiques et matériaux accessibles des acteurs ciblés (Reuters, AP, autres à confirmer) et expliciter les limites éventuelles. Évaluer l’alignement/déviations du [Client – organisation de presse] par rapport aux pratiques observées, avec exemples représentatifs. 2) Besoins clients metadata dans CMS / DAM / MAM Conduire des entretiens structurés avec un panel représentatif de clients/intégrateurs (rôles : équipes CMS, responsables DAM/MAM, data/AI) pour cartographier les besoins par parcours : ingest → édition → publication → réutilisation. Identifier les champs et structures « AI‑friendly » prioritaires (désambiguïsation, liens entité‑événement, timestamps normalisés, droits/licensing, source, provenance) et les contraintes d’ingestion/export (formats, payloads, latence, webhooks). Formaliser les attentes d’intégration : modèles d’API (REST/GraphQL), filtres, pagination, recherche/facettes, webhooks, documentation attendue, exemples de réponses, politiques de versioning et SLA de fraîcheur/qualité. 3) Recommandations d’actions Produire des options de convergence par paliers (quick wins vs chantiers structurants), avec impacts estimés sur qualité des métadonnées, réutilisabilité, et compatibilité IA. Proposer une trajectoire de normalisation (champ par champ / structure par structure), des règles de gouvernance (dictionnaire, contrôles automatiques, métriques de complétude), et les prérequis organisationnels. Préparer le chiffrage et les hypothèses associées, adaptés à la cible « avant Noël » pour décision de lancement début 2026. Périmètre de la phase initiale Cadrage et restitution du périmètre aux parties prenantes identifiées par la DSI Metadata. Prise en compte des échanges précédents comme base de travail. Inclusion des trois volets listés dans les objectifs « high level ». Hypothèses et dépendances Validation interne DSI nécessaire pour enclencher un démarrage début 2026. Identification et disponibilité des personnes clés côté prestataire et côté [Client – organisation de presse] pour la présentation de cadrage. Livrables attendus (alignés sur les objectifs « high level ») Restitution d’analyse concurrentielle métadonnées [Client – organisation de presse] vs acteurs cités. Synthèse des besoins clients metadata dans CMS / DAM / MAM, avec attention aux usages « AI‑friendly ». Recommandations d’actions.
Freelance
CDI

Offre d'emploi
Product Owner

Publiée le
BI
Data Warehouse

12 mois
Paris, France
Télétravail partiel
Le/La Data Product Owner – Intermodal est responsable de la définition et de la livraison du produit de données Intermodal , qui servira de datamart de référence pour l’ensemble des sources opérationnelles et commerciales clés (systèmes de gestion du transport existants et futurs, outils opérationnels, solutions de facturation, etc.). Il/Elle est le point focal côté métier pour tous les sujets liés à la construction et à l’évolution du produit de données Intermodal. Le périmètre couvre les données de référence (master data) et les données transactionnelles , issues de l’ensemble des systèmes Intermodal, y compris plusieurs TMS. Dans le cadre d’un projet de déploiement d’un nouveau système de gestion du transport, le/La Data Product Owner pilote les activités de préparation, de nettoyage et de sécurisation des données avant chaque mise en production, en collaboration avec les Product Owners, les experts régionaux et les équipes IT. Il/Elle s’appuie sur un/une référent(e) Master Data , chargé(e) d’accompagner l’identification, la standardisation et la consolidation des données de référence (clients, sites, actifs, etc.) afin de garantir une base de données cohérente et fiable. Travaillant en étroite collaboration avec les chefs de projet métier et IT, les Product Owners et les experts techniques, le/La Data Product Owner documente et supervise les flux de données de bout en bout , maintient le catalogue de données , définit et pilote les règles de qualité des données , et gère le backlog du produit data . Il/Elle promeut des indicateurs cohérents et une source unique de vérité pour le pilotage de la performance. Ce rôle fait le lien entre le métier et l’IT sur les sujets data : compréhension de la création et de l’usage des données dans les systèmes opérationnels, traduction en un datamart fiable et cohérent, et accompagnement de son adoption et de son amélioration continue. Responsabilités clésVision et roadmap du produit data Définir, avec les chefs de projet métier et IT, le plan de construction et d’évolution du datamart Intermodal de référence couvrant l’ensemble des systèmes sources clés. Traduire les objectifs métiers (pilotage de la performance, maîtrise des coûts, qualité de service, visibilité opérationnelle, etc.) en une vision produit data et une roadmap détaillée. Maintenir et prioriser le backlog du produit data (domaines de données, fonctionnalités, transformations, initiatives qualité, prérequis BI), en arbitrant entre valeur métier, contraintes techniques et ressources disponibles. Besoins BI & analytique Recueillir les besoins BI et reporting des parties prenantes métiers en collaboration avec le/la référent(e) BI (KPI, tableaux de bord, reporting réglementaire ou contractuel, suivi opérationnel). Traduire les cas d’usage métiers en exigences data : éléments de données requis, règles de calcul, niveaux d’agrégation, historique, fréquence de mise à jour. Proposer des solutions adaptées à l’architecture et aux outils BI disponibles, en tenant compte : de la fraîcheur des données requise (quasi temps réel, quotidien, mensuel), de la performance et de l’ergonomie, de la sécurité des données et des droits d’accès. Prioriser et coordonner, avec le/la référent(e) BI, la livraison des tableaux de bord et rapports basés sur le datamart Intermodal, en garantissant la cohérence des indicateurs. Compréhension et documentation des flux de données Formaliser les flux de données de bout en bout : création, mise à jour, enrichissement et consommation des données tout au long des processus Intermodal. Cartographier les interfaces et dépendances entre les différents systèmes opérationnels, les référentiels de données et la couche datamart / BI. Produire et maintenir une documentation claire (schémas de flux, lignage des données, liens processus/données) à destination des équipes IT, des utilisateurs métiers et de la gouvernance. Catalogue de données & modèle de données Piloter, en lien avec la gouvernance data, la création et la maintenance du catalogue de données Intermodal, incluant pour chaque donnée : définition et signification métier, système source, classification (master data / transactionnelle), niveau de confidentialité, responsabilités (propriétaires métier et IT). S’assurer, avec les équipes IT et les architectes data, de l’alignement entre les modèles de données logiques et physiques et la vision métier du catalogue. Promouvoir l’usage du catalogue de données comme référence unique sur la signification et l’origine des données. Qualité des données & gouvernance Identifier et évaluer l’impact des données manquantes ou de mauvaise qualité sur les opérations, le reporting et la prise de décision. Définir, pour les données clés, les pratiques de gestion de la qualité : KPI et seuils de qualité, règles de contrôle et de surveillance, processus de gestion des anomalies, rôles et responsabilités (responsables, contributeurs, escalade). Prioriser les améliorations de qualité des données dans le backlog (contrôles, enrichissements, workflows de correction). Garantir la conformité avec les politiques et standards de gouvernance data. Pilotage de la livraison & validation Collaborer avec les data engineers, développeurs BI et équipes plateforme pour livrer les incréments du produit data (nouvelles sources, tables, métriques, vues). Animer les revues de validation avec les équipes IT et métier pour confirmer l’adéquation aux besoins et la qualité de la documentation. Valider les structures de données et transformations selon des critères d’acceptation clairs. Assurer la cohérence et la réutilisation des jeux de données et indicateurs afin d’éviter les duplications. Préparation des déploiements & support Piloter, pour les projets de déploiement de nouveaux systèmes, les phases de préparation et de nettoyage des données avec l’appui du/de la référent(e) Master Data : planification des chargements et migrations, coordination avec les équipes métiers, régionales et IT, validation de la complétude et de la qualité des données avant mise en production. Suivre les incidents data lors des mises en service et en phase de démarrage, et capitaliser pour les déploiements suivants. Mettre à jour la documentation (catalogue, flux, règles de qualité) en fonction des nouvelles zones, périmètres ou évolutions des systèmes. CompétencesCompétences data & techniques Bonne compréhension des concepts de data warehouse (schéma en étoile, dimensions/faits, ETL/ELT, lignage des données). Expérience en catalogage et documentation des données. Connaissance des frameworks et indicateurs de qualité des données. Capacité à échanger avec des équipes techniques sur des modèles de données ; des bases en SQL sont un plus. Expérience avec des outils BI (Power BI, Tableau, Qlik ou équivalent). Compétences produit & métier Forte capacité à traduire les besoins métiers en exigences data et inversement. Expérience en gestion de backlog et en priorisation multi-parties prenantes. Communication claire et structurée auprès de publics métiers et techniques. Soft skills Esprit analytique, rigueur et sens du détail. Capacité à animer des ateliers et à fédérer autour de décisions communes. Sens des responsabilités et de l’ownership dans un environnement en transformation. Excellente organisation pour gérer plusieurs chantiers en parallèle.
Freelance

Mission freelance
Architecte données MDM

Publiée le
Architecture
Master Data Management (MDM)
SAP S/4HANA

1 an
Guyancourt, Île-de-France
Télétravail partiel
Objet de la Prestation La Prestation s’inscrit dans le cadre du remplacement des outils Après-Vente et particulièrement sur les données à remplacer dans les nouveaux SI. La Prestation consiste à : - Concevoir, piloter et sécuriser l’architecture Master Data pour l’ensemble des données de l’après-vente (pièces de rechange, réseaux, client, pricing, logistique). - Garantir la qualité, la cohérence et la disponibilité des données afin de soutenir les processus métier (Order to Cash, Procure to Pay, Supply Chain, Customer Relationship Management). - Suivre et coordonner les projets de migration ou d’évolution (ex. passage à un MDM cloud). Livrables attendus Les livrables attendus du PRESTATAIRE sont : - Schéma d’architecture cible et roadmap de mise en œuvre (données, flux, référentiels, gouvernance). - Catalogue de données et dictionnaire des référentiels (produit, client, fournisseur, réseau) compatibles avec les standards et l’écosystème digital (ERP, PIM, DMS, TMS, etc.). - Indicateurs de qualité (complétude, unicité, conformité) et rapports mensuels. - Vérification du respect RGPD et des exigences cybersécurité. - Mise en place la traçabilité et l’audit des données sensibles. - Plans de remédiation (nettoyage, dé-duplication, normalisation). - Mise en place des règles de gouvernance : ownership, rôles, workflow de validation. - Rédaction des spécifications techniques et fonctionnelles. - Tableau de bord sur l’état d’avancement des projets de migration ou d’évolution, avec point d’alerte en cas dysfonctionnement et solution proposée. - Dossier de capitalisation.
Freelance

Mission freelance
Profil Data hybride / Alteryx / Power BI

Publiée le
Alteryx
Google Cloud Platform (GCP)
Microsoft Power BI

3 ans
400-500 €
Montpellier, Occitanie
Télétravail partiel
Pour l’un de nos clients grand compte, nous recherchons un Profil Data hybride ALTERYX / Power BI capable à la fois de challenger les métiers fonctionnellement (recueil et reformulation du besoin, rédaction de specs, validation) et d’assurer une partie technique / développement (ETL, requêtage, reporting). Être l’interface entre les utilisateurs métiers et l’équipe technique, traduire les besoins en spécifications exploitables, concevoir et développer les traitements et livrables data (ETL, requêtes, tableaux de bord), assurer la qualité et la maintenabilité des livrables. Responsabilités Recueillir, clarifier et challenger les besoins métiers ; réécrire et structurer les demandes pour les rendre exploitables. Rédiger les spécifications fonctionnelles et techniques (US, critères d’acceptation). Concevoir et développer des flux ETL / transformations avec Alteryx . Modéliser, optimiser et maintenir des requêtes et procédures sur Oracle (SQL / PL/SQL). Développer et publier des Dashboard Power BI (modèles tabulaires, DAX, performance). Développer des applications simples ou prototypes avec PowerApps (souhaité).
CDI
Freelance
CDD

Offre d'emploi
Product Owner Adobe Campaign - Message Center

Publiée le
Adobe Campaign
Data analysis

4 jours
Île-de-France, France
Télétravail partiel
Nous recherchons, pour le compte d’un grand groupe international , un Product Owner spécialisé Adobe Campaign / Message Center afin d’intervenir sur la gestion et l’évolution des emails transactionnels dans un contexte international . Missions principales Pilotage et priorisation du backlog produit Cadrage des besoins métier et rédaction des user stories Conception, paramétrage et optimisation des emails transactionnels via Adobe Campaign – Message Center Suivi des mises en production et pilotage des recettes Garantie de la conformité réglementaire (RGPD) Suivi des performances et amélioration continue des dispositifs
Freelance

Mission freelance
Architecte Logiciel H/F

Publiée le
DevSecOps

6 mois
550-750 €
Bordes, Nouvelle-Aquitaine
Télétravail partiel
Notre client recherche un/une Architecte Logiciel H/F Description de la mission: Dans le cadre du renforcement de son équipe technique, notre client recherche un Architecte Logiciel freelance avec une forte expérience de Tech Lead , capable d’intervenir à la fois sur l’architecture, le développement et les sujets DevSecOps / MCO sécurité . Le rôle est très opérationnel , avec une forte implication sur la stack existante et son évolution. Objectifs de la mission Faire évoluer l’architecture logicielle et la stack technique Améliorer la qualité du code et la sécurité applicative Mettre en place et maintenir les outils de contrôle qualité et de sécurité Accompagner les équipes sur les sujets techniques et d’architecture (rôle de référent / Tech Lead) Responsabilités principales Architecture & Développement Architecture logicielle et architecture de solution Participation active au développement Vision globale d’optimisation du logiciel (performance, maintenabilité, sécurité) Support et accompagnement technique des équipes (posture Tech Lead) DevSecOps / MCO Évolution et maintien en condition opérationnelle : CI/CD Patching Gestion de l’obsolescence MCO sécurité Traitement et suivi des alertes de sécurité (CERT / SERT) Outillage & Qualité Mise en place et évolution des outils de mesure de la qualité du code Utilisation avancée de : GitLab SonarQube Nexus Installation et configuration de plugins en production Environnements Linux Environnements AWS Environnement technique (non exhaustif) GitLab SonarQube Nexus Linux AWS CI/CD DevSecOps
Offre premium
Freelance
CDI

Offre d'emploi
Ingénieur Poste de Travail / SCCM

Publiée le
SCCM
tanium
Windows Client

3 ans
10k-59k €
100-600 €
Île-de-France, France
Informations Clés de la Mission Localisation : Sur site (pas de télétravail possible) environnement sécurisé. Durée : Mission longue. Prérequis IMPÉRATIF : Avoir déjà été habilité(e) défense par le passé. Résumé des Responsabilités Nous recherchons un(e) Ingénieur(e) Poste de Travail / SCCM de Niveau 3 pour assurer l'administration, l'exploitation et la sécurisation du parc dans un environnement technique et réglementé exigeant. 1. Expertise SCCM / MECM et Déploiement Administration et exploitation quotidienne de l'infrastructure SCCM / MECM. Conception, gestion et optimisation des Task Sequences (TS) et des processus OSD (Operating System Deployment). Création, maintenance et mise à jour des masters Windows 10 et Windows 11. Gestion des campagnes de déploiement et de migration (passage de Windows 10 à 11). Réalisation du Packaging applicatif. 2. Sécurité et Infrastructure Poste de Travail Assurer le Maintien en Condition Opérationnelle (MCO) du parc Poste de Travail. Apporter un Support technique de Niveau 3 sur les incidents complexes. Mise en œuvre du Durcissement (Hardening) des systèmes d'exploitation Windows. Gestion avancée de l'Active Directory (AD) et des Stratégies de Groupe (GPO) pour la conformité et la sécurité. Participation active à l'analyse des logs et au respect de la conformité sécurité. Exigences et Prérequis Légaux Avoir déjà été habilité défense est un critère OBLIGATOIRE et non négociable. Capacité à travailler dans un environnement rigoureux, réglementé et sécurisé. Grande autonomie, sens de l'organisation et esprit d'équipe.
Freelance

Mission freelance
Architecte SI

Publiée le
Data analysis
IA

1 an
400-650 €
Paris, France
L’Architecte SI intervient en amont et tout au long des projets pour aider les équipes à penser les architectures cibles, assurer l’alignement avec le SI existant et garantir la cohérence globale des solutions déployées. Il travaille en étroite collaboration avec les équipes projet et s’inscrit dans un cadre de gouvernance nécessitant une validation, notamment sur les sujets structurants. Le périmètre principal porte sur l’architecture SI applicative. Des compétences complémentaires en architecture infrastructure, réseau, data ou IA sont appréciées, mais la data et l’IA restent prioritairement pilotées par l’équipe interne. Le profil recherché dispose d’une solide expérience en architecture des systèmes d’information, d’une capacité à dialoguer avec des interlocuteurs variés et à apporter une vision claire, pragmatique et structurante aux projets.
Freelance
CDI

Offre d'emploi
DevSecOps

Publiée le
DevSecOps
Python
Vulnerability management

24 mois
44 400-50k €
450-550 €
Les Ulis, Île-de-France
Télétravail partiel
Accompagner les équipes de dev du Client pour assurer la gestion quotidienne de la sécurité du développement logiciel (AppSec), dans le cadre du renforcement des exigences de CyberSécurité et face aux régulateurs Missions principales Support et Usage Outils AppSec : Accompagner les équipes sur Sonatype Lifecycle (SCA), Fortify SSC (SAST), et Sysdig Secure (Container Security) Analyse de Vulnérabilités : Qualifier les findings, gérer les faux positifs et déterminer l’applicabilité Proposer des waivers ou exceptions justifiées (revue des fiches de risque) Pilotage de la Remédiation : Suivre la remédiation et le respect des échéances Collaborer avec les Security Champions et Tech Leads Activités & Contributions Animation Communauté AppSec : Organiser l'Awareness, la diffusion des bonnes pratiques (Secure coding) et des sessions de formation/sensibilisation Automatisation & Outillage : Contribuer à l'automatisationdes processus de gestion des vulnérabilités (scripting Python) Évolution des Processus : Contribuer à l'intégration future du module Vulnerability Management de GitLab Ultimate
3179 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous