L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 4 352 résultats.
Offre d'emploi
Data Architect H/F
OBJECTWARE
Publiée le
Azure Data Factory
Microsoft Fabric
Microsoft Power BI
60k-65k €
Bordeaux, Nouvelle-Aquitaine
Résumé du poste Notre client recherche un Data Architect expérimenté pour rejoindre une équipe Data Fabric et contribuer à la conception et à la mise en œuvre de l’architecture data à l’échelle de l’entreprise. Le rôle se concentre sur la création de produits de données réutilisables pour les domaines métiers , en travaillant étroitement avec les équipes Master Data Management (MDM), Data Engineers, Data Analysts, Information Security ainsi que les parties prenantes métiers. Le poste combine leadership architectural et travail opérationnel , incluant la modélisation de données, la conception d’intégrations, la mise en œuvre de la gouvernance et la configuration de la plateforme . Principales responsabilitésArchitecture de données & gouvernance Identifier et formaliser les domaines de master data à l’échelle de l’entreprise (Customer, HR, Finance, etc.). Collaborer avec l’équipe MDM pour concevoir les structures de golden record, la logique de consolidation et les flux d’intégration . Concevoir et documenter des produits de master data réutilisables (schémas, contrats, modes d’accès, APIs). Contribuer à la modélisation des données aux niveaux conceptuel, logique et physique sur les différents domaines de données. Travailler avec les Data Engineers pour traduire l’architecture en medallion layers, zones curées et pipelines d’intégration . Définir des standards de gouvernance incluant ownership, stewardship, lineage, classification et gestion du cycle de vie des données . Configurer les standards de métadonnées et les structures du catalogue de données afin d’assurer la découvrabilité et la réutilisation . S’assurer que les décisions architecturales sont clairement documentées et exploitables . Évolution de la plateforme, qualité & gouvernance Concevoir et mettre en œuvre des modèles de sécurité des données (RBAC, classification, masquage, contrôles de confidentialité). Participer à la mise en œuvre et à l’exploitation des outils de gouvernance des données (ex : Microsoft Purview), incluant scans, validation du lineage et classification . Définir des standards pour la documentation, la découvrabilité et l’enregistrement des data products dans la plateforme . Examiner les implémentations des domaines de données afin d’éviter la duplication ou la fragmentation des master data . S’assurer que la gouvernance et les métadonnées sont intégrées dans les processus CI/CD et de déploiement . Identifier et réduire les risques liés à l’incohérence des données, aux shadow master data ou à la prolifération non contrôlée des données . Contribuer à l’évaluation de nouvelles technologies et analyser leurs impacts en matière de gouvernance et d’intégration . Support et accompagnement Fournir un accompagnement architectural aux Data Engineers et Data Analysts . Participer à des ateliers techniques et sessions de conception . Accompagner l’ intégration de nouveaux domaines de données via des templates architecturaux et des implémentations de référence . Promouvoir des pratiques cohérentes en matière de métadonnées, sécurité et qualité des données . Agir comme interface entre l’équipe Data Platform, l’équipe MDM et les parties prenantes gouvernance / sécurité .
Offre d'emploi
Tech Lead Data Engineer - Databricks / AWS
VISIAN
Publiée le
Apache Airflow
API
AWS Cloud
3 ans
Paris, France
Le data engineer/Tech Lead intègre une équipe en charge du lakehouse pour le client. De nombreuses challenges techniques sont attendus. Focus sur ses activités : -Contribue à la conception de outils de traitement BigData (Ingestion / Traitement / Analyse) -Cadrage technique des besoins émis par les consommateurs de la plateforme Data -Est garant de la mise en production des traitements au sein de la plateforme -Optimisation du code et de la capacité des VMs mise en œuvre pour chaque traitement -Garantit la disponibilité et l'outillage pour les équipes métier, ainsi qu'aux utilisateurs de la plateforme (data scientists / data analystes / data engineer)
Offre d'emploi
AWS Platform Engineer
Ela Technology
Publiée le
AWS Cloud
Méthode Agile
6 mois
40k-45k €
300-380 €
Paris, France
Au sein d’une squad Data & Analytics Platform, vous contribuerez à la construction, l’évolution et la fiabilisation des environnements Cloud. Vous interviendrez notamment sur : (2 ans d'expérience minimum) Le développement, la mise à jour et la maintenance du code infrastructure Terraform dans Azure et/ou AWS, en respectant les standards sécurité. L’enrichissement de la documentation à destination des utilisateurs. La conception et la maintenance de chaînes de déploiement automatisé (CI/CD). Français & Anglais
Mission freelance
Consultant / Ingénieur Sécurité Opérationnelle – RUN (H/F) - Habilité(e)
AS INTERNATIONAL
Publiée le
CyberSoc
Cybersécurité
Sécurité informatique
3 ans
75000, Paris, Île-de-France
Contexte & objectif du poste Dans le cadre du renforcement d’une équipe de sécurité opérationnelle , nous recherchons un profil analyste / ingénieur en sécurité , très orienté RUN , avec une forte appétence pour l’opérationnel et l’investigation technique. Le poste s’inscrit dans un environnement exigeant, avec des enjeux forts de continuité de service , de gestion des incidents et de sécurisation des infrastructures . Missions principales Gestion, analyse et suivi des alertes et incidents de sécurité Réalisation d’ investigations techniques approfondies , y compris hors périmètre du SOC managé Administration et exploitation des outils de sécurité : SIEM Graylog EDR HarfangLab Antivirus Trend Micro – Apex One Gestion des vulnérabilités CyberWatch Accompagnement des équipes métiers et infrastructures sur les sujets de vulnérabilités et de remédiation Contribution aux projets IT intégrant une composante sécurité : Environnements Windows / Linux Authentification Kubernetes Participation à l’amélioration continue des dispositifs de sécurité
Offre d'emploi
Pentest - automatisation audit de sécurité F/H
METSYS
Publiée le
Pentesting
6 mois
60k-64k €
650-670 €
Paris, France
METSYS est un intégrateur de solutions Cloud, Cybersécurité et Microsoft. Pour un de nos clients grands-comptes, nous recherchons un.e Expert.e pentest pour un démarrage le 2 mars à Paris 13ème. Dans le cadre du développement d'un outil d'automatisation de tests d'intrusion, l'équipe de notre Client souhaite être renforcée par un.e expert.e en pentest et orienté.e développement sécurité qui soit capable d'accompagner la conception, l'architecture et l'industrialisation de la solution. Le poste est orienté accompagnement stratégique et technique, avec un fort rôle de cadrage, de conseil et de transfert de compétences auprès des équipes internes de notre Client. Missions principales : Cadrage et conception (analyser les besoins, définir un périmètre technique de l'outillage, réaliser des choix d'architecture, etc...) ; Développement de la solution (concevoir des workflow, définir un framework technique, mettre en oeuvre des bonnes pratiques de développement, etc...) ; Sécurité et conformité (Mise en oeuvre de contrôle, assurer une tracabilité, identifier des risques, etc...) ; Industrialisation (mise en place d'un pipeline CI/CD, packager la solution, garantir une redondance, etc...) ; Transfert de compétence (Documentation de la solution, partage au sein de l'équipe projet, etc...). Cette liste n'est pas limitative.
Offre d'emploi
INGENIEUR D'EXPLOITATION SYSTEME ET SECURITE
IBSI
Publiée le
Centreon
Check Point
Fortinet
5 ans
55k-65k €
490-520 €
La Défense, Île-de-France
Mission il/elle est garant du bon fonctionnement des solutions opérationnelles du client. Il/elle prend en charge les demandes du client et la résolution des incidents techniques complexes (niveau 2 et 3) Il/elle a un rôle de conseil auprès des clients sur les solutions et évolutions Il/elle peut prendre en charge des projets d'évolution ou d'exploitation. Activités clés Prendre en compte et traiter les demandes client, changements et/ou incidents complexes Gérer les escalades avec les clients et partenaires(constructeurs, éditeurs, sous-traitants) Peut être amené à participer aux évolutions des solutions Peut être amené a prendre des petits -moyens projets d'exploitation- d'évolution Maintenir la documentation des clients et rédiger des procédures d'exploitation Peut être amené a présenter les tableaux de bord techniques lors des comités clients Peut être amené à construire le service d'exploitation peut être amené a former les techniciens d'exploitation au contextes clients
Offre d'emploi
Coordinateur SI Magasins
Management Square
Publiée le
Gestion des risques
6 mois
40k-45k €
350-410 €
Paris, France
Nous sommes à la recherche d'un(e) : Coordinateur SI Magasins - Coordination de déploiements : Planification des phases de recette, pilotage de la mise en production et suivi des installations sur site. - Gestion de l'inventaire IT : Audit, suivi et mise à jour rigoureuse du parc matériel et logiciel des points de vente. - Pilotage logistique : Gestion des plannings d'intervention et suivi des livraisons de matériel. - Animation opérationnelle : Coordination des interlocuteurs internes et externes (intégrateurs, support, directeurs de magasins). - Gestion des risques : Identification des points de blocage terrain, proposition de solutions palliatives et suivi de la correction des anomalies en mode Run.
Mission freelance
Data Engineer Senior GCP
TEOLIA CONSULTING
Publiée le
Apache Airflow
Architecture
BigQuery
3 mois
Paris, France
Nous recherchons un Data Engineer Senior pour intervenir au sein d’une plateforme Data stratégique dans un environnement numérique à forte volumétrie. Vous intégrerez une équipe composée d’un Product Owner, d’un Data Steward et de Data Engineers, au cœur d’une architecture cloud moderne orientée scalabilité, gouvernance et performance. Vos missions : Participer aux phases de conception et de planification des développements data Concevoir et maintenir des pipelines data robustes et scalables Collecter et centraliser des sources de données hétérogènes Structurer et optimiser le stockage des données Mettre en place des infrastructures scalables sur Google Cloud Platform Construire et maintenir les workflows CI/CD Garantir la sécurité, la conformité et la stabilité des environnements Contribuer aux initiatives de gouvernance des données Documenter les développements et partager les bonnes pratiques Accompagner les équipes internes dans l’exploitation des données Environnement technique : Google Cloud Platform (BigQuery, Dataproc, PubSub, Cloud Storage) Dataplex Universal Catalog Python SQL Spark Airflow Delta Lake Terraform / Terragrunt Gitlab / Gitlab CI/CD Méthodologies Agile (Scrum ou Kanban) Mission en environnement structuré avec forte exigence de qualité, de performance et de conformité réglementaire.
Offre d'emploi
Consultant AD - Migration & Sécurité
Exiptel
Publiée le
Active Directory
Powershell
Sécurité informatique
12 mois
40k-60k €
400-580 €
La Défense, Île-de-France
Objectif global Réaliser des migrations Active Directory en sécurisant préalablement les environnements sources, via l’outil Quest On Demand Migration (ODM) . Missions principales Analyse & Conception : audit des forêts AD source/cible, définition architecture ODM, stratégie de migration. Sécurisation : revue des vulnérabilités, remédiations, alignement sécurité AD source/cible. Installation & Configuration : déploiement agents Quest ODM, validation intégrité environnements. Pilotes techniques & fonctionnels : préparation environnements de test, exécution pilotes, documentation PV. Gestion des migrations par lot : synchronisation objets AD, orchestration, supervision migrations, gestion incidents. Support & Expertise : assistance niveau expert, transfert de compétences, documentation finale.
Offre d'emploi
DevOps Seniors
Avanda
Publiée le
Lausanne, Vaud, Suisse
Dans le cadre du renforcement d’équipe sur un projet de migration d’une solution complexe orientée microservices vers un tenant Azure, nous recherchons des profils DevOps Seniors disponibles ASAP pour une mission de 6 mois renouvelable.. Le contexte comporte de nombreuses intégrations internes (ex. M3, Axway) et externes (ex. Commerce Tools, Salesforce, Auth0). Les profils doivent être à l’aise dans des environnements fortement interconnectés et exigeants. Mission Concevoir, industrialiser et sécuriser la chaîne de delivery (CI/CD) et l’infrastructure associée, dans un contexte Azure / AKS avec une approche GitOps, en collaboration étroite avec les équipes de développement. Modalités Durée : 6 mois. Démarrage : ASAP. Localisation : Canton de Vaud. Rythme : 3 jours/semaine sur site (dans le canton de Vaud) + 2 jours de télétravail possibles. Responsabilités principales Mettre en place et maintenir des pipelines CI/CD via Azure DevOps. Automatiser les déploiements, fiabiliser la delivery et garantir la qualité des livrables. Intervenir sur Kubernetes / AKS, industrialiser les déploiements avec Helm et ArgoCD (approche GitOps). Mettre en œuvre des pratiques DevSecOps (contrôles sécurité intégrés aux pipelines, durcissement, conformité). Collaborer étroitement avec les équipes de développement (support, outillage, bonnes pratiques, standardisation). Requirements Compétences techniques requises Azure DevOps (CI/CD). Bonnes connaissances / expérience opérationnelle sur : Azure API Management Event Grid AKS Service Bus Terraform : niveau confirmé requis (Infrastructure as Code). Kubernetes/AKS, Helm, ArgoCD, GitOps. Pratiques DevSecOps appliquées à des environnements de production. Atouts (nice-to-have) Gestion des secrets : Key Vault / Vault / SOPS (ou équivalents). Qualité & sécurité applicative : SonarQube, Snyk (ou équivalents). Release management et promotion multi-environnements. Registre / gestion d’artefacts : Harbor (ou équivalent). Benefits Modalités Durée : 6 mois. Démarrage : ASAP. Localisation : Canton de Vaud. Rythme : 3 jours/semaine sur site (dans le canton de Vaud) + 2 jours de télétravail possibles
Offre d'emploi
Senior Business Analyst Retail - Cegid Y2 (H/F)
Mindquest
Publiée le
Cegid
Paris, France
Je recherche un Senior Business Analyst Retail - Cegid Y2 pour un poste en CDI basé à Paris. Vos missions seront les suivantes : Déploiement international Piloter le déploiement de Cegid Y2 dans de nouveaux pays Accompagner l’implémentation dans les magasins Participer à l’activation de nouveaux modules et fonctionnalités Coordonner les différentes parties prenantes IT et métier Analyse fonctionnelle Recueillir les besoins métiers Animer des ateliers fonctionnels avec les équipes Retail Rédiger les spécifications fonctionnelles et techniques Participer aux phases de test et validation Amélioration continue Identifier des axes d’optimisation des outils Retail Participer à l’évolution de la solution POS Accompagner les équipes dans l’adoption des nouvelles fonctionnalités Support et monitoring Suivre les incidents et analyser les tickets remontés par le support Identifier les problématiques récurrentes Collaborer avec les équipes support basées en France et à l’international Transmission et collaboration Partager l’expertise Cegid Y2 au sein de l’équipe Accompagner des profils plus juniors Contribuer à la documentation et au transfert de connaissances Environnement technique POS : Cegid Y2 Connaissance de Manhattan POS appréciée Environnement Retail international
Offre d'emploi
Ingénieur Réseau et Sécurité (F/H)
Savane Consulting
Publiée le
60k-70k €
Roanne, Auvergne-Rhône-Alpes
CONTEXTE : Dans le cadre du lancement de plusieurs projets IT en 2026, la DSI d’un grand groupe industriel recherche un Expert Réseau afin d’assurer des actions de maintien en conditions opérationnelles des infrastructures réseau et sécurité, en cohérence avec la stratégie SI groupe. MISSIONS : Réaliser des audits de conformité et de bon fonctionnement (switches, points d’accès Wi-Fi, firewalls, proxy) Piloter les plans de remédiation associés Superviser les indicateurs de performance des infrastructures Accompagner les chefs de projets IT Interagir avec les responsables de domaines et le prestataire d’infogérance ACTIVITÉS : Réalisation d’audits de conformité et de bon fonctionnement des composants réseau et sécurité (switches, AP Wi-Fi, firewalls, proxy) Pilotage des plans de remédiation Supervision des indicateurs de performance des infrastructures Accompagnement des chefs de projets LIVRABLES : Rapports d’audit Rapports de remédiation Reporting mensuel de capacity planning des infrastructures réseau et sécurité
Mission freelance
Data Engineer -CLOUD GOOGLE-
DEVIK CONSULTING
Publiée le
Apache Airflow
BigQuery
Google Cloud Platform (GCP)
1 an
400-650 €
Paris, France
Description Pour le compte de notre client grand compte, nous recherchons un Expert Data Engineer Spécialisé sur Google Cloud afin de rejoindre la Squad data pour le pilotage commercial Tâches principales Développement de pipeline de données sur Cloud Composer / Airflow Optimisation des performances et coûts des traitements sur GCP Participation aux choix d'outils et des solutions techniques sur GCP et développement de nouvelles application Modélisation des données sur BigQuery Maintenir l'existant en condition opérationnelle Préparer et mettre en œuvre l’interopérabilité avec de nouveaux systèmes opérationnels Proposer des simplifications et/ou optimisations selon les normes internes Compétences demandées GCP : Confirmé Big Query : Expert Base de donnée : Confirmé Python : confirmé Lieu : Paris
Mission freelance
AWS Senior Data Engineer / Data Architect (Event-Driven & Streaming)
Tenth Revolution Group
Publiée le
Amazon Redshift
AWS Cloud
AWS Glue
6 mois
400-650 €
Auvergne-Rhône-Alpes, France
Contexte Dans le cadre de la modernisation d’une plateforme data, vous concevez et mettez en œuvre des architectures cloud-native orientées événements sur AWS. L’objectif est de remplacer les traitements batch par des pipelines distribués, temps réel ou quasi temps réel, robustes et scalables. Missions principales Vous définissez des architectures data serverless event-driven, concevez des pipelines d’ingestion et de transformation distribués et mettez en place des systèmes découplés basés sur la messagerie en garantissant la scalabilité, la résilience et l’optimisation des coûts. Vous transformez les flux ETL batch en pipelines cloud-native, implémentez les patterns asynchrones (retry, DLQ, idempotence, gestion des timeouts) et industrialisez les déploiements via l’Infrastructure as Code et la CI/CD. Vous déployez le monitoring, le logging et le tracing afin de suivre la performance, la latence et la qualité des flux. Compétences clés Solide expérience des architectures event-driven et des systèmes distribués, de l’event sourcing et du message brokering, de la gestion du backpressure et de la latence ainsi que de la transformation distribuée et du traitement de gros volumes. Ce poste n’est pas orienté BI, reporting ou data engineering batch classique Positionnement Rôle transverse avec une forte interaction avec les équipes data, cloud, DevOps et applicatives, impliquant une responsabilité importante sur les choix techniques et les bonnes pratiques. Synthèse Profil d’architecte data AWS spécialisé en serverless et en architectures orientées événements, capable de concevoir des pipelines distribués scalables et résilients.
Mission freelance
ARCHITECTE DATA / POWER BI & AZURE
PROPULSE IT
Publiée le
Azure
BI
24 mois
275-550 €
Massy, Île-de-France
Nous recherchons un(e) DATA ARCHITECTE POWER BI / AZURE Dans le respect de la stratégie IT établie par le DSI, votre mission consiste à : Responsabilités : • Analyser les besoins fonctionnels. • Localiser les données de production. • Déterminer les spécifications techniques. • Définir l'architecture. • Modéliser les datawarehouse (entrepôts de données) et les datamarts (magasins de données) dédiés à une fonction particulière dans l'entreprise. • Accompagner le client dans la réalisation du projet. • Maintenir les sources de données à jour • Mettre à disposition les données aux métiers • Superviser les flux de données et en contrôler l'intégrité
Mission freelance
Data engineer Google cloud platform (GCP)
CAT-AMANIA
Publiée le
Apache Kafka
Apache Spark
BigQuery
6 mois
Île-de-France, France
Pour le compte d'un acteur majeur, nous recherchons un(e) Data Engineer confirmé(e) pour concevoir et déployer des chaînes de traitement de données complexes au sein d'un Datalake moderne. Vous intégrerez une équipe évoluant en mode Agile (Scrum/Kanban) avec une forte culture de l'automatisation. Vos responsabilités : Concevoir et mettre en œuvre les chaînes d’ingestion, de validation et de croisement de données. Assurer le déversement et l'enrichissement des données dans le Datalake. Produire automatiquement des agrégats (journaliers à mensuels) via la puissance du Cloud. Développer et documenter les User Stories en collaboration directe avec le Product Owner. Garantir la qualité via l'automatisation des tests fonctionnels et la correction des anomalies. Participer activement à la chaîne de delivery continue et assister les équipes d'exploitation. Profil recherché : Expertise confirmée sur la plateforme GCP (indispensable) . Maîtrise avancée de l'écosystème Spark / Scala / Kafka . Expérience solide sur les environnements conteneurisés ( GKE, Docker ) et l'Infrastructure as Code ( Terraform, Ansible ). Compétences pointues en stockage et requêtage ( BigQuery, SQL, HDFS ). Capacité à orchestrer des workflows complexes avec Airflow / Composer . Esprit collaboratif, curieux des évolutions technologiques et doté d'un excellent relationnel.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
4352 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois