Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 1 513 résultats.
Freelance
CDI
CDD

Offre d'emploi
Expert Infrastructure Middleware – Transfert de Fichiers (Axway) – N4 (H/F)

Publiée le
Administration Windows
API
CFT (Cross File Transfer)

1 an
Paris, France
Contexte Dans le cadre du maintien en conditions opérationnelles et de l’exploitation de solutions de transfert sécurisé de fichiers , une équipe Infrastructure renforce son expertise Middleware. La mission s’inscrit dans un environnement Production / Exploitation , avec astreintes , et nécessite une forte capacité à gérer des contextes à enjeux élevés. Objectif global Administrer et assurer le MCO des solutions de transfert de fichiers , en garantissant la disponibilité, la sécurité et la fiabilité des plateformes. Missions principales Administrer et maintenir les solutions de transfert de fichiers : CFT, XFB Gateway, SecureTransport . Assurer le MCO des produits Axway (CFT Transfer, Gateway, SecureTransport, Sentinel). Intervenir en environnement de production : supervision, monitoring, gestion des incidents et des demandes. Planifier et piloter les changements (gestion des risques, communication, coordination). Rédiger la documentation technique, dossiers d’exploitation et procédures d’installation. Participer à la résolution d’incidents complexes à forte valeur ajoutée technique. Collaborer avec les équipes systèmes, réseaux et sécurité pour garantir la cohérence des infrastructures. Environnement & organisation Localisation : Paris Télétravail : 2 à 3 jours par semaine. Organisation : adaptée au profil du consultant (autonomie, motivation, capacité à absorber une charge importante, notamment durant les 6 premiers mois). Contexte : Exploitation, Production, Astreintes. Livrables attendus Dossiers d’exploitation et documentation technique. Procédures d’installation et de paramétrage. Contribution à la qualification et à la sécurisation des infrastructures Middleware.
CDI

Offre d'emploi
Data Analyst (H/F)

Publiée le
Data analysis
Data science

30k-65k €
Bruxelles, Bruxelles-Capitale, Belgique
Télétravail partiel
Votre mission En tant que Data Analyst (H/F) , vous jouerez un rôle clé dans la valorisation des données au service du métier. Vous serez responsable de l’analyse de grands volumes de données, de la production d’analyses et de reportings à forte valeur ajoutée, et de l’accompagnement des équipes métier dans l’optimisation de l’utilisation de leurs données, en lien avec les objectifs stratégiques de l’organisation. Vos responsabilités seront : Analyser de grands volumes de données afin de comprendre les enjeux métier et les besoins exprimés par les parties prenantes Traduire les besoins business en analyses de données pertinentes et exploitables Contribuer à la sélection, à l’implémentation et à l’amélioration des outils d’analyse et de reporting Produire des analyses stratégiques, des tableaux de bord et des reportings à destination du business Identifier des tendances, des anomalies et des opportunités à partir des données Présenter et vulgariser les résultats d’analyse auprès des parties prenantes métier Collaborer avec les équipes IT, data et métier afin d’assurer la qualité, la cohérence et la fiabilité des données Aider les équipes métier à mieux exploiter et optimiser l’usage de leurs données S’adapter à l’environnement spécifique et aux enjeux de nos clients
Freelance

Mission freelance
Consultant DATA Gouvernance Senior

Publiée le
Data governance

1 an
Paris, France
Télétravail partiel
Intervention au sein d'un programme de transformation du SI Finance Corporate visant à fiabiliser, harmoniser et piloter les données financières (reporting, performance, réglementaire). Missions principales ➡️ Définir et déployer le cadre de gouvernance des données Finance (référentiels, règles de gestion, qualité des données). ➡️ Cartographier les flux de données financières et leurs usages (comptabilité, contrôle de gestion, reporting, réglementaire). ➡️ Mettre en place et animer les rôles Data Owner / Data Steward Finance. ➡️ Définir et suivre les indicateurs de qualité de données (complétude, cohérence, fiabilité). ➡️ Contribuer à la conduite du changement et à l'appropriation des bonnes pratiques data par les équipes Finance et IT. ➡️ Assurer l'alignement entre les besoins métiers Finance et les solutions SI (ERP, EPM, BI, Data Platform).
Freelance
CDI

Offre d'emploi
Développeur backend Java Core Sénior - Multithreading calculs distribués (7 ans et plus)

Publiée le
Big Data
DevOps
Java

3 ans
50k-70k €
500-600 €
Paris, France
Télétravail partiel
🏭 Secteurs stratégiques : Banque d’investissement PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Au sein d’une équipe qui travaille sur une application d'aide à la décision pour le trading. Elle permet de gérer des données historiques sur les clients, et les données de marché, ainsi que des données intraday et des mesures de risques, il permet aussi de visualiser les axes de trading. L’application utilise Angular 15 comme front end, Java 11 et Python 2 en back end, et Apache ignite pour le calcul distribué, et Mongo DB comme base de données. Pour la partie déploiement, on utilise Docker / Kubernetes et Jenkins
Freelance

Mission freelance
Data Engineer H/F

Publiée le
Azure

3 ans
Île-de-France, France
Description : Livrables : • Concevoir et mettre en œuvre des solutions data pour soutenir les objectifs business. • Analyser et interpréter des données complexes afin d’en extraire des informations exploitables. • Collaborer avec des équipes inter fonctionnelles pour identifier et résoudre les défis liés aux données. • Développer et maintenir des pipelines de données, des modèles et des outils de reporting. • Garantir la qualité, l’intégrité et la sécurité des données tout au long de leur cycle de vie. • Fournir une expertise technique et des conseils aux parties prenantes pour soutenir les prises de décisions fondées sur les données. Expertise : • Diplôme de niveau Bachelor ou Master en informatique, data science ou domaine connexe. • Plus de 5 ans d’expérience en data engineering, data analytics ou rôle similaire. • Expérience avérée dans la livraison de solutions data dans un environnement dynamique. • Maîtrise des technologies et architectures data modernes, telles que les plateformes cloud, les frameworks big data et les solutions de data warehousing. • Expertise en langages de programmation tels que Python, SQL et Spark. • Maîtrise de la modélisation de données, des processus ETL et des techniques de transformation de données. • Expertise des plateformes cloud orientées data (ex. : AWS, Azure, Google Cloud). • Maîtrise des outils de visualisation et de reporting (ex. : Power BI, Tableau). • Connaissance approfondie des bonnes pratiques en matière de sécurité, gouvernance et conformité des données.
CDI
CDD

Offre d'emploi
Administrateur Systèmes / DevOps – Plateformes Applicatives (H/F)

Publiée le
Administration linux
Ansible
Apache

1 an
Saint-Herblain, Pays de la Loire
Contexte Dans le cadre de l’accompagnement DevOps des projets clients , la mission vise à renforcer l’exploitation et l’évolution des plateformes applicatives dans un environnement orienté industrialisation, automatisation et amélioration continue . Objectif de la mission Participer aux projets d’évolution du SI tout en assurant le maintien en condition opérationnelle (MCO) des plateformes applicatives, CI/CD et forges logicielles, dans une démarche DevOps. Missions principales Évolution du SI & DevOps Participer aux projets d’évolution du SI : migrations, mise en place de nouveaux outils . Organiser les environnements en mode DevOps . Développer des scripts pour l’ intégration logicielle et système . Contribuer à l’ amélioration continue des outils et plateformes. Maintien en condition opérationnelle Assurer le MCO des plateformes applicatives de production . Exploiter et maintenir les plateformes CI/CD . Administrer les forges logicielles (Jenkins, Git). Contribuer aux analyses et résolutions d’incidents . Support & assistance Support aux développeurs sur les outils et plateformes utilisés en développement et en production. Support aux chefs de projet sur les plateformes de production. Gestion et analyse des incidents utilisateurs. Documentation & veille Rédiger la documentation technique et les procédures d’exploitation. Assurer une veille technologique et proposer des axes d’amélioration. Environnement technique Systèmes : CentOS, Debian, Ubuntu Serveurs applicatifs & bases : Apache, Tomcat, PostgreSQL, Java DevOps & Cloud : Jenkins, Ansible, Docker, OpenStack Gestion de code & artefacts : Git, Nexus Compétences techniques Impératives : Linux (CentOS, Debian, Ubuntu) – Confirmé Apache, Tomcat, PostgreSQL, Java – Confirmé Jenkins, Ansible, OpenStack, Docker, Git, Nexus – Confirmé
Freelance

Mission freelance
Data Engineer Senior

Publiée le
SAS

6 mois
Bruxelles, Bruxelles-Capitale, Belgique
Télétravail partiel
Nous recherchons un profil Senior Data Engineer très opérationnel, disposant d’une bonne compréhension du métier bancaire. Notre mission principale est de fournir des solutions digitales orientées métier (tableaux de bord, reporting ad hoc) pour les utilisateurs de la banque Corporate (Sales, Métiers, Management, etc.). Après la phase de staging, les données nécessaires sont fédérées dans un environnement de préparation destiné à alimenter les différentes solutions de visualisation via des flux Alteryx. Après avoir acquis une vue complète des systèmes existants, des flux de données et des objectifs métier de l’équipe, le Data Engineer Senior devra : - Améliorer et rationaliser les workflows Alteryx existants en appliquant les principes de clean code, en centralisant la logique, en supprimant les redondances et en améliorant la maintenabilité à long terme. -Mettre en œuvre ces améliorations de manière progressive à travers les environnements, en validant les impacts, en collaborant avec les utilisateurs et en garantissant l’absence de régression sur les tableaux de bord en aval. Description de la fonction : Les principaux axes d’amélioration porteront sur : -Intégration et qualité des données : Collaborer avec l’équipe Data Engineering pour ingérer les données provenant de différents systèmes, en assurant une intégration rapide des nouvelles sources avec un haut niveau de fiabilité et d’exactitude. -Simplification de la conception (design) : Simplifier les flux de données et les processus de conception existants afin d’améliorer l’efficacité, réduire la complexité et optimiser les performances globales du système. - Nettoyage (cleanup) : Identifier les jeux de données obsolètes, les fichiers inutilisés et les workflows abandonnés ; les refactoriser ou les supprimer et contribuer à l’harmonisation des règles d’historisation et de rétention afin de maintenir un paysage data propre et durable. -Conception de macros et de composants : Concevoir et maintenir des macros Alteryx réutilisables pour centraliser les schémas de transformation récurrents, garantir une logique cohérente entre les workflows et réduire la dette technique, tout en documentant et validant les changements avec les utilisateurs impactés. -Harmonisation des processus legacy : Rationaliser la coexistence SAS et Alteryx en supprimant les composants SAS obsolètes et en migrant les transformations utiles vers une logique Alteryx cohérente et maintenable. Réduire les duplications et la complexité multi-plateformes. -Opérations de release : Soutenir et améliorer les processus de déploiement et de mise en production en augmentant l’automatisation et les contrôles qualité afin de rendre les déploiements plus sûrs, plus rapides et plus prévisibles. -Documentation : Appliquer et renforcer les standards de documentation des jeux de données et des workflows, en assurant un nommage cohérent et des descriptions claires pour une compréhension partagée, une découverte facile et une utilisation efficace par tous les membres de l’équipe. -Monitoring : Mettre en place et maintenir des systèmes de surveillance robustes pour suivre la qualité des données et les performances, permettant une identification et une résolution rapides des incidents. -Gestion multi-instances : Superviser la gestion des batchs quotidiens afin d’assurer la cohérence, la synchronisation et une utilisation efficace des ressources à travers les différents environnements.
Freelance
CDI

Offre d'emploi
Data Manager / Coordinateur Data Governance

Publiée le
Data governance

1 an
40k-45k €
220-540 €
Paris, France
Télétravail partiel
Descriptif du poste La mission au sein du Data office d'une institution financière a pour objectif d'accompagner la transformation autour : de la mise en place des Data Domain Manager (DDM) au des équipes Métiers, Fonctions et des tribes (agile) de la démarche des Data products et des Vues organisées métiers pour exposer et consommer la data. Cette mission est là pour accélérer le déploiement des rôles autour de la Data du producteur au consommateur.
Freelance

Mission freelance
Data Engineer Manager

Publiée le
Azure
Databricks
Snowflake

6 mois
420-490 €
Libourne, Nouvelle-Aquitaine
Télétravail partiel
Bonjour, Nous recherchons pour l'un de nos clients intégrateurs un Data Engineer Manager. Secteur d'activité du client final : santé Contexte : le Client recherche un profil senior avec une expérience confirmée de Data Engineer en environnement complexe, connaissant les DataPlateforms, maitrisant Databricks et/ou Snowflake, idéalement sur Azure. Démarrage : immédiatement Autre prérequis : Expérience en migration de plateformes Exépérience en gestion d'équipes mixtes (internes, consultants, offshore/AMS)
CDI
Freelance

Offre d'emploi
Développeur Java (H/F)

Publiée le
Hibernate
Java
React

1 an
Nantes, Pays de la Loire
Télétravail partiel
Contexte du besoin Dans le cadre du développement et de l’évolution de solutions applicatives, nous recherchons un Développeur Java pour intervenir sur la conception, l’intégration, la maintenance et l’assistance autour d’applications existantes et nouvelles. Missions principales Développement applicatif Développer de nouveaux modules fonctionnels et techniques Réaliser l’écriture du code dans le respect des normes et du cadre défini par les architectes Rédiger la documentation technique Concevoir et exécuter des scénarios de tests Intégration et recette Participer aux phases amont de livraison (cahier des charges, études d’opportunité) Intégrer les solutions informatiques existantes (paramétrages techniques et fonctionnels) Concevoir des scénarios de tests Participer aux phases de recette Maintenance applicative Assurer la maintenance des applications existantes Réaliser des revues de code conformément aux consignes du service Mettre à jour la documentation technique Concevoir des scénarios de tests Support et assistance utilisateurs Assister les utilisateurs dans la résolution de problèmes liés à l’utilisation des logiciels et matériels Rédiger la documentation technique Concevoir des scénarios de tests
Freelance

Mission freelance
Data Engineer (F/H) - 56

Publiée le
Apache Kafka
Java
Shell

1 an
Vannes, Bretagne
Télétravail partiel
- Participer à la définition de l’architecture Data avec les architectes et la Squad - Concevoir, affiner et développer des solutions de collecte et de stockage multi-sources (batch et streaming) pour les usages métiers - Mettre en œuvre des tests unitaires et automatisés - Déployer le produit sur les différents environnements - Assurer le bon fonctionnement en production : suivi, assistance, gestion des incidents - Contribuer à l’amélioration continue et à la qualité du code //////////----------))))))))))
CDD
CDI
Freelance

Offre d'emploi
Project Manager Digital – Communication

Publiée le
Microsoft Copilot Studio
Azure
Workplace

9 mois
40k-52k €
400-800 €
Le Havre, Normandie
Télétravail partiel
Project Manager Digital – Communication Interne & Digital Workplace 1. Contexte Dans le cadre d’un programme de transformation digitale à l’échelle d’un grand groupe international , le/la Project Manager Digital interviendra sur des projets stratégiques liés à la communication interne et à la digital workplace . La mission couvre notamment : Le pilotage et l’optimisation des outils digitaux de communication interne (réseau social d’entreprise, outils événementiels internes, plateformes collaboratives). La mise en place et l’évolution de la digital workplace du groupe , incluant : migrations de tenants Microsoft pour de nouvelles entités, optimisation de l’usage pour les entités existantes, intégration de solutions d’IA générative (Copilot), développement et déploiement d’agents métiers de niveau L2/L3. 2. Objectifs Communication interne Déployer et optimiser les outils digitaux afin de renforcer la cohésion interne, la fluidité des échanges et l’efficacité opérationnelle. Digital Workplace Piloter les migrations et optimisations des environnements Microsoft 365 pour les filiales. Pour les entités les plus matures (activités industrielles, logistiques, services) : piloter le déploiement et l’adoption de Copilot, optimiser l’usage des nouvelles fonctionnalités, intégrer et gouverner les agents métiers (L2 / L3). Accompagnement au changement Organiser la formation et le support utilisateurs. Faciliter l’adoption des nouveaux outils et processus. Dans ce cadre, le/la Project Manager supervisera une équipe d’environ 12 consultants externes , répartis sur les différents périmètres fonctionnels. Il/elle devra garantir : une compréhension fine des besoins métiers , la traduction de ces besoins en solutions concrètes et adaptées , l’alignement avec les processus de la DSI, la prise en compte des contraintes cybersécurité, architecture, opérations et infrastructures . L’objectif est d’assurer une intégration fluide, sécurisée et à forte valeur ajoutée , dans le respect des standards techniques et de sécurité du groupe.
Freelance
CDI

Offre d'emploi
Product owner

Publiée le
Data analysis

1 an
40k-51k €
400-550 €
Marseille, Provence-Alpes-Côte d'Azur
Télétravail partiel
Qualité des données & Gouvernance Identifier et évaluer les impacts des données manquantes, incohérentes ou de mauvaise qualité sur les opérations Intermodal, le reporting et la prise de décision. Définir, pour les données clés, des pratiques de gestion de la qualité des données , incluant : des KPI et seuils de qualité, des règles et contrôles de monitoring, des processus de traitement des anomalies et de correction, des rôles et responsabilités (responsables, contributeurs, escalades). Prioriser et formaliser les améliorations de la qualité des données sous forme de user stories dans le backlog (nouveaux contrôles, logiques d’enrichissement, workflows de correction). Veiller au respect des politiques et standards de gouvernance des données et contribuer à la clarification des rôles (data owners, data stewards). Pilotage de la livraison & validation Collaborer avec les data engineers, développeurs BI et équipes plateforme pour livrer les incréments du produit data : nouvelles sources, tables, métriques et vues attendues par le métier. Animer les réunions de validation avec les équipes IT et métier afin de confirmer l’alignement des livrables avec les exigences et leur bonne documentation (définitions, lignage, règles de qualité). Revoir et approuver les structures de données et transformations implémentées sur la base de critères d’acceptation clairement définis. Garantir la cohérence et la réutilisation entre les initiatives data , en évitant la duplication des jeux de données et des indicateurs. Préparation des déploiements & support (nouveau TMS et autres systèmes) Pour le projet de nouveau TMS, piloter la phase de préparation et de nettoyage des données avant chaque déploiement, avec l’appui du Référent Master Data : identifier et planifier les chargements, migrations et nettoyages de données nécessaires, coordonner les travaux avec les Product Owners, experts régionaux et équipes IT, valider la disponibilité, la complétude et l’adéquation des données pour le déploiement. Assurer le suivi des incidents liés aux données lors des phases de bascule et de démarrage, en garantissant une résolution rapide et la capitalisation pour les futurs déploiements. Mettre à jour la documentation (catalogue, flux de données, règles de qualité) afin de refléter l’ouverture de nouveaux pays, régions ou périmètres, ainsi que les évolutions des TMS et systèmes sources. Qualifications & expérience requises Diplôme de niveau Licence ou Master en Data / Informatique, Ingénierie, Supply Chain, Business ou domaine équivalent, ou expérience professionnelle équivalente. Plusieurs années d’expérience dans un ou plusieurs des rôles suivants : Data Product Owner / Product Manager, Data Analyst / Business Data Analyst, Projets BI / Data Warehouse dans un contexte opérationnel ou logistique. Expérience confirmée sur des plateformes data, datamarts ou data warehouses (recueil des besoins, modélisation, validation, déploiement). La connaissance des processus transport / logistique / intermodal constitue un atout majeur.
Freelance
CDI

Offre d'emploi
INGÉNIEUR(E) DEVOPS -INFRASTRUCTURE AS CODE (IaC)

Publiée le
Azure Kubernetes Service (AKS)
F5
ITIL

3 mois
40k-45k €
400-550 €
Le Havre, Normandie
Télétravail partiel
INGÉNIEUR(E) DEVOPS -INFRASTRUCTURE AS CODE (IaC) ype de mission : Régie Durée : 3 mois (renouvelable) Démarrage souhaité : Immédiat Localisation : Présentiel 3 j/semaine minimum à prévoir sur site client au Havre Contexte : Éditeur de logiciels, environnement cloud hybride Azure/on premisesCONTEXTE DE LA MISSIONDans le cadre de la consolidation de son infrastructure cloud hybride Azure et de sa transformation vers une architecture microservices, notre client recherche un Ingénieur DevOps / IaC spécialisé en automatisation Terraform/Ansible sur environnements Azure pour reprendre, rationaliser et industrialiser l'existant.L'environnement technique repose sur une infrastructure hybride Azure/on premises à dominante Microsoft et Linux (Red Hat, Debian), avec une trajectoire d'évolution vers des architectures conteneurisées sur des distributions Kubernetes cible à statuer (RKE2, K3s, OpenShift). MISSIONS PRINCIPALES1. Reprise et rationalisation IaC (prioritaire) • Auditer les scripts Terraform et Ansible existants sur environnements Azure/on prem, identifier les dettes techniques et risques • Refactoriser en modules Terraform Azure réutilisables (VNet, NSG, VM, AKS, ACR, Key Vault, etc.) et rôles Ansible avec conventions de nommage/versioning • Identifier et automatiser les tâches récurrentes manuelles/semi-annuelles via Azure DevOps Pipelines ou GitHub Actions • Documenter l'ensemble (guides d'usage, runbooks d'exploitation)2. Automatisation cycle de vie des certificats SSL/TLS• Concevoir et mettre en œuvre des pipelines de discovery, renouvellement et déploiement automatisés intégrant Azure Key Vault • Intégrer avec le PKI existant ou ACME le cas échéantImplémenter mécanismes de validation et rollback• Coordination appréciée avec load balancers F5 (LTM/WAF) et pare feu Check Point3. Contribution à la transformation – architecture microservices• Définir et appliquer les bonnes pratiques IaC/DevOps/GitOps sur Azure (stratégies de branches, PR, promotions multi environnements via Azure DevOps ou GitHub)• Mettre en place et administrer un sandbox Kubernetes agnostique (RKE2/K3s/OpenShift) avec intégration Azure (Azure Arc si pertinent)• Outiller l'évaluation des stacks (ingress, CNI/CSI, Azure Monitor, sécurité)• Produire matrices de critères, recommandations et runbooks MCO (Maintien en Condition Opérationnelle) / MCS (Maintien en Condition de Sécurité)COMPÉTENCES TECHNIQUES REQUISESObligatoires• Microsoft Azure : maîtrise des services IaaS/PaaS (VNet, NSG, VM, Storage, Application Gateway/WAF) et expérience fournie en admin Azure• Azure DevOps ou GitHub Actions : pipelines CI/CD, intégration Terraform, gestion des secrets via Key Vault, policy as code• Systèmes Linux (Red Hat/Debian) et Windows Server, virtualisation (proxmox, hyper-v, nutanix) /bare metal• Maîtrise de développement scripts Terraform, Ansible, bash/sh Appréciées• Kubernetes: automatisation distributions agnostiques (RKE2/K3s/OpenShift), Helm/Kustomize, ingress, RBAC, ARGO/CD• Load balancers F5 (LTM/WAF) et pare feu Check Point• Connaissances développement Python• Certification ITIL et Kubernetes (CKA) PROFIL RECHERCHÉIngénieur(e) DevOps / IaC (5–10 ans d'expérience) orienté automatisation sur cloud-hybrid, capable d'auditer et de rationaliser des patrimoines IaC hétérogènes, alliant vision d'architecture cloud, rigueur documentaire et capacité à élever le niveau des équipes internes Windows/Linux. --
Freelance
CDI
CDD

Offre d'emploi
Expert Cybersécurité Cloud & Gen-IA (Azure / Microsoft)-(H/F)

Publiée le
Azure
DevSecOps
GenAI

1 an
Fontenay-sous-Bois, Île-de-France
Contexte Dans le cadre du déploiement de projets d’ Intelligence Artificielle Générative (Gen-IA) au sein d’un grand groupe bancaire international , la mission vise à renforcer la sécurité des implémentations IA sur les environnements Cloud Microsoft (Azure, Microsoft 365, Copilot). L’enjeu principal est d’accompagner les centres de compétences et les équipes métiers dans la sécurisation des usages Gen-IA, tout en maîtrisant les risques spécifiques liés aux LLM (Large Language Models) dans un contexte agile, cloud et international . Objectif de la mission Assurer la sécurisation de bout en bout des projets Gen-IA déployés sur les environnements Microsoft, en combinant cybersécurité cloud, DevSecOps et expertise IA , et en produisant une documentation sécurité complète et exploitable . Missions principales Accompagner les équipes projets et métiers dans la sécurisation des implémentations Gen-IA . Analyser et maîtriser les risques spécifiques aux LLM : Prompt injection Data leakage Model poisoning Concevoir et formaliser les architectures sécurisées IA sur Azure / Microsoft . Définir et produire les livrables sécurité : Dossiers de sécurité Analyses de risques Blueprints sécurité Mettre en œuvre des pratiques DevSecOps adaptées aux projets IA (pipelines CI/CD sécurisés). Intégrer les dispositifs de sécurité Cloud avec les outils SOC / SIEM . Garantir la conformité aux réglementations et normes cybersécurité internationales (RGPD, IA, cloud). Participer à la diffusion des bonnes pratiques de sécurité IA au sein des équipes. Compétences clés (impératives) Sécurité opérationnelle Cloud Azure Expertise DevSecOps Expérience sur architectures Gen-IA Maîtrise des risques propres aux LLM Environnements Microsoft 365 / Copilot Compétences importantes Sécurisation des pipelines CI/CD Documentation cybersécurité (dossiers, blueprints, analyses de risques) Intégration SIEM / SOC sur Cloud Réglementations internationales (RGPD, IA, Cloud) Bonnes pratiques de sécurité IA et Cloud Microsoft Normes de cybersécurité Cloud Capacité à gérer l’ambiguïté et l’incertitude Forte capacité rédactionnelle et analytique Approche agile orientée gestion des risques Compétences rares / expert Sécurité avancée Azure + Gen-IA DevSecOps appliqué aux projets IA Cloud Expertise approfondie sur les risques LLM Architecture sécurisée Azure / Microsoft pour l’IA Sécurisation avancée de Copilot / Microsoft 365
Freelance
CDI

Offre d'emploi
Dataiku Data Engineer

Publiée le
Databricks
Dataiku
ETL (Extract-transform-load)

8 mois
40k-59k €
400-640 €
Bruxelles, Bruxelles-Capitale, Belgique
Télétravail partiel
Attention, 2 jours de présence sur site non consécutifs à Bruxelles OBLIGATOIRE. Dans le cadre de son architecture cible, ENGIE M&S Belgium a mis en place les plateformes Databricks et Dataiku sur AWS et a lancé des projets de migration pour différents cas d’usage (SAS, AWS Sagemaker, BW/HANA, etc.). Nous recherchons un(e) Expert(e) Dataiku pour rejoindre une équipe projet chargée de reconstruire les fonctionnalités de programmes SAS, dont les résultats sont utilisés par les équipes Finance et Reporting Réglementaire. L’objectif est de combiner l’utilisation de Databricks (stockage/calcul) et de Dataiku (transformation de données), en privilégiant autant que possible les recettes visuelles de Dataiku.
1513 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous