Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 533 résultats.
Freelance
CDD

Offre d'emploi
Data Engineer – Data Analyste spécialiste DATAIKU

SMARTPOINT
Publiée le
CI/CD
Cloudera
Git

1 an
40k-45k €
400-550 €
Île-de-France, France
La mission proposée sera d’accompagner les métiers dans la cadre du projet de sortie du progiciel SAS vers le progiciel DATAIKU. Dans ce cadre, les activités principales sont : • Accompagner les utilisateurs dans la prise en main de Dataiku et le déploiement des solutions pour leurs cas d’usage. Cela passe par la compréhension de leurs besoins et contraintes opérationnelles, l’étude des solutions potentielles basées sur le progiciel, et l’aide et support à la réalisation. • Appliquer et diffuser les bonnes pratiques Dataiku ainsi que du processus MLOPS. • Assurer le Support et RUN post déploiement : surveillance, maintenance et optimisation des traitements DATAIKU. Dans le cadre de cette mission, il y a de fortes exigences sur : • Le sens de service. • La pédagogie pour accompagner efficacement les utilisateurs SAS. • L’échange et la communication avec le reste de l’équipe SOD/IA Factory ainsi que les différents interlocuteurs sur ce sujet. A savoir, l’architecte SOD/SAS, l’architecte technique SOD, les architectes DATA ainsi que les interlocuteurs CAGIP. Le critère d’expérience doit s’appliquer à tous ces éléments pour garantir l’adéquation du profil à la demande. Expertise DATAIKU DSS avec certifications : • Core Designer • Advanced Designer • ML Practitioner • MLOps Practitioner • Developer • Generative AI Practitioner
Freelance

Mission freelance
Directeur / Responsable EDI & Gestion des Flux (H/F)

HOXTON PARTNERS
Publiée le
Échange de données informatisé (EDI)

6 mois
Yvelines, France
Dans le cadre du renforcement de son pôle digital Supply Chain, notre client recherche un(e) freelance expérimenté(e) en EDI et gestion des flux digitaux pour piloter les flux numériques, améliorer la performance opérationnelle et accompagner plusieurs projets stratégiques liés à l’ERP, à l’EDI et au datalake. Responsabilités principales Management & Pilotage des opérations Encadrer l’équipe support utilisateurs (gestion des litiges, priorisation, animation opérationnelle). Suivre et optimiser les KPI Supply Chain & EDI . Assurer la stabilité des flux EDI et résoudre les incidents critiques. Projets digitaux & transformation Piloter le déploiement de l’EDI et du portail fournisseurs . Rédiger et suivre le cahier des charges d’un appel d’offres pour une future solution de gestion des flux. Contribuer à l’alimentation du datalake pour les futurs cas d’usage IA. Intégration & ERP Assurer l’intégration des flux inter-applicatifs (ERP / EDI / outils métiers). Superviser la migration des données et garantir l’intégrité des informations. Optimiser les workflows digitaux pour réduire les erreurs manuelles et sécuriser les processus. Support aux équipes & Conduite du changement Former les équipes aux nouveaux outils et bonnes pratiques EDI / gestion des flux. Mettre en place des dashboards & reporting temps réel.
CDI

Offre d'emploi
Chef de projet informatique - Domaine data engineering F/H - Informatique de gestion (H/F)

█ █ █ █ █ █ █
Publiée le
Hadoop

Villeneuve-d'Ascq, Hauts-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance
CDI

Offre d'emploi
Project Management Monitoring & Alerting

Tritux France
Publiée le
AI
AWS Cloud
Azure

3 ans
40k-45k €
400-450 €
Boulogne-Billancourt, Île-de-France
Au sein de la Direction Informatique , le Domaine « End to End RUN Connected Services & My Brand » est en charge de la qualité opérationnelle de l’ensemble de la chaîne de valeur couvrant les produits Groupe disponibles sur smartphones et l’ensemble de la chaîne d’outils et plateformes de connexion off-board / on-board du produit permettant de : - Configurer les composants ‘on-board’ lors de la fabrication du produit. - Activer les services à la livraison du produit. - Utiliser au quotidien les services connectés depuis un smartphone. - Collecter des données de santé du produit, des systèmes embarqués, des données d’usage du client, des métriques des systèmes d’assistance pour permettre d’améliorer la maintenance et la fiabilité du produit.. Le fonctionnement opérationnel de ces systèmes 24h/24 et 7j/7 est indispensable pour supporter le bon fonctionnement de l’industrie, des services commerciaux et l’usage de ses services, tout en accompagnant les transformations digitales indispensables. Dans ce contexte, la qualité et la performance des outils de monitoring est indispensable. Pour s’adapter à ces enjeux, le Domaine E2E RUN recherche une prestation de Project Management Monitoring & Alerting, dont les principales activités sont les suivantes : - Mise en place d’un plan d’actions pour amélioration la performance du monitoring - Mise en œuvre d’une stratégie robuste pour les outils de monitoring entre les solutions Grafana et Dynatrace - Assurer une totale couverture du monitoring sur le périmètre fonctionnel VS8 - Mise en place et suivi d’outils des outils de monitoring et alerting - Pilotage et optimisation de l’engagement des équipes du partenaire pour faire évoluer ces solutions - Mise en place de KPI de suivi projets / produits - Définir et préparer la stratégie d’introduction de l’IA
Freelance

Mission freelance
Business Analyst / Confirmé - Senior

Celexio
Publiée le
Microsoft Excel
MySQL
Python

3 mois
400-650 €
Seine-Saint-Denis, France
Bonjour à tous, Je recherche pour le compte d'un de mes clients un Business Analyst. Voici les missions principales : Réalignement et qualité des données • Cartographier et analyser les données provenant des différentes sociétés du Groupe. • Identifier les écarts, incohérences et redondances. • Réaliser les opérations de nettoyage, harmonisation et migration (via Excel, Python, SQL si nécessaire). • Développer et maintenir des scripts d’automatisation (Python, Pandas, Regex, API). • Expérimenter l’usage de modèles IA (GPT, ML) pour accélérer l’enrichissement, le matching et la classification de données. RUN BI & Reporting • Assurer la disponibilité et la fiabilité des modèles/reports Power BI de publication. • Gérer les incidents et demandes utilisateurs (RUN BI, correctifs, évolutions). • Monitorer les traitements Fabric/Power BI (Data pipelines et Refresh Semantic models) et collaborer avec l’IT pour résoudre les problèmes. • Documenter et optimiser les process de mise à jour et de refresh des dashboards. Analyse métier & accompagnement • Traduire les besoins métiers en spécifications fonctionnelles et data. • Accompagner les équipes locales dans l’adoption des dashboards et outils analytiques. • Proposer des recommandations pour améliorer la gouvernance et la qualité des données. • Être le point de contact privilégié entre équipes Data, IT, BI et filiales.
Freelance

Mission freelance
Un Tech Lead Data sur Grenoble

Almatek
Publiée le
DevOps
Git
Jenkins

6 mois
300-380 €
Grenoble, Auvergne-Rhône-Alpes
Almatek recherche pour l'un de ses clients Un Tech Lead Data sur Grenoble. Contexte du projet Projet TMA Data pour un client industriel : maintenance évolutive et corrective des systèmes de reporting et datawarehouse, gestion des flux de données sensibles (production, finance), support et développement de nouvelles fonctionnalités. Environnement technique orienté bases de données, ETL, BI Missions principales Pilotage technique et coordination Prendre du recul sur les besoins et proposer des solutions adaptées Cadrer les sujets techniques et fonctionnels Challenger les solutions proposées par l’équipe et le client Animer des réunions techniques et ateliers avec le client Assurer la qualité des livrables et le respect des délais Encadrement et accompagnement Accompagner les profils juniors Réaliser des revues de code et garantir les bonnes pratiques Partager les connaissances (process, outils, standards) Contribution technique Concevoir et optimiser des pipelines ETL/ELT Maintenir et faire évoluer les datawarehouses et bases de reporting Participer aux développements complexes et aux tests d’intégration Assurer la documentation technique et la capitalisation Amélioration continue Identifier et proposer des axes d’amélioration (process, outils, organisation notamment mise en place CI/CD, utilisation de l’IA..) Être force de proposition sur les évolutions techniques et méthodologiques Assurer le cadrage et plan de déploiement de ces propositions d’amélioration / industrialisation Compétences techniques requises Langages & outils : SQL avancé Bases de données : Oracle, PostgreSQL CI/CD & DevOps : Git, Jenkins Expérience 5 à 8 ans minimum en ingénierie des données, dont 2 ans en rôle de lead ou senior. Expérience en contexte TMA ou projets de maintenance évolutive. Localisation & Langues Région grenobloise Français courant, anglais professionnel.
Freelance

Mission freelance
Data Platform Enablement Engineer

Cherry Pick
Publiée le
AWS Cloud
Python

12 mois
550-580 €
Paris, France
En quelques mots Cherry Pick est à la recherche d'un "Data Platform Enablement Engineer" pour un client dans le secteur Bancaire Description 🏢 Le Contexte : La Tech au service de la Recherche Votre mission est au cœur de notre réacteur technologique. Vous ne construisez pas seulement des outils ; vous donnez le pouvoir à notre communauté de plus de 50 Data Engineers et Data Scientists. En tant que trait d’union entre les équipes "Platform" et les équipes "Métier", vous garantissez que notre plateforme Data est non seulement adoptée, mais qu'elle évolue selon les besoins réels du terrain. 🎯 Vos Missions : Support, Évangélisation et Transmission Votre rôle est pivot : vous êtes à la fois un expert technique "hands-on" et un ambassadeur de la culture Data. 1. Support Technique & Tooling (Expertise Opérationnelle) : Accompagner quotidiennement les Data Engineers/Scientists sur leurs défis techniques complexes. Identifier et gérer la dette technique par des plans d’actions concrets. Développer l'outillage nécessaire pour faciliter la vie des utilisateurs (automatisation, agents IA, frameworks de tests). Collaborer avec les équipes d'infrastructure pour résoudre les incidents de pipelines et améliorer l'expérience développeur (DevEx). 2. Évangélisation & Animation de Communauté : Promouvoir l’adoption de la plateforme par l'exemple et l'usage quotidien. Partager les tendances du marché et les nouveaux outils pertinents auprès des équipes internes. Animer une Communauté de Pratique : organiser des webinaires, des ateliers et des retours d'expérience. 3. Montée en Compétences (Upskilling) : Évaluer le niveau des équipes et concevoir des parcours de formation (exercices, cas réels). Créer du contenu technique de haute qualité : tutoriels, documentation, projets modèles et articles de blog interne. 4. Feedback Loop & Stratégie Produit : Recueillir les retours des utilisateurs pour influencer la roadmap de la Platform Engineering . Être l'avocat des Data Scientists et Engineers au sein de l'organisation pour s'assurer que leurs besoins sont compris et adressés.
Freelance

Mission freelance
Data Engineering Manager (Bordeaux)

SQLI
Publiée le
AWS Cloud

6 mois
400-750 €
Bordeaux, Nouvelle-Aquitaine
Bonjour, Pour le compte de l'un de mes clients situé à Libourne près de Bordeaux, je suis à la recherche d'un Expert Data Engineering Manager. Contexte et mission : Le client accélère sa transformation en matière de données et d'IA et structure son organisation autour d'un modèle opérationnel à deux équipes : • Équipe Produits de données (orientée vers les activités, axée sur la valeur). • Équipe Ingénierie des données (fourniture, exploitation et mise en œuvre de la plateforme). Il recherche donc un responsable Ingénierie des données expérimenté pour diriger l'équipe Ingénierie des données pendant une phase de transition critique. La mission couvre trois objectifs parallèles : • Mettre en place la future plateforme de données cible, dont la pile est actuellement en cours de validation et devrait être basée sur Databricks ou Snowflake sur Microsoft Azure. • Migrer progressivement les piles de données existantes vers la nouvelle plateforme. • Réaliser les projets commerciaux et clients en cours, à la fois sur les piles existantes et sur la nouvelle plateforme, sans perturber les opérations Ce poste exige un leadership fort et une grande discipline d'exécution. Responsabilités principales : • Diriger et gérer l'équipe d'ingénierie des données (équipe interne et partenaires externes). • Être responsable de la livraison, de la capacité et des performances opérationnelles sur les plateformes existantes et cibles. • Garantir la fiabilité, les performances, l'évolutivité et l'optimisation des coûts • Structurer et piloter le démarrage de la plateforme de données cible. • Planifier et exécuter la migration progressive de la pile existante vers la pile cible. • Assurer la livraison des projets commerciaux et clients en cours sur les deux piles. • Définir et appliquer les normes et les méthodes de travail en matière d'ingénierie des données. • Servir d'interface principale avec les parties prenantes des produits de données, de l'architecture et de l'informatique. • Soutenir et habiliter les équipes locales client Data sur les piles technologiques de données.
Freelance

Mission freelance
Développeur Fullstack (H/F)

Insitoo Freelances
Publiée le
API REST
Test-Driven Development (TDD)
TypeScript

2 ans
400-450 €
Hauts-de-France, France
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Développeur Fullstack (H/F) à Hauts-de-France, France. Contexte : Nous recherchons un développeur expérimenté passionné par l'IA qui rejoindra une équipe agile (2 développeurs, 1 Lead Engineer, 2 BA, 1 PO) et travaillera en collaboration directe avec nos experts Data et Ops. Les missions attendues par le Développeur Fullstack (H/F) : Développement & Architecture : Concevoir et développer les nouvelles fonctionnalités de la "Vue 360" en TypeScript (Front et Back). Vous assurez la robustesse des échanges de données via des API REST complexes (interfaçage avec Zendesk et le SI interne). Framework Agnostic & Adaptable : Avoir une expérience solide sur un framework moderne (React, Vue, Angular ou Svelte) et un framework back (NestJS, Express). Outillage Moderne : Être à l'aise avec la chaîne de build moderne (Vite, Webpack, npm/pnpm/yarn) Qualité: Être le garant de la pérennité du code. Vous pratiquez le Refactoring continu pour éviter la dette technique. Vous appliquez strictement les principes de Clean Code et les Design Patterns appropriés. Stratégie de Test : Plus qu'une formalité, les tests sont pour vous un filet de sécurité indispensable. Vous maintenez une couverture élevée en tests unitaires et d'intégration. Collaboration Technique : Vous êtes un moteur lors des Code Reviews. Vos retours sont constructifs et visent à faire progresser l'équipe. Vous participez activement aux décisions d'architecture. Documentation : Vous produisez une documentation technique claire, à jour et maintenable, car vous savez que le code seul ne suffit pas toujours. Ce développeur devra répondre aux critères d’exigence et de rigueur (code propre et maintenable), ainsi qu’avoir l’esprit d’équipe afin de partager en toute pédagogie lors PR review. La communication écrite est importante: une bonne capacité rédactionnelle est attendue pour la documentation technique en anglais.
Freelance

Mission freelance
Chef de projet Comptabilité SAP

STHREE SAS pour HUXLEY
Publiée le

12 mois
500 €
Roissy-en-France, Île-de-France
C hef de projet Comptabilité - Mission 12 mois (1 ETP) - Client final confidentiel Lieux : Roissy‑en‑France (3 j/sem.) & Villers‑Cotterêts (1-2 j/sem.) * Télétravail possible Démarrage : 02/02/2026 * Fin : 02/02/2027 Type : Prestation freelance / portage Mission : Piloter des projets comptables & transverses (planning, risques, ressources, reporting). Auditer l'AS‑IS, définir le TO‑BE et documenter processus & règles de gestion. Préparer/mettre en œuvre la stratégie de tests (cas, scénarios, recettes). Accompagner le changement (supports, formations, communication). Livrables attendus Dossier de cadrage : périmètre, objectifs, exigences, jalons, risques, RACI. Cartographies AS‑IS / TO‑BE & règles de gestion documentées. Plan projet détaillé, tableau de bord ( KPI , risques, avancement, qualité). Stratégie de tests , cas/scénarios, PV de recettes et plan de correction. Kit de change : supports de formation, communications, guides utilisateurs. Exemples de KPI (à piloter) : respect des jalons, taux de couverture de tests , taux d'anomalies critiques résolues , taux d'adoption des nouveaux processus, réduction des écarts entre AS‑IS et TO‑BE. Profil recherché Incontournables Expertise comptable solide et pilotage de projets Finance/IT confirmé. Maîtrise de SAP (indispensable) . Excellentes capacités d' analyse, synthèse et priorisation ; rigueur et sens du délai. Influence positive auprès d'interlocuteurs de tous niveaux, aisance relationnelle , curiosité. Appétence outils & IA (automatisation, data‑quality, contrôle interne). Plus qui font la différence Expérience d' audits de processus Facturation et de re‑design (contrôles, compliance). Pratique des recettes fonctionnelles et outillage de tests. Expérience d'environnements multi‑projets / multi‑fournisseurs. Conformité & données Sens élevé de la confidentialité : exposition à des données personnelles (noms, mails, encours clients, données bancaires) et respect des exigences réglementaires (RGPD).
Freelance

Mission freelance
POT8833 - Un Data Analyste Confirmé sur Mer

Almatek
Publiée le
Java

6 mois
280-400 €
Mer, Centre-Val de Loire
Almatek recherche pour l'un de ses clients Un Data Analyste Confirmé sur Mer. **Contexte :** Le service Modélisation des Données recrute un Data Analyst pour soutenir ses projets et la maintenance liés à la restitution et à l’analyse de données. Ce service gère le Système d'Information Décisionnel, qui repose sur un Datawarehouse alimenté par des traitements ETL et des chaînes Change Data Capture (IBM IDR, Kafka). Ce Datawarehouse est la source de données pour divers outils de reporting et de datavisualisation (Power BI, COGNOS) ainsi que pour la mise en œuvre de cas d’usage IA. **Missions principales :** Le prestataire agira sous la direction du responsable du service Modélisation des Données et ses missions incluront : - Projets de SI Décisionnels : Modélisation de données, conception de rapports, et assistance aux utilisateurs finaux. - Power BI : Point de contact technique pour les utilisateurs finaux et les Publishers de Power BI, réalisation de reportings complexes. - Migration de Dataplatform : Refonte de reporting COGNOS/Power BI vers Superset, refonte de chaînes ETL TALEND vers Dagster, et conception de datamarts. Projet en agilité. Le poste comporte une dimension technique importante ainsi qu’une forte composante relationnelle, nécessitant une analyse des besoins, leur validation, et le suivi en mode projet. Une sensibilité aux problématiques de gouvernance des données est également cruciale. **Compétences requises :** - Organisationnelles : - Suivi de projet en tant que contributeur MOE. - Collaboration avec des équipes sécurité/réseau/etc. - Techniques : - Maîtrise du SQL, de l’indexation et de l’optimisation SQL (4 ans d’expérience minimum). - Power BI Desktop, Power BI Report Server, DAX, RLS (2 ans d’expérience minimum). - Modélisation de données et constitution de datamarts (4 ans d’expérience minimum). - Apache Superset (1 an d’expérience souhaitée). - COGNOS C11 (1 an d’expérience minimum). - Développement Python (2 ans d’expérience minimum). - Connaissance des ETL (SSRS, Talend). - Connaissance de Java. - Savoir-être : - Capacité d’analyse : Comprendre et formuler un besoin, animer des ateliers, et identifier les impacts pour déterminer la meilleure solution. - Excellente capacité rédactionnelle. - Expérience en agilité (Kanban, Scrum). **Connaissances métier :** Une connaissance du monde des Titres et une expérience significative dans le secteur bancaire seraient des atouts supplémentaires, mais ne sont pas obligatoires. Localisation : Mer (proche d'Orleans) + Télétravail
Freelance

Mission freelance
Data Analyste Confirmé SQL Power BI Desktop, Power BI Report Server, DAX, RLS, Datamarts, Cognos

WorldWide People
Publiée le
Microsoft Power BI
SQL

12 mois
390-400 £GB
Mer, Centre-Val de Loire
Data Analyste Confirmé SQL Power BI Desktop, Power BI Report Server, DAX, RLS, Datamarts, Cognos pour une mission sur MER. Techniques : - Maîtrise du SQL, de l’indexation et de l’optimisation SQL (4 ans d’expérience minimum). - Power BI Desktop, Power BI Report Server, DAX, RLS (2 ans d’expérience minimum). - Modélisation de données et constitution de datamarts (4 ans d’expérience minimum). - Apache Superset (1 an d’expérience souhaitée). - COGNOS C11 (1 an d’expérience minimum). - Développement Python (2 ans d’expérience minimum). - Connaissance des ETL (SSRS, Talend). - Connaissance de Java. Contexte : Le service Modélisation des Données recrute un Data Analyst pour soutenir ses projets et la maintenance liés à la restitution et à l’analyse de données. Ce service gère le Système d'Information Décisionnel, qui repose sur un Datawarehouse alimenté par des traitements ETL et des chaînes Change Data Capture (IBM IDR, Kafka). Ce Datawarehouse est la source de données pour divers outils de reporting et de datavisualisation (Power BI, COGNOS) ainsi que pour la mise en œuvre de cas d’usage IA. Missions principales : Le prestataire agira sous la direction du responsable du service Modélisation des Données et ses missions incluront : - Projets de SI Décisionnels : Modélisation de données, conception de rapports, et assistance aux utilisateurs finaux. - Power BI : Point de contact technique pour les utilisateurs finaux et les Publishers de Power BI, réalisation de reportings complexes. - Migration de Dataplatform : Refonte de reporting COGNOS/Power BI vers Superset, refonte de chaînes ETL TALEND vers Dagster, et conception de datamarts. Projet en agilité. Le poste comporte une dimension technique importante ainsi qu’une forte composante relationnelle, nécessitant une analyse des besoins, leur validation, et le suivi en mode projet. Une sensibilité aux problématiques de gouvernance des données est également cruciale. Compétences requises : - Organisationnelles : - Suivi de projet en tant que contributeur MOE. - Collaboration avec des équipes sécurité/réseau/etc. - Techniques : - Maîtrise du SQL, de l’indexation et de l’optimisation SQL (4 ans d’expérience minimum). - Power BI Desktop, Power BI Report Server, DAX, RLS (2 ans d’expérience minimum). - Modélisation de données et constitution de datamarts (4 ans d’expérience minimum). - Apache Superset (1 an d’expérience souhaitée). - COGNOS C11 (1 an d’expérience minimum). - Développement Python (2 ans d’expérience minimum). - Connaissance des ETL (SSRS, Talend). - Connaissance de Java. - Savoir-être : - Capacité d’analyse : Comprendre et formuler un besoin, animer des ateliers, et identifier les impacts pour déterminer la meilleure solution. - Excellente capacité rédactionnelle. - Expérience en agilité (Kanban, Scrum). Connaissances métier : Une connaissance du monde des Titres et une expérience significative dans le secteur bancaire seraient des atouts supplémentaires, mais ne sont pas obligatoires. La mission est sur Mer (proche d'Orleans) - Mission sur le long terme
Freelance

Mission freelance
Senior Data Engineer GCP MLOps

Cherry Pick
Publiée le
Apache Airflow
DBT
Google Cloud Platform (GCP)

6 mois
500-550 €
Paris, France
En quelques mots Cherry Pick est à la recherche d'un Senior Data Engineer (H/F) pour l'un de ses clients qui opère dans le secteur culturel Description 🧩 Contexte de mission Au sein d’un pôle Data d’une douzaine de personnes, vous intégrerez l’équipe Data Engineering composée de trois Data Engineers. La mission vise à renforcer l’expertise du pôle dans un contexte de croissance et d’industrialisation des usages data. L’objectif principal est d’optimiser l’infrastructure data afin d’assurer fiabilité, performance et scalabilité des pipelines. En 2026, les enjeux stratégiques portent sur l’intégration de nouvelles sources de données, le déploiement d’outils de diffusion de la donnée (interne/externe) et l’ouverture vers des usages avancés (reporting, IA, open data). 🎯 Missions principales & Rôle Mettre en œuvre les meilleures pratiques dbt pour la modélisation et la transformation des données dans BigQuery. Concevoir et développer des mécanismes d’ingestion et d’intégration pour de nouvelles sources de données externes. Réaliser un audit complet de l’infrastructure data GCP, et mettre en place les optimisations nécessaires pour garantir performance et scalabilité. Déployer une approche DataOps avancée : monitoring, alerting, documentation, tests automatisés, fiabilité des pipelines. Concevoir, développer et sécuriser des pipelines de bout en bout pour le déploiement de modèles ML en production (MLOps). Accompagner la montée en compétence des Data Engineers et Data Scientists du pôle. Participer au développement d’outils de diffusion de la donnée : reverse ETL, APIs, solutions internes/externalisées. 🎯 Objectifs Améliorer durablement la performance, la robustesse et la scalabilité des pipelines de données. Structurer les workflows DataOps & MLOps pour une industrialisation complète et fiable. Faciliter l’intégration de nouvelles sources de données dans une architecture GCP sécurisée et optimisée. Mettre en place les standards, bonnes pratiques et outillages pour accompagner la croissance du pôle data. Accélérer l’adoption interne des données via des API, dashboards et solutions de diffusion adaptées.
CDI
Freelance

Offre d'emploi
Ingénieur Intégration & Parsing des Journaux SOC

SQUARE ONE
Publiée le
Apache Kafka
CI/CD
Cloud

1 an
Marseille, Provence-Alpes-Côte d'Azur
Nous recherchons un Ingénieur Intégration & Parsing de Journaux pour rejoindre l’équipe Cybersécurité au sein du Centre des Opérations de Sécurité (SOC) . Rôle et responsabilités Le consultant sera responsable de la gestion complète du processus de collecte des journaux provenant des environnements cloud et on-premise , ainsi que des outils de sécurité soutenant les opérations SOC 24/7 . Rattaché au responsable de l’équipe Build, il travaillera en étroite collaboration avec les parties prenantes Cybersécurité, IT et Métiers pour garantir une intégration robuste, évolutive et sécurisée des journaux . Principales missions : Concevoir, mettre en œuvre et maintenir les pipelines de collecte et de parsing des journaux. Gérer et optimiser les systèmes d’ingestion et de transfert des logs via des outils tels que Fluentd ou Kafka . Développer des parsers avancés pour normaliser et structurer les données selon des schémas spécifiques. Mettre en place des parsers-as-code pour intégrer de grands volumes de données issues de sources personnalisées. Garantir la qualité, la fiabilité et la standardisation des journaux sur l’ensemble des systèmes intégrés. Collaborer avec les équipes réseau, les responsables applicatifs et les analystes SOC pour intégrer de nouvelles sources de logs. Maintenir les règles de parsing, de normalisation et d’enrichissement pour l’ingestion SIEM (Elastic SIEM ou équivalent). Diagnostiquer et résoudre les problèmes d’ingestion ou de parsing en coordination avec les équipes concernées. Mettre en place des pipelines CI/CD pour le déploiement automatisé des configurations d’intégration. Appliquer des pratiques DevSecOps pour sécuriser et automatiser les flux d’ingestion. Surveiller en continu les pipelines d’ingestion et contribuer à leur amélioration. Participer à la création de parsers à l’aide d’ IA agentique . Maintenir la documentation et les schémas techniques des workflows d’intégration. Livrables attendus Pipelines d’ingestion et de parsing opérationnels. Documentation technique et schémas d’architecture. Scripts et configurations CI/CD. Tableaux de bord de suivi et d’amélioration continue. Compétences et qualifications requisesTechniques Expérience avérée en tant qu’ Ingénieur Intégration de Journaux , Ingénieur Plateforme ou Ingénieur Cloud dans un contexte SOC ou cybersécurité. Maîtrise des outils de collecte et de traitement des logs ( Fluentd , Logstash , Kafka …). Bonne compréhension des techniques de parsing, normalisation et enrichissement (ASIM, UDM, OCSF, DSM, ECS, CIM, CEF, LEEF…). Solide connaissance des services AWS, GCP et Azure liés à la supervision et à la journalisation. Expérience avec les outils CI/CD (GitLab CI/CD, Jenkins…). Maîtrise de Ruby (développement de plugins Fluentd) et de Python/Bash . Familiarité avec les solutions SIEM (Google SecOps, Elastic SIEM, Sentinel, Splunk ou équivalent). Compréhension des concepts de cybersécurité , détection , et opérations SOC . Pratique des approches DevSecOps et de l’automatisation. Connaissance des formats de règles SIGMA et YARA .
Freelance

Mission freelance
Data Analyste Confirmé Power BI Desktop, Power BI Report Server, DAX, RLS, Datamarts, Cognos

WorldWide People
Publiée le
Microsoft Power BI
SQL

12 mois
390-400 £GB
Mer, Centre-Val de Loire
Data Analyste Confirmé pour une mission sur MER. Techniques : - Maîtrise du SQL, de l’indexation et de l’optimisation SQL (4 ans d’expérience minimum). - Power BI Desktop, Power BI Report Server, DAX, RLS (2 ans d’expérience minimum). - Modélisation de données et constitution de datamarts (4 ans d’expérience minimum). - Apache Superset (1 an d’expérience souhaitée). - COGNOS C11 (1 an d’expérience minimum). - Développement Python (2 ans d’expérience minimum). - Connaissance des ETL (SSRS, Talend). - Connaissance de Java. Contexte : Le service Modélisation des Données recrute un Data Analyst pour soutenir ses projets et la maintenance liés à la restitution et à l’analyse de données. Ce service gère le Système d'Information Décisionnel, qui repose sur un Datawarehouse alimenté par des traitements ETL et des chaînes Change Data Capture (IBM IDR, Kafka). Ce Datawarehouse est la source de données pour divers outils de reporting et de datavisualisation (Power BI, COGNOS) ainsi que pour la mise en œuvre de cas d’usage IA. Missions principales : Le prestataire agira sous la direction du responsable du service Modélisation des Données et ses missions incluront : - Projets de SI Décisionnels : Modélisation de données, conception de rapports, et assistance aux utilisateurs finaux. - Power BI : Point de contact technique pour les utilisateurs finaux et les Publishers de Power BI, réalisation de reportings complexes. - Migration de Dataplatform : Refonte de reporting COGNOS/Power BI vers Superset, refonte de chaînes ETL TALEND vers Dagster, et conception de datamarts. Projet en agilité. Le poste comporte une dimension technique importante ainsi qu’une forte composante relationnelle, nécessitant une analyse des besoins, leur validation, et le suivi en mode projet. Une sensibilité aux problématiques de gouvernance des données est également cruciale. Compétences requises : - Organisationnelles : - Suivi de projet en tant que contributeur MOE. - Collaboration avec des équipes sécurité/réseau/etc. - Techniques : - Maîtrise du SQL, de l’indexation et de l’optimisation SQL (4 ans d’expérience minimum). - Power BI Desktop, Power BI Report Server, DAX, RLS (2 ans d’expérience minimum). - Modélisation de données et constitution de datamarts (4 ans d’expérience minimum). - Apache Superset (1 an d’expérience souhaitée). - COGNOS C11 (1 an d’expérience minimum). - Développement Python (2 ans d’expérience minimum). - Connaissance des ETL (SSRS, Talend). - Connaissance de Java. - Savoir-être : - Capacité d’analyse : Comprendre et formuler un besoin, animer des ateliers, et identifier les impacts pour déterminer la meilleure solution. - Excellente capacité rédactionnelle. - Expérience en agilité (Kanban, Scrum). Connaissances métier : Une connaissance du monde des Titres et une expérience significative dans le secteur bancaire seraient des atouts supplémentaires, mais ne sont pas obligatoires. La mission est sur Mer (proche d'Orleans) - Mission sur le long terme
Freelance

Mission freelance
Responsable Office bureautique H/F

Cheops Technology
Publiée le
Office 365

12 mois
400 €
Saint-Denis, Île-de-France
Offre Responsable Office bureautique 1.1 Objectifs Au sein de la Direction Services Numériques aux Utilisateurs, piloté par le responsable des offres Office, cette prestation consiste à assister au quotidien le responsable d’offre Office dans la gouvernance, le pilotage et la maintenance de l’offre Office Bureautique. Elle s’appuie sur le pôle Veille pour tenir à jour une feuille de route des évolutions fonctionnelles et techniques à venir. Elle analyse ces dernières pour les proposer aux utilisateurs en fonction de leur intérêt métier tout en s’assurant de leurs conformités avec la PGSSI (Politique Générale de Sécurité des Systèmes d'Information Groupe). Elle coordonne leurs mises en œuvre en s’appuyant sur la MOE Poste de Travail pour la gestion des configurations techniques, les déploiements sur les postes de travail Windows et la MCO et sur le pôle Adoption pour l’accompagnement des utilisateurs et des métiers. Elle répond aux questions fonctionnelles et techniques posées par les utilisateurs et aux escalades du support de niveau 2 O365. Elle valorise ces connaissances en rédigeant des consignes pour les supports et en communiquant au travers de contenus rédigés par le pôle Adoption sur les médias mis à disposition (portail O365 et communautés Viva Engage). Le cas échéant, elle escalade les incidents fonctionnels à Microsoft. Les incidents techniques (déploiement et automatisation des process) sont quant à eux escaladés à la MOE Poste de Travail. Elle suit le provisionning des licences M365 pour les différents profils (usages mobilité et bureautiques) et rationalise leur utilisation dans le cadre du programme Pilot’R (libération des licences dans les cas de sans ou peu d’usage). Elle optimise et simplifie les process de demande de service avec de l’automatisation et le portail ITSM afin d’améliorer l’expérience utilisateur. Elle élabore, met à disposition et maintient des tableaux de bord pour suivre l’activité du service et simplifier les process de facturation internes. 1.2 Description détaillée des tâches qui constituent la mission Dans le cadre de la prestation, le prestataire devra réaliser ou piloter la réalisation, sans que cela ne soit exhaustif, les tâches suivantes : - Représenter l’offreur sur différents projets liés aux évolutions des usages bureautiques (BYOD, IA, etc…), - Qualification des nouvelles versions M365 Apps - Pilotage des Offres Office & amélioration des processus (reporting et automatisation) - Suivi des déploiements & études diverses - Suivi du provisionning et rationalisation des licences clients riches (Pilot’R) - Participer à la comitologie du service - Ouvrir, contribuer au traitement, suivre et clôturer les demandes et tickets auprès de notre fournisseur et partenaire Microsoft - Suivre les incidents et les demandes de l’assistance de niveau 1 et 2 en tant qu’assistance de niveau 3 ainsi que des utilisateurs dans l’outil de ticketing - Participer aux études d’impacts des évolutions des services liés au changement des produits Microsoft 365 ; - Participer à l’automatisation des processus de l’équipe - Produire la documentation technique et fonctionnelle ou les consignes nécessaires aux supports
533 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous