L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 475 résultats.
Offre d'emploi
Security Data Engineer - Structuration Logs Cybersecurite
PSSWRD
Publiée le
Cybersécurité
Data Lake
Logstash
1 an
40k-45k €
500-700 €
Issy-les-Moulineaux, Île-de-France
Au sein de la direction cybersécurité d'un grand groupe international du secteur hôtelier, vous interviendrez en tant que Security Data Engineer pour structurer et optimiser l'ensemble de l'écosystème de logs de sécurité. Aujourd'hui, les logs proviennent de multiples sources et outils avec des formats hétérogènes, rendant leur corrélation et leur exploitation difficile. Votre mission sera d'inventorier l'ensemble des sources de logs, de définir une nomenclature unifiée et des pipelines de normalisation, d'organiser le stockage en distinguant le temps réel (SIEM Splunk) du stockage économique pour la conformité, et de proposer une architecture data cible intégrée a la démarche data globale de l'entreprise. Vous serez la personne référente sur la partie data au sein de l'équipe cyber, avec une forte autonomie et un rôle de force de proposition. Vos missions principales : ● Cartographier l'écosystème existant (outils, sources, cas d'usage) et proposer une architecture cible avec roadmap ● Créer un référentiel complet des sources de logs (volume, format, fréquence, qualité, valeur cyber) ● Définir et implémenter une normalisation unifiée des logs (Common Information Model) et les pipelines de transformation ● Optimiser la collecte : réduire le bruit, filtrer, enrichir (CTI, Threat Intelligence) et améliorer la qualité des données ● Collaborer avec les équipes SOC (temps réel), GRC (conformité/reporting) et les équipes data métier de l'entreprise ● Assurer le transfert de compétences et la formation des équipes a l'exploitation des logs et des outils
Mission freelance
Data Engineer / Architecte Data (GCP)
ESENCA
Publiée le
Architecture
Big Data
BigQuery
1 an
Lille, Hauts-de-France
Contexte Dans le cadre d’un projet à forte composante data, la mission consiste à développer et mettre en œuvre une architecture applicative avec un enjeu majeur de fiabilisation des modèles de calcul . Vous interviendrez au sein d’une équipe existante pour consolider, améliorer et industrialiser les solutions déjà en place , tout en contribuant à la montée en compétence collective. Missions Concevoir et faire évoluer l’ architecture applicative et data Développer et industrialiser les traitements et jobs data Réaliser les tests d’intégration et garantir la qualité des livrables Fiabiliser les modèles de calcul et les résultats produits Valider et assurer la robustesse des interfaces entre systèmes Rédiger et maintenir la documentation d’architecture Garantir la cohérence du système d’information : assurer la bonne communication entre les applications respecter les standards et l’architecture globale Participer à l’amélioration continue des solutions existantes Partager les connaissances et accompagner les équipes Livrables attendus Dossier d’architecture (documentation, validation de l’existant) Développements et création de jobs data Validation des interfaces et flux Documentation technique à jour Environnement technique Google Cloud Platform : Compute, BigQuery, Big Data Python GitHub Terraform Kafka Dataflow (souhaité) Soft skills Esprit analytique et rigoureux Sens du service et orientation client Capacité d’adaptation à des environnements évolutifs Esprit d’équipe et partage de connaissances Autonomie et proactivité Langues Français : professionnel (impératif) Anglais : lu et écrit (secondaire)
Offre d'emploi
Data Engineer Python / Scala / Cloud
Gentis Recruitment SAS
Publiée le
Apache Kafka
Apache Spark
API REST
12 mois
Paris, France
Contexte Dans le cadre du développement d’une Data Marketplace interne pour un grand groupe international du secteur de l’énergie, nous recherchons un Data Engineer expérimenté afin de renforcer une équipe produit data. La plateforme permet de centraliser l’ensemble du parcours data des utilisateurs : découverte de données, data quality, data governance, transformation de données, monitoring de pipelines et BI. Elle sera progressivement déployée auprès de plusieurs milliers d’utilisateurs dans un environnement international. Le consultant interviendra sur la conception et l’évolution des pipelines de données ainsi que sur l’optimisation de la qualité et de la performance des flux. Missions Développement et maintenance de pipelines de données en Python et Scala Conception et évolution d’une architecture data scalable et modulaire Gestion et optimisation des flux de données Mise en place de processus de data quality et validation des données Optimisation des performances des ingestions de données Participation aux rituels agiles et aux revues de code Documentation des choix techniques et de l’architecture Environnement technique Python Scala / Spark Cloud : AWS et Azure AWS : Lambda, Glue, Redshift, Step Functions, DynamoDB Streaming : Kafka, Kinesis, EventHub, EventGrid API REST Git CI/CD Big Data Architecture Connaissance de Langchain ou Langgraph appréciée.
Offre d'emploi
AI / Data Engineer – IA Générative & Databricks (Python / ML / AWS) – H/F
SMARTPOINT
Publiée le
IA Générative
Large Language Model (LLM)
Pandas
1 an
50k-60k €
400-550 €
Île-de-France, France
Dans le cadre du développement de projets data innovants, nous recherchons un AI / Data Engineer spécialisé en Intelligence Artificielle Générative (H/F) . Vous interviendrez sur la conception et la mise en œuvre de solutions data avancées , avec un focus sur la plateforme Databricks et sur des cas d’usage en IA Générative (LLM, RAG, fine-tuning) . Votre rôle consistera à accompagner les équipes dans le cadrage, le développement et la mise en production de modèles d’intelligence artificielle , tout en contribuant à l’industrialisation des solutions et à l’évolution des plateformes data. Conseil et cadrage des cas d’usage IA Accompagner les équipes dans l’identification et le cadrage de cas d’usage data et IA Générative Conseiller sur les choix d’architecture, de modèles et de stratégies RAG ou fine-tuning Participer à la définition de solutions innovantes sur la plateforme Databricks Conception et développement de modèles IA Développer des modèles de Machine Learning et Deep Learning Concevoir des solutions basées sur LLM et architectures Transformers Implémenter des cas d’usage d’ IA Générative (RAG, fine-tuning, prompt engineering) Collecte et préparation des données Collecter, nettoyer et transformer les données nécessaires à l’entraînement des modèles Réaliser des analyses exploratoires et préparer les datasets pour l’entraînement Industrialisation et MLOps Mettre en production les modèles d’intelligence artificielle Mettre en place des processus de monitoring et de maintenance des modèles Contribuer à l’industrialisation des pipelines data et des modèles IA
Mission freelance
Data Engineer – Scala / Spark - Solution digitale - Paris (H/F)
EASY PARTNER
Publiée le
Apache Airflow
Apache Kafka
Apache Spark
1 an
400-500 €
Paris, France
Contexte Dans le cadre du renforcement de ses équipes data, un acteur du secteur digital recherche un Data Engineer pour intervenir sur des problématiques de traitement et d’exploitation de données à grande échelle. Missions Concevoir et maintenir des pipelines de données (batch & streaming) Gérer l’ingestion, la transformation et la qualité des données Développer sur des environnements Big Data (Spark, Kafka) Mettre en place et optimiser les workflows (Airflow) Participer à l’industrialisation des traitements (CI/CD) Collaborer avec les équipes Data, DevOps et métiers Stack technique • Scala / Python / SQL avancé Spark / PySpark, Kafka Airflow (ETL / orchestration) Cloud : Azure et/ou AWS Git, CI/CD
Mission freelance
Senior Windows System Engineer
Gentis Recruitment SAS
Publiée le
Active Directory
Windows Server
6 mois
Luxembourg
Dans le cadre du renforcement de l’équipe en charge de la coordination des projets techniques au sein d’un établissement financier basé au Luxembourg, nous recherchons un Senior Windows System Engineer . Le consultant interviendra sur des infrastructures Windows Server critiques, hautement disponibles, soumises à des exigences strictes en matière de sécurité, performance, conformité réglementaire et respect des SLA. La mission s’inscrit dans un environnement de production sensible nécessitant rigueur, autonomie et capacité à évoluer dans des architectures complexes. 1. Compétences générales Minimum 8 ans d’expérience professionnelle en environnement IT Excellente capacité d’intégration et fort esprit d’équipe Autonomie et sens des responsabilités Esprit d’initiative et aptitude à gérer plusieurs sujets en parallèle Polyvalence, rigueur et organisation Bonne communication écrite et orale Forte capacité d’analyse et de résolution de problèmes Expérience en environnement critique (secteur financier ou similaire, SLA élevés, fortes exigences qualité) Respect des procédures et des standards en place Capacité de rédaction de documentation technique et transfert de connaissances Maîtrise du français et de l’anglais (la connaissance du luxembourgeois est un atout) 2. Compétences techniques requises Expertise confirmée sur Windows Server (2016, 2019, 2022 et versions récentes) Maîtrise avancée de PowerShell (scripting, automatisation, industrialisation) Très bonnes connaissances des technologies Microsoft : Windows Failover Cluster Active Directory ADFS ADCS Solide expertise en sécurisation des environnements Microsoft (hardening, best practices, conformité) Expérience en gestion ou coordination de projets techniques 3. Compétences techniques complémentaires (atout) Environnements VMware et solutions VDI Bonnes bases en réseaux (DNS, proxy, firewall, load balancing…) Connaissance d’applications métiers du secteur financier Outils de gestion de projet (ex. MS Project ou équivalent) 4. Profil & organisation Profil technique senior avec capacité de prise de recul Autonomie dans la planification et la gestion des tâches Capacité à coordonner des travaux transverses Présence majoritairement sur site (jusqu’à 5 jours/semaine selon besoins) Télétravail possible mais limité Horaires flexibles entre 07h00 et 19h00 avec plage de présence obligatoire 09h00–16h00 5. Mission principale Le consultant aura pour responsabilités : Participation active aux projets techniques (et gestion de mini-projets) Collaboration au sein d’une équipe pluridisciplinaire (Windows, virtualisation, sécurité, applications, troubleshooting avancé…) Amélioration, fiabilisation et automatisation des infrastructures Traitement des incidents et demandes de niveau 3 Rédaction et mise à jour de la documentation technique Transfert de connaissances vers les équipes de niveau 2
Offre d'emploi
Cloud Platform Engineer GCP
KLETA
Publiée le
GitLab CI
Google Cloud Platform (GCP)
Terraform
3 ans
Paris, France
Nous recherchons un Cloud Platform Engineer GCP pour concevoir, construire et faire évoluer une plateforme cloud moderne, sécurisée et hautement automatisée. Vous serez en charge du développement de modules Terraform réutilisables, de la standardisation des pipelines CI/CD et de l’optimisation des processus de déploiement sur GCP. Vous travaillerez sur l’automatisation du provisioning des ressources (réseau, IAM, GKE, Cloud Storage, observabilité) et sur l’amélioration de l’expérience des équipes applicatives. En collaboration avec les équipes SRE et DevOps, vous contribuerez à la mise en place de mécanismes de fiabilité, de résilience et d’observabilité (Cloud Monitoring, Logging, Alerting). Vous participerez également à la définition des standards d’architecture et de gouvernance cloud, en veillant à la conformité et à la maîtrise des risques. Enfin, vous serez impliqué dans l’analyse des incidents, l’optimisation des performances et la documentation des bonnes pratiques.
Offre d'emploi
Founding Engineer JS (Fullstack / AI Product) - Insurtech - Paris
EASY PARTNER
Publiée le
AWS Cloud
Node.js
React
60k-75k €
Paris, France
Premier ingénieur de l’entreprise. Tu travailleras directement avec le CTO et tu seras impliqué(e) tout au long du cycle de vie du produit : architecture, développement, prise de décision technique et préparation à la production. Il s'agit d'un rôle opérationnel à fort impact, avec une grande autonomie et une réelle influence sur l'orientation technique de l'entreprise. Missions principales Product & Engineering Concevoir et développer les fonctionnalités cœur du produit à travers les agents d'IA, les flux de travail et les intégrations. Transformer des idées produit en systèmes prêts pour la production Participer aux décisions d’architecture, et assumer la responsabilité des choix en tenant compte de l'évolutivité, de la sécurité et de la conformité. AI & systèmes de production Concevoir et faire évoluer des pipelines d'IA (LLM, RAG, systèmes à base d'agents) pour des cas d'utilisation réels et réglementée Garantir la fiabilité, la traçabilité et l'explicabilité des résultats de l'IA en production Optimiser les performances, les coûts et la qualité à mesure que la plateforme évolue Ownership technique Construire et gérer des systèmes scalables et robustes de A à Z, de la conception à la production, en mettant l'accent sur la qualité, la fiabilité et l'évolutivité. Assurer le support des déploiements en production chez les clients soumis à la réglementation et anticiper les défis liés à l'industrialisation Participer aux décisions techniques fondamentales et contribuer à façonner la manière dont l'ingénierie est réalisée (processus, normes, outillage). Stack technique Notre pile technologique est conçue pour prendre en charge les flux de travail axés sur l'IA , une fiabilité de niveau entreprise et les contraintes réglementaires européennes . Côté serveur et côté client : TypeScript, , React/ Infrastructure : AWS (serverless, managed services) Données et IA : LLMs, RAG, agent-based systems, document processing, hybrid search Intégrations : Microsoft 365, CRM, insurer systems, secure APIs
Mission freelance
Security Engineer GCP
Cherry Pick
Publiée le
Google Cloud Platform (GCP)
IAM
Sécurité informatique
12 mois
580-600 €
Paris, France
En quelques mots Cherry Pick est à la recherche d'un "Security Engineer GCP" pour un client dans le secteur de la grande distribution spécialisé Description 🏢 Le Contexte : Vous rejoignez le domaine Cloud Platform Engineering (CPE) , une organisation transverse de près de 200 personnes lancée en 2020 pour construire les fondations technologiques du Groupe. L'objectif de la CPE est de rationaliser le catalogue technique et de fournir des services « clé en main » (Réseaux, Observabilité, FinOps) aux équipes applicatives pour accélérer le développement de nouvelles fonctionnalités. Au sein de ce domaine, la sécurité est un axe stratégique permanent. 🎯 Vos Missions : Stratégie, Architecture et Résilience En lien direct avec le Security Officer du domaine et l’équipe United Security, vous portez la posture de sécurité sur les périmètres Infrastructure et Réseau. 1. Vision & Gouvernance : Définir la vision et la stratégie à moyen et long terme de la sécurité réseau du Groupe. Animer la définition, la communication et l'application des politiques de sécurité. Définir et piloter les indicateurs de sécurité pour donner une visibilité globale sur votre périmètre. 2. Architecture & Projets : Co-construire les solutions techniques au sein des comités d’architecture pour garantir la prise en compte des exigences de sécurité dès la conception. Intégrer les actions de sécurisation dans les roadmaps des responsables produits. Accompagner les équipes opérationnelles dans la mise en œuvre des actions de hardening et de sécurisation. 3. Opérations & Résilience : Garantir la résilience des produits réseaux face aux enjeux métiers. Identifier les risques sur votre périmètre et assurer le suivi de leur traitement avec les parties prenantes. Animer la résolution des incidents de sécurité et piloter les plans d'action post-incident. 4. Sensibilisation & Veille : Porter la culture sécurité, risque et conformité au sein de votre BU et favoriser les bonnes pratiques. Assurer une veille permanente pour identifier les nouvelles vulnérabilités et proposer des solutions technologiques innovantes.
Offre d'emploi
Architecte web - Ingénieur IA / LLM Engineer
VISIAN
Publiée le
IA Générative
Large Language Model (LLM)
3 ans
50k-55k €
500-550 €
Montpellier, Occitanie
Contexte Dans le cadre du développement d’une solution interne basée sur l’IA générative, une organisation souhaite renforcer son équipe technique afin de concevoir et faire évoluer un socle cognitif intégrant des modèles de langage (LLM). L’objectif est de développer et industrialiser une plateforme IA interne permettant de proposer différents modules à valeur ajoutée autour de l’IA générative, tout en garantissant un haut niveau de sécurité et de robustesse. Missions • Concevoir et développer des modules d’IA générative intégrés à une solution interne (RAG, génération automatisée de présentations, web grounding, etc.) • Participer à la construction et à l’évolution d’un socle cognitif et d’un système de chat basé sur des LLM • Développer de nouvelles fonctionnalités à forte valeur ajoutée pour la plateforme IA interne • Mettre en place et suivre les expérimentations liées aux modèles IA et aux pipelines de traitement de données • Contribuer à l’architecture technique et à l’urbanisation de la solution IA • Accompagner les équipes dans l’industrialisation et la mise en production des modules développés • Garantir la qualité, la performance et la sécurité des développements Environnement technique • Cloud : AWS • Langages : Python • Data & IA : TensorFlow, scikit-learn, pandas, NumPy, PySpark, PyKrige • Bases de données : NoSQL, MySQL • Conteneurisation / orchestration : Kubernetes • Outils de qualité et sécurité du code : SonarQube, Checkmarx, JFrog Xray, OWASP Dependency Check
Mission freelance
[SCH] Expert dbt - Data Engineer ELT - 1353
ISUPPLIER
Publiée le
10 mois
400-450 €
Vélizy-Villacoublay, Île-de-France
Dans le cadre d’une initiative groupe de modernisation et standardisation des transformations de données, le client cherche un Data Engineer expérimenté dbt pour soutenir la mise en place d’une plateforme dbt (industrialisation, bonnes pratiques, pipelines robustes et scalables) dans un contexte international (anglais fluent). Mission : -Définir et déployer les best practices dbt (standards de dev → déploiement) avec le responsable technique ELT. -Contribuer à l’architecture ELT (stratégie, modèle, gouvernance d’intégration des données). -Capturer le besoin : faisabilité technique, estimation de charge, rédaction spécifications techniques. -Concevoir et développer les jobs dbt (connecteurs/implémentation), assurer déploiement, UAT, documentation. -Assurer le support technique : optimisation, configuration, MCO, audits de jobs, amélioration continue. -Piloter l’analyse de gaps et accompagner la migration des solutions existantes vers dbt. -Animer formation / transfert de connaissances et contribuer à la communication (communauté ELT, présentations). -Co-définir stratégie de logging et gestion d’événements. Profil attendu : -Expert dbt capable de définir des standards et d’industrialiser une plateforme (dev, tests, déploiement). -À l’aise pour co-construire une architecture ELT et des modèles de données (gouvernance, conventions). -Capable de faire du support/MCO dbt (optimisation perf, configuration, audit, fiabilisation). -Expérience migration/standardisation à l’échelle groupe (gap analysis, inner source, diffusion bonnes pratiques). -Capable d’estimer, rédiger des spécifications, documenter et former. -Anglais fluent (workshops, formation, communautés internationales).
Mission freelance
Data Engineer Niort Buisness Object,Optimisation SQL, TABLEAU,DATAIKU
WorldWide People
Publiée le
Business Object
12 mois
400-460 €
Niort, Nouvelle-Aquitaine
Data Engineer Niort Buisness Object,Optimisation SQL, TABLEAU,DATAIKU La mission consiste à contribuer à la structuration, l’industrialisation et la valorisation de la donnée au sein d’une équipe dédiée, afin de soutenir une transformation data ambitieuse et d’améliorer de manière continue la fiabilité et la performance des traitements. Elle vise à concevoir, organiser et optimiser les flux de données, en garantissant que chaque chaîne d’alimentation et chaque modèle produit s’inscrivent dans une démarche cohérente, durable et alignée avec les besoins métiers. Le rôle repose sur la capacité à bâtir des pipelines robustes et industrialisés, à modéliser des structures de données adaptées, et à assurer une qualité irréprochable sur l’ensemble du cycle de vie de la donnée. Une attention particulière est portée à la standardisation des pratiques, à la réduction de la dette technique et à la bonne intégration des données dans les outils d’analyse et de visualisation. La mission implique également de challenger les solutions existantes, d’identifier des axes d’optimisation et de proposer des architectures ou processus plus performants, notamment en matière d’automatisation et de gouvernance. Elle s’inscrit dans un objectif global d’amélioration continue : sécuriser les traitements, fiabiliser les décisions métier, fluidifier les interactions entre les équipes impliquées et transformer les contraintes opérationnelles en leviers de performance durable.
Mission freelance
Data Engineer Snowflake (Lyon)
SQLI
Publiée le
Snowflake
1 an
400-500 €
Lyon, Auvergne-Rhône-Alpes
Bonjour, Pour le compte de l'un de mes clients dans le secteur de l'électroménager, je suis à la recherche d'un Data Engineer Snowflake. Son rôle : Participer à des ateliers d’analyse des besoins avec les partenaires commerciaux (finances, ventes, achats, etc.) Suggérer & construire des architectures techniques adaptées, en se concentrant sur la fiabilité ainsi que les performances Développer & maintenir des flux de données, notamment dans le contexte de migration vers Snowflake Optimiser les performances des applications existantes et assurer une documentation approfondie
Mission freelance
Data Engineer Semarchy ou stambia xDI Full remote ASAP
WorldWide People
Publiée le
Semarchy
6 mois
330-350 €
France
Data Engineer Semarchy ou stambia xDI Full remote ASAP Missions Développer et industrialiser les flux Data Integration avec Semarchy xDI. Assurer la qualité, la fiabilité et la gouvernance des données. Automatiser les traitements (CI/CD, DataOps) et collaborer avec les équipes IA et Data Science. Participer aux rituels Agile et rédiger la documentation technique. Profil Bac+5 en informatique / Data, 3 à 5 ans d’expérience en Data Engineering. Maîtrise Semarchy xDI , SQL avancé, Python/Java, ETL/MDM, Git, Docker, Kubernetes. Connaissance des bases SQL / NoSQL et orchestration (Kafka, Airflow…). Autonomie, travail en équipe, force de proposition.
Offre d'emploi
Staff Engineer Python - Telecom - Paris H/F
EASY PARTNER
Publiée le
FastAPI
Python
SQL
12 mois
70k-90k €
550-650 €
Paris, France
Missions Principales Prendre le leadership technique du backend de notre système d'information. Comprendre et optimiser les processus métiers complexes comme la facturation tierce et le raccordement à la fibre. Définir et piloter avec l'équipe l'architecture de notre système distribué. S'engager dans du développement "hands on" avec Python et assurer la qualité et résilience du code. Annexes Initier et renforcer les bonnes pratiques de développement et de mise en production. Proposer et implémenter des méthodes d’exploitation qui permettront aux équipes de développement d’opérer efficacement en production.
Mission freelance
Consultant Python (Software Engineer Applied) PostgreSQL - AWS - Airflow
Celexio
Publiée le
AWS Cloud
Bash
CI/CD
6 mois
400-600 €
Paris, France
Dans le cadre d'une migration de GCP à AWS, nous recherchons un ingénieur cloud senior pour accompagner ntore client. Voici les missions : Concevoir, construire et maintenir des pipelines de données de niveau production qui alimentent les indicateurs et modèles. Industrialiser les prototypes de recherche de l'équipe en systèmes de production fiables et évolutifs. Construire et maintenir des services backend exposant des indicateurs et des produits de données. Assumer la responsabilité du cycle de vie des systèmes que vous construisez, y compris l'infrastructure, le déploiement et la surveillance, en collaboration avec les Ingénieurs Ops. Exploiter et maintenir les pipelines et les services en production , y compris le débogage, la résolution d'incidents et les améliorations de performances. Participer à la migration de GCP vers AWS et contribuer au démantèlement progressif des anciens pipelines et de l'infrastructure. Garantir la qualité, la fiabilité et la reproductibilité des données à travers les pipelines et les services. Travailler en étroite collaboration avec les économistes, les scientifiques et les Ingénieurs Ops pour assurer la livraison fluide de nouveaux indicateurs et modèles en production. Améliorer l'expérience développeur, la documentation et les outils internes pour rendre les systèmes plus faciles à exploiter et à maintenir.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
475 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois