L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 1 994 résultats.
Offre d'emploi
Data engineer
Gentis Recruitment SAS
Publiée le
ETL (Extract-transform-load)
microsoft
Modélisation
6 mois
40k-64k €
550-800 €
Luxembourg
Data Engineer orienté gestion de la donnée , capable de prendre en charge la donnée de bout en bout : de son arrivée jusqu’à son exploitation, en garantissant sa qualité, sa cohérence et sa performance. Le poste s’inscrit dans un environnement majoritairement Microsoft , avec des enjeux forts autour de la structuration, de l’analyse et de la modélisation des données . Missions principales Gérer la donnée tout au long de son cycle de vie (ingestion, transformation, stockage, exploitation). Concevoir, maintenir et optimiser des data pipelines fiables et performants. Organiser et structurer les données via des modèles de données clairs et adaptés aux usages métier. Participer à des activités de data analysis pour assurer la qualité et la cohérence des données. Automatiser les traitements et flux de données via du scripting Python . Collaborer étroitement avec les équipes techniques et métiers , dans une logique transverse, afin de comprendre et répondre aux besoins liés à la donnée. Veiller aux bonnes pratiques de gouvernance, de sécurité et de performance des données. Environnement technique Écosystème Microsoft (bases de données, outils data, cloud) Python (scripting, automatisation, traitement de données) Data pipelines / ETL – ELT Modélisation de données SQL Une connaissance de l’industrie des fonds / de la gestion d’actifs constitue un réel avantage.
Offre d'emploi
CHEF/DIRECTEUR de projets Sécurité - DLP & DATA PROTECTION - N3
KEONI CONSULTING
Publiée le
Big Data
Cybersécurité
Pilotage
18 mois
20k-60k €
100-600 €
Toulouse, Occitanie
CONTEXTE Objectif global : Piloter les chantiers du programme de sécurité Contrainte forte du projet : Le programme de sécurité est le plan stratégique Cyber du Groupe Le département DAS - Protection de la données de la Direction Sécurité recherche un chef de projet sécurité de formation ingénieur ou équivalente pour l'accompagner dans le delivery du chantier DLP & DATA PROTECTION du programme Cybersécurité . La mission s'inscrit dans la gouvernance globale du programme de Cybersécurité du groupe . MISSIONS Les principales activités seront les suivantes : - Organisation et animation des ateliers et des comités de pilotages avec les différents interlocuteurs du projet (Management, Direction Sécurité Groupe, établissement et filiales) - Gestion des planning et mise à jour de la roadmap - Pilotage du déploiement des différents programme dans les établissements - Support aux Product Owner et animation des rituels AGILE (Scrumaster) - Production des indicateurs et tableaux de bord de suivi de l'activité. Pour remplir cette mission les compétences suivantes sont demandées: - Gestion de projet Cybersécurité dans des environnement complexe - Expérience des méthodologie AGILE SCRUM et expérience Scrumaster - Bonnes connaissances en Cybersécurité et en particulier sur les risques associés aux métiers de la DATA - Compétences fonctionnelles et techniques sur les sujets Data Protection - Capacité à leader les ateliers sécurité si nécessaire et à présenter les bonnes informations aux comités de direction pour arbitrage. - Capacité à travailler en toute autonomies et sur de multiples sujets en parallèles. Les livrables sont - Pilotage du déploiement des différents programme dans les établissements - Gestion des planning et mise à jour de la roadmap - Production des indicateurs et tableaux de bord de suivi de l'activité. Compétences techniques Gestion de projet Cybersécurité - Confirmé - Impératif Connaissance métiers autour de la DATA - Confirmé - Important Travailler en toute autonomies - Confirmé - Important Connaissances linguistiques Anglais Professionnel (Impératif)
Mission freelance
DBA ElasticSearch / Data Platform (H/F)
Link Consulting
Publiée le
Elasticsearch
6 mois
450-550 €
94360, Bry-sur-Marne, Île-de-France
Notre client, acteur du secteur audiovisuel, est à la recherche de son futur DBA ElasticSearch / Data Platform (H/F) pour son site de Bry-sur-Marne, dans le cadre d’un projet stratégique de structuration et d’optimisation de son infrastructure data. Vos missions : Intégré à une équipe technique orientée data et infrastructure, vous devrez : Réaliser des POC autour de clusters ElasticSearch ou OpenSearch Déployer et intégrer ces solutions dans un environnement Kubernetes Mettre en œuvre des solutions de stockage objet (type S3) Participer à l’évaluation et à l’intégration d’Apache Iceberg Automatiser les déploiements via Ansible Contribuer à la mise en place d’une architecture data scalable et performante Apporter des recommandations techniques et bonnes pratiques Les compétences techniques ElasticSearch ou OpenSearch Kubernetes et Docker Apache Iceberg (idéalement) Ansible (automatisation) Stockage objet (S3 ou équivalent) Connaissances en Data Lake / architectures distribuées
Mission freelance
Data Engineer/Analyst GCP
Deodis
Publiée le
Google Cloud Platform (GCP)
6 mois
400-500 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Mission sur site Aix en Provence, télétravail 2 jours / semaine Contexte : Renforcement d'une équipe projet chargée de migrer des rapports Power BI et des flux SSIS vers GCP Description: • Migrer les flux de données SSIS existants vers des pipelines GCP orchestrés avec Cloud Composer (Airflow) • Réécrire et industrialiser les transformations de données avec dbt sur BigQuery • Collaborer à la migration des rapports Power BI et à l'adaptation des modèles de données sous-jacents • Garantir la qualité des données : tests, documentation, lineage dbt • Contribuer à la modélisation et à l'architecture du data warehouse BigQuery • Travailler en mode agile avec les équipes métier et data pour prioriser les flux à migrer
Offre d'emploi
Consultant Data Python, SQL et SAS H/F
Proxiad
Publiée le
Python
SAS
SQL
Île-de-France, France
• Contexte de la mission : Besoin pour l’un de nos client issu du secteur de l'assurance. Migration de programmes et requêtes SAS en Python. La solution SAS utilisée chez ce client ne va plus être utilisée, il est donc nécessaire de migrer toutes les requêtes existantes pour poursuivre l'exploitation des données et la production des différents rapports nécessaires. L'objectif est de faire une migration "à l'identique". • Tâches à réaliser : Recenser l'ensemble des requêtes SAS existantes Recensement à priori fait mais à revoir avec les équipes en place Analyser chaque requête SAS Comprendre l’objectif de la requête et les KPIs calculés Identifier les règles métier appliquées aux calculs Valider la fréquence de la requête Interagir avec les métiers Suite à l’analyse des requêtes SAS, des réunions avec les utilisateurs métiers seront éventuellement nécessaire pour préciser, confirmer ou ajuster les règles de calcul pour chaque requête Concevoir la requête en Python Développer la requête en code python Tester la requête en comparant aux résultats obtenus sous SAS pour valider l’isorésultat Documenter le nouveau code
Mission freelance
Data Engineering (IA/ML)
Deodis
Publiée le
MLOps
1 an
650 €
Île-de-France, France
Le poste consiste à intervenir en tant qu’expert senior en Data Engineering spécialisé en IA/ML au sein d’un environnement Big Data et cloud à forte volumétrie. La mission porte sur l’optimisation, l’industrialisation et la montée en charge de plateformes Data et IA utilisant notamment Spark, Kubernetes, Dagster et Trino. Le profil recherché doit être capable d’améliorer les performances des pipelines de données, structurer les pratiques techniques, accompagner les équipes Data Science et développement, mettre en place des solutions de monitoring et de scalabilité, ainsi que participer à des projets d’innovation autour des architectures Data/IA et des outils MLOps.
Mission freelance
Business Analyst / AMOA DATA Senior (H/F)
PREREQUIS
Publiée le
Informatica
SAP BI
SQL
3 mois
La Courneuve, Île-de-France
Nous recherchons pour un de nos clients un Business Analyst / AMOA DATA Senior – Projet décisionnel & refonte SI. Missions : • Le recueil des besoins métiers • L’animation d’ateliers fonctionnels • La rédaction des spécifications fonctionnelles générales et détaillées • La modélisation des processus métiers • La conception des modèles de données • L’analyse d’impacts • La rédaction des user stories sous Jira • La stratégie de recette et scénarios de tests • Le suivi des anomalies • L’accompagnement des utilisateurs métiers • La réalisation de maquettes et rapports utilisateurs • Le support fonctionnel et décisionnel. Environnement technique • SAP BI • Power BI • SQL / Oracle • Jira • Squash • WebServices • Environnement décisionnel BI • Datawarehouse / référentiels
Offre d'emploi
Data Engineer, Azure Databrick (H-F)
K-Lagan
Publiée le
Azure
Big Data
Databricks
1 an
40k-45k €
400-550 €
Niort, Nouvelle-Aquitaine
🚀 Et si votre prochain projet faisait grandir vos compétences autant que votre carrière ? Chez K-LAGAN , nous faisons vivre chaque projet grâce aux talents qui le portent, en alliant expertise technique , innovation et accompagnement personnalisé . Aujourd’hui, nous recherchons un·e Data Engineer / ML Engineer (F/H) pour rejoindre l’un de nos clients, dans un environnement data moderne et en pleine transformation, basé à Niort . 🔍 Contexte Vous interviendrez au sein d’une équipe data pour contribuer à la construction et à l’industrialisation de pipelines Data/ML , avec pour objectif de transformer des prototypes de data science en solutions robustes et scalables en production .
Offre d'emploi
Data Engineer Confirmé / Senior
CAT-AMANIA
Publiée le
Apache Kafka
Apache Spark
Batch
1 an
Rennes, Bretagne
Dans le cadre des travaux à réaliser, nous recherchons un profil Data Engineer confirmé / senior : Participer à la définition de l'architecture Data Concevoir, Affiner et Développer les solutions de collecte et de stockage des données (provenant de multiples sources) afin de le rendre disponibles pour les usages métiers Mettre en œuvre les tests unitaires et automatisés Déployer le produit dans les différents environnements Garantir le bon fonctionnement du produit en production et assurer le suivi / l'assistance / la gestion des incidents Accompagner l’évolution des pratiques de l’équipe dans une logique d’amélioration continue de la qualité du code
Mission freelance
Tech Lead Data – Snowflake et Modern Data Stack (H/F)
Lùkla
Publiée le
Snowflake
1 an
Lyon, Auvergne-Rhône-Alpes
Dans le cadre du développement de sa plateforme data, nous recherchons un Tech Lead Data pour piloter la conception et l’évolution d’une Modern Data Stack performante et scalable. Vos missions Définir et piloter l’architecture data basée sur Snowflake Mettre en place les standards de modélisation, gouvernance et sécurité Structurer les pipelines d’ingestion et de transformation (dbt, Fivetran) Déployer les bonnes pratiques d’industrialisation (CI/CD, tests, qualité) Optimiser la performance et les coûts de la plateforme (FinOps) Encadrer techniquement les équipes data et accompagner leur montée en compétence Contribuer à la roadmap data et aux sujets d’innovation (IA notamment) Environnement technique Snowflake dbt Fivetran Power BI Azure DevOps
Mission freelance
Business Data Analyst MDM - Customer Domain
Zenith Rh
Publiée le
6 mois
Nord, France
Nous recherchons pour notre client, un(e) Consultant Senior Business Data Analyst MDM, pour une mission en freelance au sein d'un groupe international leader dans son domaine. Dans le cadre du lancement d'un programme stratégique de Master Data Management (MDM) portant sur le domaine "Client", notre client souhaite structurer et documenter ses actifs de données avant la phase de déploiement. Rattaché(e) directement au Customer Data Owner et au Group Customer Data Steward, votre rôle sera d'apporter un soutien opérationnel et analytique pour transformer les besoins métiers en modèles de données exploitables. Les enjeux sont majeurs : définir un modèle de données cible harmonisé, établir des règles de gouvernance robustes et garantir la qualité des données à l'échelle internationale. 🚀 Vos principales responsabilités incluent : 🔹 La définition et la documentation du modèle de données (objets métiers, attributs clés, définitions). 🔹 L'identification des Critical Data Elements (CDE) et des attributs MVP pour le futur outil MDM. 🔹 La préparation et l'animation d'ateliers avec les parties prenantes métiers pour recueillir les besoins et spécificités locales. 🔹 La formalisation des règles de cycle de vie des données (création, validation, enrichissement). 🔹 La contribution aux volets métiers de l'appel d'offres (RFP) en cours.
Mission freelance
Data Scientist IA / NLP
ALLEGIS GROUP
Publiée le
Data science
1 an
Île-de-France, France
Suite à la mise en production d’une solution de relation client basée sur l’IA (Speech-to-Speech) , Le Client lance le déploiement à grande échelle de cette solution sur plusieurs canaux digitaux, dans une logique d’ industrialisation . Dans ce cadre stratégique, il souhaite renforcer ses équipes Data afin d’accompagner deux chantiers majeurs : Amélioration et industrialisation du monitoring Mise en place de Test Ops avancés , incluant la création d’une Test Case Factory “IAisée” : Génération automatique de scénarios de tests Approche Data Science pour valider chaque nouvelle version Garantir la robustesse et la performance des solutions déployées Plusieurs Data Scientists sont recherchés pour scaler aux côtés des équipes . MISSIONS : Concevoir et améliorer les dispositifs de monitoring des solutions IA en production Définir et implémenter une usine de tests automatisés basée sur l’IA Travailler sur des problématiques de texte et de langage (Speech, NLP, LLM, agents intelligents) Collaborer étroitement avec les équipes Produit, Tech et Data dans un contexte d’industrialisation
Offre d'emploi
Data Quality Analyst h/f
Ela Technology
Publiée le
Alteryx
Batch
ETL (Extract-transform-load)
6 mois
Seine-Saint-Denis, France
🎯 Contexte & Enjeux Dans le cadre d’un programme de transformation d’envergure autour des processus KYC , une équipe dédiée à la qualité des données intervient au cœur du dispositif pour sécuriser la migration vers un outil cible commun et garantir l’intégrité des données entre plusieurs systèmes historiques. L’enjeu est double : accompagner les déploiements tout en assurant une continuité opérationnelle sans rupture , dans un environnement international et fortement industrialisé. Suite à un départ à la retraite programmé en milieu d’année , une mission clé est ouverte afin d’assurer la reprise, la stabilisation et l’évolution des processus existants. 🚀 Mission Au sein de l’équipe Data Quality, vous êtes garant(e) de la fiabilité des données , du bon déroulement des réconciliations et de la continuité de la chaîne de valeur , depuis les systèmes legacy jusqu’à la solution cible. Votre mission s’articule autour de deux piliers équilibrés : 🧩 50 % Développement | ⚙️ 50 % Production & Pilotage opérationnel Vos responsabilités principales Qualité & Migration des données Piloter les réconciliations quotidiennes , en mode run the business , pour assurer un flux de données continu. Piloter les réconciliations hebdomadaires , préparer et suivre les indicateurs de performance (KPI) . Superviser les processus de bulk permettant la remédiation des données dans l’outil cible. Garantir la conformité des données migrées tout au long du programme. Développement & Maintenance Maintenir, faire évoluer et sécuriser un socle VBA existant (lecture, débogage, amélioration, mises en production). Assurer la stabilité et la traçabilité des évolutions de code. Environnement collaboratif Assurer l’ administration et la migration de SharePoint vers la version Online : Organisation documentaire Gestion des accès et permissions Migration des environnements et livrables. Gouvernance & Continuité opérationnelle Être le/la garant(e) de la rigueur opérationnelle , du respect des SLA et des processus. Veiller à ne jamais interrompre l’activité des Task Forces internationales (Inde & Portugal). Documenter les procédures et accompagner la structuration des processus pérennes vers l’architecture cible.
Offre d'emploi
Analyste DLP - H/F
AMD Blue
Publiée le
Big Data
Cybersécurité
Data analysis
3 ans
43k-45k €
360-410 €
Île-de-France, France
Qui sommes-nous ? Chez AMD Blue, l'innovation est notre passion, et nous sommes fiers de présenter Blue Cyber. Avec une présence établie sur l'ensemble du territoire français et une récente expansion aux États-Unis, nous sommes résolument tournés vers l'avenir. Dans le cadre d’un besoin client, nous avons l'opportunité d'accueillir un nouveau membre au sein de notre Tribu Cyber . Contexte de la mission : Notre client recherche un(e) Analyste DLP pour accompagner l'équipe dans la sécurisation des données, la réalisation d'analyses opérationnelles et l'optimisation des systèmes de surveillance. Descriptif de la mission : Les missions sont : Évaluation et analyse des événements générés par le contrôle DLP (niveau 1) selon des critères prédéfinis. Révision quotidienne des événements et escalade vers les niveaux 2 pour analyse complémentaire. Identification des points faibles du système de surveillance via l'analyse des problèmes de sécurité. Communication avec le responsable du contrôle sur la détection et la revue des règles spécifiques. Proposition de bonnes pratiques et de solutions de classification pour optimiser la détection. Réalisation du suivi hebdomadaire de l'activité et de la performance. Participation à des projets de sécurité transverses. Réalisation des premières investigations en niveau 2 pour confirmer et évaluer les fuites de données. Participation à la sensibilisation des collaborateurs aux bonnes pratiques de sécurité.
Offre d'emploi
Candidature spontanée - Freelance Data Engineer – Cloud & Data Platform
█ █ █ █ █ █ █
Publiée le
Apache Kafka
Apache Spark
BigQuery
Île-de-France, France
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Offre d'emploi
Data Engineer IA
Craftman data
Publiée le
DevOps
Docker
Github
6 mois
40k-45k €
390-540 €
Île-de-France, France
Maintien en condition opérationnelle et industrialisation du Portail Multi‑IA Générative dans un contexte multi‑environnements (On‑Premise, GCP, cloud de confiance à venir). Mise en œuvre et optimisation des chaînes CI/CD (GitLab), de l’Infrastructure as Code (Terraform) et de l’automatisation des déploiements. Contribution à la sécurité, conformité et observabilité des usages IA générative (IAM, secrets, logs, metrics, traces, FinOps). Mise en place et exploitation des pratiques LLMOps : observabilité LLM, évaluations continues (qualité, sécurité, coûts), guardrails et HITL. Conception et préparation de la V2 du Portail IA (architecture cible, HLD/LLD, migration). Support technique N2/N3, analyse et résolution d’incidents, assistance aux mises en production. Production de la documentation technique (runbooks, playbooks, architectures) et transfert de compétences vers les équipes internes.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
1994 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois