Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 1 229 résultats.
CDI

Offre d'emploi
Data Engineer (H/F)- AWS, Scala, Spark

Publiée le
Apache Spark
AWS Cloud
Microsoft SQL Server

40k-55k €
Île-de-France, France
Télétravail partiel
Contexte Dans le cadre d’un programme de transformation DATA, l’objectif est de doter l’entreprise d’outils permettant une exploitation avancée des données pour des prises de décisions optimisées. Ce programme impacte à la fois les technologies utilisées, l’organisation et les processus internes. Les projets en cours sont variés et incluent : L’optimisation des algorithmes de recommandation et segmentation ; Le développement d’un Feature Store pour la gestion des données ; La modernisation des flux financiers et des plateformes de contenu ; La mise en place d’architectures Big Data traitant plus de 100 To de données par jour ; Le partage d’informations clients avec des partenaires stratégiques. Missions : Intégré(e) à l’équipe DATA Delivery , vous interviendrez sur l’évolution et la maintenance des socles de données (Usage, VOD, Advertising, CRM...) et leur interconnexion avec divers partenaires. Vous travaillerez sur des architectures de Streaming Data full AWS et des technologies Big Data avancées. Vos responsabilités incluront notamment : La conception et le développement de pipelines de données performants ; L’implémentation d’ architectures de Streaming Data scalables et robustes ; Le développement de traitements de données en temps réel avec Scala, Spark et Terraform ; L’optimisation et la modernisation des flux de données dans un environnement Big Data ; La contribution aux initiatives FinOps pour optimiser l’infrastructure et les coûts ; La mise en œuvre de bonnes pratiques en termes de qualité et de gouvernance des données ; La collaboration avec les équipes métiers pour garantir leur autonomie dans l’exploitation des données et des KPI. Environnement technique : Cloud & Big Data : AWS (Lambda, EMR Serverless, Kinesis Stream, S3, Firehose, DynamoDB) Développement : Scala, Spark, SQL, Terraform, Python CI/CD & Orchestration : GitLab CI/CD, Jenkins Méthodologies : Agile (Scrum, Kanban)
Freelance
CDD

Offre d'emploi
Data Engineer – Data Analyste spécialiste DATAIKU

Publiée le
CI/CD
Cloudera
Git

1 an
40k-45k €
400-550 €
Île-de-France, France
Télétravail partiel
La mission proposée sera d’accompagner les métiers dans la cadre du projet de sortie du progiciel SAS vers le progiciel DATAIKU. Dans ce cadre, les activités principales sont : • Accompagner les utilisateurs dans la prise en main de Dataiku et le déploiement des solutions pour leurs cas d’usage. Cela passe par la compréhension de leurs besoins et contraintes opérationnelles, l’étude des solutions potentielles basées sur le progiciel, et l’aide et support à la réalisation. • Appliquer et diffuser les bonnes pratiques Dataiku ainsi que du processus MLOPS. • Assurer le Support et RUN post déploiement : surveillance, maintenance et optimisation des traitements DATAIKU. Dans le cadre de cette mission, il y a de fortes exigences sur : • Le sens de service. • La pédagogie pour accompagner efficacement les utilisateurs SAS. • L’échange et la communication avec le reste de l’équipe SOD/IA Factory ainsi que les différents interlocuteurs sur ce sujet. A savoir, l’architecte SOD/SAS, l’architecte technique SOD, les architectes DATA ainsi que les interlocuteurs CAGIP. Le critère d’expérience doit s’appliquer à tous ces éléments pour garantir l’adéquation du profil à la demande. Expertise DATAIKU DSS avec certifications : • Core Designer • Advanced Designer • ML Practitioner • MLOps Practitioner • Developer • Generative AI Practitioner
Freelance
CDI

Offre d'emploi
Mission Freelance - Architecte d’Intégration Senior – Data et API – La Défense - Long terme

Publiée le
API
MuleSoft
Talend

3 ans
Île-de-France, France
Télétravail partiel
Bonjour Pour l’un de mes clients je recherche un(e) Architecte d’Intégration senior Contexte de la mission Accompagnement des projets IT autour des solutions d’intégration de données et d’API Intervention dans des environnements complexes avec des équipes IT et métiers Missions principales Apporter une expertise technique aux projets et aux équipes Industrialiser les patterns d’intégration Définir et recommander des solutions applicatives adaptées Optimiser les solutions existantes et proposer des améliorations Supporter les équipes décentralisées sur les projets et les évolutions Participer à la gouvernance et aux instances du centre de compétence Contribuer aux études de faisabilité et aux POC Définir les architectures d’intégration Mettre en place des flux batch temps réel et streaming Compétences et qualifications Expérience solide en architecture de solutions data Expertise sur un ETL type Talend ou une plateforme API type Mulesoft Bonne maîtrise de la sécurité des données et des architectures micro services Très bonne communication et capacité à travailler avec plusieurs équipes Français et anglais requis Localisation et conditions La Défense Présence sur site minimum 3 jours par semaine (important) Profil recherché et mots clés Architecte d’Intégration senior Vision globale des flux et des SI À l’aise dans des environnements complexes Talend ou Mulesoft ou une autre plateforme data intégration Architecture data API Micro services Sécurité des données Si vous êtes intéressé(e) et que votre profil correspond merci d’envoyer votre CV à jour Je reviendrai vers vous rapidement pour échanger
Freelance
CDI

Offre d'emploi
Ingénieur Cloud VMware Expert VCF / NSX-T / AVI (Senior)-Ivry-sur-Seine(H/F)

Publiée le
BGP (Border Gateway Protocol)
VMware vSphere

1 an
Ivry-sur-Seine, Île-de-France
🎯 Contexte de la mission Dans le cadre d’un programme stratégique de construction d’un cloud privé souverain , nous recherchons un Ingénieur Cloud VMware Senior , expert sur les technologies clés de virtualisation et réseau VMware : VCF, vSphere, NSX-T, AVI . La mission s’effectue au sein d’une équipe Cloud dédiée à la conception, au déploiement, au hardening et à l’exploitation d’infrastructures VMware de grande envergure, hautement sécurisées et critiques pour les applications internes. 🛠️ Missions principales 🔧 1. Conception & Développement des plateformes VMware Concevoir et optimiser des plateformes avancées basées sur : vSphere NSX-T (SDN / micro-segmentation) AVI (Load Balancing) VCF Participer à la construction du cloud privé souverain. Définir les services cloud adaptés aux besoins métiers. ⚙️ 2. Administration & Exploitation Gérer et maintenir l’infrastructure VMware : NSX-T, AVI, BGP . Assurer la haute disponibilité , la performance et la résilience. Intervention sur réseaux complexes : Juniper, Cisco . 🔐 3. Sécurité & Hardening Contribuer au hardening des infrastructures . Mettre en place des contrôles de sécurité avancés. Réaliser audits techniques, sécurité, conformité. 🤝 4. Collaboration & Support Accompagner les équipes de développement. Fournir support technique niveau expert. Participer à la montée en compétence interne. 🚨 5. Gestion des incidents Diagnostiquer et résoudre des incidents complexes. Proposer des axes d’améliorations et sécurisations. 📄 Livrables attendus Dossiers de conception des plateformes VMware Documents d’exploitation (Runbook / Architecture / Procédures) Hardening & fiches de conformité Documentation technique cloud & réseau ⚙️ Compétences techniques requises (IMPÉRATIVES) VCF – Expert NSX-T – Expert AVI – Expert vSphere, VMware Cloud Réseaux : BGP , virtual networking, haute dispo Connaissance des environnements datacenter (Cisco, Juniper) Français courant (impératif)
Freelance
CDI

Offre d'emploi
Senior Data Engineer – Optimisation et stabilisation d’une pipeline PySpark

Publiée le
Amazon Elastic Compute Cloud (EC2)
Apache Airflow
AWS Cloud

12 mois
40k-48k €
400-480 €
Île-de-France, France
Télétravail partiel
L’équipe développe et maintient les modèles de prévision de la demande et des ventes pour l’ensemble des produits Décathlon, par centre d’approvisionnement continental. Aujourd’hui, notre pipeline est en production sur l’Europe, la Chine et l’Inde, et notre ambition pour 2026 est d’étendre la couverture à LATAM et MEA. Dans ce cadre, nous recherchons un Data Engineer Senior expérimenté sur PySpark et l’optimisation de pipelines. Notre Stack Data : AWS (S3, ECR, EKS); Databricks; Airflow; Pyspark; Python Et Github. La mission portera principalement sur la reprise, l’optimisation et la refonte partielle du module de “refining”, hérité d’une autre équipe. Ce module présente aujourd’hui plusieurs limites : lenteur d'exécution (compute), manque de gouvernance, faible modularité, documentation incomplète et difficulté à évoluer ou à scaler à l’échelle mondiale. Le contexte inclut également plusieurs dettes techniques autour de la stabilité, de la qualité du code et du renforcement des tests (unitaires et fonctionnels).
CDI
Freelance

Offre d'emploi
Data Engineer GCP

Publiée le
BigQuery
Google Cloud Platform (GCP)

6 mois
Rouen, Normandie
Télétravail partiel
Nous recherchons un(e) Data Engineer spécialisé(e) sur Google Cloud Platform (GCP) pour renforcer l'équipe Data de notre client Vous serez chargé(e) de concevoir, développer et maintenir des pipelines de données performants et fiables, afin de structurer et valoriser les données de l’entreprise. Votre rôle sera central dans la mise en place d’une infrastructure data moderne et évolutive, au service des équipes métiers, Data Science et BI. Concevoir, développer et maintenir des pipelines de données sur GCP (Dataflow, Dataproc, Cloud Composer, etc.) Mettre en place et administrer des data lakes et data warehouses (BigQuery, Cloud Storage) Intégrer des flux de données provenant de sources variées (API, streaming, batch) Participer à la modélisation et à la gouvernance des données Automatiser les déploiements et superviser les environnements (Terraform, CI/CD) Collaborer avec les équipes Data Science, BI et Produit Garantir la qualité, la sécurité et la conformité des données (RGPD, bonnes pratiques GCP)
Freelance

Mission freelance
Data Scientist / ML Engineer – IA & GenAI / 2 jours sur site LILLE

Publiée le
GenAI
Machine Learning
Python

12 mois
400-520 €
Lille, Hauts-de-France
Télétravail partiel
Nous recherchons pour notre client un Data Scientist / ML Engineer – IA & GenAI Contexte : Dans le cadre d’un programme IA au sein d’un grand groupe international, vous concevez et industrialisez des solutions IA en production (ML + IA générative), avec une forte exigence de software engineering , de fiabilité et de standards MLOps/LLMOps . Missions principales : Concevoir et déployer des fonctionnalités IA (ML & GenAI) en environnement de production. Construire des pipelines de traitement de données (structurées et non structurées). Industrialiser et monitorer les applications/services : latence, coût, taux de réponse, satisfaction utilisateur . Mettre en place les pratiques MLOps/LLMOps : suivi d’expériences, déploiement, observabilité, monitoring. Garantir qualité des données , conformité (RGPD/GDPR) et sécurité des solutions. Localisation : Métropole lilloise (secteur Villeneuve d’Ascq / Lezennes) Présence sur site : souhaitée 2 jours/semaine
Freelance
CDI

Offre d'emploi
Data Engineer / Data Analyst Senior – Environnement Cloud & Big Data

Publiée le
Cloud
Data analysis
Microsoft Power BI

3 ans
75017, Paris, Île-de-France
Nous recherchons un expert data capable de concevoir, structurer et optimiser des solutions data modernes pour accompagner la croissance et les enjeux business d’une organisation en pleine transformation numérique. Votre rôle sera central : transformer la donnée en levier stratégique, garantir sa qualité et développer les pipelines, modèles et analyses qui permettront aux équipes métiers de prendre de meilleures décisions. 🎯 Livrables & responsabilités Concevoir et mettre en œuvre des solutions data complètes pour répondre aux besoins business. Analyser, interpréter et valoriser des données complexes pour produire des insights actionnables. Travailler avec des équipes pluridisciplinaires (IT, produit, métier, sécurité…) afin d’identifier et résoudre les problématiques data. Développer et maintenir des pipelines de données , des modèles analytiques et des outils de reporting. Garantir la qualité, l’intégrité et la sécurité des données sur tout leur cycle de vie. Fournir une expertise technique et des recommandations pour soutenir la prise de décision data-driven. 🧩 Expertise requise 5 ans d’expérience minimum en data engineering, data analytics ou poste similaire. Expérience solide dans la livraison de solutions data dans des environnements dynamiques. Maîtrise des architectures et technologies data modernes : plateformes cloud (AWS, Azure, GCP), frameworks Big Data, data warehousing. Excellentes compétences en Python, SQL, Spark . Maîtrise de la modélisation de données , des processus ETL et des pipelines de transformation. Expertise sur les outils de visualisation et de reporting : Power BI, Tableau . Connaissance des bonnes pratiques de gouvernance, sécurité et conformité des données.
Freelance

Mission freelance
Chef de projet technique - IaaS et Data

Publiée le
IaaS (Infrastructure-as-a-Service)

12 mois
660 €
Yvelines, France
Télétravail partiel
Notre client, un établissement financier majeur, recherche un CP IaaS et Data pour renforcer son équipe Cette mission est au sein du centre d’expertise pour l’infrastructure, le cloud, la donnée, l’IA et le DevOps. Il accompagne les projets de transformation numérique, garantit la performance, la sécurité et l’innovation, et propose des solutions adaptées aux besoins métiers et applicatifs. La mission consiste à piloter des projets dans le cadre de création d’offre produit, de traitement d’obsolescence ou de mise en conformité (réglementaire, sécurité, amélioration de QoS). - Piloter des projets sur le périmètre IaaS et DATA - Définir les solutions cibles, en collaboration avec les experts, et en lien avec les besoins utilisateurs -Coordonner l’ensemble des parties prenantes -Structurer et animer la gouvernance des projets -Etablir les plans d’investissements et le suivi financier des projets, en lien avec le Contrôle de Gestion - Gérer les risques projets Livrables - Rédaction des notes de cadrage ; présentation aux parties prenantes (sponsors, Chief Platform Officer, PM, PO) et aux différents comités - Animation des comités de suivi - Suivi opérationnel de l’avancement des projets (respect des délais, des jalons …) - Suivi des risques et des plans d’actions associés - Suivi rigoureux des budgets alloués - Garant de la livraison de tous les documents conformément à la méthodologie Projets Environnement technique Cloud Infrastructures (VMWare, OpenStack, Openshift), OS Factory (Windows, Linux, Unix), Containers (Docker, Kubernetes), plateformes Data (Cloudera, MAPR, Data Cloud GCP, …), Data Storage (bloc, fichier, objet)
Freelance

Mission freelance
Ingénieur Test et Validation Data Cloud Snowflake (H/F)

Publiée le
Snowflake

12 mois
380-460 €
La Ciotat, Provence-Alpes-Côte d'Azur
Nous poursuivons notre développement et recherchons actuellement un(e) Ingénieur(e) Test et Validation Cloud & Data maitrisant Snowflake pour intervenir chez un de nos clients dans le secteur industriel sur La Ciotat Contexte : Pour renforcer l’équipe, nous recherchons un(e) Ingénieur(e) Test et Validation Cloud & Data capable de sécuriser les fonctionnalités et les flux de données, de la conception jusqu’à la production. Vos principales missions : - Vous concevez, planifiez et exécutez les campagnes de validation et de vérification tout au long des itérations. - Vous développez et faites évoluer des tests automatisés adaptés à des volumes de données importants. - Vous mettez en place des scénarios de test pour vérifier la qualité, la cohérence et l’intégrité des données, y compris en production. - Vous analysez les résultats, identifiez les anomalies, les qualifiez et les remontez de manière structurée. - Vous travaillez en étroite collaboration avec les équipes développement, produit et exploitation pour optimiser la couverture de tests. - Vous utilisez des outils d’investigation et de monitoring pour comprendre le comportement du système en conditions réelles. ⚙ Environnement technique du projet : - Maitrise indispensable de Snowflakes - Tests unitaires et fonctionnels avec Mocha et Cypress - Bonnes connaissances Cloud AWS, voire Azure ou GCP
Freelance

Mission freelance
Business analyst data / BI- N

Publiée le
Business Analysis
SAS
SQL

18 mois
100-350 €
Nantes, Pays de la Loire
Télétravail partiel
CONTEXTE Expérience: 1 ans et plus Métiers Fonctions : Conseil métier, AMOA, Business Analyst Spécialités technologiques : BI, Reporting, API objectif : offrir une vue consolidée et fiable des données pour tous les métiers et accompagner le SELF BI. · Sortie de SAS vers Power BI pour le moment une prochaine étape se fera probablement vers des outils snowflake · Modernisation des outils MISSIONS 1. Analyse métier et besoins - Recueillir et formaliser les besoins des métiers - Traduire les demandes en spécifications fonctionnelles claires - Garantir la cohérence des données (identifiants et des champs) 2. Consolidation et qualité des données - Superviser la consolidation des données provenant de plusieurs sources (Nantes, Inde). - Contribuer à l’amélioration de la qualité des données et à la définition des standards. 3. Conception et restitution - Définir des vues métiers adaptées (extractions, dashboards). - Mettre en place des solutions de reporting via Power BI et outils analytiques. 4. Accompagnement de la transformation - Promouvoir le self Bi auprès des équipes métier : l’accès direct et autonome - Participer à la phase de transformation vers un modèle Data Next. - Sensibiliser les métiers à l’usage des outils et à la gouvernance des données. Expertise souhaitée Technique : - Bonne connaissance des datawarehouses, modèles de données, requêtes SQL, SAS. - Maîtrise des outils de BI (Power BI). Profil recherché · Expérience confirmée en Business Analysis orientée data. · Sensibilité technique + compréhension des enjeux utilisateurs. · Capacité à travailler dans un environnement international (Inde, France, Italie). Soft skills : · Communication claire avec les métiers et les équipes techniques. · Sens de la qualité et de la cohérence des données. · Proactivité : crée un lien fort avec les métiers afin d’accompagner la transformation vers le SELFBI
Freelance

Mission freelance
Un Tech Lead Data sur Grenoble

Publiée le
DevOps
Git
Jenkins

6 mois
300-380 €
Grenoble, Auvergne-Rhône-Alpes
Télétravail partiel
Almatek recherche pour l'un de ses clients Un Tech Lead Data sur Grenoble. Contexte du projet Projet TMA Data pour un client industriel : maintenance évolutive et corrective des systèmes de reporting et datawarehouse, gestion des flux de données sensibles (production, finance), support et développement de nouvelles fonctionnalités. Environnement technique orienté bases de données, ETL, BI Missions principales Pilotage technique et coordination Prendre du recul sur les besoins et proposer des solutions adaptées Cadrer les sujets techniques et fonctionnels Challenger les solutions proposées par l’équipe et le client Animer des réunions techniques et ateliers avec le client Assurer la qualité des livrables et le respect des délais Encadrement et accompagnement Accompagner les profils juniors Réaliser des revues de code et garantir les bonnes pratiques Partager les connaissances (process, outils, standards) Contribution technique Concevoir et optimiser des pipelines ETL/ELT Maintenir et faire évoluer les datawarehouses et bases de reporting Participer aux développements complexes et aux tests d’intégration Assurer la documentation technique et la capitalisation Amélioration continue Identifier et proposer des axes d’amélioration (process, outils, organisation notamment mise en place CI/CD, utilisation de l’IA..) Être force de proposition sur les évolutions techniques et méthodologiques Assurer le cadrage et plan de déploiement de ces propositions d’amélioration / industrialisation Compétences techniques requises Langages & outils : SQL avancé Bases de données : Oracle, PostgreSQL CI/CD & DevOps : Git, Jenkins Expérience 5 à 8 ans minimum en ingénierie des données, dont 2 ans en rôle de lead ou senior. Expérience en contexte TMA ou projets de maintenance évolutive. Localisation & Langues Région grenobloise Français courant, anglais professionnel.
Freelance

Mission freelance
Data Engineer : Tests de Non-Régression

Publiée le
Agile Scrum
Google Cloud Platform (GCP)
Linux

3 mois
440 €
Paris, France
Télétravail partiel
Vous rejoindrez une équipe agile (10 personnes dans l'équipe "customer data", dont 3 développeurs, PO, BA, Scrum Master, PM) pour travailler sur un enjeu majeur : garantir la fiabilité des données clients. Votre mission principale sera de concevoir et d'exécuter des tests de non-régression entre la plateforme de données historique on-site et la nouvelle plateforme migrée sur GCP (Google Cloud Platform) . 💻 Votre Profil et Compétences Une forte expertise en SQL (Teradata/GCP) est indispensable (environ 60 % de l'activité). Vous utiliserez également vos compétences en Big Data (15 %) et Linux (10 %) pour investiguer les problèmes. Nous recherchons un profil faisant preuve d'une forte autonomie , d'un engagement et d'une curiosité solides pour concevoir et mener des tests fiables. Une bonne intégration dans une équipe dynamique est essentielle. Le candidat devra maîtriser l' anglais courant (C1 minimum)
Freelance
CDI

Offre d'emploi
Data Engineer – Elastic Stack Expert

Publiée le
Apache Kafka
ELK
Intégration

1 an
Île-de-France, France
Télétravail partiel
Nous recherchons pour notre client Grand-Compte un Ingénieur Data , Expert ELK pour: accompagner les besoins et projets sur la collecte, transformation, stockage et mise à disposition des données, provenant de sources diverses en adéquation avec la Stratégie Data Concevoir et mettre à disposition les outils et processus (CI/CD) permettant d’automatiser les pipelines d’ingestion de données prenant en compte les besoins de fréquences (batch, temps réel, …) Développer et déployer des mécanismes de contrôle qualité ainsi que des routines de vérification pour garantir l'intégrité et la fiabilité des données L’objectif est de passer d’une logique très outillée/infrastructure à une approche orientée usages data & métiers . Refonte complète de l’offre logs existante (tous types de logs : applicatifs, systèmes, réseau, sécurité) Forte volumétrie et enjeux de standardisation, qualité et exploitabilité de la donnée Missions Concevoir et mettre en œuvre les chaînes de collecte et d’ingestion des logs Implémenter et industrialiser les cas d’usage observabilité pour les équipes opérationnelles Accompagner les équipes métiers et techniques dans l’exploitation des logs Développer des dashboards et visualisations avancées (Kibana, évolution possible vers Grafana) Intervenir sur l’ensemble du cycle data : collecte → transformation → stockage → restitution Participer à l’évolution de l’offre groupe et à la structuration des bonnes pratiques Contexte technique - Kafka - Scripting Python/SQL/Java - Suite Elastic (ElasticSearch/Kibana) - Apache Flink / LogStash - Agent de collecte (Elastic ou autre Open-Source)
Freelance

Mission freelance
Data Architecte H/F

Publiée le
Apache Airflow
Apache Spark
BigQuery

210 jours
510-770 €
Paris, France
Télétravail partiel
Rejoignez un leader français de l'audiovisuel pour une mission stratégique d' Architecte Data GCP . Vous accompagnerez la Direction Technique du Numérique dans la consolidation et l'optimisation de sa Data Platform, en interface directe avec les équipes Data (Product Owners, Data Engineers, Data Scientists). Votre rôle sera de structurer l'architecture technique globale, améliorer l'expérience développeur et piloter l'optimisation des coûts cloud. Vos Missions : 🏗️ Architecture Technique Garantir la cohérence de la stack data entre équipes et projets Définir et faire respecter les contrats d'interface (schémas, API, data contracts) Effectuer la veille technologique et évaluer les standards du marché Tester, auditer et introduire de nouvelles technologies Réaliser un audit de l'architecture existante et recommander les améliorations ⚡ Developer Experience Contribuer à la création de modules Terraform et à leur industrialisation Accompagner les équipes dans l'usage de l'Infrastructure as Code Définir les standards CI/CD pour les équipes data (tests, lint, automatisation) 💰 FinOps & Optimisation Mettre en place un suivi budgétaire par équipe Implémenter des outils d'alerting et monitoring (quotas, seuils, dérives) Identifier les leviers d'optimisation et participer à la roadmap FinOps
Freelance

Mission freelance
Data Engineer – Snowflake / GCP (urgent)

Publiée le
Apache Airflow
DBT
Python

3 mois
350-450 €
Roubaix, Hauts-de-France
Télétravail partiel
Nous recherchons un Data Engineer expérimenté pour intervenir sur la conception, le développement et la maintenance d’ infrastructures et pipelines de données au sein d’un environnement data moderne et exigeant. 🎯 Contexte de la mission : Vous serez responsable de garantir des données fiables, sécurisées et optimisées pour des usages analytiques et opérationnels. Les activités d’ ingestion, transformation, stockage et mise à disposition des données seront au cœur de votre rôle. ⚙️ Vos missions principales : Concevoir et développer des pipelines de données performants et scalables . Assurer la qualité, la cohérence et la sécurité des données. Optimiser les bases de données et les flux de traitement. Collaborer étroitement avec les Data Scientists, Data Analysts et équipes métiers . Mettre en place des outils de monitoring, gouvernance et observabilité . Garantir la conformité RGPD des traitements de données.
1229 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

France

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous