Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 5 430 résultats.
Freelance

Mission freelance
Data Analyst Tibco / MDM (Niort)

Cherry Pick
Publiée le
Atlassian
Confluence
Data analysis

12 mois
470-500 €
Niort, Nouvelle-Aquitaine
Au sein de la direction Data Solutions & Intelligence Artificielle de notre Client à Niort : Data Solutions : collecte, structuration, traitement et diffusion des données pour les métiers Intelligence Artificielle : développement d’usages responsables et performants au service des clients et collaborateurs Dans le cadre du projet (référentiel unique Personne), l’équipe souhaite renforcer son pôle études / cadrage / maturation en amont des développements. 🚀 Objectifs de la mission Analyser les évolutions à venir sur le référentiel Réaliser les études d’impact sur les composants du SI Participer au cadrage fonctionnel et technique Préparer les sujets avant transmission à l’équipe de réalisation 🛠️ Activités principales Étudier les besoins métiers et les traduire en exigences data Réaliser les analyses d’impact multi-systèmes Produire les livrables de cadrage : Spécifications fonctionnelles et techniques Schémas d’architecture et de flux Supports de présentation Collaborer avec les équipes : Data IT Métiers Participer aux échanges et suivi via les outils Agile ⚙️ Environnement technique APIs & middleware : TIBCO MDM : Informatica MDM Data Quality : Informatica Data Quality Base de données : MongoDB Traitements : Java Outils collaboratifs : Jira / Confluence (Atlassian) 📦 Livrables attendus Dossiers d’étude d’impact Spécifications détaillées Schémas d’architecture et flux Présentations de cadrage pour validation
Freelance
CDI

Offre d'emploi
Senior Data Engineer GCP

Octopus Group
Publiée le
Google Cloud Platform (GCP)

12 ans
40k-45k €
400-550 €
Île-de-France, France
Contexte : Dans le cadre du renforcement d’une plateforme Data Cloud à forte volumétrie, nous recherchons un Senior Data Engineer afin d’intervenir sur la conception, l’industrialisation et l’optimisation des pipelines de données dans un environnement cloud moderne orienté temps réel et batch processing. Missions : Concevoir, développer et maintenir des pipelines de données batch et temps réel Participer à l’architecture et à l’évolution de la plateforme Data sur GCP Mettre en place les flux d’ingestion, transformation et exposition des données Optimiser les performances et la fiabilité des traitements data Industrialiser les déploiements via des pipelines CI/CD Automatiser l’infrastructure cloud avec Terraform Participer aux bonnes pratiques Data Engineering / DataOps / DevOps Développer et exécuter les tests fonctionnels des pipelines Assurer le monitoring et le support des traitements en production Environnement technique : GCP (BigQuery, Cloud Run, Cloud Build, Pub/Sub, Artifact Registry) Terraform Python SQL CI/CD Airflow / orchestration Architecture cloud-native Contexte : Dans le cadre du renforcement d’une plateforme Data Cloud à forte volumétrie, nous recherchons un Senior Data Engineer afin d’intervenir sur la conception, l’industrialisation et l’optimisation des pipelines de données dans un environnement cloud moderne orienté temps réel et batch processing. Missions : Concevoir, développer et maintenir des pipelines de données batch et temps réel Participer à l’architecture et à l’évolution de la plateforme Data sur GCP Mettre en place les flux d’ingestion, transformation et exposition des données Optimiser les performances et la fiabilité des traitements data Industrialiser les déploiements via des pipelines CI/CD Automatiser l’infrastructure cloud avec Terraform Participer aux bonnes pratiques Data Engineering / DataOps / DevOps Développer et exécuter les tests fonctionnels des pipelines Assurer le monitoring et le support des traitements en production Environnement technique : GCP (BigQuery, Cloud Run, Cloud Build, Pub/Sub, Artifact Registry) Terraform Python SQL CI/CD Airflow / orchestration Architecture cloud-native
Freelance

Mission freelance
POT9121 - Un Consultant Senior Affaires Réglementaires – RIM & IDMP sur IDF.

Almatek
Publiée le
Data management

6 mois
Île-de-France, France
Almatek recherche pour l'un de ses clients, un Consultant Senior Affaires Réglementaires – RIM & IDMP sur IDF. Mission / Responsabilités : - Développer une compréhension détaillée de la configuration RIM, des processus, des rôles et des responsabilités. - Collaborer avec les équipes RIM Business Run et Data Entry pour traiter les tickets liés aux processus (problèmes / questions / mode opératoire) provenant d’un large éventail de parties prenantes. - Élaborer des propositions d’amélioration des processus, mettre à jour les guides utilisateurs et partager/diffuser ces consignes. Utiliser les canaux les plus appropriés pour traiter les problèmes urgents (par exemple : sessions de partage de connaissances Q&A, newsletters, communications directes). - Travailler avec les équipes métier (experts métiers) pour collecter les demandes d’amélioration et les transformer en demandes de changement (« change requests ») exploitables pour les équipes IT Run. - Participer activement aux sessions de priorisation et de planification des releases RIM. - Participer aux activités de UAT (User Acceptance Testing) en tant que représentant métier, selon les besoins. - Soutenir l’équipe de migration des documents/archives avec des contributions continues sur les processus métier. - Aider les experts data à résoudre les problèmes en cours liés aux données associées aux étapes des processus. Expérience / Compétences : - Expérience démontrée dans les processus réglementaires globaux (Global Regulatory Business Process) incluant : -planification des changements globaux/locaux -planification et suivi des soumissions -planification et suivi des enregistrements -gestion des CCDS et de l’étiquetage local -reporting - Expérience avec Veeva Vault RIM (en tant qu’utilisateur final) fortement préférée. - Expérience en cartographie/modélisation des processus souhaitée. - Diplôme de niveau Master dans un domaine des sciences de la vie, informatique, ou bioinformatique souhaité. - Autonomie, esprit d’initiative et aptitude à résoudre des problèmes (troubleshooting mindset). Compétences techniques: affaires réglementaires - Confirmé - Impératif RIM /IDMP - Confirmé - Impératif Contrainte forte du projet : Diplome pharma/ expertise affaires règlementaires / connaissance RIM / IDMP Connaissances linguistiques : anglais professionnel (Excellentes compétences en communication en anglais.)
Freelance

Mission freelance
Data Engineer / Data Platform Engineer (H/F)

INFOGENE
Publiée le
Data Engineering
Finance
Python

6 mois
Paris, France
Contexte Dans un environnement financier exigeant, CFM souhaite moderniser et fiabiliser son système de gestion des prix de marché (equities, futures, bonds, IRS…). Le système actuel, basé sur des infrastructures legacy, manque de visibilité, de performance et de robustesse, rendant les opérations complexes et peu fiables pour les équipes support et data. Objectif de la mission Concevoir et développer une plateforme centralisée de gestion et de visualisation des prix , permettant de suivre l’ensemble du cycle de vie des données et d’améliorer les opérations quotidiennes. Missions principales Concevoir une architecture cible scalable et robuste Développer une API Python exposant les données de prix et leur cycle de traitement Implémenter des services backend pour : suivi des statuts des prix gestion des événements et anomalies opérations en masse (validation, rejet, reprocessing) Mettre en place des interfaces utilisateurs : dashboard opérateur interface d’administration visualisation des workflows et historiques Améliorer la traçabilité des données (origine, transformation, blocages) Optimiser les performances et la gestion des volumes Documenter les solutions et accompagner les équipes
Freelance

Mission freelance
Chef de Projet MOA – Compliance / Front Office Surveillance

ABSIS CONSEIL
Publiée le
Agile Scrum
Big Data
Elasticsearch

1 an
570-620 €
Paris, France
Contexte de la mission Dans le cadre de programmes réglementaires à forte visibilité, une organisation spécialisée dans les activités de marchés financiers renforce un dispositif de surveillance des conduites Front Office à l’échelle mondiale. La mission s’inscrit dans un programme IT réglementaire structurant , visant à industrialiser et déployer une plateforme de monitoring des communications et des comportements (trading, ventes, communications électroniques, ordres et transactions), en remplacement d’un outil existant. Les enjeux sont forts : délais réglementaires contraints, coordination multi‑équipes, forte exposition métier et conformité , dans un environnement international et anglophone. Mission En tant que Chef de Projet MOA – Compliance / Front Office Surveillance , vous interviendrez sur la gestion et la livraison des évolutions clés liées aux données collaborateurs et communications au sein de la plateforme de monitoring. Vous travaillerez en mode agile , en lien étroit avec les équipes métier, IT et data, avec un objectif clair : livrer rapidement un maximum de valeur fonctionnelle , tout en garantissant la conformité réglementaire. Responsabilités principales Recueillir, analyser et formaliser les besoins fonctionnels , cas d’usage et spécifications Challenger les exigences avec les équipes Data et IT afin d’assurer leur faisabilité technique Collaborer avec les sponsors métier, équipes conformité, supervision de plateforme et management Coordonner les travaux avec le chef de projet et les équipes projet (interne et externe) Piloter les activités en méthodologie agile (sprints, priorisation, suivi des livrables) Contribuer à la définition et à la mise en œuvre d’une stratégie data intégrant des approches d’analyse avancée (NLP, machine learning) Superviser le développement et l’évolution de solutions logicielles (ingestion de données de communication, gestion des flux, data management) Rédiger les spécifications fonctionnelles et techniques Élaborer les plans de tests, scripts de recette , organiser et animer les sessions UAT jusqu’à validation métier Gérer plusieurs sujets en parallèle dans un contexte à forte contrainte de planning
Freelance
CDI

Offre d'emploi
Data Engineer SENIOR

Tritux France
Publiée le
Cloud
Data Lake
Pandas

3 ans
40k-45k €
400-470 €
Île-de-France, France
Objectif de la mission Au sein d’une équipe produit, vous interviendrez sur la conception, le développement et l’industrialisation de pipelines de données complexes, dans un environnement technique moderne et orienté performance. Votre objectif principal est de garantir des solutions data : Scalables Maintenables Alignées avec les standards d’architecture et de qualité Missions & responsabilités Ingénierie & Développement Concevoir et développer des pipelines de données robustes et performants Participer à la définition et à la mise en œuvre d’architectures data Garantir la qualité du code (Clean Code, DDD, peer review) Documenter les solutions Industrialisation Mettre en place des mécanismes d’observabilité (monitoring, logs, alerting) Optimiser les performances et les coûts (FinOps Data) Assurer la sécurité et la conformité des données Expertise & Collaboration Traduire les besoins métier en solutions techniques Contribuer aux rituels agiles et à la conception des user stories Résoudre les incidents de production et anticiper les risques Collaborer avec les équipes transverses Participer au partage des bonnes pratiques
Freelance

Mission freelance
Architecte Modélisation Data (H/F)

Freelance.com
Publiée le
Cybersécurité

1 an
340-740 €
Île-de-France, France
2 jours de gratuité ( les deux premiers jours de mission ) Dans le cadre de l’équipe Architecture Solutions SI (Direction Stratégie SI, Architecture & Cloud), la mission consiste à accompagner les projets autour des solutions collaboratives et des enjeux de modélisation et d’architecture data . L’objectif est d’assurer la cohérence des architectures data avec les processus métiers, tout en garantissant l’alignement avec les standards SI et les objectifs de rationalisation. ⸻ 🧩 Rôle & responsabilités En tant qu’Architecte Data / Expert Data Modélisation, vous serez en charge de : Accompagner les projets dans la définition de leur architecture data Assurer l’alignement avec la stratégie SI et les processus métiers Définir, promouvoir et faire évoluer le cadre d’architecture data Réaliser la modélisation fonctionnelle des objets métiers Maintenir et enrichir la cartographie SI Contribuer à la conception des modèles logiques et physiques de données (MLD / MPD) Accompagner les équipes de développement sur les sujets data ⸻ 🏗️ Activités principales Modélisation data des solutions dans le cadre des projets Définition des architectures fonctionnelles et data, de la phase de cadrage jusqu’à la mise en production Production des livrables d’architecture et mise à jour du référentiel Présentation et validation des solutions en instances d’architecture Émission d’avis d’architecture Coordination des activités d’architecture Pilotage de l’engagement d’architecture auprès des parties prenantes
Freelance

Mission freelance
Architecte modélisation data

Freelance.com
Publiée le
Architecture
Big Data

6 mois
100-600 €
Paris, France
📍 Infos pratiques 📍 Localisation : Paris (2 jours TT) 📅 Démarrage : ASAP 📆 Visibilité : mission longue (jusqu’à fin 2026) Dans le cadre d’un programme de transformation Data B2B , nous recherchons un profil orienté architecture et modélisation métier , capable d’intervenir en amont des développements pour structurer un modèle data cible robuste. 👉 ⚠️ Important : ce n’est PAS un poste de Data Engineer 👉 Le besoin est centré sur la conception, l’abstraction et la structuration de la donnée 🎯 Ce que le client attend réellement ✔ Construire une vision 360 des données B2B ✔ Définir les objets métiers clés (Client, Contrat, Parc, Facture, Usage…) ✔ Concevoir le modèle de données cible (Core Model) ✔ Définir les règles de gestion (RCU / unicité client / hiérarchies) ✔ Analyser les sources legacy et faire le lien avec la cible ✔ Structurer un dictionnaire de données (Business Glossary) ✔ Travailler en lien direct avec les équipes métier 👉 Positionnement attendu : Architecte Data fonctionnel / Data Modeler senior 🧠 Responsabilités Modélisation des données (logique & métier) Définition des règles de gestion (vision client / référentiels) Analyse des écarts entre SI existant et cible Contribution à la gouvernance (catalogue, qualité de données) Support aux équipes Data & métiers Pourquoi c’est intéressant ? ✔ Projet stratégique (transformation data complète) ✔ Forte dimension architecture & conception ✔ Impact direct sur la structuration des données du groupe
Freelance
CDI

Offre d'emploi
Ing Devops - DigitalBackbone

RIDCHA DATA
Publiée le
CI/CD
DevOps
Google Cloud Platform (GCP)

1 an
Île-de-France, France
RIDCHA DATA est à la recherche d’un DevOps Engineer GCP – Confirmé pour accompagner son client acteur majeur dans le secteur industrie. 1- Descriptif du poste Au sein de l’équipe produit Digital Backbone, l’Ingénieur DevOps qui contribuera au design, construction et aux opérations de la platforme. Le projet se situe aussi dans le cadre de l’ouverture de l’entreprise vers le cloud et la recherche des solutions pour l’échange des données entre les applications en interne et les applications dans le cloud tout en garantissant leur sécurité. Expertises recherchées : • Mise en place des services cloud public (GCP) intranet et usines • Mise en place d’une automatisation de ces services via Ansible et Terraform • Mise en place d’une chaine de CI/CD pour le déploiement de ces services d’un environnement de développement jusqu’à l’environnement de production • Toute mise en place de service s’accompagne d’un monitoring • Gérer un environnement Docker • Gérer sur ces environnements l’aspect sécurité et finops (gestion des couts) • Support L3 sur la plateforme • Support au RUN sur la plateforme. 2- Livrables • Livrable de la platforme Cloud GCP, Intranet et usines. • Documentation technique • Mise en place des dashbord monitorant les services déployés • Site Reliability engineering • Coaching des équipes projets au travers des supports et standard • Support du dev au RUN vis-à-vis des projets livrés.
CDI

Offre d'emploi
Administrateur Système Réseaux 365 H/F

FED SAS
Publiée le

40k-45k €
Lyon, Auvergne-Rhône-Alpes
Fed IT, cabinet de recrutement dédié aux fonctions informatiques, recrute pour son client, industriel de 800 personnes, un(e) administrateur systèmes et réseaux H/F, pour accompagner sa croissance. Rattaché(e) au DSI, vous intégrez une équipe polyvalente de 4 personnes qui intervient sur la globalité des sites (France et Europe). Ainsi, vous : -Pilotez les migrations vers le cloud (Office 365, Outlook, SharePoint...) pour les filiales encore on-premise, -Administrez et faites évoluez les environnements Microsoft 365 (Exchange Online, Sharepoint, Teams Voice), -Gérez les interconnexions réseau entre les entités du groupe (switches, pare-feux...), -Déployez et administrez Microsoft Intune pour la gestion unifiée des endpoints (configurations, applications, politiques de sécurité), -Configurez les outils de supervision et assurez la veille sécurité, -Participez aux projets des filiales : migrations d'ERP, EDI, BI..., -Assurez le support aux utilisateurs et documentez vos procédures, Des déplacements ponctuels sont à prévoir en France et en Europe (5 découchages/an en moyenne). Rémunération : 40 à 45 K€ bruts/an (fixe selon expérience), Poste à 37,5 heures/semaine + 2 jours de télétravail possibles/semaine
Offre premium
Freelance
CDI
CDD

Offre d'emploi
QA Data confirmé (Databricks / Azure)

VADEMI
Publiée le
Azure
Databricks

3 ans
Châtillon, Île-de-France
Testeur confirmé avec compétences Data Analyste Compétences techniques Méthodologie de tests - Confirmé - Important Test technico fonctionnels/tests d'intégration - Confirmé - Important DataBricks - Confirmé - Important Environnement azure microsoft - Confirmé - Important Description détaillée Au sein de la Direction des Systèmes d’Informations Mutualisés, vous rejoindrez le Train DATA, en charge des projets BI et Data. En tant que QA doté de compétences en analyse de données, vous intégrerez le pôle Qualité Data . Votre rôle consistera à préparer et exécuter les cas de tests, constituer les jeux de données nécessaires, assurer le suivi des défauts identifiés et contribuer à l’amélioration continue de la qualité des données. Le Data Lab fonctionne en organisation agile et réunit des équipes pluridisciplinaires favorisant la collaboration et l’autonomie. Vous travaillerez avec des rituels agiles, cadrés, trimestriels et des cycles de réalisation de 3 semaines (sprint planning, affinage, sprint review et daily meeting). Vos missions : - Participer aux ateliers/rituels agiles - Réaliser la stratégie de test - Identifier et réceptionner les environnements de test - Analyser et évaluer les cas d'usage/User Story - Rédiger les plans de test, identifier les prérequis et spécifier les jeux de données - Exécuter les cas de tests - Créer et suivre les défauts avec les différentes parties prenantes - Maintien du référentiel de test - Réaliser le PV de recette - Présentation des sujets en CAB pour passage en production - Une expérience/compétence dans le retail serait un plus. En plus du test fonctionnel, vous serez amené à effectuer des tests d’intégration 2 à 2, des tests de bout en bout ainsi que des tests de surface dans un contexte Data. J’accorde une importance particulière à l’amélioration continue, un principe clé de l’agilité, afin de progresser en permanence et de gagner en efficacité.
CDI
Freelance

Offre d'emploi
Business Analyst - Data (H/F)

STORM GROUP
Publiée le
SEPA
SWIFT

3 ans
55k-60k €
550 €
Île-de-France, France
· Participer à la collecte, la transformation et la gestion des données pour en assurer l'intégrité, la sécurité et la qualité · Animer des groupes de travail avec les sponsors, les business analyst du SI Paiement et les membres de la squad Flux (data viz, data engineer, business analyst) · Rédaction des livrables : spécifications fonctionnelles et techniques / user story, cahiers de recette · Développer et documenter les user stories/spécifications et les cahiers de recette avec l’assistance du Product Owner · Formation et accompagnement des utilisateurs.
CDI

Offre d'emploi
Data Analyst (F/H)

CELAD
Publiée le

Montpellier, Occitanie
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ 2 jours de télétravail par semaine – Montpellier (34) – Expérience de 7 ans min Envie de rejoindre une équipe où la tech et les projets stimulants sont au rendez-vous ? Cette opportunité est faite pour vous ! Voici un aperçu détaillé de vos missions : Taches principales - activités BI - Collaborer étroitement avec les Business Analystes afin d’identifier les besoins Data du métier grâce à des ateliers d’affinage - Collecter et exploiter les données pour les restituer sous forme d’indicateurs ou de Tableaux de bord, et ainsi contribuer et conduire les analyses Data mises en lien avec les problématiques métiers - Présenter les résultats aux équipes métiers - Véhiculer auprès des métiers le cadre de gouvernance Data (Data Management, Data Privacy…) de l’entreprise, en portant les messages et expertises autour du Digital - Contribuer à l’évolution des pratiques du Chapitre dans une logique d’amélioration continue Une connaissance fonctionnelle de l’analyse data dans le domaine bancaire pour apporter un regard critique et répondre aux problématiques d’analyse de donnée des métiers Evolutions des activités en temps 2 – activités data digital (tracking et data analyse associée) : - Identifier, avec les Squads métiers, les besoins de tracking dans des ateliers d’affinage - Réaliser les spécifications et recettes du tracking - Collecter et extraire les données nécessaires à l’analyse - Construire des tableaux de bord - Restituer le plan de marquage déployé dans un livrable au format prédéfini pour les caisses régionales. - Présenter le rendu aux squads métiers. En tant qu’intervenant externe sur le poste de data analyst, vous interviendrez spécifiquement sur : Fabrication de Tableaux de Bord via Microstrategy (sur des activités BI), Calcul d’indicateurs via script SQL sur environnement Teradata (sur des activités BI) et intégration dans des pipelines de restitution normées. Il sera également demandé à l’intervenant/e externe d'intervenir sur les activités Digital en lien avec la Données pour garantir la réussite du Pilotage des Parcours web : Mise en œuvre du Tracking sur les parcours utilisateurs et Fabrication de Tableaux de Bord pour restituer les données aux métier (sur des activités Parcours Digitaux) - Logiciel et solutions analytiques : Tag Commander, Piano Analytics, Cosmo Survey, Conduite des analyses marketing sur la base du tracking déployé et force de proposition sur les possibles optimisations lors de ces analyses. Outil de Data Visualisation (Expert) : Microstrategy étant un plus (ou connaissance Power Bi, Tableau) Langage : SQL (expert) Apprécié : Data & Digital Logiciel d'analyse de la donnée pour le Tracking (type Tag Commander, Piano Analytics) Analyse Comportementale utilisateur.
Freelance
CDI

Offre d'emploi
Architecte Data / Stratégie Plateforme Data Européenne

OBJECTWARE
Publiée le
Apache Kafka
BI
Data Lake

3 ans
40k-73k €
400-550 €
Île-de-France, France
🎯 Objectif de la mission Dans un contexte de transformation data à l’échelle européenne, vous intervenez en tant qu’ Architecte / Consultant Senior Data pour structurer, rationaliser et industrialiser la plateforme data du groupe. Vous accompagnez la définition de la stratégie cible, la gouvernance et la trajectoire de migration vers une plateforme data unifiée, scalable et conforme aux contraintes réglementaires (RGPD, localisation des données, sécurité). 🧩 Missions principales🔎 1. Diagnostic des plateformes data existantes Réaliser une cartographie complète des plateformes data existantes Analyser les architectures de bout en bout (de l’ingestion à l’usage métier) Étudier l’organisation, les rôles et responsabilités Identifier les dépendances techniques et fonctionnelles Recenser et prioriser les cas d’usage Data, BI et IA Intégrer les contraintes réglementaires (RGPD, souveraineté des données) 🏗️ 2. Définition de la stratégie data cible Concevoir une architecture cible de plateforme data pan-européenne Travailler avec les équipes d’architecture groupe Recommander les choix technologiques (cloud, data platforms, outils) Définir un modèle de gouvernance data transverse (business lines) Fixer les principes de scalabilité, industrialisation et performance 🔁 3. Stratégie de migration & roadmap Construire une roadmap de transformation et migration vers la cible Définir les étapes de migration des données et des usages Organiser et animer les ateliers avec les équipes IT et métiers Préparer et suivre les comités de pilotage IT Coordonner les phases de tests, recette et non-régression 🚀 4. Accompagnement des premières phases de delivery Accompagner le démarrage des premières implémentations Garantir la cohérence entre architecture cible et réalisation Assurer un rôle de référent auprès des équipes de delivery
Freelance

Mission freelance
Data Engineer Senior F/H

SMARTPOINT
Publiée le
AWS Cloud
CI/CD
DevOps

12 mois
480-500 €
Île-de-France, France
Mission principale Assurer le développement, la mise en œuvre opérationnelle et la maintenance des pipelines et services de données au sein de la plateforme Data. Services, en garantissant leur fiabilité, performance et sécurité. Tâches & activités Concevoir et développer des pipelines de données (ETL) notamment avec Kestra Manipuler, transformer et optimiser les données (SQL / NoSQL) Assurer la maintenance en conditions opérationnelles (MCO) des pipelines et services data Participer à la sécurisation des migrations fonctionnelles et techniques Contribuer à l’amélioration continue des processus data (qualité, performance, monitoring) Collaborer avec les équipes techniques et métiers pour cadrer et implémenter les besoins Livrables & résultats attendus Développement de 10 à 14 pipelines / algorithmes par an Maintien en conditions opérationnelles des solutions (suivi quotidien) Production de rapports d’activité et comptes rendus d’intervention Garantie de la qualité, de la fiabilité et de la performance des flux de données Compétences techniques Excellente maîtrise de SQL et des outils ETL (Kestra) Bonne connaissance des environnements Cloud AWS Culture DevOps / CI-CD (industrialisation, automatisation) Compétences en modélisation de données (UML est un plus) Connaissance des bases NoSQL
Freelance
CDI

Offre d'emploi
Data & AdTech Developpeur H/F

OBJECTWARE
Publiée le
Python
SQL

3 mois
Rennes, Bretagne
Nous recherchons un Data & AdTech Developpeur H/F pour une mission à Rennes. Missions : Organiser, fiabiliser et valoriser les données au sein de la CDP Garantir la qualité et la cohérence des données exploitées Concevoir et maintenir les flux d’ingestion et de transformation (Python, SQL) Intégrer les différentes sources de données de l’entreprise Concevoir et maintenir des dashboards de suivi Créer des solutions permettant d’accélérer les opérations marketing Intégration de solutions AdTech (alternives IDs, dsp Equativ & The Trade Desk…) Technos : Langages : Python, SQL Data & Cloud : BigQuery Data visualisation : Metabase AdTech : DSP, solutions de tracking, identity management
5430 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous