L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 1 775 résultats.
Offre d'emploi
Data Analyst/Dataiku
OBJECTWARE
Publiée le
Dataiku
3 ans
40k-83k €
400-650 €
Île-de-France, France
Vous avez pour mission de fournir les moyens de contrôler /analyser /piloter de l’activité du métier marketing au sein d'ARVAL. Vos activités principales consisteront à accompagner les métiers marketing - dans 29 pays - dans l’analyse de leurs besoins, à aider à implémenter et automatiser les solutions les mieux adaptées (tableaux de bord, extraction…), à leur fournir des recommandations et des analyses basées sur leurs données. Une connaissance en data management et notamment dans la mise en place de Data Lineage et de dictionnaire de données vous sera nécessaire. Vous devrez également avoir une expérience en pilotage transverse. Votre périmètre recouvre l’ensemble des données de l’activité d’Arval (3 CLS, Salesforce, Medallia, sites internets, espace client, etc) Les outils utilisés afin de répondre aux besoins de nos clients sont DATAIKU, SQL avancé, bases en Python, et TABLEAU. Les enjeux sur 2026 : • Reprendre et finaliser la Refonte des projets data marketing DMK • Securiser et stabiliser le run • Mise en place de nouveaux projets reportings/analytics clés pour le marketing (Campaign performance & optimization, connaissance client ex. CLV, tracking du parcours digital client, Cost per lead…) • Construire des modèles prédictifs/scorings simples • Automatiser le production de reportings mensuels pour direction Marketing • Documentation Vous travaillez au quotidien en anglais avec les collaborateurs de toutes les pays et directions du groupe Arval. Prestations demandées Réunions de cadrage avec les métiers afin de définir les règles de gestion : - Identification d'architecture et modélisation data - Construire des flows DATAIKU facilement maintenables (respect des normes de développement Arval) et documentés - Scénarisation des flows DATAIKU - Recettage des projets, correction de bugs - Mise en production - Analyses ad hocs - Maintenance du run - Analyses ad hocs - Sécuriser la cohérence des KPIs produits et la qualité des données exploitées - Communication auprès des métiers - Responsable de la relation Marketing avec l'IT
Offre d'emploi
📩 Tech Lead / Développeur Java – Data & ELK (Grafana)
Gentis Recruitment SAS
Publiée le
Azure DevOps
Big Data
Databricks
6 mois
40k-45k €
300-400 €
Paris, France
Contexte Dans le cadre des activités de la DSI, au sein du service Systèmes Connectés, notre client pilote plusieurs applications en BUILD et en RUN liées à la gestion et à l’exploitation de données à grande échelle. Nous recherchons un Tech Lead / Développeur expérimenté pour prendre en charge un projet récemment mis en production, permettant de restituer des indicateurs métier via Grafana, alimentés par une stack Java / ELK. Missions principales Prendre en main un projet existant (RUN + évolutions) Assurer la maintenance corrective et évolutive Analyser et résoudre les incidents remontés par les équipes métier Comprendre et corriger les écarts sur les indicateurs affichés Développer de nouveaux objets et indicateurs Piloter techniquement le projet (rôle de référent unique) Suivre le backlog et collaborer avec PO, métier et architectes Participer aux réflexions d’évolution (notamment migration potentielle vers Databricks) Environnement technique Backend / Ingestion : Java Data / Monitoring : ElasticSearch, ELK, Grafana Infra / Cloud : Azure (souhaité) Outils : Azure DevOps Auth (optionnel) : Keycloak Data (optionnel) : Databricks, SQL Server Langages complémentaires (nice to have) : C# Compétences attenduesIndispensables Très bonne maîtrise de ElasticSearch et de la stack ELK Solide expérience en Java Expérience sur des volumétries de données importantes Maîtrise de Grafana Capacité à écrire des requêtes de transformation/exploitation de données (Elastic) Expérience en debug / analyse d’incidents Bonne maîtrise d’Azure DevOps Appréciées Databricks Azure SQL Server Keycloak C# Soft skills Excellente communication avec les équipes métier Forte autonomie (poste en solo sur le projet) Capacité d’analyse et de résolution de problèmes Prise de recul et vision technique
Mission freelance
Architecte Base de données (F/H)
CELAD
Publiée le
1 an
500-550 €
Clermont-Ferrand, Auvergne-Rhône-Alpes
A LIRE ATTENTIVEMENT AVANT DE POSTULER ⬇ Télétravail flexible - Clermont-Ferrand - Expérience de 10 ans minimum Envie de rejoindre une équipe où la tech et les projets stimulants sont au rendez-vous ? Cette opportunité est faite pour vous ! Nous poursuivons notre développement et recherchons actuellement un.e Architecte Base de données pour intervenir chez un de nos clients. Vous aimez concevoir des architectures data robustes et faire le lien entre technique et produit ? Cette mission devrait vous parler. Voici un aperçu détaillé de vos missions : Au quotidien, vous intervenez sur la définition et l’évolution de solutions autour des bases de données : - Concevoir les architectures (HLD/LLD) et contribuer aux choix techniques - Définir et améliorer les procédures d’exploitation - Collaborer avec les équipes produit sur des solutions applicatives complexes - Sélectionner et qualifier les environnements d’exécution (on-premise, cloud, appliances) - Assurer une veille active pour anticiper les évolutions technologiques Ce que vous faites concrètement : - Piloter l’exploitation et la performance des bases de données - Intervenir sur les environnements systèmes et virtualisés - Utiliser des outils de diagnostic et d’automatisation (Ansible, Terraform) - Garantir le respect des standards de sécurité et d’exploitation
Mission freelance
Développeur Bases de données / PostgreSQL (H/F) - 79
Mindquest
Publiée le
Greenplum
PostgreSQL
Programmation
6 mois
Niort, Nouvelle-Aquitaine
1. Contexte Dans le cadre d’un pic d’activité, l’équipe Data du client souhaite renforcer sa capacité de production afin de répondre efficacement aux demandes utilisateurs, priorisées et validées par le Product Owner. La mission s’inscrit dans un environnement structuré, chez un client reconnu, avec des enjeux forts autour du traitement et de l’exploitation de données à volumétrie significative. Secteur : assurance Localisation : Niort Télétravail : 3 jours/semaine (hors période d’onboarding) Démarrage : ASAP Durée : 6 mois minimum 2. Missions Au sein de l’équipe, le consultant interviendra principalement sur des sujets orientés data et bases de données : Développement et maintenance de traitements de données Conception et optimisation de requêtes SQL complexes Développement de fonctions et procédures stockées en PL/pgSQL Développement de scripts de traitement de données en Python Automatisation via scripts Shell Analyse et optimisation des performances sur des volumes de données importants Participation à l’amélioration continue des processus de traitement de données Collaboration avec le Product Owner et les équipes métiers pour répondre aux besoins exprimés
Mission freelance
Développeur BOARD (H/F)
Nicholson SAS
Publiée le
Azure
Board
Data Lake
1 an
350 €
Clermont-Ferrand, Auvergne-Rhône-Alpes
Nous recherchons un Développeur BOARD pour intégrer des projets Data d'envergure. Vous interviendrez de la conception jusqu'au déploiement en production, tout en assurant un support de niveau 3. 📍 Modalités Lieu : Clermont-Ferrand (Hybride : 3 jours/semaine sur site) Date de début : 04/05/2026 Durée : Jusqu'au 03/05/2027 (renouvelable) Budget TJM : 350 € 🎯 Missions principales Conception et configuration d'applications via la solution BOARD. Accompagnement du cycle de vie : du développement jusqu'à la mise en production. Support L3 : support aux tests d’acceptation utilisateurs (UAT) et résolution d'incidents complexes. Communication : vulgarisation de concepts techniques auprès des métiers. 🛠 Compétences techniques Incontournables (Mandatory) : BOARD (Expertise outil) Ecosystème Data : Databricks, Azure Data Lake, Power BI Fondamentaux : Concepts BI, analyse de données. Langues : Anglais opérationnel. Souhaitées (Nice to have) : Méthodologie AGILE. Appétence pour l'analyse fonctionnelle (Business Analysis).
Mission freelance
IA Delivery Product Owner / Business Analyst
ESENCA
Publiée le
Data quality
GenAI
Large Language Model (LLM)
1 an
Lille, Hauts-de-France
Informations générales Département : Digital, Data & IA Localisation : Siège / Lille (présence obligatoire sur site) Supérieur hiérarchique : IA Delivery Lead Position dans l’organisation Le/la IA Delivery Product Owner / Business Analyst contribue à la conception et à la livraison des cas d’usage en intelligence artificielle, en assurant l’interface entre les besoins métiers et les équipes de delivery. Encadrement Aucun management direct Interactions internes Équipes Data (Data Hub, gouvernance, référentiels) Équipes IT / DSI Directions métiers Équipes Digital / Data / IA Équipes en charge de l’adoption et de la transformation Interactions externes Partenaires technologiques et plateformes cloud Éditeurs de solutions IA (LLM, RAG, etc.) Cabinets de conseil spécialisés Mission Le/la IA Delivery Product Owner / Business Analyst est responsable de l’exécution produit et de l’AMOA sur les cas d’usage IA (copilots, agents, solutions RAG). Il/elle traduit les besoins métiers en backlog, spécifications fonctionnelles et parcours utilisateurs, organise la recette et contribue à l’amélioration continue des solutions en production. Le poste intervient dans un cadre structuré : sans responsabilité sur le développement technique sans responsabilité directe sur la conformité sans responsabilité sur la préparation des bases de connaissances Responsabilités principales 1. Cadrage des besoins Animer les ateliers métiers (besoins, irritants, processus, scénarios) Formaliser les cas d’usage et les priorités Contribuer à la définition des indicateurs de succès 2. Gestion du backlog et priorisation Construire et maintenir le backlog produit (user stories, critères d’acceptation) Prioriser les évolutions avec le IA Delivery Lead et les parties prenantes Préparer et animer les rituels Agile Garantir la clarté et la qualité des tickets 3. Conception fonctionnelle Définir les parcours utilisateurs et scénarios d’usage Formaliser les règles métier et comportements attendus Intégrer les mécanismes de gestion des limites de l’IA (incertitude, erreurs, hallucinations) Concevoir des expériences utilisateur robustes et sécurisées 4. Coordination des prérequis Exprimer les besoins en données et en bases de connaissances Contribuer à la formalisation des exigences de traçabilité et d’usage Collaborer avec les équipes techniques pour clarifier les besoins fonctionnels Assurer l’alignement entre les différentes parties prenantes 5. Recette fonctionnelle Définir la stratégie de tests (cas nominaux, limites, scénarios sensibles) Préparer et exécuter les phases de recette Suivre les anomalies et piloter leur résolution Contribuer aux décisions de go / no-go 6. Amélioration continue et industrialisation Collecter les retours utilisateurs et identifier les axes d’amélioration Alimenter le backlog d’évolution Capitaliser sur les retours d’expérience Contribuer à la standardisation des pratiques (copilots, agents, RAG)
Offre d'emploi
Développeur Python (H/F)
Aleysia
Publiée le
Agile Scrum
Big Data
Docker
12 mois
Grenoble, Auvergne-Rhône-Alpes
Tu as l'esprit d'initiative et tu aimes travailler dans un environnement stimulant, postule sans attendre à cette offre de Développeur·se Python qui est faite pour toi ! 🚀 Ton challenge si tu l’acceptes : Développer des solutions innovantes en Python, avec un code optimisé, clair et bien documenté. Intégrer des API et interagir avec des bases de données relationnelles et / ou non relationnelles Contribuer à la pérennité et à l'évolution des applications en assurant leur maintenance et en proposant des améliorations continues. Être un acteur clé de la qualité du code en concevant et en mettant en œuvre des tests unitaires et d'intégration robustes. Suivre les bonnes pratiques de développement et participer au revue de code Travailler en méthodologie Agile/Scrum et participer aux réunions d’équipe
Mission freelance
Data Engineer GCP - Anglais niveau C1
ALLEGIS GROUP
Publiée le
BigQuery
Google Cloud Platform (GCP)
Terraform
18 mois
470-520 €
Paris, France
Intégrer une mission au sein de notre client en tant que Data Engineer GCP. Missions : Créer de nouveaux projets et produits de données sur GCP au sein du sous-domaine Finance Procurement . Participer au développement back‑end sur GCP et, pour certains cas d’usage, créer également le modèle sémantique Power BI . Intégration au sein d’une sous‑équipe de 4 data engineers dans une équipe Finance de 10 personnes au total. 70 % du temps consacré à l’innovation et aux nouveaux projets sur GCP. 30 % du temps dédié à la continuité et à la maintenance.
Mission freelance
Tech Lead Data GCP
UCASE CONSULTING
Publiée le
DBT
GenAI
Google Cloud Platform (GCP)
1 an
400-600 €
Île-de-France, France
📢 Poste à pourvoir – Tech Lead Data GCP/Python (H/F) Bonjour à tous 👋 Je recherche un(e) Tech Lead Data Senior pour intervenir sur une mission stratégique autour d’une Data Platform moderne orientée Cloud & innovation 🚀 🎯 Contexte Dans le cadre d’un programme de transformation ambitieux, vous intégrerez une Data Factory en charge de : Construire et faire évoluer une plateforme data cloud Industrialiser les workflows data Déployer des solutions innovantes autour de la data et de l’automatisation Diffuser les bonnes pratiques data au sein des équipes 👉 Environnement dynamique avec une forte culture produit et innovation 🚀 Missions principales : Concevoir et développer des data products (jusqu’à 80% de dev) Participer au cadrage technique et aux études d’impact Mettre en place des architectures data robustes et scalables Assurer la qualité du code (review, bonnes pratiques) Accompagner et challenger les Data Engineers Gérer les incidents complexes (niveau 3) Documenter les solutions (architecture, flux, data models) 🛠️ Stack technique : Langages : Python, SQL, Shell Data & Cloud : GCP (BigQuery, Dataflow, Cloud Storage), DBT Streaming / ingestion : Kafka, Kafka Connect, SFTP DevOps / CI-CD : Docker, Kubernetes, Terraform, GitLab BI / Restitution : Looker + Bonus : Automatisation / IA (n8n, outils GenAI) ✨ Les + Projet structurant avec forte visibilité Environnement moderne (Cloud, Data, IA) Forte autonomie et impact technique Équipe orientée innovation ⏱️ Mission 📅 Démarrage : ASAP 📌 Télétravail : 50% 📍 Localisation : Île-de-France
Offre d'emploi
Expert Cyber Sécurité - ISP
KEONI CONSULTING
Publiée le
DORA
EBIOS RM
Prévention des pertes de données (DLP)
18 mois
20k-40k €
100-600 €
Niort, Nouvelle-Aquitaine
Contexte: L’entité Conseil Cyber Sécurité des Applications (CCA) recherche en prestation, un Expert cyber sécurité, pour le conseil et l’accompagnement des projets métiers. Cette mission est sous la supervision directe d’un référent cyber SSI. MISSIONS : Le périmètre de la mission concerne particulièrement les métiers en relation avec les fonctions support de l’entreprise (Finances, RH, Réassurance, Immobilier de placement et d’exploitation, Trésorerie, juridique, Conformité, …). Aussi, conjoncturellement, celles-ci pourront porter sur de l’infrastructure IT ou un autre domaine métier. L’activité de la mission est l’intégration de la sécurité cyber dans les projets applicatifs, et le conseil aux métiers, en : • Définissant les exigences de sécurité associées aux activités des métiers, accompagnant et validant leur implémentation, • Conduisant les études et analyses de risques nécessaires à la sécurisation des évolutions demandées, • Participant à l’élaboration des notes d’application, et pattern d’exigences. • Assurant la qualification des fournisseurs et des sous-traitants impliqués, au regard des exigences de cybersécurité et de conformité règlementaire, • Conseillant le projet dans le respect de l’état de l’art de la sécurité du domaine, • Proposant des solutions permettant d’améliorer la sécurité du domaine. L’expert cyber-sécurité sera aussi amené à collaborer avec des équipes IT et les autres équipes de sécurité en proximité (Centre Opérationnel de Cybersécurité, Protection Périmétrique, Cyber Défense et Cyber Fraude, Gestion des Risques/Conformité, …). Compétences attendues • Expérience avérée en mission de Conseil et d’expertise, • Ingénierie en sécurité des systèmes informatiques, • Base technique solide en infrastructure (réseau, NAC) et sécurisation de la Donnée (DLP, SSDLC …), • Connaissances réglementaires (OSE, NIS, DORA), • La maîtrise de la méthodologie d’analyse de cyber-risques EBIOS RM, • Une connaissance du secteur de l’assurance, • Une compétence sur la sécurité numérique des bâtiments (OT/smartbuilding) sera un plus.
Offre d'emploi
Architecte Solution Design
CAT-AMANIA
Publiée le
Angular
Autosys
IBM Cloud
Île-de-France, France
Dans le cadre de la livraison d'une nouvelle Data Factory – datawarehouse transversal à l'entreprise regroupant une multitude de services et clients internes, en production ou en devenir – la mission consiste à intervenir en tant qu'architecte solution référent sur l'ensemble des choix technologiques et architecturaux de la plateforme. Cette initiative s'inscrit dans une transformation digitale profonde visant à unifier les flux de données à l'échelle de l'entreprise, à améliorer la qualité et la traçabilité des données, et à offrir aux équipes métier une plateforme fiable, évolutive et gouvernée. Le consultant jouera un rôle central dans la réussite de ce programme en assurant la cohérence globale des choix d'architecture et en garantissant l'alignement entre les ambitions métier et les capacités techniques de la plateforme.
Offre d'emploi
Business Analyst Digital UX/UI (H/F)
STORM GROUP
Publiée le
CSS
HTML
UI design
3 ans
55k-60k €
550 €
Île-de-France, France
Conception UX/UI Centrée Utilisateur Immersion & Analyse : Comprendre les usages actuels via des interviews et animer des ateliers de co-conception avec des parties prenantes multi-métiers. Design de Parcours : Cartographier les parcours cibles et structurer des informations complexes (données massives, workflows, tableaux de bord) de façon claire et hiérarchisée. Prototypage Dynamique : Produire des maquettes haute fidélité (via Figma) intégrant des données mockées pour faciliter l'intégration technique. Pilotage et Convergence Arbitrage : Challenger les besoins métiers, synthétiser les retours et amener un consensus entre les différentes parties prenantes. Support au Delivery : Collaborer avec les développeurs pour assurer la bonne intégration des écrans (respect du CSS, contraintes techniques) et tenir la roadmap agile. Tests & Itérations : Réaliser des tests utilisateurs et ajuster les prototypes en fonction des retours terrains. Industrialisation Design System : Appliquer et enrichir le Design System interne tout en veillant aux normes d'accessibilité (RGAA). Expertise Technique : Apporter ta vision des fondamentaux Web (HTML/CSS) pour garantir la faisabilité des interfaces proposées.
Offre d'emploi
Senior Consultant Business Data Analyst
VISIAN
Publiée le
Data analysis
Python
1 an
Lille, Hauts-de-France
Contexte Nous recherchons un(e) Expérimenté ou Senior Consultant Business Data Analyst pour analyser notre base client afin d’orienter les décisions stratégiques de l’entreprise. Vous jouerez un rôle clé dans l’étude de la connaissance client, et dans la propagation de celle-ci au sein de l’entreprise. Pour ce faire, vous devrez à la fois être doté d’une forte appétence métier, du bagage méthodologique et technologique adéquat. Missions Animer le recueil de besoins métiers, le challenger puis le cadrer afin de s’assurer que les prérequis au développement sont bien réunis Analyser le portefeuille clients (segmentation, comportements, valeur, churn, fidélisation) Concevoir et piloter des études ad hoc à visée stratégique sur nos clients directs et ceux recrutés via nos partenaires afin d’apporter à l’entreprise une vision globale de son portefeuille Identifier des opportunités de croissance, d’optimisation et de ciblage Formuler des recommandations actionnables aux équipes métiers et à la direction Restituer les travaux en s’adaptant à l’audience (chef de projet, CODIR, COMEX), en faisant preuve de vulgarisation et d’impact, en ayant une posture adaptée au travers de supports de qualité Garantir la qualité, la fiabilité et la cohérence des données utilisées Construire et maintenir des tableaux de bord Power BI orientés exécutif (KPI stratégiques, storylines, pages synthèse) et animer des revues de performance auprès du COMEX/CODIR Assurer la maintenance et la documentation des travaux réalisés
Offre d'emploi
Urbaniste
OCTOGONE
Publiée le
Gouvernance
55k-83k €
Corbeil-Essonnes, Île-de-France
Contexte Client Aero. Profil habilitable Expérience dans l'aéronautique ou la défense requise. Prestation à Corbeil Essonnes avec déplacements courts ponctuels possibles à l'étranger. Description L’Urbaniste des Systèmes d’Information contribue à la cohérence, à la lisibilité et à l’évolution maîtrisée du système d’information, dans le cadre d’un schéma d’urbanisation défini. Il intervient de manière transverse sur un périmètre donné, en accompagnant les projets et les métiers afin de garantir l’alignement des solutions avec les principes d’urbanisation et l’architecture existante. Il agit comme référent opérationnel de l’urbanisation sur son périmètre, en lien avec la DSI, les équipes projets et les métiers. Livrables Cadre d’urbanisation du SI Cartographies “cible” Schémas directeurs et trajectoires Livrables décisionnels Supports de gouvernance Compétences Urbanisation opérationnelle du SI Accompagnement des projets Interface métiers – IT Contribution à l’amélioration continue Compétences clés Obligatoire Anglais
Mission freelance
Data engineer orienté back end (Python) PostgreSQL - AWS - Airflow
Celexio
Publiée le
AWS Cloud
Bash
CI/CD
6 mois
400-600 €
Paris, France
Dans le cadre d'une migration de GCP à AWS, nous recherchons un ingénieur cloud senior pour accompagner ntore client. Voici les missions : Concevoir, construire et maintenir des pipelines de données de niveau production qui alimentent les indicateurs et modèles. Industrialiser les prototypes de recherche de l'équipe en systèmes de production fiables et évolutifs. Construire et maintenir des services backend exposant des indicateurs et des produits de données. Assumer la responsabilité du cycle de vie des systèmes que vous construisez, y compris l'infrastructure, le déploiement et la surveillance, en collaboration avec les Ingénieurs Ops. Exploiter et maintenir les pipelines et les services en production , y compris le débogage, la résolution d'incidents et les améliorations de performances. Participer à la migration de GCP vers AWS et contribuer au démantèlement progressif des anciens pipelines et de l'infrastructure. Garantir la qualité, la fiabilité et la reproductibilité des données à travers les pipelines et les services. Travailler en étroite collaboration avec les économistes, les scientifiques et les Ingénieurs Ops pour assurer la livraison fluide de nouveaux indicateurs et modèles en production. Améliorer l'expérience développeur, la documentation et les outils internes pour rendre les systèmes plus faciles à exploiter et à maintenir.
Offre d'emploi
Data Scientist IA
R&S TELECOM
Publiée le
CI/CD
Kubernetes
1 an
45k-55k €
430-470 €
Île-de-France, France
Contexte de la mission Vous serez amené à évoluer dans une équipe pluridisciplinaire et travailler à concevoir, développer ou faire évoluer notre infra et plateforme Big Data dans un environnement Kubernetes. Objectifs et livrables Maintenir et faire évoluer la chaine CI/CD et les différents environnements containerisés. Adapter nos infrastructures et services aux besoins des projets. Concevoir et intégrer de nouvelles solutions sur nos infrastructures conteneurisées Documenter l’architecture, l’administration et l’exploitation Guider nos clients dans l'utilisation de Kubernetes et des pipelines CI/CD Assurer le support de niveau 3 sur les infrastructures supportant la conteneurisation. Veiller à la sécurité de bout en bout dans l’usage des technologies de conteneurisation et des conteneurs. Assurer une veille technologique. Compétences demandées Compétences Niveau de compétence Programmation Python Confirmé Gitlab CI/CD Expert GRAFANA Avancé ANSIBLE Avancé KAFKA Expert KUBERNETES Expert ELASTICSEARCH Confirmé ,
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
1775 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois