L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 6 278 résultats.
Mission freelance
Ingénieur DevOps, Réseaux et Sécurité (H/F)
Sapiens Group
Publiée le
Ansible
Cisco
Juniper
12 mois
500-530 €
Île-de-France, France
Contexte Dans le cadre du renforcement de ses équipes, notre client recherche un Ingénieur DevOps, Réseaux et Sécurité pour intervenir sur un périmètre LAN critique couvrant l’ensemble des sites en France (environ 70 sites). Le poste inclut une forte dimension RUN N2 , ainsi qu’une évolution vers des activités DevOps et automatisation des infrastructures réseau . Missions principales 🔹 Exploitation & RUN Réseau (Niveau 2) Assurer le RUN N2 des infrastructures LAN IT/OT (switching, routage, segmentation VLAN). Gérer les incidents réseau : diagnostic, analyse des causes, résolution et coordination avec les équipes N1/N3. Garantir la continuité de service et la performance du réseau sur l’ensemble du périmètre. 🔹 Administration des services réseau Exploiter et maintenir les solutions : Cisco ISE (gestion des accès et sécurité réseau) Infoblox (DNS, DHCP, IPAM) Outils de cartographie et d’analyse réseau (type IpFabric) Participer au suivi de conformité et à l’analyse des infrastructures . 🔹 DevOps & Automatisation (nouvel axe stratégique) Concevoir et mettre en œuvre des scripts d’automatisation (Python, Ansible ou équivalent) pour : La configuration réseau Le déploiement d’équipements Le monitoring et les diagnostics Contribuer à l’industrialisation des opérations réseau ( Infrastructure as Code ). Participer à l’intégration des pratiques DevOps : CI/CD appliqué aux configurations réseau Automatisation des tests et validations Optimiser les processus RUN via des outils d’automatisation et d’orchestration . 🔹 Standards & amélioration continue Participer à la définition et au maintien des standards LAN (architecture, bonnes pratiques, templates). Collaborer avec les équipes d’ingénierie et de supervision pour : Gérer les escalades Améliorer les processus Contribuer à l’ amélioration continue des performances et de la fiabilité du réseau. 🔹 Documentation & gestion opérationnelle Rédiger et maintenir la documentation technique (procédures, wiki interne). Structurer et améliorer le partage de connaissances. Gérer les aspects logistiques : Stock matériel Envois inter-sites RMA (retours fournisseurs) Environnement technique Réseau : Cisco Catalyst & Nexus, Arista Sécurité : Palo Alto Networks, Juniper SRX Outils réseau : Cisco ISE, Infoblox (DDI), IpFabric, Tufin DevOps & automatisation : Python, Ansible, API REST (souhaité) ITSM & gestion : ServiceNow, CMDB, Netbox, Opentext
Mission freelance
AMOA IA
Codezys
Publiée le
Data science
Formation
IA Générative
12 mois
Nantes, Pays de la Loire
Contexte de la mission Ce profil senior jouera un rôle stratégique et opérationnel en tant que pont entre l’ Intelligence Artificielle (IA) Fet et les Directions métiers , afin d’assurer une coordination efficace avec les Services Support concernés. Détection et Cadrage Accélérer l’identification des besoins métiers et repérer les opportunités de projets IA à forte valeur ajoutée, en vue de les relayer à l’ IA Factory . Acculturation Sensibiliser et former les Chefs de Projet (CP) et Product Owners (PO) des directions opérationnelles aux enjeux et aux capacités de l’IA. Accompagnement Opérationnel Soutenir et sécuriser le développement ainsi que le déploiement des solutions IA au sein des équipes concernées. Levée de Freins Identifier les obstacles à l’appropriation des outils IA par les utilisateurs finaux et proposer des plans d’action correctifs adaptés. Synergies et Collaboration Favoriser le développement de synergies efficaces entre l’ IA Factory et les directions opérationnelles afin de maximiser la performance collective. Production de Documents Rédiger des études d’opportunités, élaborer des schémas fonctionnels, concevoir des solutions technologiques, rédiger des cahiers des charges, et préparer des comptes rendus synthétiques.
Offre d'emploi
Data analyst Qlik Sense H/F
Le Groupe SYD
Publiée le
Python
Qlik Sense
SQL
12 mois
40k-52k €
375-450 €
Angers, Pays de la Loire
🌟 Dans le cadre de notre développement, nous recherchons pour l’un de nos clients à Angers (49), un Data Analyst Qlik Sense H/F . Démarrage : ASAP Contrat : CDI dans le cadre d’une pré-embauche, ou prestation (indep/portage) Lieu : Angers (49) Télétravail : 2 jours/semaine (non-négo) Dans le cadre d’un renfort d’équipe, vous interviendrez en tant que Data Analyst Qlik Sense H/F . À ce titre, vos missions seront : Projets Recueillir et analyser les besoins métiers, piloter les développements et analyser ad hoc BI & Data Créer des tableaux de bord, contribuer à la modélisation, à la gouvernance et aux outils data Accompagnement Participer au support des utilisateurs, animer le réseau et participer à la stratégie data
Offre d'emploi
Chef de Projet Data (H/F)
OBJECTWARE
Publiée le
Data analysis
3 ans
40k-70k €
400-550 €
Île-de-France, France
🎯 Missions🔹 Pilotage projet Cadrer les besoins métiers en lien avec les parties prenantes (Data, IT, Métiers) Définir la roadmap projet et piloter les plannings (budget, délais, risques) Animer les comités projets (COPIL, COMEX, ateliers métiers) Suivre l’avancement des projets et assurer le reporting 🔹 Coordination Data / IT / Métiers Faire le lien entre équipes techniques (Data Engineers, Architectes, BI) et métiers Garantir la bonne compréhension des besoins fonctionnels Superviser les phases de développement, recette et mise en production 🔹 Data & Gouvernance Participer à la mise en place de référentiels de données (Data Catalog, Data Quality…) Contribuer aux sujets de gouvernance (RGPD, qualité des données, lineage) Accompagner les métiers dans l’exploitation et la valorisation des données 🔹 Delivery & Qualité Piloter les phases de recette (UAT) Garantir la qualité des livrables et leur adéquation aux besoins Assurer la conduite du changement auprès des utilisateurs
Offre d'emploi
Data Analyst Senior ( F/H) Nantes
Argain Consulting Innovation
Publiée le
Microstrategy
PowerBI
SQL
1 an
40k-45k €
500-550 €
Nantes, Pays de la Loire
🎯 Contexte Dans le cadre du renforcement des équipes Data d’un grand acteur du secteur bancaire, nous recherchons un(e) Data Analyst expérimenté(e) pour intervenir sur des problématiques de pilotage de la performance, marketing et parcours digitaux. 🚀 Mission Vous interviendrez en étroite collaboration avec les équipes métiers afin de : Recueillir et analyser les besoins métiers, les traduire en indicateurs de performance (KPI) Exploiter les données issues des systèmes décisionnels et marketing Produire et automatiser des reportings et tableaux de bord Concevoir des restitutions visuelles claires et orientées décision Accompagner les équipes dans l’interprétation des analyses Mettre à disposition et maintenir des KPI fiables et pertinents Participer à l’amélioration continue des pratiques Data 📈 Responsabilités clés Analyse et valorisation des données Définition et suivi des indicateurs business Contribution à la stratégie de pilotage et à la prise de décision 🛠️ Compétences techniques Outils de Data Visualisation : MicroStrategy (idéalement) ou Power BI / Tableau SQL avancé (expert) Manipulation de bases de données volumineuses (type Teradata ou équivalent) Bonne compréhension des environnements data et décisionnels 🤝 Compétences fonctionnelles & soft skills Très bonne communication et pédagogie Capacité à challenger les besoins métiers Esprit d’analyse et de synthèse Autonomie et rigueur Adaptabilité et sens de l’organisation ➕ Atouts Expérience dans le secteur bancaire ou financier Connaissance des problématiques marketing et digitales Connaissance d’outils de tracking (type Tag Management / Web Analytics) Mission longue durée, Nantes 3 jours de présence sur site par semaine obligatoire
Offre d'emploi
Administrateur Systèmes & Réseaux
AVA6
Publiée le
40k-45k €
Miribel, Auvergne-Rhône-Alpes
Ton défi en tant qu'Administrateur/trice Systèmes & Réseaux sera de répondre aux missions suivantes : - Piloter l'administration, l'exploitation et le maintien en conditions opérationnelles des infrastructures réseaux, systèmes et téléphonie - Assurer la prise en charge des incidents techniques complexes, en réalisant les diagnostics approfondis et en coordonnant les actions avec les équipes internes et les partenaires externes - Intervenir sur l'accompagnement et le support aux utilisateurs, en apportant une expertise technique et en contribuant à l'amélioration continue de la qualité de service - Superviser et réaliser les opérations de maintenance préventive et corrective sur les environnements informatiques, réseaux et téléphoniques - Administrer et faire évoluer les infrastructures (serveurs, réseaux, services et applications métiers) avec un haut niveau d'exigence en matière de disponibilité, de performance et de sécurité - Définir, mettre en oeuvre et fiabiliser les stratégies de sauvegarde, de réplication des données et de continuité / reprise d'activité - Concevoir et renforcer la sécurisation des accès, des flux et des environnements, sur site et à distance - Structurer, formaliser et maintenir une documentation technique fiable ainsi que les procédures d'exploitation - Participer activement au pilotage des projets techniques, conduire des études, proposer des évolutions et contribuer aux choix d'architecture et de solutions - Être garant des choix techniques et de leur cohérence avec les enjeux de sécurité, de performance et d'exploitation, en lien avec la stratégie du système d'information - Assurer une veille technologique continue et être force de proposition sur les sujets d'optimisation, de fiabilité et de sécurité de l'infrastructure
Offre premium
Offre d'emploi
Technicien gestion flux EDI environnement AS400
ARDEMIS PARTNERS
Publiée le
Échange de données informatisé (EDI)
3 mois
31k-42k €
300-370 €
Lièpvre, Grand Est
Au sein de l'équipe DSI, vous assurez le support et l'évolution des flux EDI en collaboration avec nos partenaires (fournisseurs et prestataires logistiques) en conjuguant déploiement de l'uniformisation EDI et gestion opérationnelle quotidienne. Ce poste permettra de jouer un rôle clé à l'interface du projet de transformation EDI et du Run en interaction directe avec nos partenaires fournisseurs et interlocuteurs métiers (approvisionnement) et de contribuer activement à l'optimisation de nos flux SI. Mission : EXPLOITATION : - assurer la continuité opérationnelle du SI : suivi et gestion des flux EDI Fournisseurs et prestataires logistiques (SAP + AS400 env. 60 partenaires) - garantir la supervision quotidienne du trafic EDI, la résolution d'incidents et le reporting auprès des métiers internes - participer à la mise en place et au paramétrage des évolutions EDI en lien avec les metiers Appro, Logistiques et partenaires externes - animations des tableaux de bord : suivi de erreurs et indicateurs qualité DEPLOIEMENT du chantier d'harmonisation EDI : Contexte : remplacement de la plateforme EDI existante (PROEDI 400) vers la solution TradeXpress de Generix Mission : déployer et assurer l'uniformisation des échanges EDI entre l'entreprise et ses partenaires, en garantissant la cohérence, la conformité et la robustesse des flux EDI sur le SI Cible - conduite des ateliers de normalisation - définition des standards EDI
Offre d'emploi
Développeur Back-End Senior orienté IA (Python / Data / API) – H/F
SMARTPOINT
Publiée le
API REST
Machine Learning
MLOps
1 an
50k-60k €
400-500 €
Île-de-France, France
Dans le cadre du développement de solutions innovantes à forte valeur métier, nous recherchons un Développeur Back-End Senior orienté Intelligence Artificielle pour rejoindre une Dev Factory IA . Vous interviendrez sur la conception et le développement d’applications intégrant des composants data et intelligence artificielle , au sein d’équipes pluridisciplinaires composées de développeurs, data engineers, data scientists et experts métier . Votre mission consistera à concevoir, développer et industrialiser des services applicatifs et des briques d’intelligence artificielle , dans un environnement technique exigeant en matière de performance, scalabilité et fiabilité . Vos missions Développement Back-End et IA Concevoir et développer des API REST et/ou GraphQL robustes, sécurisées et performantes Implémenter des services d’exposition de modèles d’intelligence artificielle (inférence, scoring, prédictions) Développer des traitements data répondant aux besoins métiers Architecture applicative et data Participer à la définition des architectures applicatives et data/IA Concevoir des solutions scalables, modulaires et maintenables Appliquer les bonnes pratiques d’architecture logicielle (SOLID, séparation des responsabilités) Gestion des flux de données Traiter et exposer des données issues de différentes sources : bases de données relationnelles bases NoSQL APIs externes pipelines de données Garantir la qualité, la traçabilité et la performance des flux Intégration et mise en production des modèles IA Intégrer les modèles développés par les équipes data Mettre en production des services d’inférence Gérer les versions des modèles et suivre leurs performances Anticiper les problématiques de dérive des modèles Industrialisation et CI/CD Contribuer au dépôt GitLab Participer aux revues de code Mettre en place et maintenir des pipelines CI/CD Automatiser les processus de tests et de déploiement Qualité et tests Développer des tests unitaires, d’intégration et de performance Garantir la fiabilité et la stabilité des services applicatifs et des composants IA Sécurité applicative et data Mettre en œuvre les bonnes pratiques de sécurité : authentification autorisation chiffrement protection des données sensibles Collaboration agile Participer aux rituels Scrum Collaborer avec les équipes data, front-end, produit et DevOps Documentation et amélioration continue Documenter les architectures, APIs, pipelines data et processus de déploiement Contribuer à la veille technologique et à l’amélioration des pratiques de développement
Mission freelance
101058/Data Scientist Machine Learning, Prompt engineering, MLOPS Nantes (2 jours TT)
WorldWide People
Publiée le
Data science
9 mois
400-450 €
Nantes, Pays de la Loire
Data Scientist IA GEN, Python, Machine Learning, Prompt engineering, MLOPS Nantes (2 jours TT) - Une base solide en Python pour l'exploration des données, l'évaluation d'un modèle ou la construction d'une API python. - Une Connaissance de SQL - De Solides connaissances de Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Une Maîtrise des frameworks ML distribués modernes tels que TensorFlow, PyTorch Activité principales attendues : Machine Learning / Deep Learning • Évaluer le problème métier et prouver la valeur via l'analyse exploratoire des données pour démontrer la valeur d'une approche ML/DL • Création et production de modèles d'apprentissage automatique industrialisables • Traitement de données à grande échelle pour la création de jeux de données d'entraînement • Appliquer les bonnes pratiques de MLOps et d'explicabilité des modèles • Présenter les résultats aux parties prenantes et aider au suivi à long terme de la performance du modèle pour démontrer la valeur de l'IA IA Générative • Évaluer le problème métier et prouver la valeur via l'analyse exploratoire des données pour démontrer la valeur d'une approche IA Gen • Prompt engineering • Bench via des solutions d'évaluation des modèles d'IA Gen • Optimisation des solutions (paramétrage des modèles) Notre client attend de la candidature que vous proposerez : - qu'elle soit autonome sur l'IA Gen (prompt engineering, context engineering, construction de workflow avec RAG, tool calling, MCP, implémentation de guardrails) - qu'elle dispose d'une expérience significative en Machine/Deep Learning (traitement du langage naturel, traduction automatique, etc.), Vision (vision par ordinateur, reconnaissance, etc.), et sur le cycle de vie des modèles IA (de la conception vers l'industrialisation, puis la supervision en production de sa valeur) Enfin qu'elle ait : - Une base solide en Python pour l'exploration des données, l'évaluation d'un modèle ou la construction d'une API python. - Une Connaissance de SQL - De Solides connaissances de Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Une Maîtrise des frameworks ML distribués modernes tels que TensorFlow, PyTorch
Mission freelance
Controle de gestion indus. / financial data analyst (Microsoft 365 F&O)
Mon Consultant Indépendant
Publiée le
Microsoft Dynamics
2 mois
610-640 €
Rennes, Bretagne
PME de l'industrie pharmaceutique sous LBO ERP : Microsoft Dynamics 365 F&O, mis en place en 2025 (1 an de données dispo environ) Besoin d'un appui pour définir des coûts de revient : comprendre les datas existantes, définir rapidement une cible (comment calculer un cout de revient satisfaisant), puis structurer les outils et processus pour y arriver, réaliser très vite des tests / essais pour fiabiliser la démarche, tout en sensibilisant toutes les parties prenantes (production notamment). Il faut par ailleurs embarquer les équipes pour que l'initiative survive après le projet. (reportera au DAF ou au RAF selon profil) Profil recherché : MINIMUM 10 ans d'expérience Connaissance OBLIGATOIRE de l'ERP Microsoft Dynamics 365 F&O (avoir déjà travaillé avec et en connaitre ses rouages fonctionnels pour l'exploiter dans le cadre de ce projet) Avoir mené des projets similaires dans des environnements type PME / PMI (orienté terrain, pragmatique, en proximité forte avec les équipes locales) dans l'industrie (si possible pharma). Projet type conseil : prise de recul, cadrage / structuration des travaux, prise d'hypothèses, savoir prendre des raccourcis, communication avec tous types de stakeholders, etc. Doit être autonome, force de proposition et prise d'initiative pour faire avancer le projet. Présence en Bretagne au moins 2 ou 3j par semaine (1h de voiture au Nord de Rennes) Etat d'esprit collaboratif , avoir beaucoup de pédagogie avec les équipes en place pour créer une dynamique collective et embarquer des membres de l'équipe au delà de la presta.
Mission freelance
Senior Data Product Manager/ Data Mesh/ Cloud AWS & AZURE / Anglais (H/F)
Octopus Group
Publiée le
BI
Dataiku
Finance
6 mois
550-680 €
La Défense, Île-de-France
Nous recherchons pour le compte de notre client grand-compte en finance, Senior Data Product Manager Contexte de la mission : Il s'agit d'un poste à la fois stratégique et hautement opérationnel, chargé de la mise en œuvre concrète et du déploiement de la plateforme de données en libre-service du Groupe, fondée sur les principes du Data Mesh. Le Senior Data Product Manager est responsable de la mise en œuvre pratique, de l'industrialisation et de l'adoption à l'échelle de l'entreprise de la plateforme dans l'ensemble des domaines d'activité. Ce poste requiert un profil orienté vers la construction et l'exécution, capable de définir la vision et de la traduire en une plateforme évolutive, de qualité production et utilisable à grande échelle. Mission Principale : Concevoir, construire, déployer et exploiter la plateforme Data Mesh du Groupe (appelée Group Data Platform - GDP) en tant que produit interne, en garantissant sa mise en œuvre technique, son adoption par l'entreprise, l'excellence opérationnelle et l'amélioration continue. Gestion de produit (axée sur l'utilisation) et amélioration continue Responsabilités : Identifier les besoins des utilisateurs et les exigences de la plateforme Définir la vision du produit et la feuille de route Mesurer l'utilisation et la création de valeur Améliorer l'expérience des développeurs et des utilisateurs Résultats attendus : Vision du produit et proposition de valeur Indicateurs clés de performance (KPI) de la plateforme et mesures d'adoption Boucles de retour d'information des utilisateurs et liste des améliorations à apporter Feuille de route pour l'amélioration de la plateforme Fourniture de la plateforme (responsabilité principale) Responsabilités : Définir les capacités de la plateforme (produits de données, pipelines, gouvernance, observabilité, accès en libre-service) Définir et faire respecter les normes techniques et les modèles d'architecture Prendre des décisions techniques concrètes et valider les solutions Livrables attendus : Comptes rendus des décisions d'architecture (ADR) Modèles d'architecture de référence et gabarits réutilisables Feuille de route des capacités de la plateforme Normes techniques de la plateforme Architecture et infrastructure cloud Responsabilités : Coordonner la conception et l'exploitation de l'architecture cloud et hybride en collaboration avec l'architecte de données du groupe Coordonner avec l'équipe de mise à disposition des données du groupe la mise en œuvre sur Amazon Web Services et Microsoft Azure Diriger l'intégration des systèmes sur site Veiller au respect des exigences en matière de sécurité et de conformité Résultats attendus : Plan directeur de l'architecture cloud (avec l'aide de l'architecte de données du groupe) Cadre de sécurité et de gestion des accès Gestion de la livraison et de l'exécution Responsabilités : Gérer le cycle de vie de la livraison de la plateforme Définir le backlog et le processus de hiérarchisation des priorités Gérer les versions et le déploiement en production Suivre les performances et la fiabilité Gérer les risques et les problèmes techniques Livrables attendus : Feuille de route de la plateforme (court / moyen / long terme) Backlog produit et cadre de priorisation Plan de lancement et processus de gestion des versions Tableaux de bord de suivi des livraisons SLA de la plateforme / indicateurs de fiabilité Déploiement et adoption par les domaines métier Responsabilités : Déployer la plateforme dans l'ensemble des domaines métier Permettre aux équipes métier de créer des produits de données Mettre en œuvre le modèle opérationnel Data Mesh Accompagner l'intégration et l'adoption Résoudre les difficultés opérationnelles liées à l'adoption Résultats attendus : Cadre et processus d'intégration des domaines métier Directives relatives au cycle de vie des produits de données Guides de mise en œuvre pour les domaines métier Indicateurs d'adoption et d'utilisation Supports de formation et documentation d'intégration Documentation, normalisation et gouvernance Responsabilités : Documenter les capacités et les processus de la plateforme Veiller au respect de la gouvernance fédérée des données computationnelles du groupe Résultats attendus : Référentiel de documentation de la plateforme Normes techniques et directives de mise en œuvre Cadre de gouvernance et de conformité Guides des meilleures pratiques Communication opérationnelle et rapports à la direction Responsabilités : Communiquer sur l'avancement et l'impact de la plateforme Fournir des rapports destinés à la direction Assurer la coordination entre les parties prenantes Livrables attendus : Tableau de bord du projet destiné à la direction Tableaux de bord sur les performances de la plateforme Présentations au comité de pilotage Suivi des décisions, des risques et des problèmes Promotion interne et évangélisation Responsabilités : Promouvoir la valeur de la plateforme au sein de l'organisation Soutenir les initiatives d'adoption en interne Développer la communauté autour de la plateforme Livrables attendus : Supports de communication internes relatifs à la plateforme Stratégie d'adoption et plan de déploiement Démonstrations de la plateforme et recueil de cas d'utilisation
Offre d'emploi
Scrum Master / Agile Master Data (F/H) - NIORT
K-Lagan
Publiée le
Agile Scrum
Big Data
Gestion de projet
1 an
40k-49k €
430-550 €
Niort, Nouvelle-Aquitaine
🚀 Et si votre prochain projet faisait grandir vos compétences autant que votre carrière ? Chez K-LAGAN , nous faisons vivre chaque projet grâce aux talents qui le portent, en alliant expertise technique et accompagnement personnalisé . Aujourd’hui, nous recherchons un·e Scrum Master / Agile Master Data (F/H) pour rejoindre l’un de nos clients, dans un environnement data innovant. 🔍 Contexte Vous interviendrez au sein de Feature Teams / Squads Data , travaillant sur des sujets tels que plateformes data, reporting, analytics, machine learning ou gouvernance des données . Votre rôle sera de garantir l’application des pratiques Agile et de faciliter la collaboration dans un environnement technique et métier exigeant. 🎯 Missions Accompagner les équipes Data dans l’adoption et l’amélioration des pratiques Agile Animer les rituels Scrum (daily, sprint planning, review, rétrospective) Faciliter la collaboration entre équipes techniques, métiers et stakeholders Lever les impediments et sécuriser l’avancement des squads Promouvoir une culture d’ amélioration continue Assurer un suivi des indicateurs Agile (KPI, vélocité, delivery…) Accompagner la transformation Agile à l’échelle si nécessaire
Offre d'emploi
Mission – Développeur Python
OMICRONE
Publiée le
Azure
Big Data
Python
3 ans
40k-45k €
400-500 €
Île-de-France, France
📢 Mission – Développeur Python Confirmé (H/F) Dans le cadre d’un échange avec l’un de nos clients, nous recherchons un développeur Python confirmé pour intervenir sur des projets à forte valeur ajoutée. 🔹 Missions Développement et évolution d’applications data / backend Python Participation à des projets de bout en bout (design → production) Collaboration étroite avec les équipes business, infra et sécurité Contribution à des environnements cloud Azure 🔹 Profil recherché Développeur Python confirmé (5+ ans) Expérience en environnement Azure / data / APIs Capacité à intervenir en autonomie sur des sujets end-to-end Bonne compréhension des enjeux métier Anglais professionnel requis 🔹 Conditions 📍 Localisation : paris 💼 Mission long terme (pas de mission courte) 🚫 Non ouvert à la sous-traitance
Offre d'emploi
Data Analyst Dataiku
VISIAN
Publiée le
Dataiku
Tableau software
1 an
40k-74k €
400-700 €
Rueil-Malmaison, Île-de-France
et Reporting dédié à la direction marketing d'ARVAL. Vous serez au cœur de la démarche de pilotage des activités marketing par la donnée. Vous avez pour mission de fournir les moyens de contrôler /analyser /piloter de l’activité du métier marketing au sein d'ARVAL. Vos activités principales consisteront à accompagner les métiers marketing - dans 29 pays - dans l’analyse de leurs besoins, à aider à implémenter et automatiser les solutions les mieux adaptées (tableaux de bord, extraction…), à leur fournir des recommandations et des analyses basées sur leurs données. Une connaissance en data management et notamment dans la mise en place de Data Lineage et de dictionnaire de données vous sera nécessaire. Vous devrez également avoir une expérience en pilotage transverse. Votre périmètre recouvre l’ensemble des données de l’activité d’Arval (3 CLS, Salesforce, Medallia, sites internets, espace client, etc) Les outils utilisés afin de répondre aux besoins de nos clients sont DATAIKU, SQL avancé, bases en Python, et TABLEAU. Les enjeux sur 2026 : • Reprendre et finaliser la Refonte des projets data marketing DMK • Securiser et stabiliser le run • Mise en place de nouveaux projets reportings/analytics clés pour le marketing (Campaign performance & optimization, connaissance client ex. CLV, tracking du parcours digital client, Cost per lead…) • Construire des modèles prédictifs/scorings simples • Automatiser le production de reportings mensuels pour direction Marketing • Documentation
Mission freelance
Chef de Projet Télécom
Buy The Way
Publiée le
Data Center
Réseaux
Telecom
12 mois
Puteaux, Île-de-France
🎯 Votre rôle En tant que Pilote Télécom , vous jouerez un rôle clé dans la coordination des projets liés aux activités DataCenter et Télécom . Vous serez l’interface entre les opérateurs et les équipes internes (techniques et financières), garantissant la qualité des services et la bonne gestion des relations de partenariat. 🛠️ Vos missions principales Gestion administrative : suivi et amélioration de l’arborescence documentaire DataCenter/Télécom, traitement des factures en lien avec les équipes financières. Suivi opérationnel : pilotage des projets télécom liés aux DataCenters, animation des comités exécutifs opérateurs, contrôle mensuel des factures, participation à l’amélioration continue des outils internes. Communication et reporting : suivi des risques, avancement des projets, respect budgétaire, reporting régulier au responsable DataCenter. Documentation et qualité : mise à jour et suivi du référentiel technique, élaboration de flux d’information optimisés, contrôle de la bonne application des procédures.
Offre d'emploi
Data Engineering DBT / SQL (430€)
BEEZEN
Publiée le
DBT
6 mois
40k-81k €
340-430 €
Lyon, Auvergne-Rhône-Alpes
● Maîtriser DataForm pour la transformation et l’orchestration des données. ● Travailler sur des environnements Data et Cloud, notamment GCP. ● Exploiter BigQuery et SQL avancé sur de gros volumes de données. ● Manipuler et analyser les données en SQL. ● Utiliser DataForm pour structurer les pipelines data. ● Gérer des fl ux temps réel avec Pub/Sub. ● Automatiser les workfl ows data via GitLab CI/CD et Docker Compose. ● Travailler sous Linux et en ligne de commande. ● Versionner le code avec Git. ● Collaborer en environnement agile (Scrum). - Expériences (au moins 2 ans) sur des projets intégrant DBT 1 JOUR SUR SITE
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
6278 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois