L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 6 206 résultats.
Mission freelance
DATA ANALYST - Expert (>10 ans) F/H
SMARTPOINT
Publiée le
Apache Spark
Databricks
DataGalaxy
24 mois
550-580 €
Île-de-France, France
Dans le cadre du renforcement du DataLab, nous recherchons un Data Analyst Lead en prestation, rattaché à l’équipe Gouvernance des données. La mission s’inscrit dans un environnement Grande Distribution, multienseignes et multimétiers, avec de forts enjeux de pilotage de la performance, qualité des données, modélisation et usages analytiques à grande échelle. La connaissance du domaine de la Grande Distribution est un critère essentiel. Objectifs de la mission Apporter une expertise en data analyse et en conception de solutions informatiques orientées données. Contribuer à la montée en compétence des Data Analysts du DataLab. Accompagner les équipes produits et projets sur des sujets analytiques et techniques avancés. Animer la communauté des Data Analystes. Coanimer la Data Authority et les ateliers associés, en lien avec l’équipe Gouvernance des données. Principales missions Expertise en data analyse et conception de solutions data. Support avancé aux équipes produits / projets (indicateurs complexes, modélisation, cohérence des solutions). Contribution à la structuration et à l’alignement des KPI métiers. Animation de la communauté des data analystes (ateliers, bonnes pratiques, retours d’expérience). Contribution à la modélisation des données, notamment en faisant vivre le modèle de données communes. Coanimation de la Data Authority et des ateliers associés. Compétences clés attendues Expertise confirmée en data analyse. Capacité à concevoir et challenger des solutions data. Pratique avérée de la modélisation des données. Connaissance significative et opérationnelle de la Grande Distribution (critère indispensable) : enjeux business, indicateurs clés (vente, marge, stock, approvisionnement, performance magasin), compréhension des usages métiers de la donnée. Capacité à accompagner et faire monter en compétence des Data Analysts. Aisance dans l’animation de communautés et d’ateliers transverses. Contexte technique Technologies Big Data : SQL, Databricks, Scala, Python BI / Reporting : Power BI, MicroStrategy Modélisation des données : PowerDesigner Gouvernance des données : DataGalaxy Qualité des données / Data Observability : SODA Méthodologie projet : SAFE (Agilité à l’échelle) Outils Agile : Jira Environnements Big Data : Microsoft Azure & DataBricks Définit, développe, met en place et maintient les outils nécessaires à l'analyse des données par les équipes Data Conçoit les modèles de données et les contrats d'interfaces Est responsable de créer des solutions permettant le traitement de volumes importants de données tout en garantissant leur sécurité MISE EN PRODUCTION Prépare les documents requis pour les Mises En Production (MEP) et pour le Run (document d'exploitation, supervision, ?) Participe à la mise en place des processus et outils de supervision de son produit et des traitements associés Participe au transfert de compétences vers l'équipe en charge du RUN Respecte les bonnes pratiques de développement (optimisation, sécurisation, documentation, etc.) Participe aux différentes cérémonies agiles VEILLE ET SUIVI Assure une veille active sur les technologies et langages utilisés et leurs évolutions afin d'améliorer les compétences des équipes Participe à la résolution d'incidents sur le produit en collaboration avec les parties prenantes
Mission freelance
Développement (Power Apps, Dynamics 365, Azure,)
Codezys
Publiée le
.NET
Azure
Azure Data Factory
12 mois
Paris, France
Contexte de la mission Dans le cadre de la prestation de Conception-Développement sur le périmètre des actifs réels, notre objectif est de garantir la performance, la fiabilité et l'évolution continue des applications concernées. La mission inclut plusieurs volets essentiels afin d'assurer une gestion optimale des actifs réels et de leurs flux associés. Les différentes missions confiées sont : Participation aux développements conformément à la roadmap applicative Maintenance corrective et évolutive des applications et des flux entrants/sortants Support aux utilisateurs intervenant sur ce périmètre Fiabilisation technique des systèmes et processus Objectifs et livrables Les tâches et livrables à réaliser dans le cadre de cette mission comprennent : Analyse des demandes utilisateur et évaluation de leurs impacts techniques et fonctionnels Développement des évolutions et corrections nécessaires Conduite de tests unitaires pour valider les changements réalisés Support technique durant les phases d'homologation, en assurant la disponibilité et la cohérence des solutions Réalisation de diagnostics en cas d'incidents en production et mise en œuvre d'actions correctives adaptées Support aux utilisateurs pour le bon fonctionnement des applications et des flux Gestion des mises en production en respectant les processus et calendriers établis
Offre d'emploi
Tech Lead Python- IAGen (H/F)
1G-LINK CONSULTING
Publiée le
AWS Cloud
CI/CD
Kubernetes
12 mois
Paris, France
Contexte : Dans le cadre de l’accélération de ses capacités en IA, notre client renforce son architecture autour de l’ IA générative . Projet avec des enjeux forts autour de : RAG (Retrieval-Augmented Generation) industrialisation de modèles GenAI scalabilité des solutions IA Missions : Piloter les projets de bout en bout (conception → prod) Driver les sprints (organisation, tickets, priorisation) Encadrer et faire monter en compétence les développeurs Définir et porter l’architecture backend IA Contribuer aux développements Python complexes Garantir les bonnes pratiques (code, perf, scalabilité) Compétences techniques Python (expert) IA générative (expérience industrielle obligatoire ) AWS (Lambda, Bedrock, SageMaker…) RAG / LLM / NLP Architecture backend & systèmes scalables
Offre d'emploi
Développeur .NET confirmé (H/F) – Run & Build
Omnitech SA
Publiée le
.NET
Sonarqube
SQL
Le Kremlin-Bicêtre, Île-de-France
Dans le cadre du remplacement d’un de nos consultant clé, nous recherchons un Développeur .NET confirmé pour intervenir sur un périmètre stratégique mêlant développement, production (run) et coordination technique . Vous intégrerez un environnement exigeant où la réactivité, la qualité de code et la prise d’initiative sont essentielles. Vos missions Développement & maintenance Développement d’évolutions applicatives en .NET Framework 4.8 Analyse et correction d’anomalies en production Investigations techniques (debug, logs, requêtes SQL) Suivi & coordination Priorisation et affectation des tickets Suivi des sujets et coordination des actions Participation aux points d’équipe Recette & livraison Préparation des environnements de recette Réalisation des tests Participation aux mises en production Support & relationnel Interface directe avec les utilisateurs / client Réponse aux sollicitations techniques et fonctionnelles Analyse et clarification des besoins Qualité & CI/CD Suivi et configuration des pipelines Azure DevOps Analyse des retours SonarQube et correction des anomalies Relecture de code (pull requests) Environnement technique Maintenance des environnements (Windows / SQL Server) Nettoyage de bases et suivi des environnements
Mission freelance
Senior Data Platform Engineer – Databricks / Snowflake (H/F)
TEOLIA CONSULTING
Publiée le
Azure Data Factory
CI/CD
Databricks
6 mois
550-560 €
Île-de-France, France
Dans le cadre du renforcement d’une équipe Data Engineering / Data Platform au sein d’un environnement international exigeant, nous recherchons un Senior Data Platform Engineer expert Databricks / Snowflake. Vous interviendrez sur la structuration, l’optimisation et l’industrialisation d’une plateforme data cloud moderne, au cœur d’enjeux stratégiques liés à la qualité, la performance et la fiabilité des données. Vos missions principales : Conception et optimisation de pipelines data sous Azure Data Factory et Databricks Modélisation, optimisation et sécurisation d’environnements Snowflake Structuration de modèles de données complexes (multi-sources, multi-réglementations) Industrialisation des workflows via GitHub Enterprise Cloud (CI/CD) Mise en place de bonnes pratiques de qualité et monitoring des données Contribution aux choix d’architecture et à l’amélioration continue de la Data Platform Collaboration étroite avec les équipes techniques et métiers Vous évoluerez dans un environnement à fort niveau d’exigence technique et organisationnelle, où la robustesse, la performance et la rigueur sont essentielles.
Offre d'emploi
Chef de Projet Data Gouvernance H.F
NSI France
Publiée le
Azure
DataGalaxy
Gouvernance, gestion des risques et conformité (GRC)
30 jours
Châtillon, Île-de-France
Description de l'offre d'emploi Acteur majeur dans le domaine IT, depuis notre création en 1993, nous n'avons cessé de croître et d'évoluer. Avec une équipe dévouée de près de 1.400 collaborateurs répartis sur plusieurs sites en Belgique, au Luxembourg, en France et au Canada, NSI a suivi une trajectoire exceptionnelle. Notre entreprise est à la pointe de la révolution numérique, offrant une gamme complète de services IT, de l'analyse au développement de logiciels, en passant par l'architecture et la gouvernance IT. Votre rôle Le/la consultant(e) travaillera pour un client de NSI France basé en IDF dans le secteur de l’agroalimentaire avec de gros enjeux de pilotage de la performance, qualité des données, modélisation et usages analytiques à grande échelle. Descriptif des missions Contribuer à la mise en place et au pilotage de la gouvernance des données (qualité, fiabilité, cohérence) Identifier, structurer et documenter les données et indicateurs critiques en lien avec les métiers Définir et suivre les indicateurs de qualité des données et mettre en œuvre des actions d’amélioration continue Concevoir des tableaux de bord de pilotage (qualité, usages, performance data) Détecter les anomalies et formuler des recommandations structurantes en matière de data gouvernance Collaborer avec les équipes métiers, produits et IT pour intégrer la gouvernance dès la conception Animer et accompagner la communauté des Data Analysts autour des bonnes pratiques data
Offre d'emploi
Responsable Système - Ferroviaire H/F
VIVERIS
Publiée le
40k-55k €
Villeurbanne, Auvergne-Rhône-Alpes
Contexte de la mission: Viveris, accompagne ses clients dans la mise sur le marché d'électronique et de logiciels embarqués certifiés, robustes et pérennes. Dans ce cadre, nous recherchons un ingénieur système expérimenté. Rattaché.e à notre bureau d'études Rhône-Alpes, vous serez responsable de la définition d'un système complet de sécurité ferroviaire. Responsabilités: - Rédiger des spécifications fonctionnelles et techniques ; - Réaliser des études de faisabilité pour l'intégration de nouveaux équipements embarqués ; - Définir la configuration et paramétrage du système ; - Participer à l'identification et traçabilité des exigences ; - Coordonner les équipes techniques des fournisseurs et partenaires ; - Réaliser le support aux équipes de validation ; - Participer aux essais de qualification sur site client ; - Réaliser une veille technique, réglementaire et normative.
Mission freelance
Lead Developer Java / VueJS
ESENCA
Publiée le
Google Cloud Platform (GCP)
IA
Java
1 an
Lille, Hauts-de-France
Description de la mission Le Lead Developer intervient sur la conception et le développement de produits digitaux critiques, tout en diffusant une culture d’excellence technique au sein de l’équipe. Missions principales1. Leadership technique & architecture Concevoir et garantir une architecture modulaire (Spring Modulith) Assurer l’isolation des modules et la cohérence des APIs internes Encadrer les choix techniques et accompagner les développeurs 2. Développement backend & frontend Développer des services backend robustes (Java, Spring, Hibernate) Concevoir des interfaces performantes en VueJS Gérer des modèles de données complexes (PostgreSQL, JSONB) 3. Performance & scalabilité Mettre en place et optimiser des mécanismes de cache distribué (Redis) Gérer les problématiques de sérialisation et d’invalidation Assurer la performance globale des applications 4. Qualité & tests Mettre en œuvre des pratiques TDD/BDD Développer des tests unitaires et d’intégration (TestContainers, Wiremock) Garantir la conformité des APIs (OpenAPI) 5. Innovation & IA Intégrer des solutions d’IA générative (Spring AI, Vertex AI) Concevoir des mécanismes de génération de règles métier et d’analyse Participer à l’ingénierie de prompts et à l’intégration applicative Compétences techniques Java (Spring / Spring Modulith) – Expert – Impératif VueJS – Confirmé – Impératif Google Cloud Platform (GCP) – Confirmé – Souhaitable IA Générative (Spring AI, Vertex AI) – Confirmé – Souhaitable Connaissances linguistiques Anglais professionnel – Impératif
Mission freelance
Chef de projet Transverse Data/Reporting/Integration Layer/Référentiels
CRYSTAL PLACEMENT
Publiée le
SAP
12 mois
400-790 €
Roissy-en-France, Île-de-France
Dans le cadre d’un programme stratégique de transformation Data, nous recherchons un Chef de Projet Data transverse afin de piloter des sujets critiques liés à la Data, au Reporting, aux flux d’intégration et aux référentiels. Mission Vous interviendrez sur un rôle transverse visant à coordonner et sécuriser la livraison des activités Data & Reporting, tout en pilotant les flux d’intégration et les dépendances entre plusieurs streams projet. Vous serez également responsable de l’orchestration d’une roadmap Data sur le chemin critique du programme, en collaboration avec les équipes métiers et IT. Responsabilités Pilotage des structures de données, référentiels et sujets MDM Coordination des activités Data & Reporting (prérequis, mapping, qualité des données) Priorisation des besoins Reporting avec les équipes métiers Suivi des flux d’intégration (API / Integration Layer / environnement Cloud) et gestion des risques associés Coordination transverse avec les différentes équipes projets Gestion des dépendances multi-streams Animation de la gouvernance projet et consolidation des plannings
Mission freelance
Data Manager
Tenth Revolution Group
Publiée le
DBT
Snowflake
1 an
400-650 €
Paris, France
Fiche de poste – Data Manager (Transverse E-commerce & Media) Intitulé du poste Data Manager – Digital Marketing & Data Governance Mission Dans un contexte de transformation data, le Data Manager intervient sur un rôle transverse entre les domaines E-commerce, Media et autres data domains afin de garantir la cohérence, la standardisation et la qualité durable du patrimoine de données. Il/elle agit comme référent fonctionnel entre les équipes métier, produit et techniques, accompagne la conception des data products et veille à l’application des standards de data management et d’interopérabilité. Le poste nécessite une forte expertise en Digital Marketing et Web Analytics (GA4) permettant de transformer les analyses en recommandations business à forte valeur. Responsabilités principales 1. Cadrage & conception des Data Products Accompagner les équipes Marketing Digital dans le cadrage des besoins data Contribuer à la conception des data products alignés avec les enjeux métier Apporter une expertise sur : la modélisation des données la complexité et la faisabilité les impacts cross-domain Garantir l’alignement avec : les standards data existants la data architecture cible 2. Data Governance & standards Définir et maintenir les standards de data management : règles de modélisation conventions de nommage documentation Co-construire les guidelines avec les équipes en fonction des nouveaux use cases Assurer l’adoption et la bonne utilisation des standards Être le référent sur la qualité de la documentation et des pratiques de gouvernance 3. Data Urbanisation transverse Garantir la cohérence et l’interopérabilité entre les différents data domains Identifier : les doublons les overlaps la fragmentation des données (notamment autour de la donnée client) Formuler des recommandations de simplification et de priorisation Promouvoir : la mutualisation l’harmonisation la qualité long terme des données Expertise attendue – Digital Marketing & Analytics Google Analytics 4 (GA4) Analyse de trafic & parcours client Mesure de performance des campagnes Conversion rate optimization (CRO) Activation de la donnée marketing Capacité à transformer les analyses en recommandations stratégiques Soft skills Leadership fonctionnel Communication & pédagogie Esprit de synthèse Orientation valeur business
Mission freelance
Développeur.se .NET / C# confirmé.e (F/H)
CELAD
Publiée le
.NET
.NET CORE
API REST
12 mois
400-430 €
Paris, France
Envie d’un nouveau challenge en CDI… CELAD vous attend ! 🚀 Nous poursuivons notre développement et recherchons actuellement un.e .NET / MOE confirmé.e pour intervenir chez un de nos clients dans le secteur bancaire. 💻💼 Voici un aperçu détaillé de vos missions 🎯 : Au sein d’un environnement orienté gestion des risques et contrôles permanents, vous interviendrez sur une application stratégique basée sur un progiciel GRC ainsi que sur un outil d’administration développé en .NET. À ce titre, vous serez amené.e à : - Réaliser des évolutions applicatives (build et change) - Assurer la maintenance corrective et évolutive - Traiter les sujets d’obsolescence et de sécurité (montées de version .NET, SQL Server…) - Développer et exécuter les tests unitaires - Contribuer à l’amélioration continue (qualité de code, CI/CD, sécurité) - Participer à la mise à jour de la documentation technique - Collaborer avec les équipes techniques et de production applicative
Offre d'emploi
Data Ops Engineer
VISIAN
Publiée le
Ansible
DevOps
1 an
40k-45k €
400-520 €
Île-de-France, France
Data Ops Engineer - Streaming PlatformContexte Le pôle technologique conçoit et opère des plateformes « as a service » facilitant la mise en place d'architectures modernes, distribuées et hautement résilientes pour l'ensemble des entités du groupe. En tant que data ops engineer, vous rejoindrez l'équipe Interfaces, répartie en 3 squads orientées produit dont le périmètre s'étend de la conception du service à son maintien en condition opérationnelle en production. Plus particulièrement vous intégrerez la squad qui est composée de 7 personnes et qui gère le build et le run de la plateforme streaming composée de plus de 30 clusters Kafka dédiés. En tant que Devops Streaming, vous évoluerez dans un environnement technique complexe, distribué, sécurisé et hautement disponible. Vous travaillerez au sein d'une dev team affectée à un produit en particulier et serez sollicité en fonction de vos expertises pour accompagner les autres dev teams data. Description des missions Mise en œuvre opérationnelle et techniques de la plateforme Streaming Industrialiser et automatiser les déploiements avec Ansible Documenter les offres Apporter une expertise technique aux utilisateurs de la plateforme Mettre en production de nouveaux clusters et mettre à l'échelle les clusters existants (scale horizontal et vertical) Participer à la définition des architectures des futures briques de la plateforme Streaming Développer des prototypes en lien avec les cas d'usages des entités Démontrer la valeur des offres Data auprès des entités
Mission freelance
Machine Learning Engineer – IA & MLOps
ESENCA
Publiée le
Github
LangChain
Python
1 an
Lille, Hauts-de-France
Contexte du poste Dans un environnement technologique en forte croissance, vous intervenez sur le développement et l’industrialisation de solutions d’Intelligence Artificielle. Les produits évoluent rapidement et nécessitent une forte capacité d’adaptation, de structuration et d’industrialisation des modèles. Objectif Concevoir, développer et déployer des solutions AI/ML robustes et scalables, tout en assurant leur intégration dans une chaîne CI/CD moderne et une plateforme MLOps structurée. Missions principalesDéveloppement & Industrialisation IA Concevoir et développer des modèles de Machine Learning et solutions basées sur les LLM Implémenter des composants AI/ML (fonctions, classes, tests automatisés) Participer à la conception d’architectures orientées Data & IA Assurer le passage du prototype à la production MLOps & Data Engineering Construire et maintenir les pipelines d’entraînement, d’évaluation et de déploiement Automatiser les workflows via Github Actions Mettre en œuvre les bonnes pratiques CI/CD et DevOps Assurer le monitoring, la performance et la scalabilité des modèles Qualité & Documentation Garantir la qualité du code (tests unitaires, intégration) Réaliser des revues de code Documenter les développements et configurations (Github / Gitbook) Assurer le suivi du cycle de vie complet des modèles (build & run) Environnement technique Python (impératif), Github Actions (impératif), LangChain (souhaitable), GCP, Kubernetes, Kafka, Terraform, bases SQL/NoSQL.
Offre d'emploi
Concepteur développeur fullstack confirmé - Python (H/F)
█ █ █ █ █ █ █
Publiée le
Angular
AngularJS
Application web
Rennes, Bretagne
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Offre d'emploi
Consultant BI Fonctionnel (PBI) - confirmé - CDI - Rouen H/F
GROUPE ARTEMYS
Publiée le
36k-42k €
76000, Rouen, Normandie
Qui sommes-nous ? ESN : +35 ans d’existence. Expertise ARTEMYS AGIL-IT : Ingénierie logicielle | BDD | BI | Big Data. 800 collaborateurs | 80M€ CA (2024). Entreprise humaine : ProximITé, ConvivialITé, SolidarITé, EsprIT d’équipe, Partage, Respect et Accompagnement. Engagement responsable : Adhésion Global Compact, Planet Tech’Care, Label SILVER EcoVadis Sustainability, Charte de la Diversité. En savoir plus : | Des valeurs ? Oui, et pas qu’en théorie Convivialité , parce que bosser dans une bonne ambiance, ça change tout Proximité , pour que chaque membre de l’équipe ait sa place et une voix Écoute , parce qu’on est convaincus que vos idées comptent autant que votre travail. Dans un contexte de forte demande autour du reporting et de la valorisation de la donnée, nous recherchons pour notre client, un Consultant BI fonctionnel H/F capable de transformer des besoins métiers parfois flous en reportings clairs, lisibles et exploitables . Le rôle s’inscrit à l’interface entre les équipes métiers et l’équipe Data Services. L’objectif est de faciliter la compréhension, la conception et l’adoption des reportings Power BI, en apportant à la fois une approche fonctionnelle, pédagogique et une base technique solide. Ce poste ne correspond ni à un rôle de développeur Power BI pur, ni à un support IT classique : il s’agit d’un profil d’interface et de facilitation data . Votre mission (si vous l’acceptez) : Cadrage & accompagnement métier Recueillir et analyser des besoins de reporting parfois peu structurés Reformuler et clarifier les attentes utilisateurs Challenger les demandes lorsque nécessaire (pertinence des indicateurs, faisabilité, lisibilité) Aider les métiers à prioriser et structurer leurs besoins Traduire les besoins fonctionnels en spécifications exploitables par l’équipe Data Services Favoriser l’adoption des reportings et bonnes pratiques BI Pédagogie & communication Vulgariser les concepts data et BI auprès d’utilisateurs non techniques Expliquer les choix de modélisation et d’indicateurs Accompagner les utilisateurs dans la lecture et l’exploitation des tableaux de bord Animer des ateliers, démonstrations ou sessions de prise en main Servir de point de contact fonctionnel sur les sujets Power BI Contribution technique (≈ 20 % du temps) Créer et faire évoluer des rapports Power BI Comprendre les modèles de données existants Lire, comprendre et ajuster des mesures DAX existantes Réaliser des transformations simples via Power Query Participer à l’amélioration continue des reportings Identifier les impacts liés aux flux de données amont Interface avec l'écosystème data Comprendre les flux et chaînes de transformation de données en amont Échanger efficacement avec les équipes techniques autour de : SQL Alteryx Denodo Modèles de données Faciliter la collaboration entre métiers et experts data L’environnement technique : Indispensable : Bonne expérience pratique de Power BI Conception et évolution de rapports Bonne compréhension des modèles de données Lecture et adaptation de DAX existant Maîtrise de Power Query (niveau opérationnel) Culture data générale (indicateurs, qualité de données, transformations) Souhaité : Connaissance des environnements SQL Notions des outils de préparation / virtualisation de données (ex : Alteryx, Denodo) Compréhension des architectures data décisionnelles Le poste ne requiert pas un profil Data Engineer, mais une capacité à comprendre et dialoguer avec ces profils. Vous, notre perle rare : Compétences comportementales Forte capacité de pédagogie et de vulgarisation Excellent relationnel avec des utilisateurs non techniques Esprit de synthèse Capacité à structurer des besoins flous Posture de conseil et de challenge constructif Sens de l’écoute Autonomie et proactivité Capacité à naviguer dans des contextes imparfaitement cadrés Goût pour le travail d’interface entre métiers et technique Profil recherché : Expérience confirmée sur Power BI Expérience en environnement métier / fonctionnel Habitude de travailler sur des besoins évolutifs ou peu cadrés À l’aise dans des contextes de transformation ou de montée en maturité data Expérience en conseil ou en rôle transverse appréciée Le process pour nous rejoindre : simple et clair ! Échange RH : On discute de vos motivations et de l’adéquation avec nos valeurs (promis, pas de robotisation ici). Entretien opérationnel : Un échange approfondi pour clarifier vos missions. Proposition d'embauche : Si tout colle, on vous accueille officiellement chez Artemys ! Rémunération : 36 000 - 42 000 € (Selon votre expertise) Sans négliger les avantages indispensables : Carte SWILE (Tickets Restaurant, transports et CE). 12 RTT, Mutuelle Groupe, Participation Groupe. Accompagnement RH, suivi managérial de proximité (Méthode Agile) Événements entreprise : Afterworks, Tech Meetups, soirées d’intégration, events sportifs, soirées gaming… Bienvenue dans l’aventure ARTEMYS Chez nous, chaque talent compte. Peu importe votre âge, vos origines, votre identité, votre religion ou votre orientation : ce qui nous intéresse, c’est vous et ce que vous avez à apporter. On s’engage à répondre à toutes les candidatures sous 72 heures, parce qu’on sait combien l’attente peut être stressante. Et ici, l’inclusion n’est pas qu’un mot : tous nos postes sont ouverts aux personnes en situation de handicap, et on fait tout pour créer un environnement où chacun peut s’épanouir. Prêt, feu, candidatez !
Mission freelance
Data Engineer Niort Buisness Object,Optimisation SQL, TABLEAU,DATAIKU
WorldWide People
Publiée le
Business Object
12 mois
400-460 €
Niort, Nouvelle-Aquitaine
Data Engineer Niort Buisness Object,Optimisation SQL, TABLEAU,DATAIKU La mission consiste à contribuer à la structuration, l’industrialisation et la valorisation de la donnée au sein d’une équipe dédiée, afin de soutenir une transformation data ambitieuse et d’améliorer de manière continue la fiabilité et la performance des traitements. Elle vise à concevoir, organiser et optimiser les flux de données, en garantissant que chaque chaîne d’alimentation et chaque modèle produit s’inscrivent dans une démarche cohérente, durable et alignée avec les besoins métiers. Le rôle repose sur la capacité à bâtir des pipelines robustes et industrialisés, à modéliser des structures de données adaptées, et à assurer une qualité irréprochable sur l’ensemble du cycle de vie de la donnée. Une attention particulière est portée à la standardisation des pratiques, à la réduction de la dette technique et à la bonne intégration des données dans les outils d’analyse et de visualisation. La mission implique également de challenger les solutions existantes, d’identifier des axes d’optimisation et de proposer des architectures ou processus plus performants, notamment en matière d’automatisation et de gouvernance. Elle s’inscrit dans un objectif global d’amélioration continue : sécuriser les traitements, fiabiliser les décisions métier, fluidifier les interactions entre les équipes impliquées et transformer les contraintes opérationnelles en leviers de performance durable.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
6206 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois