Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 299 résultats.
Freelance
CDI

Offre d'emploi
DBA SQL Server Senior / Architecte Azure

Gentis Recruitment SAS
Publiée le
Azure

12 mois
Hauts-de-Seine, France
🚨 Mission Freelance – DBA SQL Server Senior / Architecte Azure (Niveau N4) ⏳ Durée : mission longue (12 mois renouvelables) 📍 Environnement : architecture cloud-first orientée Azure PaaS (usage majoritaire) 🚫 Filtrage strict : toute candidature hors périmètre sera automatiquement rejetée ❗ Prérequis impératifs (éliminatoires) Les conditions suivantes sont non négociables : Minimum 11 ans d’expérience en administration SQL Server Expertise confirmée et opérationnelle sur Azure SQL en mode PaaS Niveau anglais courant (communication écrite et orale en contexte professionnel) Expérience démontrée en environnements critiques (production, haute disponibilité, PRA) 👉 Toute candidature ne respectant pas l’ensemble de ces critères sera écartée sans analyse complémentaire 🎯 Périmètre et responsabilités Administration, exploitation et support des bases SQL Server (du N1 au N4) Conception, évolution et validation d’architectures SQL Server sur Azure PaaS Gestion d’environnements critiques incluant : haute disponibilité (HA) plan de reprise d’activité (PRA / DRP) mécanismes de failover / clustering Support et accompagnement des équipes techniques (développement, infrastructure, data) Industrialisation des processus (déploiement, configuration, exploitation) Automatisation des opérations récurrentes Analyse, optimisation et pilotage des performances et des coûts cloud 🛠 Compétences techniques obligatoires 🔴 SQL Server (expertise avancée) Maîtrise des architectures Always On et Failover Cluster Instances Optimisation avancée des performances (requêtes, indexation, tuning) Capacity planning et gestion de la volumétrie Diagnostic et résolution d’incidents complexes (niveau N3/N4) 🔴 Azure (compétence centrale et différenciante) Expérience concrète en production sur : Azure SQL Database Azure SQL Managed Instance Services Azure liés (stockage, réseau) Migration et transformation vers des architectures PaaS Optimisation des coûts et des performances sur Azure 👉 Une expérience limitée à Azure VM ou une simple exposition cloud n’est pas suffisante 🔴 DevOps / Automatisation Mise en place et gestion de pipelines CI/CD (Azure DevOps) Infrastructure as Code (Terraform ou équivalent) Scripting avancé : PowerShell (obligatoire) Python ou Bash (apprécié) 🔴 Environnements critiques Mise en œuvre de stratégies HA / PRA / DRP Architecture distribuée et résiliente Gestion d’incidents majeurs et situations de crise 🧩 Compétences complémentaires appréciées Expérience multi-SGBD (PostgreSQL, MongoDB, Oracle) Outils de monitoring avancé (Grafana, Prometheus, Zabbix…) Environnements hybrides (Azure / AWS / On-premise) Approche FinOps et optimisation des coûts cloud 👤 Profil attendu DBA senior / Architecte (niveau N4) Capacité à : concevoir et faire évoluer une architecture cible challenger des choix techniques intervenir efficacement en production critique Autonomie, rigueur, sens de la performance et de la fiabilité ⚠️ Profils hors cible (refus systématique) DBA exclusivement on-premise Profils orientés BI / Data / Power BI Data Engineers sans expertise DBA infrastructure DBA sans expérience significative sur Azure PaaS Moins de 11 ans d’expérience
Freelance

Mission freelance
DATA SCIENTIST

Codezys
Publiée le
Azure
Azure AI Foundry
Azure DevOps Services

12 mois
450-500 €
Nanterre, Île-de-France
Description détaillée : VOTRE MISSION Concevoir et industrialiser des solutions d’intelligence artificielle générative (modèles de langage de grande taille, agents intelligents, RAG) en réponse aux besoins identifiés par la cellule AI Catalysts, priorisés par le Product Owner (PO). Intégrer ces composants GenAI au sein de l’écosystème existant (GenAI Core, OneAPI, Azure AI Foundry), tout en respectant les normes de sécurité et de gestion des coûts. Définir et mettre en œuvre les architectures techniques appropriées : sélection des modèles, orchestration des agents, conception des systèmes RAG, gestion des sessions utilisateur. Développer et maintenir le code, principalement en Python, ainsi que les composants réutilisables tels que les librairies de prompts et d’agents. Industrialiser le déploiement des solutions via la conteneurisation (Docker), l’orchestration Kubernetes, les pipelines CI/CD, l’Infrastructure as Code (Terraform), et assurer le suivi opérationnel (monitoring). Appliquer les bonnes pratiques MLOps : suivi des expérimentations, versioning des modèles, tests de régression, validations en environnement pré-production. S’assurer de la qualité, de la performance et de l’observabilité des solutions : mise en place de métriques, tests adversariaux, surveillance des dégradations en production. Collaborer étroitement avec le Product Owner, les ingénieurs logiciels, les AI Catalysts et la DSI afin d’assurer la sécurité et l’adoption des solutions proposées. Participer à la documentation, à la création de templates, ainsi qu’à la formation des équipes internes. Profil recherché : Data Scientist Responsable du développement d’algorithmes en Machine Learning et Intelligence Artificielle, visant à générer de la valeur métier à partir de données (structures, non structurées, vidéos, images, etc.). Capable de comprendre et d’interroger les demandes de l’entreprise pour fournir des solutions optimales. Apporte un support stratégique à la décision, notamment en proposant des innovations, en améliorant les performances et en optimisant le service client. Participe à l’industrialisation des projets de Data Science en collaboration avec les Data Engineers. Assure la maintenance et la documentation des algorithmes industrialisés, conformément aux rôles et responsabilités définis par le projet. Localisation : Paris – Niveau avancé (minimum 9 ans d’expérience dans le domaine) Ce descriptif ne doit pas dépasser 3000 caractères, intégrant l’ensemble des éléments en HTML pour garantir une mise en forme claire et professionnelle.
Freelance

Mission freelance
Architect MS Fabric

TAHYS RECRUITMENT SOLUTIONS
Publiée le
Microsoft Fabric

12 mois
France
Architec t MS Fabric (Framework & Responsable d’équipe) Le rôle Vous rejoindrez notre équipe projet en tant que Lead Expert MS Fabric pour un client international majeur. Votre mission sera de concevoir et de livrer un framework d’ingestion et de transformation scalable, de niveau production , qui constituera la colonne vertébrale de leur plateforme data globale. Responsabilités principales Responsabilité du framework : Concevoir et développer un framework personnalisé et piloté par les métadonnées en utilisant Python (PySpark) et MS Fabric (Notebooks, Pipelines, Lakehouses). Delivery de bout en bout : Assumer l’entière responsabilité des livrables du projet, incluant un code de haute qualité, une documentation d’architecture technique complète et la livraison finale du framework. Leadership d’équipe : Manager et encadrer une équipe de data engineers juniors, en garantissant la qualité du code via des revues rigoureuses et un accompagnement technique. Interaction client : Agir en tant que point de contact technique au sein de l’équipe de delivery, en veillant à ce que la solution soit alignée avec l’échelle internationale du client et les standards de sécurité Azure.
Freelance
CDI

Offre d'emploi
Data Scientist Generative IA (4jrs TT) sur 92

EterniTech
Publiée le
Data science
IA Générative
Pytorch

3 mois
Hauts-de-Seine, France
Je recherche pour un de mes clients un Data Scientist Generative IA avec 4 jours TT sur 92 VOTRE MISSION** * Concevoir et industrialiser des solutions d’IA Générative (LLMs, Agents, RAG) répondant aux besoins des AI Catalysts, priorisés par le PO. * Intégrer les composants GenAI à l’écosystème existant (GenAI Core, OneAPI, Azure AI Foundry), tout en respectant les normes de sécurité et de coûts. * Définir et implémenter les architectures techniques : choix de modèles, orchestration d’agents, conception RAG, gestion des sessions. * Développer et maintenir le code (principalement Python) et les briques réutilisables (librairies de prompts, agents). * Industrialiser le déploiement : conteneurisation (Docker), Kubernetes, CI/CD, Infrastructure as Code (Terraform), et monitoring. * Mettre en œuvre des pratiques MLOps : suivi des expériences, versioning de modèles, tests de régression, validations en pré-prod. * Assurer la qualité et l’observabilité : métriques de performance, tests adversariaux, suivi des dégradations en production. * Collaborer avec le PO, le Software Engineer, les AI Catalysts et la DSI pour garantir la sécurité et l’adoption des solutions. * Contribuer à la documentation, aux templates et à la formation des équipes internes. *VOTRE PROFIL * Bac +3 à Bac +5 en informatique, data science ou équivalent. * 3 à 5 ans d’expérience en développement d’applications utilisant l’IA, avec un accent sur l’IA Générative (Agents, RAG, LLMs). * Maîtrise de Python et des bibliothèques ML/IA (PyTorch, Transformers). * Connaissances des frameworks GenAI : LangChain, LangGraph, LangFuse, et des moteurs de recherche sémantique (Qdrant, Milvus). * Compétences en architecture cloud Azure (AI Foundry, AKS, WebApp) et en conteneurisation/orchestration (Docker, Kubernetes). * Familiarité avec CI/CD et Infrastructure as Code (Terraform). * Sensibilité aux enjeux de cybersécurité et de conformité. * Rigueur dans l’ingénierie logicielle : tests, documentation et automatisation des pipelines. * Capacité à travailler en équipe et à vulgariser les concepts techniques. * Anglais professionnel (lu/écrit) ; français courant indispensable. Définition du profil DATA SCIENTIST: - En charge du développement d'algorithmes (Machine Learning et Intelligence Artificielle) pour créer de la valeur métier à partir de données (structurées, non structurées, vidéos, images, etc.). - Doit comprendre les demandes de l'entreprise et les challenger pour fournir la meilleure réponse possible. - Apporte un support à la décision sur d'éventuelles innovations, l'amélioration des performances et décisions relatives au service client. - Industrialise les projets de Data Science avec les Data Engineers. - Maintient et documente les algorithmes industrialisés (selon les rôles et les responsabilités définis par le projet).
CDI

Offre d'emploi
Data Ingénieur - Expert Spark H/F

CONSORT GROUP
Publiée le

Tassin-la-Demi-Lune
Chaque moment compte. Surtout ceux que vous vivez à fond. Bienvenue chez Consort Group. Consort Group, accompagne depuis plus de 30 ans les entreprises dans la valorisation de leurs données et infrastructures. Elle s'appuie sur deux leaders, Consortis et Consortia, et place l’humain et la responsabilité sociétale au cœur de ses valeurs. Data Ingénieur - Expert Spark H/F Vous êtes passionné·e par les architectures de données à grande échelle et le traitement temps réel ? Ce poste est fait pour vous. En tant qu' Expert Spark Data Engineer , vous êtes responsable de l'analyse, de l'optimisation et de l'évolution de notre pipeline de données au cœur de notre écosystème BI et statistiques. Côté build Conception et préconisations d'architecture Réaliser l'analyse et l'état des lieux technique de la solution existante (Kafka Connect, Spark, Kubernetes, MongoDB sur OVH) Produire les préconisations d'amélioration du Spark streaming pour le traitement temps réel Définir le dimensionnement infrastructure adapté au streaming temps réel (350 bases, 5 000 req/s, 1 To/an) Proposer une stratégie de dimensionnement MongoDB et de structuration de la donnée (standardisation des patterns) Rédiger le document d'architecture cible et le dossier de préconisations Côté run Optimisation et maintien en condition opérationnelle Assurer la fiabilité et la performance du pipeline de données en production sur l'infrastructure OVH Superviser les flux Kafka Connect et garantir la continuité du traitement des données entrantes Monitorer les performances Spark et intervenir sur les axes d'optimisation identifiés Veiller à la cohérence et à la qualité de la donnée stockée dans MongoDB Participer aux revues techniques et accompagner les équipes internes ENOVACOM dans la montée en compétences C'est votre parcours Vous avez au moins 5 ans d'expérience dans des environnements Data Engineering exigeants, avec une forte exposition aux architectures de traitement temps réel et à la gestion de volumétries importantes. Vous aimez diagnostiquer, optimiser et concevoir sans jamais cesser d'innover. Vous cherchez un cadre où vos idées comptent et où la technique va de pair avec la collaboration. C'est votre expertise Apache Spark – maîtrise avancée du streaming et du batch, tuning et optimisation des performances MongoDB – modélisation, structuration de la donnée et bonnes pratiques de dimensionnement Kafka / Kafka Connect – conception et exploitation de pipelines de données en flux continu Déploiement Apache Spark sur Kubernetes – configuration, orchestration et gestion des ressources OVH Cloud – déploiement et exploitation d'infrastructures cloud dans un contexte de production C'est votre manière de faire équipe Capacité d'analyse et de synthèse : vous transformez des états des lieux complexes en préconisations actionnables Rigueur documentaire : vos livrables (architecture cible, dossiers techniques) sont clairs et exploitables Posture conseil : vous savez challenger l'existant et proposer des axes d'amélioration concrets Esprit de collaboration : vous travaillez en proximité avec les équipes internes et partagez vos expertises Autonomie et sens des priorités dans un environnement technique à fort enjeu de performance C’est notre engagement Chez Consort Group, vous êtes un·e expert·e qu’on accompagne pour que chaque mission devienne une étape qui compte. Un onboarding attentif et humain Une vraie proximité managériale Des formations accessibles en continu Des engagements concrets : inclusion, égalité, solidarité Un package RH complet : mutuelle, carte TR, CSE, prévoyance Une culture du feedback et des projets qui font sens C’est clair Le process de recrutement : Un premier échange téléphonique avec notre team recrutement Un entretien RH ainsi qu’un échange métier avec un.e ingénieur.e d’affaires Un test ou un échange technique avec un.e de nos expert.es Un dernier point avec votre futur.e manager ou responsable de mission Et si on se reconnaît : on démarre ensemble C’est bon à savoir Lieu : Marseille Contrat : CDI Télétravail : Hybride Salaire : De 40000 € à 45000 € (selon expérience) brut annuel Famille métier : Data Ce que vous ferez ici, vous ne le ferez nulle part ailleurs. Ce moment, c’est le vôtre.
Freelance

Mission freelance
Chef de projet finance de marché

JobiStart
Publiée le
Agile Scrum
Analyse financière

2 ans
400-670 €
Île-de-France, France
Tâches principales : Piloter des projets IT complexes en mode Agile (Scrum / SAFe) et Waterfall hybride , de la phase de cadrage jusqu'à la mise en production et le go-live Définir et suivre le plan projet : périmètre, budget, planning, ressources, jalons et livrables Animer les comités de pilotage (Steerco) , les réunions de suivi et les ateliers de conception avec les équipes métiers et techniques Gérer le RAID Log (Risks, Assumptions, Issues, Dependencies) et mettre en place des plans de mitigation adaptés Coordonner les équipes pluridisciplinaires : Développeurs, Architectes Solution, Data Engineers, QA / UAT, DevOps Assurer le suivi budgétaire et la gestion des ressources internes et prestataires externes (TJM, staffing, montée en compétence) Contribuer aux projets de transformation réglementaire (FRTB, EMIR Refit, Bâle IV, DORA) en lien avec les équipes Compliance et Risk Rédiger les Business Requirements Documents (BRD) , les Functional Specifications et les livrables de gouvernance projet Piloter les phases de recette (SIT / UAT) , de gestion du changement ( Change Management ) et de déploiement en production Assurer un reporting régulier auprès des sponsors et du middle management via des tableaux de bord ( PowerBI, Confluence, JIRA )
Freelance

Mission freelance
Administrateur Plateforme Data (Cloudera & Open Source)

VISIAN
Publiée le
Administration linux
Bash
Cloudera

1 an
400-470 €
Île-de-France, France
Contexte Dans le cadre du développement d’une plateforme Data & IA au sein d’un grand groupe du secteur financier , nous recherchons un Data Platform Engineer / Administrateur Data pour assurer l’administration, l’évolution et la fiabilité des infrastructures Data. Vous interviendrez sur des environnements Big Data basés sur l’écosystème Cloudera et Open Source , au sein d’équipes techniques et métiers. Missions Administration et exploitation des plateformes Data Administrer et maintenir les plateformes Big Data en condition opérationnelle Superviser les systèmes et assurer la maintenance corrective et évolutive Intervenir sur la résolution d’incidents complexes sur les plateformes Data Conception et gestion des flux de données Identifier les besoins métiers en matière de collecte et stockage de données Développer des solutions d’ingestion de données (API, pipelines) Concevoir des architectures de stockage robustes (Data Lake / Big Data) Automatiser les traitements via batchs et pipelines de données Valorisation et gouvernance des données Industrialiser les processus de transformation et de nettoyage des données Gérer des bases de données hétérogènes et multi-sources Garantir la conformité et la gouvernance des données Industrialisation Data Science / IA Industrialiser le déploiement de modèles statistiques et machine learning Mettre en place des mécanismes de validation et monitoring des modèles Assurer le suivi opérationnel des modèles intégrés aux applications Contribution aux projets Data Définir les spécifications techniques Assurer le reporting d’avancement auprès du pilotage projet Apporter un support technique aux équipes métiers et applicatives Le poste peut inclure des astreintes par rotation et une participation à la continuité de service des plateformes Data .
CDI

Offre d'emploi
Consultant(e) Senior - Data IA (Product Owner à Data Scientist) F/H - Informatique de gestion (H/F)

█ █ █ █ █ █ █
Publiée le
Deep Learning
Scrum

Neuilly-sur-Seine, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

CDI
Freelance

Offre d'emploi
Tech Lead Data (H/F)

AVA2I
Publiée le
Apache Airflow
AWS Cloud
Data Lake

3 ans
Île-de-France, France
Dans le cadre de l’évolution et de l’industrialisation de sa plateforme Data multi-cloud, un acteur majeur du secteur de l’énergie recherche un Tech Lead Data senior . La mission s’inscrit au sein de la plateforme Data Groupe avec des enjeux forts de : Scalabilité Gouvernance et qualité des données Industrialisation des pipelines Fiabilité en production 🎯 Missions principales 🔹 Leadership technique Être le référent technique de la plateforme Data Définir et faire évoluer l’architecture Data Encadrer et accompagner les Data Engineers Participer aux choix technologiques et aux orientations stratégiques 🔹 Build – Industrialisation Concevoir et mettre en œuvre un Data Lake Définir, développer et automatiser les pipelines de données Mettre en place les bonnes pratiques CI/CD Garantir la performance, la robustesse et la scalabilité 🔹 Run – MCO Assurer la supervision des traitements Gérer les incidents et optimiser les processus Maintenir les environnements techniques Automatiser les tâches récurrentes 🛠 Environnement technique☁ Cloud AWS (Redshift, RDS, Lambda, SQS, SNS, API Gateway…) GCP Contexte multi-cloud 💾 Data & Big Data SQL / NoSQL Data Warehouse Spark / Hadoop / HDFS Airflow ⚙ Dev / DevOps Python APIs (FastAPI / Flask) Docker Terraform GitLab CI/CD Linux
Freelance

Mission freelance
Développeur Python/Angular H/F

Nexius Finance
Publiée le
FastAPI
Python

3 ans
Paris, France
Contexte Vous évoluez au sein d’une équipe transverse dédiée au développement rapide de solutions à forte valeur ajoutée pour différents métiers. Notre positionnement est hybride : Développement “commando” en proximité directe avec les équipes métier Conception de solutions innovantes intégrant l’IA Générative Veille technologique et exploration de nouveaux usages autour de la Data et de l’IA Accompagnement à l’industrialisation des solutions dans un environnement IT structuré L’équipe (une vingtaine de profils : data engineers, data scientists, développeurs full stack, tech lead, chef de projet) fonctionne en mode agile , avec une forte culture d’entraide, d’autonomie et de responsabilité collective. Le client recherche un profil capable de s’intégrer dans cette dynamique, avec un bon relationnel et une vraie capacité à interagir avec des interlocuteurs métiers. Missions: Vous interviendrez en tant que Développeur Full Stack sur des sujets variés mêlant développement applicatif et IA générative. Projet principal: Vous démarrerez sur un chantier stratégique : Développement d’une solution d’évaluation ESG d’entreprises à partir d’un corpus documentaire, intégrant des APIs d’IA générative (LLMs, RAG). Vos responsabilités: Concevoir et développer des solutions logicielles de bout en bout Garantir la qualité du code (tests unitaires et fonctionnels, performance, maintenabilité) Développer des interfaces dynamiques et réactives en Angular Concevoir et exposer des APIs via FastAPI Participer à la réalisation de POCs autour de l’IA générative Concevoir des applications intégrant des modèles de type LLM Assurer la maintenance évolutive et le run d’applications existantes Collaborer avec les équipes produit/design lorsque nécessaire Participer à la mise en place des bonnes pratiques (documentation, standards, qualité) Échanger directement avec les équipes métier pour comprendre, challenger et affiner les besoins Profil recherché:Compétences techniques Très bonne maîtrise d’Angular Solide expérience avec FastAPI et les services web Très bonne maîtrise de Python Connaissance des bases de données relationnelles et non relationnelles Maîtrise des outils de versioning (Git) Bonne compréhension des concepts liés à l’IA générative (LLM, RAG, APIs d’IA) Une expérience sur des projets intégrant de l’IA générative est fortement appréciée.
CDI

Offre d'emploi
Consultant BI Fonctionnel (PBI) - confirmé - CDI - Rouen H/F

GROUPE ARTEMYS
Publiée le

36k-42k €
76000, Rouen, Normandie
Qui sommes-nous ? ESN : +35 ans d’existence. Expertise ARTEMYS AGIL-IT : Ingénierie logicielle | BDD | BI | Big Data. 800 collaborateurs | 80M€ CA (2024). Entreprise humaine : ProximITé, ConvivialITé, SolidarITé, EsprIT d’équipe, Partage, Respect et Accompagnement. Engagement responsable : Adhésion Global Compact, Planet Tech’Care, Label SILVER EcoVadis Sustainability, Charte de la Diversité. En savoir plus : | Des valeurs ? Oui, et pas qu’en théorie Convivialité , parce que bosser dans une bonne ambiance, ça change tout Proximité , pour que chaque membre de l’équipe ait sa place et une voix Écoute , parce qu’on est convaincus que vos idées comptent autant que votre travail. Dans un contexte de forte demande autour du reporting et de la valorisation de la donnée, nous recherchons pour notre client, un Consultant BI fonctionnel H/F capable de transformer des besoins métiers parfois flous en reportings clairs, lisibles et exploitables . Le rôle s’inscrit à l’interface entre les équipes métiers et l’équipe Data Services. L’objectif est de faciliter la compréhension, la conception et l’adoption des reportings Power BI, en apportant à la fois une approche fonctionnelle, pédagogique et une base technique solide. Ce poste ne correspond ni à un rôle de développeur Power BI pur, ni à un support IT classique : il s’agit d’un profil d’interface et de facilitation data . Votre mission (si vous l’acceptez) : Cadrage & accompagnement métier Recueillir et analyser des besoins de reporting parfois peu structurés Reformuler et clarifier les attentes utilisateurs Challenger les demandes lorsque nécessaire (pertinence des indicateurs, faisabilité, lisibilité) Aider les métiers à prioriser et structurer leurs besoins Traduire les besoins fonctionnels en spécifications exploitables par l’équipe Data Services Favoriser l’adoption des reportings et bonnes pratiques BI Pédagogie & communication Vulgariser les concepts data et BI auprès d’utilisateurs non techniques Expliquer les choix de modélisation et d’indicateurs Accompagner les utilisateurs dans la lecture et l’exploitation des tableaux de bord Animer des ateliers, démonstrations ou sessions de prise en main Servir de point de contact fonctionnel sur les sujets Power BI Contribution technique (≈ 20 % du temps) Créer et faire évoluer des rapports Power BI Comprendre les modèles de données existants Lire, comprendre et ajuster des mesures DAX existantes Réaliser des transformations simples via Power Query Participer à l’amélioration continue des reportings Identifier les impacts liés aux flux de données amont Interface avec l'écosystème data Comprendre les flux et chaînes de transformation de données en amont Échanger efficacement avec les équipes techniques autour de : SQL Alteryx Denodo Modèles de données Faciliter la collaboration entre métiers et experts data L’environnement technique : Indispensable : Bonne expérience pratique de Power BI Conception et évolution de rapports Bonne compréhension des modèles de données Lecture et adaptation de DAX existant Maîtrise de Power Query (niveau opérationnel) Culture data générale (indicateurs, qualité de données, transformations) Souhaité : Connaissance des environnements SQL Notions des outils de préparation / virtualisation de données (ex : Alteryx, Denodo) Compréhension des architectures data décisionnelles Le poste ne requiert pas un profil Data Engineer, mais une capacité à comprendre et dialoguer avec ces profils. Vous, notre perle rare : Compétences comportementales Forte capacité de pédagogie et de vulgarisation Excellent relationnel avec des utilisateurs non techniques Esprit de synthèse Capacité à structurer des besoins flous Posture de conseil et de challenge constructif Sens de l’écoute Autonomie et proactivité Capacité à naviguer dans des contextes imparfaitement cadrés Goût pour le travail d’interface entre métiers et technique Profil recherché : Expérience confirmée sur Power BI Expérience en environnement métier / fonctionnel Habitude de travailler sur des besoins évolutifs ou peu cadrés À l’aise dans des contextes de transformation ou de montée en maturité data Expérience en conseil ou en rôle transverse appréciée Le process pour nous rejoindre : simple et clair ! Échange RH : On discute de vos motivations et de l’adéquation avec nos valeurs (promis, pas de robotisation ici). Entretien opérationnel : Un échange approfondi pour clarifier vos missions. Proposition d'embauche : Si tout colle, on vous accueille officiellement chez Artemys ! Rémunération : 36 000 - 42 000 € (Selon votre expertise) Sans négliger les avantages indispensables : Carte SWILE (Tickets Restaurant, transports et CE). 12 RTT, Mutuelle Groupe, Participation Groupe. Accompagnement RH, suivi managérial de proximité (Méthode Agile) Événements entreprise : Afterworks, Tech Meetups, soirées d’intégration, events sportifs, soirées gaming… Bienvenue dans l’aventure ARTEMYS Chez nous, chaque talent compte. Peu importe votre âge, vos origines, votre identité, votre religion ou votre orientation : ce qui nous intéresse, c’est vous et ce que vous avez à apporter. On s’engage à répondre à toutes les candidatures sous 72 heures, parce qu’on sait combien l’attente peut être stressante. Et ici, l’inclusion n’est pas qu’un mot : tous nos postes sont ouverts aux personnes en situation de handicap, et on fait tout pour créer un environnement où chacun peut s’épanouir. Prêt, feu, candidatez !
Freelance

Mission freelance
Data Scientist

Orcan Intelligence
Publiée le
Large Language Model (LLM)
MLOps
Python

5 mois
500-650 €
Paris, France
Nous recherchons un/e Data Scientist pour rejoindre une équipe dynamique en Région parisienne (onsite 1x par semaine). Vous participerez à la conception et à la mise en œuvre de solutions de data science et d’apprentissage automatique à fort impact, contribuant directement à la création de valeur pour l’entreprise. Missions principales Concevoir et implémenter des solutions de data science de bout en bout pour résoudre des problématiques métier. Extraire, nettoyer et analyser de grands volumes de données, notamment à l’aide de Teradata Vantage et SQL . Construire et déployer des modèles de machine learning en Python . Exploiter des feature stores pour le développement et la mise en production des modèles. Explorer et appliquer des approches en IA générative (LLM, transformers) selon les cas d’usage. Définir des stratégies de data science alignées avec les objectifs métier et la feuille de route data de long terme. Communiquer méthodologies, résultats et recommandations à des publics variés (techniques et non techniques). Préparer et présenter des analyses et recommandations claires à différents niveaux (direction, opérationnel, technique). Collaborer avec les data engineers, analystes et experts métier pour intégrer les solutions en production. Contribuer à l’amélioration continue des outils, processus et bonnes pratiques en data science.
Freelance

Mission freelance
Data Product Manager – Programme S/4HANA

Comet
Publiée le
SAP S/4HANA

1 an
400-600 €
France
Contexte de la mission Dans le cadre de la migration stratégique de SAP ECC vers S/4HANA , notre client du secteur industriel engage une transformation majeure de son modèle Data & Reporting. Le Data Product Manager interviendra sur le stream Data & Visualization afin de : Concevoir un nouveau Data & Report Model basé sur S/4HANA Évaluer les impacts sur les systèmes Legacy Accompagner les métiers dans la définition de leur stratégie de reporting Structurer une approche Data as a Service Missions principalesCadrage & Pilotage Organiser et structurer l’étude Data & Reporting Recueillir les besoins métiers (workshops, interviews) Comprendre les ambitions business et enjeux stratégiques Formaliser les recommandations “Go to Project” Architecture & Modélisation Documenter l’architecture fonctionnelle cible Concevoir les modèles de données (Business Layer / Silver Layer) Définir les flux data du ERP jusqu’à la visualisation Évaluer les impacts sur les systèmes existants Coordination & Delivery Piloter les contributeurs Data (Architecte, Data Engineers, BI Engineers) Structurer le modèle Data as a Service Préparer planning & budget Build/Run Documenter la valeur de la solution Compétences attenduesTechniques Expertise en Data Modeling Forte maîtrise des environnements ERP (SAP idéalement) Solide compréhension du cycle de vie de la donnée (ERP → DWH → BI) SQL avancé Power BI (niveau confirmé minimum) Analyse & exploration de données Fonctionnelles Expérience en transformation S/4HANA Animation d’ateliers métiers Capacité à traduire des besoins business en modèle data Vision produit / approche Data Product Soft skills Excellente communication (français & anglais) Leadership transverse Organisation & structuration Orientation client forte
CDI

Offre d'emploi
Alternance Développeur Full Stack / Applications Web & Data F/H - Lyon

█ █ █ █ █ █ █
Publiée le
Git
HTML
HTML5

Lyon, Auvergne-Rhône-Alpes

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
recherche profil CP/Data analyste BI - Ecommerce

Mon Consultant Indépendant
Publiée le
Data analysis

3 mois
500-550 €
Lyon, Auvergne-Rhône-Alpes
Je suis à la recherche de ce profil pour l'un de nos clients en région lyonnaise : Je suis en recherche d’une prestation sur un profil confirmé de Chef de projet/Business Analyst Data BI . Pour rappel, notre équipe Data Consumer Solutions travaille principalement sur des sujets marketing/CRM/e-commerce/services liés à nos données Consommateurs (collectés à travers des touchpoints digitaux : Apps, Site Webs, Produits connectés, Advertising platforms…). Pour cet appel à compétence nous recherchons un profil connaissant le e-commerce. Ce profil rejoindrait une équipe projet mixte composée d'experts data IT et des équipes e-commerce (D2C) collaborant sur la collecte et l’exploitation de données de nos sites web : Ventes & Tracking Analytics Il aurait un focus fort sur la partie collecte de données depuis des sources tierces. Les tâches principales seront : · Analyser les besoins exprimés par le Business Owner pour identifier les champs (API/Autres sources) à récupérer pour y répondre et proposer des solutions en collaboration avec nos experts Data. · Coordonner les tâches de setup d’outil de collecte et de build de nos Data Engineers / Experts Dataviz pour récupérer la donnée dans notre Datalake, la préparer et la transformer afin d’alimenter nos Dashboards Qlik ou des Datasets mis à disposition de Data Analysts. · Faire des analyses/requêtes Data pour tester et valider les solutions mises en place, ou répondre à des questions métiers. · Rédiger la documentation technico-fonctionnelle au fil de l'avancement du projet pour en assurer la continuité et l'évolutivité · Former et accompagner les key users sur les applications. Les compétences clés recherchées sont : · Business Analyse (expertise fonctionnelle) · Gestion de projet en environnement agile · Expérience en projets Data/BI sur des périmètres liés au e-commerce/D2C (ce critère sera clé pour notre choix, afin de permettre une montée en puissance rapide sur ce périmètre métier) · Anglais car les solutions sont déployées à l’international et les sources de données sont worldwide La mission serait de plusieurs mois (avec une fin liée à un retour de congé maternité) et en temps plein, avec chaque semaine 2 jours home office et 3 jours dans nos locaux (accessible en TCL). Notre objectif est d’avoir sélectionné et positionné une personne sur ce poste dès que possible en mars.
Freelance

Mission freelance
Data Quality Manager

CAT-AMANIA
Publiée le
Apache Spark
AWS Cloud
Collibra

1 an
100-490 €
Lille, Hauts-de-France
VOS RESPONSABILITÉS PRINCIPALES Recueillir et évaluer les besoins en matière de qualité des données Accompagner et organiser des ateliers avec les data owners pour comprendre le cycle de vie des données et collecter les exigences en matière de qualité des données (règles, impacts de la non-qualité, parties prenantes, etc.) Interagir et se coordonner avec les autres parties prenantes du projet (Data Steward, Data Engineer,…) pour s’aligner sur les contrôles Vérifier et valider la pertinence des règles de qualité des données et leur faisabilité Documenter les règles de qualité dans le catalogue de données (Collibra) Mettre en oeuvre les normes et politique de qualité des données sur votre périmètre pour garantir l'opérabilité des données tout au long de leur cycle de vie dans l'entreprise Concevoir et mettre en œuvre des outils de contrôles et de visualisations de la qualité des données, y compris des alertes pour détecter les erreurs et les incohérences Mettre en œuvre et animer les processus de remédiation afin d’assurer l’amélioration continue du dispositif de qualité des données Développer et appliquer des stratégies pour l'amélioration continue de la qualité des données, en collaboration étroite avec les producteurs de données et les équipes techniques. Sensibiliser les parties prenantes internes à l'importance de la qualité des données, en les formant aux bonnes pratiques et en assurant un suivi régulier. Implémenter des outils pour automatiser les tâches de contrôle et de correction des données. Contribuer et participer activement à la communauté des Data Quality Manager
299 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous