L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 391 résultats.
Offre d'emploi
Data Analyst Qlik Sens - Rennes
Argain Consulting Innovation
Publiée le
Qlik
Qlik Sense
Qlikview
2 ans
40k-45k €
450-470 €
Rennes, Bretagne
Dans le cadre du renforcement de l’équipe décisionnelle, nous recherchons une prestation spécialisée dans la restitution et l’analyse de données sous Qlik afin d’accompagner les métiers dans la construction, l’évolution et l’optimisation de leurs tableaux de bord. Principales missions Accompagnement des métiers dans l’expression des besoins et participation aux phases de recette fonctionnelle. Analyse des sources, modélisation décisionnelle et conception des applications Qlik. Développement, évolution et maintenance de tableaux de bord QlikView et/ou Qlik Sense . Mise en forme, datavisualisation et valorisation des données pour faciliter l’aide à la décision. Contribution à l’optimisation des performances : modèles de données, scripts de chargement, organisation des applications. Documentation fonctionnelle et technique, participation aux travaux d’industrialisation. Support, diagnostic et résolution d’incidents sur les applications de restitution.
Mission freelance
Business Analyst Data (Advanced)
Gentis Recruitment SAS
Publiée le
Big Data
Business Analyst
Data Lake
12 mois
Paris, France
Contexte de la mission Grand groupe international du secteur de l’énergie, fortement orienté data-driven, souhaite renforcer l’exploitation de ses données de marché afin de : Réduire les risques opérationnels Améliorer l’efficacité des équipes métiers Développer de nouvelles offres basées sur la donnée Le projet stratégique vise la mise en place d’une architecture Big Data de type médaillon (Bronze / Silver / Gold) dédiée aux market datas issues de différentes plateformes de marché. Objectifs du projet Le programme consiste à : Mettre en place les layers : Silver : données structurées et normalisées Gold : données calculées (orders, trades, orderbooks, best bid/ask, OHLC, VWAP, TWAP, etc.) Implémenter le data management : Data quality Data catalog Monitoring Exposer les données Gold via SDK et interfaces métiers Définir et appliquer les politiques d’accès Reprendre l’historique pour permettre le décommissionnement de solutions legacy Rôle du Business Analyst Le consultant interviendra au cœur d’un environnement mêlant équipes métiers (Trading Surveillance, Quant, Market Analysts) et équipes Data Engineering. Analyse & Cadrage Recueil et structuration des besoins métiers liés aux market datas Animation d’ateliers avec les stakeholders Analyse approfondie des données sources Identification des incohérences et cas spécifiques Spécifications fonctionnelles & Data Rédaction des spécifications Silver / Gold Définition des règles de transformation et d’enrichissement Data mapping Gestion de la complexité temporelle des données de marché Définition des modèles orientés usages métiers Data Management & Gouvernance Définition des règles de qualité et indicateurs Contribution au monitoring Participation au data catalog Garantie de traçabilité des règles métier Coordination & Delivery Collaboration étroite avec les Data Engineers Suivi des développements Élaboration de la stratégie de tests Conception et exécution des plans de tests Participation aux comités projet
Mission freelance
Tech Lead Power App
CAT-AMANIA
Publiée le
Power Apps
12 mois
500-590 €
Charleville-Mézières, Grand Est
Dans le cadre du renforcement de notre équipe digitale, nous recherchons un Tech Lead Power Apps / Dataverse pour concevoir, structurer et faire évoluer des applications métier à forte valeur ajoutée au sein de l’écosystème Microsoft Power Platform . Le poste s’inscrit dans une vision long terme autour de l’IA Microsoft , avec l’intégration progressive de Copilot et des usages d’IA générative au cœur des processus métiers. 🧠 Tes missions : Concevoir l’architecture des solutions Power Apps (Canvas & Model-Driven) Définir et optimiser les modèles de données sous Dataverse Encadrer techniquement une équipe de développeurs Power Platform Garantir les bonnes pratiques (sécurité, performance, maintenabilité, gouvernance) Participer aux choix d’architecture et aux arbitrages techniques Concevoir et automatiser des workflows via Power Automate Être force de proposition sur l’usage de Copilot et de l’IA générative dans les applications métiers Accompagner les métiers dans l’adoption des solutions digitales augmentées par l’IA 🤖 IA & vision Microsoft (un vrai plus) Sans être obligatoire, une sensibilité forte à la vision IA de Microsoft est recherchée : Intérêt pour Copilot (Power Platform, Microsoft 365, Dataverse) Compréhension des enjeux d’ IA générative dans les applications métiers Capacité à identifier des cas d’usage concrets : aide à la saisie intelligente analyse de données automatisation avancée assistants métiers Vision responsable de l’IA (sécurité, gouvernance, sobriété des usages) 🔧 Stack & environnement Power Apps (Canvas, Model-Driven) Dataverse Power Automate Copilot / AI Builder / services IA Microsoft Intégrations via API / Connecteurs / Azure AD Environnement Microsoft 365 & Azure
Mission freelance
Tech lead Endpoint / Modern Workplace
HOXTON PARTNERS
Publiée le
Endpoint detection and response (EDR)
Microsoft Entra ID
9 mois
400-600 €
Lille, Hauts-de-France
Dans le cadre d’un programme de transformation du système d’information, nous recherchons un Tech Lead Endpoint afin de structurer et faire évoluer les environnements utilisateurs dans un modèle plus industrialisé, sécurisé et orienté service. Le poste s’inscrit dans un contexte de modernisation des infrastructures Workplace et d’intégration de nouvelles entités. Missions Concevoir et valider les architectures Endpoint (poste de travail, mobilité, sécurité, conformité) Piloter le maintien en conditions opérationnelles et l’amélioration continue des environnements Workplace Intervenir en expertise de dernier niveau (N3/N4) sur les incidents critiques et piloter les plans de remédiation Définir les standards techniques (configuration, sécurité, poste de référence, gouvernance) Encadrer opérationnellement le périmètre Endpoint et coordonner les partenaires et équipes internes Contribuer à la gouvernance des solutions associées (Power Platform, licences Microsoft, sécurité des identités)
Mission freelance
Data Model Architect
Phaidon London- Glocomms
Publiée le
Architecture
Data governance
Data quality
6 mois
400-550 €
Arcueil, Île-de-France
Concevoir le modèle de données Salesforce (objets, champs, relations) pour l'ensemble des flux de travail du projet. Définir et appliquer les conventions de nommage et les normes de modélisation. Examiner et valider toutes les demandes de nouveaux objets ou champs personnalisés. Gérer l'évolution du modèle pour l'ensemble des flux de travail, en garantissant la rétrocompatibilité. Concevoir la stratégie de migration et de chargement des données pour les jeux de données existants. Garantir la pleine compatibilité du modèle de données avec Agentforce. Documenter et maintenir le dictionnaire de données du projet. Accompagner les équipes concernant la gestion des hiérarchies, les objets à volume élevé et les structures de comptes complexes.
Mission freelance
Data Platform Engineer (Hadoop CDP/HDP, Spark, Airflow, Kubernetes) - IDF
ISUPPLIER
Publiée le
Apache
Hortonworks Data Platform (HDP)
Kubernetes
1 an
450-650 €
Île-de-France, France
Objectifs de la mission Le bénéficiaire souhaite une prestation d’accompagnement pour assurer le MCO des Infrastructures HDP et CDP, administration des Clusters, Prestations demandées Les missions sont: Les consultants retenus auront pour mission : • Administration et optimisation de clusters HDP/CDP • Installation, configuration et maintenance des clusters. • Gestion des mises à jour et des patchs de sécurité. • Surveillance des performances et optimisation des ressources. • gestion/administration de clusters Kubernetes • Automatisation des déploiements avec Operators…, etc. • Sécurisation et monitoring des environnements conteneurisés. • Orchestration des workflows avec Apache Airflow : • Développement et optimisation des DAGs pour la gestion des pipelines de données. • Gestion des dépendances et optimisation des temps d’exécution. • Intégration avec les autres outils de l’écosystème. • Traitement et analyse des données avec Apache Spark : • Développement et optimisation des jobs Spark (batch et streaming). • Gestion des performances et tuning des jobs. • Intégration avec les systèmes de stockage distribués. • Optimisation des requêtes et accès aux données avec Starburst : • Configuration et administration de Starburst. • Optimisation des requêtes SQL distribuées. • Sécurisation et gestion des accès aux différentes sources de données. Français/Anglais
Mission freelance
Chef de Projet DATA / IA – Innovation & Transformation
JobiStart
Publiée le
Data science
IA
1 an
400-550 €
Île-de-France, France
Cadrer le périmètre du POC (objectifs, hypothèses, livrables, KPIs) Analyser l’existant (architecture, flux DATA, outils, maturité IA) Réaliser un audit des systèmes et des processus concernés Collecter les besoins métiers auprès des différentes directions Organiser des ateliers avec les équipes DATA, IT et métiers Identifier les cas d’usage IA prioritaires et à forte valeur ajoutée Évaluer la faisabilité technique (algorithmes, modèles, data quality) Définir l’architecture cible pour l’intégration IA Mettre en place et piloter le développement du POC Tester et mesurer la performance des modèles (KPIs, ROI potentiel) Documenter les résultats et formaliser les retours d’expérience Élaborer des préconisations stratégiques et techniques Construire un dossier argumenté pour demande de financement Présenter les conclusions auprès des instances décisionnelles Piloter la mission en méthodologie Agile / Lean Préparer la feuille de route d’industrialisation en cas de validation
Offre d'emploi
Tech Lead OpenShift | Kubernetes
bdevit
Publiée le
Argo CD
CI/CD
GitLab CI
36 mois
Île-de-France, France
Contexte : Dans le cadre d’un programme de transformation et de migration vers des plateformes conteneurisées chez une banque de renom , le Tech Lead OpenShift / Kubernetes intervient pour accompagner la transition vers des architectures cloud-native, en garantissant la performance, la sécurité et l’industrialisation des environnements. Missions Principales : Piloter la migration des applications vers OpenShift / Kubernetes (containerisation, replatforming, cloud-native) ; Concevoir, déployer et faire évoluer des architectures robustes, sécurisées et scalables ; Industrialiser les déploiements via CI/CD et GitOps et automatiser les opérations ; Administrer et optimiser les clusters (upgrade, capacity planning, performance) ; Assurer le support expert N3 sur les incidents critiques ; Mettre en place l’observabilité et améliorer la fiabilité des environnements ; Définir les standards et accompagner les équipes dans l’adoption des bonnes pratiques.
Mission freelance
Tech Lead Full Stack
Tenth Revolution Group
Publiée le
.NET
Angular
6 mois
100-550 €
Liège, Belgique
Je recherche un Tech Lead Full Stack pour l'un de mes clients à Liège. Présence requise : minimum 3 jours/semaine sur site à Liège Anglais courant. Pré-embauche : 1 an de mission puis possible internalisation. Vous intégrerez une équipe IT au cœur des fonctions stratégiques de l’entreprise : Finance, Achats, RH et applications internes . Vous interviendrez dans un contexte de transformation majeur : Migration ERP vers SAP Renforcement d’une plateforme B2B fournisseurs Refonte et modernisation d’applications critiques Stack moderne : Angular (évolution vers Angular 18) & .NET Core 8 Votre mission Concevoir des solutions techniques robustes et évolutives Participer activement au développement front-end (Angular) et back-end (.NET Core) Traduire les besoins métiers en architectures performantes Garantir la qualité, la sécurité et la maintenabilité du code Encadrer les développeurs et mener les revues de code Coordonner une équipe offshore Collaborer étroitement avec les équipes métiers en mode Agile Votre profil 5 ans d’expérience minimum en développement Full Stack, avec une dimension lead Expertise solide en Angular (2+) Très bonne maîtrise de .NET / C# / .NET Core Bonne connaissance des API REST, JSON, Web Services Expérience avec les bases de données, Git et CI/CD Sensibilité forte à la qualité logicielle (tests, bonnes pratiques) Un plus : Docker, Kubernetes, AWS, expérience en architecture logicielle
Offre d'emploi
Scrum Master DATA IA
Le Groupe SYD
Publiée le
12 mois
35k-55k €
350-550 €
Niort, Nouvelle-Aquitaine
🌟 Quel sera ton poste ? 🌟Scrum Master Data & IA 📍Lieu : Niort 🏠 Télétravail : 2 jours par semaine 📝Contrat : CDI, Freelance, Portage 👉 Contexte client : Nous recherchons un Scrum Master spécialisé Data & IA pour accompagner l’un de nos clients majeurs du secteur de l’assurance, basé à Niort. Dans un contexte de transformation digitale avancée et de montée en puissance des usages Data/IA, tu rejoindras une organisation en mode produit, articulée autour d’environnements agiles matures (Scrum, SAFe). Ton rôle sera central pour accélérer la délivrance , renforcer la dynamique agile des équipes et garantir un delivery fluide, orienté valeur, sur des projets Data, Analytics et Intelligence Artificielle. Tu auras pour missions de : Garantir le respect des pratiques Scrum et promouvoir les valeurs agiles. Animer l’ensemble des cérémonies : Daily, Sprint Planning, Review, Rétrospectives. Faciliter la collaboration entre Data Scientists, Data Engineers, Product Owners et équipes métiers. Accompagner les équipes dans la compréhension et l’intégration des flux data, des modèles IA/ML et de la chaîne analytique. Aider à la priorisation des sujets avec une approche orientée valeur, ROI et usages opérationnels. Contribuer à la fluidité du delivery pour des produits tels que : modèles prédictifs, NLP/LLM, automatisation IA, cas d’usage data métier. Lever les irritants organisationnels et techniques pour fluidifier la production. Suivre et faire progresser les indicateurs d’équipe : vélocité, qualité, DORA metrics, etc. Coach agile auprès des équipes et des parties prenantes métier. Partenaire du Product Owner pour clarifier le backlog, préparer les sprints, sécuriser le périmètre. Contribuer à la cohésion, la motivation et la montée en compétence de l’équipe.
Mission freelance
Consultant SAP FI/CO + Data Migration
ALLEGIS GROUP
Publiée le
SAP FICO
1 an
400-550 €
Clamart, Île-de-France
Dans le cadre d’un projet SAP Finance en cours, notre client recherche un Consultant SAP FI/CO confirmé , capable d’intervenir à la fois sur la conception fonctionnelle , l’accompagnement des métiers et les travaux de migration de données . Le consultant interviendra en renfort sur un périmètre critique pour la bascule de fin d’année . Responsabilités principales Participation aux ateliers avec les équipes Finance & Controlling Analyse des besoins et rédaction de la documentation fonctionnelle (spécifications, process…) Contribution aux activités de Data Migration : mapping, validation, reprise, contrôle de cohérence Accompagnement des utilisateurs, support UAT, correction des anomalies Collaboration étroite avec les équipes techniques (ABAP, Data, Basis) Suivi d’avancement et reporting auprès du chef de projet
Offre d'emploi
Lead Data Engineer Dataiku & Python
OBJECTWARE
Publiée le
Dataiku
Python
3 ans
40k-79k €
400-550 €
Île-de-France, France
Prestations demandées RESPONSABILITES - Conception et implémentation des pipelines de données : • Concevoir et développer des pipelines de données automatisés pour collecter, charger et transformer les données provenant de différentes sources (internes et externes) dans le Data Hub puis pour les transformer en Data Product Data Hub, Data Science ou Data Viz (Power BI). • Optimiser les pipelines de données pour garantir des performances élevées, une faible latence, et une intégrité des données et des traitements tout au long du processus. • Travailler avec les équipes data science et métiers pour comprendre leurs besoins en données et en traitements, et adapter les pipelines en conséquence. - Industrialisation et automatisation des flux de données et des traitements : • Mettre en place des processus d’industrialisation des modèles de machine learning et des flux de données, en garantissant la scalabilité et la fiabilité des pipelines en production. • Automatiser la gestion et le traitement des données à grande échelle, en veillant à réduire les interventions manuelles tout en assurant une supervision proactive des performances et des anomalies. • Collaborer étroitement avec les data scientists et MLOps pour assurer une transition des projets de l’exploration à la production, en intégrant les modèles dans des pipelines automatisés. - Gestion des données et optimisation des performances : • Optimiser les performances des requêtes et des pipelines de traitement des données, en utilisant les meilleures pratiques en matière de gestion des ressources et d’architecture de stockage (raw, refined, trusted layers). • Assurer une surveillance continue de la qualité des données et mettre en place des contrôles de validation pour maintenir l’intégrité des jeux de données. - Sécurité et gouvernance des données : • Mettre en œuvre des solutions de sécurisation des données (gestion des accès, cryptage, audits) pour garantir la conformité avec les réglementations internes et externes. • Travailler en collaboration avec le Data Office pour assurer l’alignement avec les politiques et processus définis. • Maintenir la documentation technique des pipelines et des flux de données, en assurant la traçabilité et la gestion des métadonnées. COMPETENCES - Expérience confirmée en ingénierie des données : Solide expérience dans la conception, la mise en œuvre et l’optimisation de pipelines de données. - Maîtrise des technologies de traitement de données : Expertise dans l’utilisation d’outils et technologies tels que ELT, Spark, SQL, Python, Dataiku, et la gestion de data warehouses et data hubs. - Compétence en sécurité et gouvernance des données : Connaissance des enjeux de sécurité, de conformité réglementaire (GDPR), et de gouvernance des données, avec une capacité à implémenter des solutions adéquates. - Compétences en automatisation et industrialisation : Capacité à automatiser et industrialiser les flux de données et les traitements afférents, en assurant la transition fluide des projets data science vers la production. - Maîtrise de l’anglais : La maîtrise de l’anglais est indispensable pour interagir avec des parties prenantes
Mission freelance
Développeur Data (H/F) – Confirmé – Nantes
CAT-AMANIA
Publiée le
Apache Hive
Apache Spark
Artifactory
1 an
Nantes, Pays de la Loire
Dans le cadre du renforcement d’une équipe Data au sein d’un grand groupe du secteur financier, nous recherchons un Développeur Data confirmé basé à Nantes . Vous interviendrez sur des projets stratégiques liés à l’ingestion, la transformation et la valorisation des données dans un environnement Big Data. Vos missions : Développer des user stories liées à l’ingestion et transformation de données (ETL / SQL) Réaliser les tests unitaires et participer à la recette fonctionnelle Déployer les développements sur différents environnements Rédiger la documentation technique Participer à l’analyse et au chiffrage des besoins Assurer le suivi des traitements en production (run) Contribuer aux cérémonies Agile Scrum
Offre d'emploi
Tech Lead Power App
CAT-AMANIA
Publiée le
Power Apps
12 mois
40k-58k €
400-580 €
Charleville-Mézières, Grand Est
Dans le cadre du renforcement de notre équipe digitale, nous recherchons un Tech Lead Power Apps / Dataverse pour concevoir, structurer et faire évoluer des applications métier à forte valeur ajoutée au sein de l’écosystème Microsoft Power Platform . Le poste s’inscrit dans une vision long terme autour de l’IA Microsoft , avec l’intégration progressive de Copilot et des usages d’IA générative au cœur des processus métiers. 🧠 Tes missions : Concevoir l’architecture des solutions Power Apps (Canvas & Model-Driven) Définir et optimiser les modèles de données sous Dataverse Encadrer techniquement une équipe de développeurs Power Platform Garantir les bonnes pratiques (sécurité, performance, maintenabilité, gouvernance) Participer aux choix d’architecture et aux arbitrages techniques Concevoir et automatiser des workflows via Power Automate Être force de proposition sur l’usage de Copilot et de l’IA générative dans les applications métiers Accompagner les métiers dans l’adoption des solutions digitales augmentées par l’IA 🤖 IA & vision Microsoft (un vrai plus) Sans être obligatoire, une sensibilité forte à la vision IA de Microsoft est recherchée : Intérêt pour Copilot (Power Platform, Microsoft 365, Dataverse) Compréhension des enjeux d’ IA générative dans les applications métiers Capacité à identifier des cas d’usage concrets : aide à la saisie intelligente analyse de données automatisation avancée assistants métiers Vision responsable de l’IA (sécurité, gouvernance, sobriété des usages) 🔧 Stack & environnement Power Apps (Canvas, Model-Driven) Dataverse Power Automate Copilot / AI Builder / services IA Microsoft Intégrations via API / Connecteurs / Azure AD Environnement Microsoft 365 & Azure
Mission freelance
Data analyst monetique
Deodis
Publiée le
MySQL
1 an
450-550 €
Île-de-France, France
Au sein d’une Datafactory dédiée aux moyens de paiement, le Business Analyst Data contribue à la collecte, à la transformation et à la gestion des données de paiement et des données clients afin d’en garantir la qualité, la sécurité et l’intégrité. Il participe à la mise à disposition de ces données pour les équipes métiers et les différentes équipes data, notamment à travers la production de reportings et de tableaux de bord (Power BI) ainsi que l’alimentation de systèmes opérationnels. En collaboration avec les data engineers, data visualization specialists et le Product Owner, il anime des ateliers avec les parties prenantes, rédige les spécifications fonctionnelles et techniques, développe les user stories, réalise les phases de recette des traitements de données et accompagne les utilisateurs dans l’exploitation des données. Il intervient dans un environnement agile et contribue à l’amélioration continue des produits et services data.
Offre d'emploi
DATA ENGINEER GCP
Peppermint Company
Publiée le
Apache Spark
Google Cloud Platform (GCP)
Hadoop
Sophia Antipolis, Provence-Alpes-Côte d'Azur
🎯 Contexte Dans le cadre d’un projet stratégique de transformation data, nous recherchons un Data Engineer orienté développement , capable d’intervenir sur une migration d’envergure d’Azure vers GCP . 🛠️ Missions principales Participation active à la migration des pipelines data d’Azure vers GCP Développement et optimisation de traitements data Conception d’architectures data robustes et scalables Collaboration avec les équipes data et métiers Contribution aux bonnes pratiques data engineering 🔧 Stack technique Google Cloud Platform (GCP) – niveau confirmé requis Apache Spark / Scala Hadoop ecosystem Forte orientation développement (profil Data Engineer "DEV")
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
2391 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois