Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 314 résultats.
Mission freelance
Développeur Mobile React Native avec compétences Data
Comet
Publiée le
Apache Spark
Databricks
React Native
200 jours
490-520 €
Châtillon, Île-de-France
Développeur Mobile React Native / Data Engineer Objectif global Renforcer une équipe projet avec un profil hybride Développeur Mobile React Native / Data Engineer, intervenant à la fois sur une application mobile et sur des traitements data. - Présence sur site : 3 jours par semaine obligatoires Livrables attendus : - Évolutions et corrections applicatives - Code documenté, maintenable et industrialisé - Tests unitaires et rapports de tests - Documentation technique associée Compétences techniques requises : - React Native : Expert – impératif - Databricks : Confirmé – impératif - Spark : Confirmé – impératif - SQL : Confirmé – impératif Description de la mission : Dans le cadre d’un projet de transformation digitale, nous recherchons un profil hybride associant développement mobile et data engineering. La mission porte principalement sur la maintenance évolutive et corrective d’une application mobile développée en React Native. En fonction de la charge de travail sur la partie front, le consultant pourra également intervenir sur la partie back/data, notamment sur : - les pipelines de données, - les notebooks Databricks, - les traitements Spark et SQL sur environnement Cloud (Azure). Activités détaillées : - Analyse - Participation à l’analyse fonctionnelle détaillée des besoins utilisateurs - Contribution aux ateliers de définition des spécifications - Étude de faisabilité technique et estimation des charges Conception et développement : - Contribution au design technique et aux frameworks applicatifs - Développement et prototypage des composants applicatifs - Structuration et exploitation des bases de données - Revue croisée des développements - Documentation technique et préparation à la mise en production - Harmonisation et industrialisation des composants Tests et recette : - Conception et réalisation des tests unitaires - Identification et correction des anomalies - Contribution aux tests d’intégration - Rédaction des rapports de tests Maintenance : - Réalisation de la maintenance corrective et évolutive - Analyse et résolution des incidents en production Profil recherché : - Expérience significative en React Native en production - Solide compétence en Data Engineering (Databricks, Spark, SQL) - Maîtrise des APIs REST - Utilisation courante de Git - Sensibilité aux pratiques DevOps / CI-CD appréciée
Mission freelance
Expert Snowflake(Part Time)
Atlas Connect
Publiée le
Architecture
Data Lake
Microsoft Power BI
4 mois
600-710 €
Île-de-France, France
Le client souhaite mettre en place un socle data sur Snowflake pour améliorer son back-end et fiabiliser son reporting Power BI. Ils ont choisi Snowflake pour sa popularité, mais rencontrent aujourd’hui des problématiques de performance et d’optimisation. L’objectif est de construire un socle data robuste et évolutif, tout en assurant la qualité des rapports destinés au métier. Missions principales : Challenger l’architecture et les développements existants sur Snowflake. Accompagner et superviser l’équipe de développement data (Data Engineers, Architectes). Contribuer directement au développement, à la recette applicative et à la recette détaillée. Optimiser les données pour garantir des reporting fiables et performants. Participer au service classique Snowflake : Data Lake, ingestion, transformation, optimisation. Assurer la montée en compétence de l’équipe sur Snowflake. Profil recherché : Certifié Snowflake (obligatoire). Expérience avérée et pratique sur Snowflake, capable de mettre les mains dans le code et de challenger les équipes. Capacité à travailler avec des profils expérimentés mais moins experts Snowflake. Connaissance et expérience sur la construction de data lakes, optimisation de données et reporting Power BI. Autonomie, rigueur et esprit d’équipe. Environnement : Collaboration avec des Data Engineers et des Architectes. Projets en phase de structuration des use cases : bonne data existante, optimisation et reporting. Mission hybride, flexible, avec interactions sur site et à distance.
Mission freelance
Data Ingénieur Spark - Rennes
Net technologie
Publiée le
Apache Spark
3 mois
Rennes, Bretagne
Dans le cadre de la création d’une nouvelle plateforme Data , le Data Engineer Senior intervient sur l’ensemble du cycle de vie de la donnée . Il conçoit, développe et maintient des pipelines de données batch et streaming en Spark et Python , contribue à la mise en place d’une architecture Lakehouse moderne , et garantit la qualité, la fiabilité et la sécurité des données . Le rôle inclut l’ industrialisation des traitements (CI/CD, DataOps), l’observabilité, la documentation et une forte collaboration avec les équipes techniques et métiers.
Offre d'emploi
Consultant Data (profil Qlik Snowflake)
AGH CONSULTING
Publiée le
Qlik Sense
Snowflake
40k-45k €
Rueil-Malmaison, Île-de-France
Dans le cadre de projets Data chez l’un de nos clients grands comptes, nous recherchons des consultants Data orientés Qlik disposant d’un vernis sur Snowflake , pour renforcer des équipes BI/Data existantes. Missions principales Concevoir, développer et maintenir des tableaux de bord sous Qlik Sense / QlikView Analyser les besoins métiers et les traduire en solutions BI pertinentes Exploiter des données issues de Snowflake (requêtes, compréhension du modèle, optimisation basique) Participer à l’amélioration des modèles de données et des performances des reportings Collaborer avec les équipes Data (BI, Data Engineers, métiers) Environnement technique BI / Data Viz : Qlik Sense / QlikView Data Warehouse : Snowflake (niveau compréhension / usage) Langages & outils : SQL, notions ETL, environnements Data modernes Méthodologie : projets BI, travail en équipe agile ou hybride
Mission freelance
Data Quality Manager
CAT-AMANIA
Publiée le
Databricks
PySpark
Tableau software
1 an
100-500 €
Lille, Hauts-de-France
VOS RESPONSABILITÉS PRINCIPALES Recueillir et évaluer les besoins en matière de qualité des données Accompagner et organiser des ateliers avec les data owners pour comprendre le cycle de vie des données et collecter les exigences en matière de qualité des données (règles, impacts de la non-qualité, parties prenantes, etc.) Interagir et se coordonner avec les autres parties prenantes du projet (Data Steward, Data Engineer, Data Manager…) pour s’aligner sur les contrôles Vérifier et valider la pertinence des règles de qualité des données et leur faisabilité Documenter les règles de qualité dans le catalogue de données (Collibra) Mettre en oeuvre les normes et politique de qualité des données sur votre périmètre pour garantir l'opérabilité des données tout au long de leur cycle de vie dans l'entreprise Concevoir et mettre en œuvre des outils de contrôles et de visualisations de la qualité des données, y compris des alertes pour détecter les erreurs et les incohérences Mettre en œuvre et animer les processus de remédiation afin d’assurer l’amélioration continue du dispositif de qualité des données Implémenter des outils pour automatiser les tâches de contrôle et de correction des données. Etre force de proposition auprès de la Stream Leader Data pour permettre la mise à l’échelle des futurs déploiements Contribuer et participer activement à la communauté des Data Quality Manager
Mission freelance
Data Egineer - IDF
Signe +
Publiée le
Apache Spark
Java
6 mois
400-450 €
Paris, France
Nous recherchons pour l'un de nos clients intégrateurs un Data Engineer. Contexte Dans le cadre d’un projet data, nous recherchons un Data Engineer expérimenté pour intervenir sur des problématiques de gestion de bases de données et de traitement de données à grande échelle , au sein d’un environnement international. Missions principales Concevoir, développer et maintenir des pipelines de données fiables et performants Intervenir sur la gestion et l’optimisation des bases de données Développer des traitements data en Java Exploiter et optimiser des traitements Apache Spark SQL Assurer la qualité, la cohérence et la performance des données Collaborer avec les équipes techniques et métiers dans un contexte anglophone Participer aux échanges, réunions et documentation en anglais
Mission freelance
Coordinateur/Référent Data_Senior_Lyon
CAT-AMANIA
Publiée le
Data analysis
RGPD
3 ans
Lyon, Auvergne-Rhône-Alpes
Nous souhaitons nous renforcer d’un profil Coordinateur/ Référent Data, sur le site de Lyon. Interlocuteur privilégié des Tribus du site, il va capter / qualifier et challenger les besoins et les cas d’usages data à fabriquer, tout en véhiculant le cadre Data de l’entreprise au sein des équipes, à la fois sur le Data managment, la Data Protection, le Digital, le Pilotage BI. Il est entouré de Data Engineer et Data Analyst avec lesquels il collabore en vue d’assurer les missions qui lui sont confiées. - Collecte et priorisation des contributions auprès des PP métiers, organisation de la fabrication avec les Data Engineers et Data Analysts et suivi de la mise en œuvre - Participation au cadrage des contributions et vérification de la mise en œuvre / opérationnalisation du cadre Data (Data Management, Data Protection, Digital, BI), y compris contribution au choix de solutions Data en réponse aux besoins métiers et en cohérence avec les offres normées de l'entreprise - Accompagnement des squads dans la réalisation de leurs Analyses de Risques Métiers sur les axes RGPD - Acculturation, accompagnement et déploiement du Data Management auprès des squads (aide à l’appropriation de l’outil entreprise du Data Management, sensibilisation aux enjeux d’une Data Gouvernée) - Acculturation et accompagnement Digital Parcours des équipes - Organisation des points de suivi auprès des Leaders et communication sur l’état des lieux Data des Tribus suivi (enjeux, priorisation, budget) - Animation et coordination locale - Piloter et animer les travaux Data menés par le Chapitre Data pour le compte des Tribus/Squads accompagnées dans le cadre de la mission, en lien avec les Data Engineer et Data Analyst du Chapitre. Tribu accompagnées : Dématérialisation, Digital Workplace, Innovation, Crédits Entreprises/Agri Pro - Maintenir, animer et déployer le cadre de gouvernance Data (Data Management, Data Privacy) de l’entreprise auprès des Tribus/Squads accompagnées dans le cadre de la mission. - Maitriser les process, méthodes et outils donnés par le cadre de l’entreprise pour proposer la meilleure solution Data à nos clients.
Offre d'emploi
Data Scientist F/H - Système, réseaux, données (H/F)
█ █ █ █ █ █ █
Publiée le
Deep Learning
Ocaml
Python
Palaiseau, Île-de-France
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Mission freelance
PM / PMO Data & Digital Transformation
Gentis Recruitment SAS
Publiée le
AWS Cloud
Data Warehouse
ETL (Extract-transform-load)
12 mois
Paris, France
Contexte La Direction Data et Digital d'un grand groupe du luxe, travaille à structurer ses plateformes et ses projets data dans un contexte international et omnicanal. Les initiatives couvrent : développement e-commerce et omnicanal structuration de données métiers et analytique industrialisation des flux data adoption de bonnes pratiques de pilotage, qualité de données et gouvernance Ils disposent d’équipes data, digitales et technologiques intégrées, alliant innovation, qualité de service et excellence opérationnelle . Mission principale : Supporter le Programme Data et Digital dans : la coordination des initiatives transverses le suivi de la roadmap data & digital la production des reportings projets le pilotage des dépendances entre streams le suivi des risques, des jalons, des budgets l’animation des comités de pilotage l’optimisation des process PMO Ce rôle implique d’être l’interface entre : DSI / Data Office / métier / product owners / équipes techniques . La dimension technique est un atout (compréhension des flux data, reporting, plateformes cloud, outils de gouvernance) mais ce rôle n’est pas axé développement ou ingénierie. Le PMO travaille avec des data engineers, BI, devops, architectes et responsables métier. Technologies & Environnement (contextuel) Un environnement technologique moderne comprenant : outils de gestion de projet : Jira, Confluence, Slack technologies de développement backend : Node.js, PHP/Symfony (hors data) devops / cloud : Docker, Kubernetes, Terraform, AWS compétences data : Python, SQL, outils de data science Pour un PM / PMO, la compréhension de ces environnements permet d’être pertinent dans les arbitrages et le pilotage des initiatives, notamment lorsque les équipes data travaillent avec des technologies cloud ou des plateformes analytiques.
Offre d'emploi
Product Owner IA Senior – Transformation des Centres de Relation Client
SMILE
Publiée le
Data analysis
Transformation digitale
3 mois
40k-58k €
400-550 €
Paris, France
Dans le cadre de ses travaux de transformation IA, un grand groupe bancaire français recherche un Product Owner Senior pour accompagner la transformation de ses Centres de Relation Clients (CRC) via l’intégration de cas d’usage IA à forte valeur ajoutée. Le PO sera intégré à une direction Data/IA transverse , en lien direct avec les équipes métier CRC, les UX designers, les experts data (data scientists, data engineers), les équipes IT et les établissements du réseau. Les Centres de Relation Client représentent un axe stratégique de la transformation de l’expérience client. L’enjeu est de structurer, prioriser et piloter des cas d’usage IA dans trois grands domaines : Traitement de la Voix (speech-to-text, détection d’intention, analyse d’émotion) ; Analyse des Mails et Courriers (NLP, routage intelligent, résumé, classification) ; Déploiement ou amélioration d’Agents conversationnels (LLM, chatbot, voicebot) . Le Product Owner sera directement responsable de la mise en œuvre de plusieurs projets IA sur ce périmètre.
Offre d'emploi
Expert Elastic Stack – Administration & Performance
Ewolve
Publiée le
Elasticsearch
Kibana
Logstash
3 ans
50k-55k €
550-650 €
Île-de-France, France
Nous recherchons un Expert Elastic Stack orienté administration pour intervenir chez un grand compte du secteur bancaire , au sein d’un environnement à très forte criticité et volumétrie, notamment sur des plateformes de cybersécurité. Vous intégrerez une équipe experte en charge de l’évolution, de la performance et de la stabilité d’une infrastructure Elastic à très grande échelle. Description de la mission : Au sein d’une équipe dédiée, vous interviendrez sur une stack Elastic stratégique dont les volumes de données sont en forte croissance (28 To/jour actuellement, avec un objectif de 65 To/jour). Votre rôle ne sera pas uniquement orienté usage, mais principalement administration avancée, optimisation et support expert . À ce titre, vos missions seront : Administrer et optimiser la Stack Elastic (Elasticsearch, Kibana, Logstash, Beats…) Superviser le bon fonctionnement des clusters et analyser les comportements de la plateforme Identifier et résoudre les problématiques de performance complexes (niveau supérieur au support N1/N2 éditeur) Analyser les recommandations éditeur et adapter leur implémentation au contexte existant Intervenir sur l’analyse avancée, pouvant aller jusqu’à l’étude du code source Elastic si nécessaire Accompagner les data engineers dans la préparation et l’injection de données dans Elastic Proposer des améliorations et fonctionnalités au-dessus de la Stack existante Contribuer à l’industrialisation et à la fiabilisation de la plateforme
Mission freelance
Data Quality Manager
CAT-AMANIA
Publiée le
Apache Spark
AWS Cloud
Collibra
1 an
100-490 €
Lille, Hauts-de-France
VOS RESPONSABILITÉS PRINCIPALES Recueillir et évaluer les besoins en matière de qualité des données Accompagner et organiser des ateliers avec les data owners pour comprendre le cycle de vie des données et collecter les exigences en matière de qualité des données (règles, impacts de la non-qualité, parties prenantes, etc.) Interagir et se coordonner avec les autres parties prenantes du projet (Data Steward, Data Engineer,…) pour s’aligner sur les contrôles Vérifier et valider la pertinence des règles de qualité des données et leur faisabilité Documenter les règles de qualité dans le catalogue de données (Collibra) Mettre en oeuvre les normes et politique de qualité des données sur votre périmètre pour garantir l'opérabilité des données tout au long de leur cycle de vie dans l'entreprise Concevoir et mettre en œuvre des outils de contrôles et de visualisations de la qualité des données, y compris des alertes pour détecter les erreurs et les incohérences Mettre en œuvre et animer les processus de remédiation afin d’assurer l’amélioration continue du dispositif de qualité des données Développer et appliquer des stratégies pour l'amélioration continue de la qualité des données, en collaboration étroite avec les producteurs de données et les équipes techniques. Sensibiliser les parties prenantes internes à l'importance de la qualité des données, en les formant aux bonnes pratiques et en assurant un suivi régulier. Implémenter des outils pour automatiser les tâches de contrôle et de correction des données. Contribuer et participer activement à la communauté des Data Quality Manager
Mission freelance
Développeur iOS
Root-MENU
Publiée le
Polyvalence
6 mois
600-800 €
Bordeaux, Nouvelle-Aquitaine
Nous recherchons un Développeur iOS passionné par l’innovation mobile pour intégrer une équipe tech agile dédiée à la conception d’apps mobiles nouvelle génération. Le candidat participera à des projets de R&D mobile et d’intégration de fonctionnalités avancées d’iOS. Les tâches et les livrables : ● Développement d’applications innovantes intégrant ARKit, SwiftUI, machine learning ou HealthKit. ● Intégration de SDK tiers, gestion des notifications push et des autorisations. ● Collaboration avec les data engineers et les experts produit sur des fonctionnalités complexes. ● Rédaction de documentation technique et participation aux choix d’architecture. ● Tests de performance, mesure de l’UX et déploiement continu. ● Contribution aux phases de R&D sur les nouvelles APIs d’Apple (WWDC, bêta iOS, etc.).
Offre d'emploi
Chef de projet Data — profil “hybride pilotage / data”
HR DNA
Publiée le
Data management
Dataiku
IA
2 ans
40k-53k €
400-550 €
Niort, Nouvelle-Aquitaine
Chers consultants, Nous recherchons actuellement, pour un client du secteur de l’assurance basé à Niort , un Chef de projet Data – profil “hybride pilotage / data” . 🎯 Finalité du rôle Un chef de projet orienté data, capable de piloter des initiatives data de bout en bout , tout en comprenant les enjeux techniques, sans être un développeur pur. 🧠 ADN du profil recherché • Chef de projet avant tout, avec une forte appétence technique data • Capable de dialoguer avec des data engineers / data analysts • Profil interface entre les métiers, les équipes data / IT et, ponctuellement, la direction 🛠️ Compétences clés Dataviz → Compréhension des usages métiers, définition des indicateurs, capacité à challenger les dashboards Dataiku (ou plateforme data science équivalente) → Outil central du SI data → Capacité à comprendre les flux, piloter les cas d’usage et orchestrer les évolutions IA / RPA → Capacité à identifier des cas d’automatisation / d’optimisation → Pilotage de projets IA / RPA (POC → production) → Traduction des besoins métiers en solutions data / IA 👥 Management & gouvernance • Animation d’équipes data (data engineers, data analysts, prestataires) • Pilotage de la roadmap data, priorisation et arbitrages • Conduite du changement : adoption des outils, acculturation data des métiers, accompagnement des utilisateurs 👉 En résumé Un Chef de projet Data “business oriented” , à l’aise avec l’écosystème data, capable de structurer, piloter et faire avancer la data au sein de l’organisation. 📍 INDISPENSABLE : présence sur site à Niort minimum 3 jours par semaine.
Offre d'emploi
Data Ingénieur Spark
R&S TELECOM
Publiée le
Batch
Docker
Git
1 an
Rennes, Bretagne
En tant que Data Engineer Senior, vous interviendrez sur l’ensemble du cycle de vie de la donnée. Tâches à réaliser : Concevoir, développer et maintenir des pipelines d’ingestion batch et streaming Implémenter des traitements Data robustes, industrialisés et observables Participer à la construction d’une architecture Lakehouse moderne Garantir la qualité, la traçabilité et la fiabilité des données Contribuer à l’industrialisation (CI/CD, DataOps, automatisation) Collaborer étroitement avec les Data Architects, Platform Engineers, Product Owners et équipes métier Appliquer les bonnes pratiques de sécurité by design et de conformité Participer à la documentation et au transfert de connaissances
Offre d'emploi
Data Analyst Dataiku/SAS/Tableau/SQL
OBJECTWARE
Publiée le
Dataiku
SAS
3 ans
40k-80k €
400-580 €
Île-de-France, France
Prestations demandées La mission consiste à fournir aux équipes Finance les moyens de contrôler / analyser / piloter leurs activités, via une exploitation qualitative de la donnée. Les tâches principales consisteront à : - Accompagner les différentes équipes dans l’expression de leurs besoins - Définir et modéliser les processus data - Concevoir les solutions - Implémenter et automatiser les processus dans les outils les mieux adaptés (extraction et préparation des données ; production des outputs ; historisation et stockage ; tableaux de bord,…) - Accompagner les Métiers dans la prise en main des solutions mises en place - Assurer la maintenance corrective et évolutive des solutions livrées - Identifier, partager et mettre en œuvre les bonnes pratiques sur le traitement des données, dans une démarche d’amélioration continue. Le périmètre recouvre l’ensemble des données de l’activité d’Arval France (systèmes de gestion des contrats, de l’assurance, des frais généraux ; systèmes comptables,…), nécessaires aux travaux de la Finance. Les principaux outils utilisés dans l’existant sont : Excel, SAS, OBIEE Analytics, SQL Dev. Les principaux outils à privilégier en cible sont – conformément aux recommandations internes : Dataiku, Python, Vertica, Tableau. La mission se déroule au sein l’équipe de Data Analysts dédiée au projet Data Finance, celle-ci travaille de manière quotidienne avec l’ensemble des parties prenantes au projet – de la Finance et des autres Directions : - Experts Métier - Architectes et référents IT - Data Engineers - Data Management Officers Exemples de besoins automatisation pouvant être mis en œuvre durant la mission : - Réaliser la migration SAS vers Dataiku du dashboard de pilotage de l’encours stock de commandes - Industrialiser les contrôles et les rapprochements entre les systèmes de gestion et les systèmes comptables - Industrialiser le pilotage des paiements clients / fournisseurs
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Passage en EI régime réel
- Pourquoi est-il si dur de décrocher une mission avec un CV pourtant plutôt intéressant ?
- Cadeau reçu en micro-entreprise
- ARCE | Informations générales-Indemnisation
- Je code pour vous une application gratuitement
- Passage au réel après dépassement micro : notification URSSAF ?
314 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois