L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 054 résultats.
Mission freelance
Business analyst data / BI
Publiée le
API
Business Analysis
Snowflake
18 mois
100-350 €
Vanves, Île-de-France
Télétravail partiel
CONTEXTE Expérience: 1 ans et plus Métiers Fonctions : Conseil métier, AMOA, Business Analyst Spécialités technologiques : BI, Reporting, API objectif : offrir une vue consolidée et fiable des données pour tous les métiers et accompagner le SELF BI. · Sortie de SAS vers Power BI pour le moment une prochaine étape se fera probablement vers des outils snowflake · Modernisation des outils MISSIONS 1. Analyse métier et besoins - Recueillir et formaliser les besoins des métiers - Traduire les demandes en spécifications fonctionnelles claires - Garantir la cohérence des données (identifiants et des champs) 2. Consolidation et qualité des données - Superviser la consolidation des données provenant de plusieurs sources (Nantes, Inde). - Contribuer à l’amélioration de la qualité des données et à la définition des standards. 3. Conception et restitution - Définir des vues métiers adaptées (extractions, dashboards). - Mettre en place des solutions de reporting via Power BI et outils analytiques. 4. Accompagnement de la transformation - Promouvoir le self Bi auprès des équipes métier : l’accès direct et autonome - Participer à la phase de transformation vers un modèle Data Next. - Sensibiliser les métiers à l’usage des outils et à la gouvernance des données. Expertise souhaitée Technique : - Bonne connaissance des datawarehouses, modèles de données, requêtes SQL, SAS. - Maîtrise des outils de BI (Power BI). Profil recherché · Expérience confirmée en Business Analysis orientée data. · Sensibilité technique + compréhension des enjeux utilisateurs. · Capacité à travailler dans un environnement international (Inde, France, Italie). Soft skills : · Communication claire avec les métiers et les équipes techniques. · Sens de la qualité et de la cohérence des données. · Proactivité : crée un lien fort avec les métiers afin d’accompagner la transformation vers le SELFBI
Offre d'emploi
Consultant data MDM F/H
Publiée le
45k-50k €
Saint-Didier-au-Mont-d'Or, Auvergne-Rhône-Alpes
Télétravail partiel
CONTEXTE Dans un monde où l'innovation est un levier de performance, la transformation numérique ne se limite plus à l'adoption de nouvelles technologies. Elle repose sur des stratégies audacieuses, un accompagnement humain adapté, et une capacité à anticiper les enjeux à venir. Chez Coexya Consulting, nous considérons que les femmes et les hommes sont au coeur de la réussite des projets de transformation. Pour renforcer notre équipe, nous recherchons une personne expérimentée pour un poste de consultant Data MDM F/H. CE QUE L'ON VOUS PROPOSE En lien avec le responsable opérationnel de la practice Data Strategy et notamment de l'offre MDM, vos missions sont les suivantes : - Contribuer au développement de l'offre Data MDM : participation à la structuration de notre démarche, production de contenus méthodologiques, diffusion de bonnes pratiques, veille. - Intervenir, en particulier sur les aspects fonctionnels et technologiques, sur les phases clés associées à la construction d'un projet MDM, depuis l'avant-vente jusqu'à l'accompagnement des équipes de réalisation. - Mener les ateliers de cadrage puis la définition des modèles de données et des processus de gestion des données référentielles. - Concevoir et préconiser les solutions technologiques répondant aux besoins par un benchmark des solutions du marché. - Echanger avec les équipes techniques. - Identifier les opportunités de missions et de besoins chez vos clients. - Participer aux avant-ventes : rédaction d'offres, soutenances orales, valorisation de notre savoir-faire.
Offre d'emploi
DATA ENGINEER
Publiée le
24 mois
35k-40k €
250-400 €
Nantes, Pays de la Loire
Télétravail partiel
L'objectif de la mission est de mettre en place des nouveaux produits accompagnant la transition technologique de la plateforme et des pratiques associées tout en accompagnant la montée en compétence de l'équipe sur les outils du socle, notamment DBT, Kafka, KafkaCOnnect, Trino - Concevoir, implémenter et documenter des pipelines d'ingestion et de transformation (DBT, Kafka Connect, Trino). - Mettre en place des modèles de données optimisés et cohérents avec les standards du socle. - Participer à la migration et l'optimisation des traitements depuis Cloudera/Spark vers les nouvelles technologies (Kafka / Trino / Iceberg). - Intégrer les développements dans la chaîne CI/CD, en lien avec les pratiques de déploiement du socle. Participer à la gestion des habilitations et du contrôle des accès, en cohérence avec les principes de sécurité et conformité RGPD. - Contribuer à la mise en place d'outils d'observabilité (logs, monitoring, audit des accès, performance des jobs). - Accompagner les membres de l'équipe dans la prise en main des outils DBT et Kafka. - Partager les bonnes pratiques de développement, de testing et de gestion du code (revues, documentation, mentoring). - Être force de proposition sur l'amélioration continue du socle et des workflows de développement. - Travailler en étroite collaboration avec le Tech Lead, les PO et les Data Stewards pour assurer la cohérence des modèles et des processus. - Participer activement aux rituels agiles (daily, sprint planning, review, rétrospective). Les activités confiées supposent la maîtrise de : - Kafka - DBT - Python - Trino
Offre d'emploi
Data Engineer / Data Analyst Senior – Environnement Cloud & Big Data
Publiée le
Cloud
Data analysis
Microsoft Power BI
3 ans
75017, Paris, Île-de-France
Nous recherchons un expert data capable de concevoir, structurer et optimiser des solutions data modernes pour accompagner la croissance et les enjeux business d’une organisation en pleine transformation numérique. Votre rôle sera central : transformer la donnée en levier stratégique, garantir sa qualité et développer les pipelines, modèles et analyses qui permettront aux équipes métiers de prendre de meilleures décisions. 🎯 Livrables & responsabilités Concevoir et mettre en œuvre des solutions data complètes pour répondre aux besoins business. Analyser, interpréter et valoriser des données complexes pour produire des insights actionnables. Travailler avec des équipes pluridisciplinaires (IT, produit, métier, sécurité…) afin d’identifier et résoudre les problématiques data. Développer et maintenir des pipelines de données , des modèles analytiques et des outils de reporting. Garantir la qualité, l’intégrité et la sécurité des données sur tout leur cycle de vie. Fournir une expertise technique et des recommandations pour soutenir la prise de décision data-driven. 🧩 Expertise requise 5 ans d’expérience minimum en data engineering, data analytics ou poste similaire. Expérience solide dans la livraison de solutions data dans des environnements dynamiques. Maîtrise des architectures et technologies data modernes : plateformes cloud (AWS, Azure, GCP), frameworks Big Data, data warehousing. Excellentes compétences en Python, SQL, Spark . Maîtrise de la modélisation de données , des processus ETL et des pipelines de transformation. Expertise sur les outils de visualisation et de reporting : Power BI, Tableau . Connaissance des bonnes pratiques de gouvernance, sécurité et conformité des données.
Offre d'emploi
Data scientist
Publiée le
Python
40k-60k €
Paris, France
Télétravail partiel
Ce rôle de Data Scientist est une nouvelle création de poste, avec un démarrage envisagé en janvier 2026 . Le Data Scientist rejoindra l'équipe pour travailler sur des projets d'analyse de données, d'apprentissage automatique (Machine Learning - ML), de collecte de données et de développement d'applications/solutions. Les principales responsabilités incluent : L'analyse approfondie de la donnée. La récolte et le traitement des jeux de données. Le développement et l'implémentation de modèles de Machine Learning. Le déploiement des solutions développées.
Offre d'emploi
Data Scientist
Publiée le
Data science
Machine Learning
40k-62k €
Levallois-Perret, Île-de-France
Télétravail partiel
l’Assistant(e) Externe / Datascience & AI Business jouera un rôle clé dans la conduite et le développement des projets d’intelligence artificielle, depuis le cadrage des besoins métier jusqu’à la mise en production des solutions. Votre mission consistera à allier compétences en gestion de projet et savoir-faire technique en datascience pour garantir la réussite des initiatives IA menées au sein de Personal Finance. Vous interviendrez en appui stratégique et opérationnel, en lien étroit avec les équipes Datascience, IT, et les directions métiers. Vos principales responsabilités incluront : • Piloter et coordonner les projets IA / Data : cadrage, suivi des livrables, reporting et animation des points d’avancement. • Analyser les besoins métiers et les traduire en cas d’usage data exploitables. • Contribuer aux travaux de data science : préparation et analyse de données, validation et suivi de modèles (ML, NLP, IA générative). • Produire des livrables de synthèse (dashboards, rapports, présentations) à destination des équipes métiers et du management. • Assurer la communication transverse entre les équipes techniques et métiers, et participer à la documentation et la capitalisation des bonnes pratiques.
Offre d'emploi
Data Scientist
Publiée le
Azure
Data science
Paris, France
Télétravail partiel
Vous êtes passionné·e par la donnée, l’intelligence artificielle et l’impact business ? Rejoignez une équipe innovante qui met la data au cœur des décisions stratégiques et participez à la conception de modèles prédictifs et de solutions à fort impact pour des projets internationaux. 🚀 Vos missions En tant que Data Scientist , vous serez au cœur de la transformation data. Vos principales responsabilités : Concevoir, développer et industrialiser des modèles de machine learning et d’ IA répondant à des problématiques concrètes (prévision de la demande, optimisation marketing, performance industrielle, etc.) Collaborer avec les équipes Data Engineering et les métiers pour traduire les besoins business en solutions data performantes Analyser, structurer et valoriser de grands volumes de données issues de sources multiples Garantir la qualité, la robustesse et l’interprétabilité des modèles déployés Participer activement à la diffusion d’une culture data-driven au sein de l’entreprise
Mission freelance
Consultant MOE MSBI socle Data ETL
Publiée le
MOE
MSBI
24 mois
275-550 €
La Défense, Île-de-France
Télétravail partiel
Consultant(e) MOE MSBI socle Data ETL Descriptif détaillé de la mission : - Assurer l'évolution et support des applications existantes (ETL, Bases de données, support niveau 3). Effectuer des études d'impacts et analyser les anomalies - Comprendre les enjeux métier, problématiques à résoudre et opportunités à concrétiser. - Echanger et challenger les besoins métiers avec les équipes AMOA BI en tenant compte des contraintes techniques. - Proposer, concevoir et spécifier des solutions techniques viables, évolutives et tenant compte de l'existant. - Rédaction des documents techniques (spécification techniques, document d'exploitation…etc). - Conseiller, proposer des axes d'amélioration, alerter si besoin. Environnement technique de la mission : - Socle Data : SSIS, SQLServer (2016), procédures stockées, Azure DevOps (Git, Board Agile, Pipeline de déploiement CI/CD) - Reporting : COGNOS BI 10.2 et 11 & Tableau Durée estimée de la mission : 3 mois (renouvelables) Lieu de la mission : La Défense
Mission freelance
Senior Data Scientist
Publiée le
ADFS
Analyse financière
Azure
6 mois
550-650 €
Bruxelles, Bruxelles-Capitale, Belgique
Télétravail partiel
Dans le cadre du remplacement d’un consultant senior sortant, tu rejoindras l’équipe Pricing & Revenue Management afin d’assurer la continuité, l’évolution et la fiabilisation des modèles algorithmiques stratégiques. Ton rôle sera clé pour concevoir, développer et optimiser des modèles avancés de pricing et de revenue management, permettant de prévoir, indexer et optimiser les contrats clients dans un contexte business à forts enjeux. 🧠 Missions principales 1. Développement & optimisation de modèles Concevoir et développer des modèles avancés de pricing (indexation, forecasting, optimisation des revenus). Améliorer la performance des algorithmes existants (précision, vitesse, robustesse, explicabilité). Construire de nouveaux modèles data-driven liés au revenue management (élasticité, stratégie tarifaire, scénarios). 2. Engineering & Data Pipeline Développer, maintenir et optimiser des pipelines dans Azure Data Factory & Azure Databricks . Manipuler, transformer et structurer des données dans un environnement big data. Intégrer et orchestrer les données via Azure Lakehouse / ADLS . (Bonus) Utiliser PySpark pour gérer des volumes de données importants. 3. Collaboration & Interaction Business Travailler en étroite collaboration avec les équipes Pricing, Finance et Opérations. Comprendre les besoins business et les traduire en modèles statistiques exploitables. Documenter, présenter et vulgariser les résultats auprès des équipes métier. Garantir une forte réactivité et la fiabilité des livrables compte tenu des enjeux stratégiques. 🛠️ Stack technique Python : indispensable (modélisation, data processing, industrialisation). Azure Cloud : Databricks, ADF, ADLS / Lakehouse. PySpark : apprécié. Méthodes & domain expertise : Pricing algorithmique Revenue management Forecasting (séries temporelles, modèles ML) Optimisation (linéaire, stochastique, contraintes)
Mission freelance
Data Automation Engineer Confirmé
Publiée le
CI/CD
Dataiku
DevOps
6 mois
470-550 €
Île-de-France, France
Télétravail partiel
Dans le cadre de notre croissance stratégique, nous recherchons un Data / AI Engineer senior (Dataiku) pour rejoindre l’équipe Group Data Office , au service des métiers. Le consultant jouera un rôle clé dans l’accélération de la création de nouveaux produits data-driven, l’automatisation des processus métiers via l’automatisation agentique des processus, et l’aide à la prise de décisions stratégiques. Sa contribution apportera à la fois rapidité et robustesse à nos pipelines de données et à nos solutions. En collaboration étroite avec les parties prenantes métiers, il interviendra sur l’ensemble du cycle projet — de l’idéation et du prototypage rapide jusqu’au déploiement en production. Objectifs et livrables Collaborer avec les équipes métiers, opérationnelles et IT afin de recueillir les besoins et concevoir des solutions data adaptées. Développer et optimiser des pipelines de données robustes, scalables et performants, supportant des workflows métiers critiques. Co-construire des prototypes rapides avec les utilisateurs métiers pour valider les hypothèses et accélérer la création de valeur. Industrialiser ces prototypes en solutions prêtes pour la production, avec un fort accent sur la qualité des données, la maintenabilité et la performance. Contribuer aux processus de livraison et de déploiement continus en appliquant les bonnes pratiques de l’ingénierie logicielle et du DevOps. Participer à l’évolution de la stack data et promouvoir les bonnes pratiques au sein de l’équipe. Compétences techniques Expérience confirmée dans la manipulation de grands volumes de données en Python , avec des bibliothèques telles que Pandas ou Polars . Solide compréhension des principes de l’ingénierie logicielle : code propre, gestion de versions, tests et automatisation. Expérience avec les frameworks LLM et les outils d’orchestration d’agents IA. Maîtrise du prompt engineering , de la génération augmentée par la recherche (RAG) et de l’utilisation des modèles de fondation. Compréhension des architectures d’agents IA : boucles de raisonnement, utilisation d’outils, systèmes de mémoire et collaboration multi-agents. Expérience de l’intégration d’agents IA avec des bases de données vectorielles et des bases de connaissances. Connaissance des outils d’observabilité et d’évaluation de l’IA pour le suivi du comportement et des résultats des agents. Expérience des outils d’orchestration de pipelines de données, notamment Dataiku . Familiarité avec le DevOps , les pipelines CI/CD et les déploiements en environnement de production.
Offre d'emploi
Lead Data Engineer (H/F)
Publiée le
Apache Spark
Big Data
Data management
3 ans
40k-71k €
400-700 €
Île-de-France, France
Télétravail partiel
Nous recherchons un Lead Data Engineer / Data Engineer Senior pour renforcer une équipe data travaillant sur une plateforme moderne Azure / Databricks . Votre rôle : concevoir, industrialiser et optimiser des pipelines Big Data, tout en jouant un rôle de référent technique auprès de l’équipe. Compétences indispensables Big Data : Spark, Databricks Ingestion / Streaming : Kafka, Apache NiFi Cloud : Microsoft Azure Langages : Scala ou Java + Python + SQL Orchestration : Airflow CI/CD & DevOps : Azure DevOps, Git Compétences appréciées Dataiku Ansible Connaissance Data Lake / architectures medallion Vos missions Concevoir et industrialiser des pipelines Big Data (batch & streaming). Développer des flux d’ingestion avec NiFi, Kafka, Spark. Optimiser performance, qualité et scalabilité. Participer à l’architecture et aux choix techniques. Encadrer techniquement l’équipe (guidelines, bonnes pratiques, code review). Contribuer aux automatisations et à l’orchestration (Airflow, Ansible, DevOps).
Offre d'emploi
Testeur Fonctionnel Confirmé – Application Web & Mobile -Marseille + Télétravail(H/F)
Publiée le
Git
Méthode Agile
1 an
Marseille, Provence-Alpes-Côte d'Azur
Télétravail partiel
🎯 Contexte de la mission Dans le cadre du développement de l’application ENEJ (web & mobile), dédiée au secteur éducatif du primaire au supérieur, nous recherchons un Testeur Fonctionnel Confirmé . Le produit évolue en mode Agile , avec des releases toutes les 4 semaines, dans un environnement hautement sécurisé (ISO27001 / SecNumCloud) . 🛠️ Missions principales Réaliser les tests fonctionnels : intégration, non-régression, E2E Tester les nouvelles fonctionnalités à chaque livraison Contribuer à des tests plus techniques : sécurité, accessibilité Rédiger les cahiers de tests et les dossiers de résultats Créer et suivre les tickets Git en cas d’anomalies Participer aux rituels Agile (daily, sprint review, sprint planning) S’assurer de la conformité fonctionnelle et technique du produit Respecter les standards de sécurité de l’environnement certifié 📄 Livrables attendus Cahier de tests Résultats de tests Tickets d’anomalie documentés (Git) Reporting d’avancement ⚙️ Compétences techniques requises Test fonctionnel – Confirmé (Impératif) Test technique – Confirmé (Souhaitable) Bonnes pratiques Agile Connaissance des environnements sécurisés (un plus) Français professionnel (impératif)
Offre d'emploi
Développeur Data/Data Engineer
Publiée le
AWS Cloud
Azure
Azure Data Factory
40k-65k €
Gosselies, Hainaut, Belgique
Télétravail partiel
ATTENTION, 2 JOURS DE PRESENCE SUR SITE A GOSSELIE NON NEGOCIABLE. Ne pas postuler le cas échéant. Le consultant rejoindra l’équipe Factory Data , spécialisée dans les technologies Microsoft Fabric et Azure Data . La mission s’inscrit dans le cadre de la mise en place et l’optimisation des flux de données, la modélisation du Lake House et l’architecture médaillon (Silver & Gold). Responsabilités Développer les flux d’ingestion via Fabric Data Factory (et compréhension d’Azure Data Factory). Développer les flux de transformation via Fabric Factory Notebook . Optimiser les requêtes de transformation en tenant compte des coûts Azure. Contribuer à la modélisation du Lake House et à l’architecture médaillon. Établir le design technique et rédiger la documentation. Mettre en place et exécuter les tests unitaires automatisables . Participer à l’estimation des efforts de développement. Contribuer à la maintenance et résolution des incidents en production. Participer à l’amélioration continue (guidelines de développement).
Offre d'emploi
Data Engineer Teradata / Big Data, spécialiste du RUN
Publiée le
Apache Hive
Apache Spark
Big Data
12 mois
40k-48k €
400-480 €
Île-de-France, France
Télétravail partiel
La tribu DATA (DAT) construit et développe des applications sur la base de puissantes plateformes DATA à des fins d’usages variés servant toutes les directions métier du groupe bancaire. Pour répondre à ces usages, DAT est au cœur de la stratégie data-centric du groupe bancaire, et intervient aussi bien au niveau de l’architecture Data, sur les dernières technologies data, Big Data, IA, Teradata, SAS, DMP, Oracle ainsi que sur les solutions analytiques et de datavisualisation. La mission consiste à assurer les fonctions suivantes au sein de la Squad Socles Data de la tribu DAT : Veiller au quotidien à la bonne marche des plateformes Data (Teradata et Big Data) Intervenir au quotidien, sous contraintes de délais, lors des incidents d’exploitation (analyse, diagnostic, résolution). Produire le relevé matinal des exécutions des traitements sur les plateformes « Entrepôt et Usages » et « Big Data ». Analyser les actions correctrices à lancer : – court terme (relance rapide) – moyen terme (consignes pour les pilotes de nuit) – long terme (correctifs d’ordonnancement ou de traitements) Créer les incidents selon le process interne (JIRA). Assurer une communication unique pour les deux environnements DATA Vulgariser la communication technico-fonctionnelle auprès des intervenants (équipes internes et métiers). Mettre en place et diffuser les indicateurs de performance et de délais. Mettre en place des états mensuels des incidents et contribuer aux reportings et comités. Analyser les indicateurs d’assurance qualité de données et communiquer auprès des acteurs concernés. Intégrer des méthodes d’amélioration continue Proposer des améliorations du chemin critique en tenant compte des applications sensibles. Maintenir en condition opérationnelle les moyens, dans le respect des normes et critères de performance. Développer des composants d’amélioration. Définir et mettre en place des outils de normalisation, d’automatisation et de sécurisation de la production. Contribuer à la conception de nouveaux projets et évolutions. Contribuer aux états réguliers de contrôle : habilitations, comptes, connexions… Participer aux projets d’optimisation et d’amélioration de la QDF (Qualité de Fonctionnement)
Offre d'emploi
un Data Analyst Senior F/H
Publiée le
55k-65k €
Neuilly-sur-Seine, Île-de-France
Télétravail partiel
Dans le cadre du développement de notre client, nous recherchons un Data Analyst Senior orienté DataViz , expert sur Power BI et disposant d’une très bonne maîtrise de Microsoft Fabric . Missions principales : Concevoir et réaliser des tableaux de bord interactifs et à forte valeur DataViz sous Power BI Transformer des données complexes en visualisations claires, impactantes et orientées décision Exploiter et modéliser les données via Microsoft Fabric Collaborer étroitement avec les équipes métiers pour comprendre les enjeux Garantir la qualité, la performance et la cohérence des rapports et modèles de données
Mission freelance
INGENIEUR DATA BI - CLOUD AZURE
Publiée le
Azure
BI
Cloud
24 mois
200-400 €
Paris, France
Télétravail partiel
Pour l'un de nos clients, nous recherchons un(e) Ingénieur DATA BI & Cloud Azure pour renforcer leurs équipes IT. Votre poste et vos missions Membre de l'équipe IT & Digital, vous intervenez au cœur des différents projets de développement du Groupe sur un périmètre international. Dans le respect de la stratégie IT établie par le DSI, votre mission consiste à : Mise en place d'une vraie démarche data-driven au niveau technique - Apporter votre expertise technique et vos idées lors de la mise en place de projets concernant les développement données / BI - Force de proposition sur des nouvelles architectures et solutions d'intégration des données - Connaissances des principes big data et IoT - Connaissances avancées en datawarehouse et modèles de gouvernance des données - Connaissances des API Data pour le temps réel
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Entretiens et tests techniques developpeurs Java Angular junior
- Freelance : peu de retours sur mes candidatures – vos stratégies ?
- Gestion d’entreprise : astuces pour freelances IT
- Traitement fiscal des cotisations sociales payées en 2025 sur CA micro-BNC 2024
- L'EI à l'IS est-elle toujours plus intéressante qu'à l'IR ?
- ESN qui cherche à trop marger
2054 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois