Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 3 500 résultats.
CDI

Offre d'emploi
Responsable Data & Business Intelligence

CONCRETIO SERVICES
Publiée le
Data management
Microsoft Power BI

40k-80k €
Île-de-France, France
Rattaché(e) à la DSI, vous définissez et pilotez la stratégie Data d'un groupe structuré. Vous encadrez l'équipe Business Intelligence, garantissez la performance des plateformes décisionnelles et accompagnez les métiers dans l'exploitation de la donnée comme levier de performance. Vos missions : 1- Management & Organisation Manager et animer une équipe d'analystes et d'experts BI (environ 5 à 10 collaborateurs) Organiser et prioriser les demandes, piloter la charge et assurer le respect des engagements (qualité, coûts, délais) Accompagner la montée en compétences de l'équipe et promouvoir les bonnes pratiques Data Travailler en étroite collaboration avec les autres équipes IT (AMOA, infrastructures, sécurité) et les directions métiers. 2- Pilotage de la stratégie Data Définir la feuille de route Data en lien avec la DSI et les directions métiers Contribuer la refonte du système d'information décisionnel et des outils Data Participer à la gouvernance de la donnée (qualité, sécurité, conformité) Etre force de proposition sur les évolutions technologiques et l'architecture cible du SI Data 3 - Supervision technique & opérationnelle Superviser et faire évolue les plateformes décisionnelles existantes (SAP BW, BO, Power BI, Snowflake, Talend Garantir la fiabilité, la performance et la disponibilité des flux et entrepôts de données Participer activement à la conception et à la mise en oeuvre des solutions techniques (ETL, modèles de données, reporting, dashboards) 4- Relation métiers & accompagnement Recueillir, analyser et challenger les besoins Data des différentes directions (commerciale, finance, logistique, RH) Garantir la pertinence et la qualité des livrables décisionnels (KPIs, tableaux de bord, indicateurs de pilotage 5 - Pilotage applicatif & MCO Piloter et assurer le MCO des applications du SI Groupe Réaliser les pré-études, les estimations de charge et assurer une veille technologique continue Recueillir les besoins métiers et rédiger les spécifications fonctionnelles associés Planifier et mettre en œuvre les paramétrages des solutions SAP et des logiciels connexes Piloter et/ou réaliser les développements applicatifs Assurer un rôle d'expertise fonctionnelle et technique, ainsi que le support de niveau 2 et 3 Animer et/ou participer à des projets transverses au sein de la DSI
Freelance
CDI

Offre d'emploi
Développeur Sénior backend Java Core - Multithreading calculs distribués (7 ans et plus)

Digistrat consulting
Publiée le
Big Data
DevOps
Java

3 ans
50k-70k €
500-600 €
Paris, France
🏭 Secteurs stratégiques : Banque d’investissement PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 🗓 Démarrage : ASAP 💡 Contexte /Objectifs : Au sein d’une équipe qui travaille sur une application d'aide à la décision pour le trading. Elle permet de gérer des données historiques sur les clients, et les données de marché, ainsi que des données intraday et des mesures de risques, il permet aussi de visualiser les axes de trading. L’application utilise Angular 15 comme front end, Java 11 et Python 2 en back end, et Apache ignite pour le calcul distribué, et Mongo DB comme base de données. Pour la partie déploiement, on utilise Docker / Kubernetes et Jenkins
Freelance

Mission freelance
Consultant SAP MM – Support Logistique AMOA / RUN (H/F)

Freelance.com
Publiée le
Microsoft Power BI
SAP ECC6
SAP MM

12 mois
400-650 €
Gonfreville-l'Orcher, Normandie
Consultant fonctionnel SAP orienté support logistique (AMOA / RUN / MCO) Prise en charge du support utilisateur sur les applications Supply Chain Gestion des incidents et demandes via outils de ticketing Analyse, qualification et résolution des anomalies Participation au maintien en condition opérationnelle (MCO) des applications Contribution à l’ amélioration continue des processus et outils Rédaction et mise à jour de la documentation fonctionnelle et technique Suivi des activités et production de reporting (hebdomadaire) Interaction quotidienne avec les équipes métiers, IT et data Participation aux réunions de suivi et à la coordination des activités
CDI
Freelance

Offre d'emploi
Data Engineer Databricks

Craftman data
Publiée le
Apache Spark
Databricks
PySpark

9 mois
Casablanca, Casablanca-Settat, Maroc
Localisation : Casablanca / Rabat Démarrage : ASAP Expérience : 3 ans minimum sur Databricks 🎯 Contexte Dans le cadre du développement de son usine digitale DiversIT orientée Data , le client renforce ses équipes et recherche un Data Engineer Databricks afin d’accélérer la mise en œuvre de cas d’usage data sur sa plateforme. 🚀 Missions principales Développer et industrialiser des cas d’usage data sur Databricks Concevoir et maintenir des pipelines de données performants Exploiter la Databricks Data Intelligence Platform Manipuler et transformer des données via SQL, Python et Spark Participer à l’optimisation des traitements (performance, coûts) Contribuer à la fiabilité et à la qualité des données 🛠️ Compétences requises Databricks (Azure Databricks) Spark (indispensable) Python & SQL Bonne maîtrise des environnements data cloud Expérience en développement de pipelines data 👤 Profil recherché Data Engineer confirmé à senior ( 3+ ans ) sur Databricks Capacité à travailler en autonomie sur des sujets data complexes Bon esprit d’analyse et rigueur technique Expérience sur des projets data à forte volumétrie appréciée ⭐ Atouts Expérience sur des plateformes Data modernes Connaissance des bonnes pratiques d’industrialisation data Sensibilité à la qualité et à la gouvernance des données 👉 Mission longue, avec fort enjeu autour de la data platform et de l’industrialisation des cas d’usage .
Freelance

Mission freelance
Data Analyst (H/F) - Belgique

Mindquest
Publiée le
Python
SQL

3 mois
340-500 €
Gosselies, Hainaut, Belgique
Dans le cadre de ses activités, notre client recherche un(e) Data Analyst Transverse pour rejoindre l’équipe Reporting Transversal au sein de la Direction Stratégie & Transformation. Vous interviendrez sur l’analyse et la valorisation des données afin de soutenir la prise de décision stratégique et améliorer les performances globales de l’entreprise. Mission 1. Aide à la décision stratégique * Développer et implémenter des modèles et algorithmes de traitement de données * Produire des analyses avancées pour orienter les décisions stratégiques * Collaborer avec les métiers pour identifier les besoins data et proposer des solutions adaptées 2. Valorisation des données * Analyser les tendances et performances opérationnelles * Construire des scénarios prospectifs * Concevoir des dashboards et visualisations interactives (Power BI) 3. Contribution aux projets transverses * Participer aux projets de transformation de l’entreprise * Assurer la communication avec les différentes équipes * Contribuer aux initiatives de transformation digitale
CDI
Freelance

Offre d'emploi
Solution Architect (H/F) – Cloud & Architecture Data (Azure / API / Microservices)

Craftman data
Publiée le
API
AWS Cloud
Java

3 mois
40k-50k €
400-580 €
Luxembourg
Dans le cadre d’un programme de transformation digitale à l’échelle européenne, nous recherchons un Solution Architect senior pour accompagner plusieurs initiatives stratégiques dans un environnement en forte évolution. La mission s’inscrit dans un contexte où les plateformes globales sont en cours de déploiement, nécessitant la mise en place de solutions intermédiaires, pragmatiques et rapidement déployables , tout en garantissant leur alignement avec l’architecture cible. Le rôle est au cœur de la transformation, à l’interface entre les équipes métier et techniques, avec un objectif clair : concevoir des solutions robustes, scalables et orientées delivery . Recueillir et analyser les besoins métiers Traduire les besoins en solutions techniques pragmatiques Concevoir des architectures applicatives et d’intégration Participer à la définition des choix technologiques Assurer la cohérence des solutions avec les standards groupe Accompagner les équipes de delivery (Dev, Data, DevOps) Produire une documentation claire et orientée décision Garantir la scalabilité, la sécurité et la performance Contribuer à l’amélioration continue des architectures
Freelance
CDI
CDD

Offre d'emploi
Développeur SharePoint Online (M365) – Intranet Refonte | Agile Scrum

RIDCHA DATA
Publiée le
Open Shortest Path First (OSPF)
React
SharePoint

1 an
Paris, France
Contexte de la mission Dans le cadre de la refonte d’un intranet international basé sur SharePoint Online (Microsoft 365) , nous recherchons un Développeur SharePoint Online pour intégrer une équipe Agile dédiée à la conception et au développement de nouvelles fonctionnalités intranet. L’objectif du projet est de mettre en place une plateforme intranet moderne, performante et centrée utilisateur , permettant d’améliorer l’accès à l’information, la collaboration et la communication interne dans un environnement international. Le développeur interviendra au sein d’une équipe Scrum et participera activement aux développements, aux intégrations techniques et aux livraisons incrémentales de la plateforme. Organisation de l’équipe (Scrum) Le consultant intégrera une équipe Agile de 4 personnes : 1 Business Analyst Recueil et formalisation des besoins métiers Rédaction des user stories Priorisation fonctionnelle avec le Product Owner 2 Développeurs SharePoint Online Conception et développement des solutions techniques Implémentation SPFx et intégrations M365 1 Scrum Master Animation des rituels Agile/Scrum Facilitation de l’équipe Suppression des obstacles Amélioration continue des processus L’équipe travaille en sprints de 2 semaines , avec : backlog priorisé rituels Scrum (Daily, Sprint Planning, Review, Rétrospective) logique de livraison incrémentale Objectifs du poste Développer et maintenir les fonctionnalités de l’intranet sur SharePoint Online . Participer activement aux livraisons de l’équipe Scrum . Garantir la qualité, la performance et la maintenabilité des développements. Missions principales Développement & intégration Développer des webparts et extensions SPFx (React / TypeScript). Configurer et personnaliser les sites SharePoint Modern . Concevoir et gérer : listes SharePoint types de contenu métadonnées taxonomies Intégrer des données via : Microsoft Graph API APIs externes si nécessaire Mettre en place des automatisations via Power Automate lorsque nécessaire. Travail en mode Agile / Scrum Participer aux rituels Agile : Sprint Planning Daily Meeting Refinement Sprint Review Rétrospective Estimer les user stories et contribuer au découpage technique. Collaborer étroitement avec : le Business Analyst le Scrum Master Respecter la Definition of Done (tests, documentation, qualité). Qualité & industrialisation Appliquer les bonnes pratiques de développement : revues de code tests unitaires optimisation des performances Participer à la mise en place et à l’amélioration des pipelines CI/CD . Documenter les développements réalisés. Contribuer au support applicatif si nécessaire. Environnement technique SharePoint Online (Modern Experience) SPFx (SharePoint Framework) React / TypeScript PnPjs Microsoft Graph API Azure AD App Registration Power Platform Power Automate Power Apps Azure DevOps ou GitHub Compétences requises Compétences techniques Excellente maîtrise de SharePoint Online Expérience confirmée en : SPFx React TypeScript Bonne compréhension de l’écosystème Microsoft 365 Expérience de développement dans un environnement Agile / Scrum Compétences comportementales Esprit d’équipe et collaboration Autonomie et rigueur Sens des responsabilités Capacité à travailler dans un environnement international Langues Anglais professionnel requis
Freelance
CDI

Offre d'emploi
Consultant Data – Analyst

VISIAN
Publiée le
Microsoft Excel
Microsoft Power BI
MySQL

1 an
40k-45k €
140-440 €
Lille, Hauts-de-France
Descriptif du poste Nous recherchons 1 Consultant Data – Analyst expérimenté pour accélérer la transformation data au sein du département Marketing Client. Il jouera un rôle clé dans l'étude de la connaissance client, et dans la propagation de celle-ci au sein de l'entreprise. Pour ce faire, il devra à la fois être doté d'une forte appétence métier, du bagage méthodologique et technologique adéquat. Missions Analyser le portefeuille clients (segmentation, comportements, valeur, churn, fidélisation) Concevoir et piloter des études ad hoc à visée stratégique Produire des tableaux de bord, indicateurs clés et analyses décisionnelles Identifier des opportunités de croissance, d'optimisation et de ciblage Formuler des recommandations actionnables aux équipes métiers et à la direction Garantir la qualité, la fiabilité et la cohérence des données utilisées
CDD
CDI
Freelance

Offre d'emploi
Architecte urbanisation du Système d'Information 

KEONI CONSULTING
Publiée le
Architecture
Power Platform
SaaS

18 mois
20k-60k €
200-700 €
Paris, France
Contexte L’entité « Logiciels Métier & Support » souhaite disposer de la cartographie des applications de son périmètre et de la trajectoire pour garder un parc applicatif cohérent, évolutif. La mission a pour objet, le complément de l'étude de l'urbanisation fonctionnelle actuelle du périmètre du SI Interne et la définition de l'urbanisation cible, en référence à l'état de l'art et un focus sera réalisé sur les périmètres fonctionnels Facturation électronique"" et ""Signature électronique MISSIONS Afin de réaliser l'etat des lieux fonctionnels, il convient de prévoir de rencontrer 9 à 10 Directions Metiers ; Les interlocuteurs dans les directions métier seront des personnes en charge des processus métier ; les interlocuteurs au SI Interne seront le responsable du SI Interne, le responsable de LM&S et 6 à 8 collaborateurs SI Interne, et l'urbaniste déjà mobilisé pour la mission. Concernant en particulier la Conception de l’architecture fonctionnelle, le candidat devra : - Construire et mettre à jour la cartographie applicative et les adhérences incluses : LM&S dispose de la liste à jour de toutes les applications de son périmètre. Cette liste contient quelques caratéristiques telles que : description synthétique, direction porteuse du processus, référent MOA, référent SI Interne au sens responsable du MCO, coordonnées du support externe, quelques informations sur le contrat s'il y a lieu... Le taux de complétude de la cartographie existante n'est pas connu. Il revient au candidat d'assister le client dans la précision de ce taux. Une cartographie des flux est à construire également. - Construire la cartographie fonctionnelle du système d’information pour le SI Interne ; l'outil de cartographie utilisé par la DSI est MEGA ; les livrables devront etre compatibles avec l'outil MEGA pour exploitation. - Contribuer à la construction de la feuille de route du SI Interne afin d'atteindre une architecture applicative cible conforme à l'état de l'art, cohérente et évolutive. - Respecter les principes d’urbanisme, partager ces règles avec l'équipe LM&S. S'agissant du Suivi de la cohérence du système, il devra : - Evaluer la pertinence et la cohérence des projets par rapport à l’architecture cible et aux systèmes existants (par des études d’opportunité, de définition des besoins, de choix du système fonctionnel …) Quant à la Communication, il conviendra de : - Présenter la cartographie fonctionnelle et applicative aux responsable de la DRCP, responsable du SI Interne et collaborateurs du SI Interne. - Transferer les compétences liées à cette mission. Les personnes seront désignées au cours de la prestation et au plus tot lors de la réunion de lancement ; à minima le responsable de l'entité LM&S et ses collaborateurs . " TACHES: Cartographie applicative : cartographier les applications de notre périmètre et leurs adhérences Cartographie fonctionnelle : cartographier les processus en lien avec les applications de notre périmètre / mettre en évidence les éventuels doublons et/ou manquements Politique d'équipement logiciel (on premise/saas/open source, interface directe/indirecte, durée des contrats…) UO02 - Définition de l’architecture fonctionnelle cible et d'une méthode pour garantir la cohérence de l’ensemble du système d’information dans le respect des objectifs de l’entreprise, du domaine fonctionnel et des contraintes externes et internes Transfert des connaissances et de la documentation nécessaire à cet effet, à destination des équipes de la DSI Les livrables seront validés par le responsable du SI Interne, le responsable de la DRCP - Direction Relation Client et Production au sein de la DSI et/ou toute personne désignée par le client à cet effet." LIVRABLES Cartographie applicative et cartographie fonctionnelle du périmètre du SI INTERNE (processus métier, principales fonction et adhérence) Cartographie applicative et cartographie fonctionnelle en lien avec les processus Facture électronique et Signature électronique Définition et présentation d'une cartographie cible conforme à l'état de l'art pour un organisme comme le client Environnement technique - technologique On Premise Windows , Saas et applications PowerPlatform
Freelance
CDI

Offre d'emploi
📩 Data Governance Specialist – Data Catalog & Integration

Gentis Recruitment SAS
Publiée le
Apache Airflow
Collibra
Data governance

6 mois
Paris, France
Contexte de la mission Dans le cadre du renforcement de son Center of Expertise Data Governance , notre client recherche un Data Governance Specialist pour intégrer l’équipe “Expertise”. Cette équipe joue un rôle transverse clé et intervient sur : la structuration des standards de gouvernance data l’industrialisation des pratiques la résolution des problématiques rencontrées par les équipes métiers et data (Digital Units) La mission s’inscrit dans un environnement data platform avancé , avec des enjeux forts autour de : Data Catalog Data Quality AI Governance Data Contracts Objectifs de la mission 1. Data Catalog (Collibra) – Configuration & amélioration produit Concevoir et implémenter des solutions dans Collibra Configurer l’outil (workflows, administration, évolutions spécifiques) Recueillir et prioriser les besoins utilisateurs Valider et implémenter les spécifications fonctionnelles 2. Intégration dans l’écosystème data Participer à l’intégration du Data Catalog avec la Data Platform Concevoir les flux d’échange de métadonnées Développer et maintenir les connecteurs (API, crawling, etc.) Collaborer avec les équipes architecture Gérer l’interaction avec le support éditeur 3. Gouvernance & transformation Contribution au programme Data Contracts Participation aux sujets stratégiques : AI Governance Framework Trust AI Data Quality by Design Environnement technique Data Catalog : Collibra Data Platform : Databricks Transformation : dbt Orchestration : Apache Airflow Intégration : APIs, connecteurs, metadata exchange Data Quality : Metrics Store / framework interne Compétences attendues Must have Data Governance (confirmé) Data Catalog (idéalement Collibra) Intégration data / metadata / APIs Databricks (avancé) dbt (avancé) Apache Airflow (avancé) Nice to have Expérience sur des programmes de Data Contracts Connaissance des enjeux AI Governance Expérience en environnement data platform à grande échelle Soft skills Capacité à travailler en transverse Bon relationnel avec équipes métiers et techniques Approche structurée / orientée solution Capacité à gérer des sujets complexes
Freelance
CDI

Offre d'emploi
Business analyst CM

Craftman data
Publiée le
Architecture
Business Analyst
Cloud

220 jours
40k-45k €
400-550 €
Marseille, Provence-Alpes-Côte d'Azur
Dans le cadre du déploiement et de l'évolution de sa plateforme digitale client MyCustomer Service (MyCS) , – recherche un Senior Business Analyst / Functional Lead pour assurer le Run et l'optimisation continue de sa plateforme Salesforce Experience Cloud (désignée en interne sous le nom "Nova"). La mission s'articule autour de 3 axes principaux : 1. Stabilité Run & gouvernance architecturale Pilotage end-to-end des user stories dans JIRA, traitement des incidents structurels, réduction de la dette technique, alignement avec les standards d'architecture d'entreprise, anticipation des risques. 2. Innovation & nouvelles fonctionnalités Animation d'ateliers de cadrage avec les Product Owners, traduction des besoins métier en concepts de solution et designs d'architecture, évaluation de faisabilité et valeur business, contribution aux PoC. 3. Optimisation des processus Identification des angles morts système et processus, challenge des exigences fonctionnelles, promotion de la simplification et de la standardisation, collaboration avec l'équipe UI/UX. Livrables attendus : spécifications fonctionnelles, architecture solution designs, feature framing documentation, analyses de risques techniques, contributions à la roadmap. Conditions : mission au forfait, minimum 2 jours/semaine sur site à
Freelance

Mission freelance
101058/Data Scientist Machine Learning, Prompt engineering, MLOPS Nantes (2 jours TT)

WorldWide People
Publiée le
Data science

9 mois
400-450 €
Nantes, Pays de la Loire
Data Scientist IA GEN, Python, Machine Learning, Prompt engineering, MLOPS Nantes (2 jours TT) - Une base solide en Python pour l'exploration des données, l'évaluation d'un modèle ou la construction d'une API python. - Une Connaissance de SQL - De Solides connaissances de Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Une Maîtrise des frameworks ML distribués modernes tels que TensorFlow, PyTorch Activité principales attendues : Machine Learning / Deep Learning • Évaluer le problème métier et prouver la valeur via l'analyse exploratoire des données pour démontrer la valeur d'une approche ML/DL • Création et production de modèles d'apprentissage automatique industrialisables • Traitement de données à grande échelle pour la création de jeux de données d'entraînement • Appliquer les bonnes pratiques de MLOps et d'explicabilité des modèles • Présenter les résultats aux parties prenantes et aider au suivi à long terme de la performance du modèle pour démontrer la valeur de l'IA IA Générative • Évaluer le problème métier et prouver la valeur via l'analyse exploratoire des données pour démontrer la valeur d'une approche IA Gen • Prompt engineering • Bench via des solutions d'évaluation des modèles d'IA Gen • Optimisation des solutions (paramétrage des modèles) Notre client attend de la candidature que vous proposerez : - qu'elle soit autonome sur l'IA Gen (prompt engineering, context engineering, construction de workflow avec RAG, tool calling, MCP, implémentation de guardrails) - qu'elle dispose d'une expérience significative en Machine/Deep Learning (traitement du langage naturel, traduction automatique, etc.), Vision (vision par ordinateur, reconnaissance, etc.), et sur le cycle de vie des modèles IA (de la conception vers l'industrialisation, puis la supervision en production de sa valeur) Enfin qu'elle ait : - Une base solide en Python pour l'exploration des données, l'évaluation d'un modèle ou la construction d'une API python. - Une Connaissance de SQL - De Solides connaissances de Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Une Maîtrise des frameworks ML distribués modernes tels que TensorFlow, PyTorch
Freelance

Mission freelance
Proxy PO build - Snowflake + Power BI

FF
Publiée le
Azure Data Factory
Microsoft Power BI
Snowflake

1 an
Paris, France
Bonjour à tous, Mission longue 1 an ou + à Paris. Télétravail : 2 jours par semaine Date de démarrage : courant février Contexte de la mission Nous recherchons un Proxy Product Owner expérimenté pour accélérer la phase de BUILD de notre plateforme data. Cette mission vise à répondre à un besoin critique : face à un volume important de demandes utilisateurs et une incapacité à tout traiter faute de bande passante, ce PPO sera en charge de structurer et accélérer la livraison de nouvelles fonctionnalités, KPI et spécifications fonctionnelles. Cette personne doit être capable de s'adapter au contexte technique mais n'a pas besoin d'être un expert technique approfondi. L'enjeu principal est de faire le lien entre les utilisateurs métiers et les équipes de développement, en fournissant des spécifications fonctionnelles claires et exploitables. Objectif principal Accélérer le BUILD produit data : spécifications, nouveaux KPI, structuration des demandes utilisateurs. Le PPO BUILD devra gérer un fort volume d'échanges avec les utilisateurs, recueillir et formaliser les besoins métiers, définir et cadrer de nouveaux KPI, et travailler en étroite collaboration avec le Product Owner Data et les équipes de développement. Responsabilités clésGestion du backlog et cérémonies Agile • Participer aux cérémonies Agile et supporter le PO dans la gestion d'équipe • Gérer et opérer le backlog BUILD • Créer et maintenir les tickets Jira pour les équipes de développement avec des informations complètes : spécifications d'intégration de données, sources de données requises pour la construction des KPI, règles de transformation et critères d'acceptation Recueil et formalisation des besoins • Recueillir les besoins métiers auprès des utilisateurs clés • Mener des interviews utilisateurs à haut volume pour comprendre et cadrer les demandes • Formaliser les besoins sous forme de spécifications fonctionnelles claires et exploitables Analyse et construction des KPI • Analyser les sources de données nécessaires pour construire les KPI • Définir et cadrer de nouveaux KPI dans la plateforme data • Effectuer l'analyse technique et optimiser la logique de calcul des KPI • Concevoir des modèles de données dans Snowflake et Power BI Tests et validation • Effectuer des tests UAT (User Acceptance Testing) avec les parties prenantes dans Snowflake et Power BI • Tester et valider les fonctionnalités et améliorations livrées Suivi et optimisation • Surveiller et examiner l'orchestration et la planification des sources • Construire et affiner les modèles de données Power BI • Contribuer à la documentation fonctionnelle Qualifications requisesHard Skills • Expérience data significative : minimum 4 ans dans des projets de données et de business intelligence • Stack technique : Azure Data Factory, Snowflake (compréhension fonctionnelle), Power BI (KPI, dashboards) • SQL : connaissance fonctionnelle pour effectuer l'analyse de données, validation et compréhension des données • Méthode Agile : expérience prouvée en tant que Product Owner dans des environnements Agile (Scrum) avec JIRA • Spécifications fonctionnelles : capacité à rédiger des spécifications fonctionnelles claires et exploitables • Connaissances IT générales : protocoles, API, réseau, etc. Soft Skills • Excellentes capacités de communication avec les utilisateurs et les équipes de développement • Aisance dans les échanges avec des utilisateurs exigeants et capacité de facilitation et négociation avec les parties prenantes • Esprit de synthèse et structuration pour transformer des besoins complexes en spécifications claires • Autonomie forte et curiosité – capacité à apprendre rapidement le contexte métier • Décisif et axé sur les résultats • Esprit collaboratif Langues • Anglais : courant / bilingue obligatoire Profil recherché • Niveau d'expérience : 4 à 7 ans (profil plutôt junior à confirmé) • Expérience data indispensable dans des projets de données et de business intelligence • Compréhension fonctionnelle de Snowflake Objectifs et livrables • Assurer une approche centrée utilisateur dans toutes les décisions produit • Construire et maintenir la roadmap produit en collaboration avec le Product Owner Data • Définir des spécifications fonctionnelles claires et complètes • Planifier, piloter et prioriser les développements en utilisant la méthodologie Agile • Tester et valider les fonctionnalités et améliorations livrées • Fournir formation, support et communication aux utilisateurs Compétences clés demandées • AGILE • Snowflake (fonctionnel) • Microsoft Power BI : Niveau Expert Attentes clés • Forte autonomie : capacité à prendre des initiatives et à gérer son périmètre de manière indépendante • Excellente communication : travailler efficacement avec différentes équipes • Apporter de la valeur immédiate : être une aide réelle et opérationnelle • Profil responsable et proactif A bientôt,
Freelance

Mission freelance
Developpeur Data Engineer

Freelance.com
Publiée le
Big Data
Snowflake

3 mois
400 €
Bordeaux, Nouvelle-Aquitaine
Vous rejoignez l’équipe Data Tech Knowledge au sein de la direction IT Data. La mission s’inscrit dans une dynamique d’innovation autour de l’ IA appliquée aux environnements Data , avec un fort enjeu d’industrialisation et d’optimisation des processus existants. Vous intervenez en proximité avec les équipes métiers et data afin d’améliorer les outils, les flux et les plateformes. 🚀 Missions principales Développer et maintenir des pipelines d’alimentation de données Concevoir et optimiser des transformations via ETL (Talend / DBT) Travailler en binôme avec un Data Analyst sur des cas d’usage IA/Data Participer au développement d’agents IA permettant le requêtage SQL en langage naturel Mettre en place des outils d’aide au développement et de monitoring Contribuer aux bonnes pratiques DevOps et DataOps Réaliser une veille technologique autour des architectures data modernes 🛠 Environnement technique Langages : SQL, Python Bases de données : Snowflake, SQL Server, PostgreSQL Data Processing : DBT, Talend Data Ingestion : DLT, Kafka, Talend DevOps : Git, TFS, Azure DevOps, Docker, Kubernetes, Liquibase Infrastructure as Code : Terraform Data Visualisation : Power BI 🔎 Profil recherché 2 à 5 ans d’expérience en Data Engineering Très bonne maîtrise de Python et Snowflake Expérience confirmée sur des outils ETL (Talend et/ou DBT) Connaissances en IA (1 à 2 ans) appréciées Autonomie, esprit d’équipe et capacité à comprendre les enjeux métiers
CDI
Freelance

Offre d'emploi
Lead BA sur Niort

AIS
Publiée le
Big Data
Business Analyst

3 ans
40k-45k €
400-470 €
Niort, Nouvelle-Aquitaine
Le LBA interviendra sur un périmètre transverse incluant notamment : -Catalogue produit -Souscription & gestion de contrats -Gestion du compte sociétaire -Référentiels B2B -Processus transverses et trajectoire de convergence Stratégie • S’approprier la stratégie de l’entreprise, accompagner sa déclinaison en enjeux métier et fonctionnels. • Influer ou confirmer la trajectoire SI au regard des enjeux Métiers et SI. • Challenger les visions fonctionnelles du SI, les processus et les outillages associés Études • Porter ou contribuer à des études à fort enjeu fonctionnel avec les différentes parties prenantes (métiers, architecte, BA…). • Porter l’architecture fonctionnelle du SI, assurer la maîtrise, la cohérence et la modélisation d’un ou plusieurs domaines fonctionnels SI (Fonctions, Datas, API, trajectoire) et contribuer à l’architecture applicative. • Piloter la qualité et le bon usage des fonctions délivrées et des Datas tout au long du cycle de vie des produits et s’assurer de la conformité juridique, de la confidentialité, de la sécurité et de l’accessibilité des données. Communication Métiers • Apporter une valeur ajoutée aux Directions Métiers par une proximité durable et la prise en compte des besoins des utilisateurs finaux • Anticiper, identifier, s’approprier et consolider les enjeux Métiers ayant un impact sur le SI par une vision transverse. Veille • Grace à une veille active, éclairer les ambitions et le champ du possible • Porter des actions de veille sur la profession et sur les visions SI Changement/acculturation • Promouvoir le plein usage de la Data (data au cœur). • Accompagner les Squads dans la mise en œuvre des solutions en apportant une vision transverse à moyen terme des enjeux et en s’assurant du bon respect du cadre de cohérence fonctionnelle • S'informer sur l’usage des outils et apporter ponctuellement un soutien à l’accompagnement au changement • Animer des séquences de partage et d’acculturation auprès de parties prenantes
CDI

Offre d'emploi
Data Engineer (H/F)

OBJECTWARE
Publiée le
DBT
Google Cloud Platform (GCP)
Reporting

50k-60k €
Bordeaux, Nouvelle-Aquitaine
Contexte Dans le cadre du renforcement de ses équipes Data, notre client recherche un Data Engineer avec une forte appétence pour le reporting et la valorisation de la donnée. L’objectif est de structurer, industrialiser et exploiter les données afin de produire des indicateurs fiables et utiles aux métiers. Missions Concevoir, développer et maintenir des pipelines de données robustes et scalables Assurer la collecte, transformation et mise à disposition des données Participer à la modélisation des données (datawarehouse / datamart) Mettre en place et optimiser les flux via des outils d’orchestration Collaborer avec les équipes métiers pour comprendre les besoins en reporting Développer et alimenter des tableaux de bord et reportings Garantir la qualité, la fiabilité et la performance des données Participer à l’industrialisation des traitements (CI/CD, bonnes pratiques) Environnement technique Cloud : GCP (idéalement) ETL / Orchestration : Airflow, DBT Langages : Python BI / Reporting : Power BI, Tableau ou équivalent Data : SQL, modélisation data

Déposez votre CV

  • Fixez vos conditions

    Rémunération, télétravail... Définissez tous les critères importants pour vous.

  • Faites-vous chasser

    Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.

  • 100% gratuit

    Aucune commission prélevée sur votre mission freelance.

3500 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous