Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 2 196 résultats.
Freelance
CDI

Offre d'emploi
Data engineer - Vannes - 5-10 ans d'éxpérience Vannes (56)

Publiée le
Agile Scrum
Apache
Apache Kafka

1 an
40k-45k €
400-550 €
Vannes, Bretagne
Télétravail partiel
Merci de bien lire l'annonce ci dessous et vérifier que vous correspondez au besoin. Nous recherchons exclusivement des candidats basés à Vannes ou en Bretagne . Merci de ne pas envoyer de candidature si vous êtes situés hors de cette zone géographique. En tant que Data Engineer , votre mission principale sera de produire des solutions techniques robustes et performantes pour exploiter au mieux les données du client. Cependant, votre rôle ne se limitera pas à l’aspect technique : vous serez également un partenaire stratégique des métiers , capable d’identifier leurs besoins, de comprendre leurs enjeux et de proposer des solutions techniques adaptées. Vos responsabilités : Concevoir, développer et maintenir des pipelines de données performants et évolutifs Participer à la définition de l'architecture Data Développer les solutions de collecte et de stockage des données Mettre en place les tests unitaires et automatisés Garantir la qualité, la sécurité et l’intégrité des données tout au long de leur cycle de vie. Implémenter des solutions qui optimisent la gestion des données pour les équipes métier. Collaborer étroitement avec les équipes métier pour comprendre leurs objectifs stratégiques. Faciliter la communication entre les équipes techniques et les non-techniciens Vous serez à la croisée des chemins entre technique et métier , jouant un rôle clé pour transformer les données en un véritable levier de décision. Votre capacité à allier expertise technique et vision stratégique fera de vous un acteur indispensable pour relever les défis de l’entreprise.
Freelance
CDI

Offre d'emploi
Data Analyste (24)

Publiée le
Piano Analytics
PowerBI

1 an
40k-45k €
400-570 €
Île-de-France, France
Télétravail partiel
Contexte La Direction Data, au sein de la Direction du Numérique, a été créée avec la volonté de faire de la Data un levier de croissance des offres numériques. La Direction du Numérique a en effet de forts enjeux de développement des usages numériques de contenus propres ou issus des chaînes d'une grande entreprise de médias. La Direction Data a 3 grandes missions : maximiser la collecte de données tout en respectant les réglementations en vigueur, développer la connaissance et l'expérience utilisateurs et mettre à disposition auprès des équipes internes des outils d'aide à la décision et des outils de pilotage. La Direction Data recherche une prestation en Data Analyse pour accompagner la direction de la croissance des offres (CRM, Acquisition, Social, Partenariat – Chaîne et FAI). Prestations attendues La prestation consistera à participer à : La création de nouveaux rapports automatiques Power BI qui auront pour objectif de mesurer la performance des sites/applications (prise en compte des besoins des équipes internes, détermination des sources à utiliser et création du cahier des charges pour les data ingénieurs, réalisation d'une maquette, création du dashboard, itérations mode projet). Le maintien du bon fonctionnement des dashboards existants sur Power BI. L'accompagnement et le coaching des équipes internes sur l'intégration de la data dans leur processus de décision et de priorisation (Piano Analytics, Nielsen, marqueur interne). La mesure et l'analyse des données issues de nos différents outils afin de mieux comprendre les usages (web analytics, consommation vidéos vues), en collaboration avec l'équipe études. L'accompagnement des équipes internes dans l'identification des indicateurs/KPIs nécessaires au suivi de leurs activités, et avoir une vision transverse sur l'ensemble des KPIs utilisés par les équipes produit et métier et leurs méthodes de calcul. Le partage de son expertise afin de déployer notre marqueur interne sur d'autres produits. L'identification des besoins de prérequis de tracking pour mettre en place ces analyses et les remonter aux équipes internes.
Freelance
CDI

Offre d'emploi
Data Engineer Teradata / Big Data, spécialiste du RUN

Publiée le
Apache Hive
Apache Spark
Big Data

12 mois
40k-48k €
400-480 €
Île-de-France, France
Télétravail partiel
La tribu DATA (DAT) construit et développe des applications sur la base de puissantes plateformes DATA à des fins d’usages variés servant toutes les directions métier du groupe bancaire. Pour répondre à ces usages, DAT est au cœur de la stratégie data-centric du groupe bancaire, et intervient aussi bien au niveau de l’architecture Data, sur les dernières technologies data, Big Data, IA, Teradata, SAS, DMP, Oracle ainsi que sur les solutions analytiques et de datavisualisation. La mission consiste à assurer les fonctions suivantes au sein de la Squad Socles Data de la tribu DAT : Veiller au quotidien à la bonne marche des plateformes Data (Teradata et Big Data) Intervenir au quotidien, sous contraintes de délais, lors des incidents d’exploitation (analyse, diagnostic, résolution). Produire le relevé matinal des exécutions des traitements sur les plateformes « Entrepôt et Usages » et « Big Data ». Analyser les actions correctrices à lancer : – court terme (relance rapide) – moyen terme (consignes pour les pilotes de nuit) – long terme (correctifs d’ordonnancement ou de traitements) Créer les incidents selon le process interne (JIRA). Assurer une communication unique pour les deux environnements DATA Vulgariser la communication technico-fonctionnelle auprès des intervenants (équipes internes et métiers). Mettre en place et diffuser les indicateurs de performance et de délais. Mettre en place des états mensuels des incidents et contribuer aux reportings et comités. Analyser les indicateurs d’assurance qualité de données et communiquer auprès des acteurs concernés. Intégrer des méthodes d’amélioration continue Proposer des améliorations du chemin critique en tenant compte des applications sensibles. Maintenir en condition opérationnelle les moyens, dans le respect des normes et critères de performance. Développer des composants d’amélioration. Définir et mettre en place des outils de normalisation, d’automatisation et de sécurisation de la production. Contribuer à la conception de nouveaux projets et évolutions. Contribuer aux états réguliers de contrôle : habilitations, comptes, connexions… Participer aux projets d’optimisation et d’amélioration de la QDF (Qualité de Fonctionnement)
Freelance
CDI

Offre d'emploi
Architecte Fabric Power BI / Data Platform

Publiée le
Azure
Data Lake
microsoft

6 mois
Paris, France
Télétravail partiel
Vous intervenez en tant que référent sur la fabrique BI d’un grand groupe international. Votre rôle : définir l’architecture de la data platform, structurer les modèles et pipelines Power BI/Fabric, établir les standards et bonnes pratiques, accompagner les équipes métiers et IT, piloter l’équipe opérationnelle et garantir la qualité des livrables. Vous travaillez à la frontière du conseil et de la technique, en lien avec les architectes et la stratégie Data du client. Environnement Azure moderne, contexte multi-filiales (28 pays), forte visibilité et autonomie.
Freelance
CDI

Offre d'emploi
Client Master Data Lead

Publiée le
Microsoft Access

12 mois
40k-48k €
400-480 €
Île-de-France, France
Télétravail partiel
Dans le cadre d'un projet de transformation des données piloté par un Data Office central, nous avons développé un Référentiel Client partagé pour garantir la cohérence, l'interopérabilité et la fiabilité des informations clients à travers toutes les entités. Dans un contexte de forte croissance par fusions-acquisitions, chaque ligne métier exploite actuellement ses propres systèmes d'information et bases de données clients. L'étape stratégique suivante consiste à déployer et intégrer ce Référentiel Client à l'échelle de l'organisation, permettant une gestion unifiée des données clients et soutenant les processus et analyses transversaux. Pour y parvenir, nous recherchons un professionnel en Master Data Management qui pilotera la stratégie de déploiement, la coordination et l'intégration du Référentiel Client avec l'ensemble des lignes métiers. Objectifs et livrables Le Client Master Data Lead sera responsable de : Définir et exécuter la stratégie de déploiement du Référentiel Client à travers toutes les entités. Agir en tant que coordinateur central entre l'équipe Data Office, l'IT et les lignes métiers pour assurer une intégration et une adoption réussies. Impulser l'alignement sur les modèles de données clients, les règles de gouvernance des données et les interfaces techniques. Gérer le planning du programme, les priorités et la communication avec les parties prenantes. Mettre en place et maintenir un reporting structuré pour suivre les avancées, identifier les risques et fournir une visibilité claire à la direction Data Office et au Comité Exécutif sur l'évolution de l'initiative. Responsabilités principales # Stratégie et Gouvernance : - Définir la feuille de route de déploiement et l'approche (par phases, incrémentale, par entité ou par domaine métier). - Accompagner la définition du modèle opérationnel cible pour la gestion des données clients (rôles, responsabilités, processus). - Identifier et gérer les risques, dépendances et besoins en gestion du changement. - Concevoir et maintenir un cadre de reporting au niveau programme, incluant KPIs, tableaux de bord et indicateurs d'avancement alignés sur les priorités du Data Office. #Coordination et Gestion de Projet : - Servir de point de contact unique entre l'équipe centrale du référentiel et les équipes IS/métiers locales. - Coordonner les projets d'intégration avec chaque entité : onboarding technique, mapping, migration et synchronisation des données clients. - Suivre les avancées, produire des rapports réguliers et des synthèses exécutives, et assurer la qualité de livraison et le respect des délais. - Animer les comités de pilotage et groupes de travail, en consolidant les mises à jour d'avancement et les prochaines étapes. - Garantir la traçabilité des décisions, actions et avancées à travers l'ensemble des flux de projet. # Expertise Technique et Fonctionnelle : - Contribuer à la définition des modèles de données, règles de matching & déduplication, et mécanismes d'intégration (APIs, ETL, etc.). - Accompagner les équipes techniques dans la mise en œuvre des interfaces et flux de données entre les systèmes locaux et le Référentiel Client. - Contribuer à la définition et au suivi des règles de mapping des données, Nettoyage des Données et Migration. # Gestion du Changement et Adoption : - Promouvoir la valeur et les bénéfices du Référentiel Client au sein de l'organisation. - Accompagner les équipes métiers dans l'adaptation de leurs processus et outils pour consommer et maintenir les données maîtres clients. - Contribuer à la conception de supports de formation, communication et reporting adaptés aux différents publics (exécutif, métiers, technique).
Freelance
CDI

Offre d'emploi
Architecte Data (28)

Publiée le
CI/CD
Terraform

1 an
40k-45k €
400-750 €
Île-de-France, France
Télétravail partiel
Définition du besoin La Direction Technique du Numérique d'une grande entreprise de médias mène des projets transverses en étroite collaboration avec les autres directions, notamment la direction Data. La Direction Data a été créée avec la volonté de faire de la Data un levier de croissance des offres numériques. La Direction Data a 3 grandes activités : maximiser la collecte de données tout en respectant les réglementations en vigueur, développer la connaissance et l'expérience utilisateurs et mettre à disposition auprès des équipes internes des outils de pilotage et d'aide à la décision. Dans ce contexte, la Direction Technique a besoin d'être accompagnée sur une prestation d'Architecture Data pour l'ensemble de la Data Platform et des dispositifs associés. Prestations attendues dans le cadre de la prestation Au sein des équipes Data composées de product owners, de data engineers, de data scientists et autres profils, la prestation portera sur l'accompagnement des équipes dans les domaines suivants :
Freelance
CDI

Offre d'emploi
Expert Data / Référentiels

Publiée le
Microsoft Power BI
Power Apps
Tableau software

3 ans
Île-de-France, France
Missions principales 🔵 1. Cartographie et modélisation des référentiels Identifier les objets de référence et leurs sources internes/externes. Définir les modèles de données, métadonnées et relations entre entités. Contribuer à la modélisation conceptuelle, logique et physique des référentiels. Participer à la définition des standards d’interopérabilité. 🔵 2. Mise en œuvre des outils de collecte et d’analyse Déployer les workflows d’administration et de mise à jour des référentiels. Intégrer les outils de visualisation (ex. Tableau Software, Power BI). Automatiser la collecte, transformation et consolidation des données. Assurer l’intégration des données dans les plateformes cibles du SI. 🔵 3. Contrôles de qualité et d’intégrité des données Implémenter les contrôles génériques d’intégrité (cohérence, unicité, complétude). Mettre en place des indicateurs et tableaux de bord de qualité. Garantir la conformité avec les normes de sécurité, confidentialité et RGPD. Contribuer à la remédiation en cas d’anomalies. 🔵 4. Documentation et gestion des connaissances Rédiger et maintenir les dictionnaires de données et inventaires. Documenter les flux, processus d’alimentation et règles métier. Décrire les procédures d’archivage et de gestion des données sensibles. Produire les schémas de modélisation et les supports fonctionnels/techniques. 🔵 5. Support à la gouvernance IT et à la conformité Contribuer à la formalisation des procédures et bonnes pratiques. Assurer la traçabilité et l’auditabilité des traitements. Participer aux audits internes/externes et aux revues de conformité. Veiller au respect des standards de gouvernance data du groupe. 🧠 Compétences techniques recherchées Modélisation de données (MCD/MLD/MPD), Data Catalog, métadonnées Outils de qualité / data profiling Outils de data visualisation : Tableau Software, Power BI, Qlik… Outils ETL/ELT ou workflows (Talend, Airflow, Alteryx, Informatica…). Maîtrise SQL, bases de données relationnelles et référentiels Connaissance des principes de gouvernance data (DG, DQM, RGPD) Connaissance des standards de sécurité et conformité 🤝 Compétences fonctionnelles et transverses Capacité à travailler avec des métiers variés (IT, Data, Risk, Compliance) Très bonne communication et pédagogie Rigueur documentaire, sens du détail Esprit d’analyse et synthèse Capacité à challenger besoins et règles de gestion
Freelance
CDI

Offre d'emploi
PIXIE - Architecte Data Sénior Lyon/Paris +7 ans - Data IA

Publiée le
AWS Cloud
Big Data
Google Cloud Platform (GCP)

3 ans
France
Bonjour Pour un de mes clients, je recherche un(e) Architecte Data Sénior Site : Lyon (2 jours par semaine sur site) ou Paris Expérience : +7 ans Contexte : Mission pour la cellule Marché Data IA Profil recherché : Architecte Data Sénior Missions principales : Définir la stratégie et la feuille de route Data Structurer et cadrer les chantiers Data Animer la communauté Data Mettre en place la gouvernance des données Contribuer aux choix d’architecture et d’outils Produire des livrables Data Piloter l’avancement en mode Agile avec reporting Compétences clés : Stratégie Data expert Gouvernance Data expert Architecture Data expert Animation transverse maîtrise Agile et Planisware connaissance Environnement : Planisware Outils Data GitLab, Jira, Confluence, ITSM Teams, SharePoint AWS, GCP Résumé : Architecte Data Sénior avec forte expertise en stratégie, gouvernance et architecture Data, environnement cloud et Agile Si vous êtes intéressé(e) et que votre profil correspond, merci d’envoyer votre CV à jour. Je reviendrai vers vous rapidement pour échanger.
Freelance

Mission freelance
Concepteur Développeur IBM DataStage

Publiée le
BI
Data governance
ETL (Extract-transform-load)

12 mois
500-550 €
Île-de-France, France
Télétravail partiel
Contexte Dans le cadre d’un projet décisionnel au sein du secteur bancaire , le Concepteur Développeur IBM DataStage intervient sur l’alimentation des bases DRE et Datamart . Il participe à la conception, au développement et à la maintenance des flux ETL, et accompagne les équipes BI dans l’écriture et l’optimisation des scripts SQL. 📍 Lieu de mission : Joinville-le-Pont Intitulé du poste Concepteur Développeur ETL IBM DataStage Missions principales Concevoir, développer et maintenir les traitements ETL sous IBM DataStage Alimenter les bases de données décisionnelles ( DRE et Datamart ) Analyser les besoins métiers et techniques liés à l’alimentation des données Optimiser les flux de données (performances, volumétrie, qualité) Rédiger et maintenir la documentation technique Accompagner les développeurs BI dans : l’écriture et l’optimisation des scripts SQL la compréhension des modèles de données Participer aux phases de tests, recettes et mises en production Gérer les incidents et assurer le support sur les chaînes d’alimentation Environnement technique ETL : IBM DataStage Bases de données : Oracle / DB2 / SQL Server Langages : SQL avancé Décisionnel / BI : Datamart, DRE Systèmes : Unix / Linux Outils : ordonnanceur, outils de supervision, versioning Compétences requises Techniques Maîtrise confirmée de IBM DataStage Très bonnes compétences en SQL (requêtes complexes, optimisation) Connaissance des architectures décisionnelles Compréhension des flux ETL/ELT Sensibilité aux problématiques de performance et de volumétrie Fonctionnelles Compréhension des enjeux data et BI en environnement bancaire Capacité à traduire un besoin métier en solution technique
Freelance
CDI

Offre d'emploi
DÉVELOPPEMENT JAVA BACKEND Spring (3-6 ans d'exp)

Publiée le
Java
Spring
Spring Batch

3 ans
40k-55k €
400-500 €
Paris, France
Télétravail partiel
🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 💡 Contexte /Objectifs : L'entité est en charge du SI du Leasing pour deux lignes métiers:- les financements structurés de la grande clientèle- les financements pour les PME. Le bénéficiaire souhaite mettre en oeuvre plusieurs évolutions de son socle technique. A ce titre, le Bénéficiaire souhaite bénéficier de l'expertise du Prestataire en termes de Conception et développement Dans ce cadre la prestation consiste à contribuer à/au(x) : - La gestion du projet ITRM - La comitologie - Suivi - Reporting Environnement technique : Java 6/7/8/17, spring batch, spring web, xldeplloy, jenkins, SQL, Sonar Autres technologies : XLdeploy, Docker et Kubernetes. 🤝 Livrables : Les livrables attendus sont :  Développement JAVA backend pour le projet Maille Contrat (réécriture de l'interface risque).  Devops: mise en place de la chaine de déploiement du projet, des serveurs, monitoring etc.
Freelance

Mission freelance
Senior Data Engineer

Publiée le
Google Cloud Platform (GCP)
Python
Terraform

210 jours
Paris, France
Télétravail partiel
Contexte de la mission Un grand groupe du secteur média / audiovisuel mène plusieurs projets stratégiques autour de la valorisation de la donnée au sein de sa Direction Technique du Numérique. L’objectif global est d’utiliser la donnée comme levier de croissance , d’optimisation des produits numériques et d’amélioration de la connaissance utilisateur. La mission est intégrée à une équipe transverse (Product Owner + Data Engineers) en charge d’un produit interne visant à fournir des données fiables, structurées et exploitables pour le pilotage des activités numériques. Objectifs principaux Maximiser la collecte de données dans le respect des normes légales. Améliorer la connaissance et l’expérience utilisateur via la donnée. Mettre à disposition des outils d’aide à la décision basés sur des données fiables. Garantir la disponibilité, la qualité et la gouvernance des pipelines data. Environnement technique Python, SQL, dbt, Apache Spark BigQuery, Dataplex Universal Catalog Airflow Terraform, Terragrunt GitLab CI/CD Google Cloud Platform Responsabilités attendues Au sein de l’équipe data Maintenir et faire évoluer le produit data existant ainsi que les dispositifs associés. Mettre en place et suivre un contrôle qualité rigoureux des données. Accompagner les utilisateurs internes dans l’usage des datasets. En tant que Data Engineer Participer aux phases de conception, planification et développement. Construire et maintenir des pipelines robustes, scalables et résilients. Structurer et organiser le stockage des données. Déployer et optimiser les infrastructures cloud en réponse à la croissance des volumes. Contribuer aux initiatives de gouvernance : qualité, intégrité, fiabilité. Maintenir les workflows CI/CD et sécuriser les environnements. Documenter les développements et partager les bonnes pratiques au sein de l’équipe. Réaliser une veille technologique continue. Compétences requises Expérience Minimum 3 ans en tant que Data Engineer (7 à 10 ans souhaité pour le niveau sénior). Compétences techniques indispensables Python, SQL, Spark, dbt BigQuery, Dataplex Airflow Terraform, Terragrunt GitLab CI/CD Méthodologies Agile (Scrum / Kanban) Compétences transverses Capacité à vulgariser des sujets techniques. Rigueur, autonomie, communication claire. Modalités d’exécution Présence sur site : 50 % minimum . Pas d’astreinte prévue. Matériel conforme aux normes de sécurité (chiffrement, antivirus, mises à jour…). Langue de travail : français
Freelance

Mission freelance
Data Scientist Senior

Publiée le
Google Cloud Platform (GCP)
Python
SQL

12 mois
Paris, France
Télétravail partiel
Contexte de la mission Une grande organisation publique du secteur numérique renforce sa Direction Data, rattachée à la Direction du Numérique. Cette direction a pour objectif de faire de la donnée un levier majeur de croissance et d’optimisation des usages numériques. Le pôle Data Intelligence, composé de 4 Data Scientists et 2 Data Analysts, recherche un Data Scientist senior afin de soutenir l’exploitation des données utilisateurs, la mise en place de modèles avancés et la structuration du socle analytique. Une expérience minimale de 8 ans en data science est requise. Prestations attendues Le consultant interviendra au sein de l’équipe Data Science pour : Analyse et structuration de données • Auditer les nouvelles données disponibles dans le datalake pour enrichir le socle analytique. • Explorer, analyser et comprendre les profils et comportements utilisateurs. • Réaliser des analyses avancées : profils de vidéonautes, comportements par canal, consommation de contenus, impact de la pression publicitaire. Développement de modèles de Data Science • Comprendre les besoins métier, proposer une approche adaptée et vulgariser les résultats. • Développer et industrialiser des modèles tels que : Prévision des audiences. Enrichissement du catalogue via IA générative. Analyse sémantique des commentaires utilisateurs. Prédiction d’inactivité, d’appétence, anti-churn. Segmentation utilisateurs. Contribution au produit Data • Participer à l'amélioration continue des outils et pipelines. • Travailler avec les équipes data, produit et métier dans un contexte agile. Expertises requises Techniques • Expériences concrètes en modèles IA : prévision, recommandation, scoring, analyse sémantique, détection d’anomalies. • Expérience significative sur des sujets d’IA générative (IAG). • Maîtrise impérative de Python et SQL . • Bonne connaissance d’un cloud, idéalement Google Cloud Platform . • Connaissance des données issues d’écosystèmes digitaux (Piano Analytics, Google Analytics…). • Connaissance d’un outil de dataviz. • Un plus : architectures API, Git/GitHub, méthodes agiles. Fonctionnelles • Capacité à comprendre un besoin métier, synthétiser et restituer clairement. • Capacité à gérer plusieurs projets simultanément. • Rigueur, autonomie, esprit d’équipe.
CDI
CDD

Offre d'emploi
Data Analyst Confirmé Mission Support & Gestion Backlog-Sophia Antipolis(H/F)

Publiée le
Backlog management
Data analysis
KPI

1 an
Sophia Antipolis, Provence-Alpes-Côte d'Azur
Contexte de la mission Dans le cadre d’un renforcement des activités RUN, nous recherchons un Data Analyst Confirmé , immédiatement opérationnel, pour accompagner le Responsable Support dans le traitement durable du backlog et l’amélioration des procédures. 🎯 Objectifs et périmètre de la mission Gestion du backlog Redmine : Analyse et priorisation des tickets Prise en charge des actions nécessaires Clôture des tickets antérieurs au 01/01/2024 (hors périmètre 508) Assainissement et stabilisation du backlog Documentation & Procédures : Rédaction et formalisation des procédures de résolution Fiabilisation et homogénéisation du traitement RUN Évolution des outils : Participation à la réflexion sur une possible migration Redmine → Jira Analyse d’impact, prérequis, organisation cible Gestion des accès : Création et gestion des comptes Redmine Traitement des demandes en attente (85 demandes dont 37 déjà finalisées) Autres contributions : Support aux travaux de migration ERMV2 Périmètre complémentaire possible sur le backlog Jira CNAM ⚙️ Compétences techniques Data Analyst – Confirmé Scripting – Confirmé (souhaité) Développement – Junior (souhaité) Maîtrise des outils de ticketing (Redmine, Jira) Compréhension des environnements RUN / support Capacité à manipuler, structurer et exploiter les données pour produire des KPI 📊 Livrables attendus Tableau de bord KPI Backlog Procédures de support client formalisées Backlog assaini, priorisé et contrôlé
Freelance
CDI

Offre d'emploi
Référent Applicatif PL/SQL (connaissance finance)

Publiée le
Finance
PL/SQL

3 ans
40k-70k €
400-640 €
Paris, France
Télétravail partiel
Contexte Au sein de la direction Finance / Investissements d’un groupe d’assurance, le poste s’inscrit dans un environnement fortement réglementé et orienté gestion d’actifs. Le rôle est centré sur l’exploitation, l’analyse et la fiabilisation des données financières issues des systèmes d’information, en lien étroit avec les équipes métiers et IT. Missions principales Exploiter et analyser les données financières via des requêtes PL/SQL (sans activité de développement applicatif). Assurer la cohérence, la qualité et la fiabilité des données liées aux investissements. Intervenir sur les périmètres OPCVM, fonds, titres vifs et opérations sur titres (OST). Comprendre et analyser les flux financiers entre les systèmes de gestion d’actifs, comptables et décisionnels. Participer au suivi et à la résolution des anomalies de données ou de restitution. Produire des extractions, contrôles et analyses à destination des équipes métiers (finance, investissements, risques). Être l’interface entre les équipes métiers, IT, data et éditeurs de solutions. Contribuer aux projets d’évolution des outils et des référentiels (recette fonctionnelle, validation des données). Documenter les processus, règles de gestion et schémas de données.
Freelance

Mission freelance
Data Engineer Scala/Spark.

Publiée le
Azure
Databricks
Datadog

1 mois
450-520 €
Saint-Denis, Île-de-France
Télétravail partiel
Client : Entreprise de transport Poste : Architecte technique Senior DSM Expérience : Plus de 8 ans TJM d’achat max : 5 15€ Localisation : Banlieue parisienne Deadline réponse : 09/12 Démarrage : 01/01/2025 Durée : Mission très longue DESCRIPTION DE LA MISSION Objectifs La prestation, objet du présent cahier des charges, est une prestation à temps plein de Data Engineer Senior Scala/Spark. Vous interviendrez en tant que contributeur individuel sur l’étude, le chiffrage, la réalisation et l’exploitation de tâches liées à la constitution de traitements Data complexes. Les projets sont menés en équipe de 2 à 6 Data Engineers, accompagnés d’opérateurs, d’architectes et encadrés par un chef de projet. Description détaillée des tâches qui constituent la mission Dans le cadre de cette prestation, il est notamment demandé de réaliser les livrables décrits ci-dessous. S'agissant d'un projet mené en méthodologie agile, le découpage des livrables est réalisé par sprints. Le contenu de chaque sprint est variable mais toujours constitué sur la base d’US (User Stories). Les livrables liés aux US sont donc variables mais suivent généralement une recette commune liée à la Definition of Done du projet. Ces livrables sont réalisés par l'équipe projet, sans responsabilité de production individuelle. Les sprints s’échelonnent généralement sur 2 semaines. Contenu général des sprints : Développement des US et tests associés ; Documentation du projet, mapping des données, modélisation des pipelines, documents d’exploitation ; Mise en place du CI/CD sur l’usine logicielle ; Mise en place du monitoring ;
CDI

Offre d'emploi
Architecte Cloud et Data H/F

Publiée le

75k-90k €
Levallois-Perret, Île-de-France
Télétravail partiel
Nous recherchons un(e) Architecte Expérimenté(e), passionné(e) par la technologie, pour travailler soit en interne, en collaborant de manière transversale sur divers projets passionnants, soit directement chez nos clients, en étant au cœur de leurs défis numériques. Si vous souhaitez participer à des projets d'envergure, continuer à apprendre et évoluer dans votre carrière, c'est l'occasion rêvée ! Vous aurez la charge de : • Concevoir, modéliser et évaluer la charge d'implémentation des architectures sécurisées, évolutives, fiables et performantes dans les domaines de la Data et/ou du Digital en situation projet et avant-vente • Réaliser des études comparatives de solutions afin de sélectionner les plus innovantes et adaptées au contexte du projet • Réaliser ou conduire les PoV (Proof of Value) et les PoC (Proof of Concept) • Rédiger le dossier d'architecture technique à travers le High et Low Level Design • Assurer le suivi de la conformité des réalisations projets relatives au dossier d'architecture technique • Veiller au suivi des bonnes pratiques sur l'ensemble du périmètre des réalisations techniques • Mener une démarche d'optimisation des coûts afin de garantir que l'architecture soit à la fois efficace et économique Référence de l'offre : mw69pzfxh8
2196 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous