Trouvez votre prochaine offre d’emploi ou de mission freelance ETL (Extract-transform-load)
Votre recherche renvoie 188 résultats.
Mission freelance
Chef de projet Migration de données et archivage
MGT Conseils
Publiée le
Gestion de projet
1 an
500-650 €
La Défense, Île-de-France
Contexte du poste : Dans le cadre d’un programme, principal chantier de transformation SI, le client déploie Sinergie, outil stratégique de gestion d’expertise sinistre, en remplacement progressif de ITEX (solution actuelle). Les travaux de migration des dossiers, archivage et décommissionnement des systèmes historiques constituent un volet majeur du programme. Nous recherchons un(e) chef(fe) de projet capable de cadrer et piloter ces chantiers de bout en bout, en lien étroit avec les équipes SI, métiers et intégrateurs. Environnement de travail : Programme de transformation stratégique Interactions fortes avec Métiers, SI et partenaires Forte exigence de qualité et de sécurisation (données et continuité de service) Objectif de la mission : Assurer la conduite opérationnelle des chantiers suivants : ➢ Migration des dossiers (ITEX vers Sinergie) : • Identifier les dossiers à reprendre et définir le périmètre de migration (quels dossiers, sur quelle période, selon quels critères) • Cadrer la reprise de données : règles métiers, mapping, qualité de données, volumétrie • Piloter et contribuer aux étapes de migration : extraction, transformation, chargement, contrôles et validation métier • Organiser les phases de tests et de recette (jeux de données, contrôles, PV de recette) • Sécuriser la bascule et l’exécution des runs de migration (répétitions, plan de rollback, gestion des anomalies). ➢ Archivage des dossiers ITEX (dans solution spécifique LEGACY) : • Définir le périmètre des dossiers à archiver (dossiers clos, anciens etc.) • Cadrer les exigences d’archivage : accessibilité, recherche, conformité, durée de conservation. • Piloter et suivre la mise en œuvre de l’archivage dans la solution cible (LEGACY) : intégration, modalités de consultation, règles d’accès. • Piloter les activités du développeur de LEGACY • Organiser la bascule archive et la mise à disposition des utilisateurs. ➢ Décommissionnement des anciens systèmes : • Établir la stratégie de décommissionnement : dépendances, interfaces, usages résiduels. • Planifier les actions de fermeture progressive (arrêt applicatif, arrêt flux, nettoyage, preuves de fin). • Sécuriser la continuité de service et maîtriser les risques (retour arrière, impacts métiers). ➢ Responsabilités principales : • Construire et animer le planning détaillé du chantier (jalons, dépendances, risques) • Coordonner les parties prenantes : métiers, MOA, équipe applicative, intégrateur, data, infra, développeur • Mettre en place un suivi rigoureux : comptes rendus, RACI, plan d’actions, gestion des arbitrages • Gérer les risques, alertes et points de blocage de façon proactive. • Produire les livrables projet et garantir leur validation (cadrage, stratégie, recette, PV, go/no go) ➢ Quelques livrables attendus : • Note de cadrage migration + archivage (périmètre, règles, stratégie) • Planning projet détaillé + jalons • Mapping de données (en lien MOA / intégrateur) • Stratégie de reprise + plan de tests / plan de recette • Suivi anomalies / plan de correction • PV de recette validés • Dossier de bascule + go/no go • Plan de décommissionnement + checklists de fermeture Compétences requises : ➢ Compétences “projet” : • Pilotage de chantiers complexes (multi-acteurs, multi-outils, multi-lots) • Conduite de recette et de bascule • Gestion des risques, dépendances et arbitrages • Reporting et gouvernance (COPRO / COPIL) ➢ Compétences “data / migration” : • Expérience concrète en migration de données (cadrage, mapping, qualité, volumétrie) • Connaissance des étapes ETL (extraction / transformation / chargement) • Capacité à structurer des contrôles de reprise (réconciliation, complétude, cohérence) ➢ Compétences “archivage ” : • Expérience en archivage applicatif / GED • Sensibilité aux contraintes réglementaires et de conservation (sans être expert juridique)
Mission freelance
Senior Consultant Data & AI / Data Product Factory
SQLI
Publiée le
Database
3 mois
400-650 €
Paris, France
Hello , Pour le compte de l'un de mes clients dans le secteur du luxe, je suis à la recherche d'un Consultant Data & AI / Data Product Factory Senior. Contexte & Enjeux du poste : Dans un contexte de forte accélération des usages Data & IA, nous accompagnons nos clients (grands comptes et ETI) dans la structuration de leurs capacités Data & AI afin de créer de la valeur métier à travers des Data Products industrialisés. Le Senior Consultant Data & AI interviendra auprès des directions Data, IT et Métiers pour : Définir des cibles Data & AI Concevoir et déployer des Data Factories orientées produit Accompagner la transformation organisationnelle, technologique & méthodologique Missions principales : 1. Conseil & Cadrage stratégique Accompagner les clients dans la définition de leur stratégie Data & AI Identifier les cas d’usage à valeur et les transformer en Data Products Réaliser des diagnostics de maturité Data & AI Définir des roadmaps Data alignées avec les enjeux business 2 Mise en place de Data Factory orientée Data Products Concevoir des modèles de Data Factory (organisation, processus, gouvernance) Mettre en place une approche Data Product (Data Mesh / Product Thinking) Définir les rôles clés : Data Product Owner, Data Engineer, Analytics Engineer, Data Scientist, Platform Team Accompagner la mise en œuvre des rituels agiles, du delivery et de la priorisation 3. Architecture & Solutions Data & AI Cadrer et challenger les architectures Data modernes Cloud Data Platform (AWS, Azure, GCP) Lakehouse, Data Warehouse, Streaming Contribuer au choix et à la mise en place des solutions : ETL / ELT BI & Analytics Machine Learning & IA Garantir les bonnes pratiques : Qualité des données Sécurité Gouvernance MLOps / DataOps 4. Accompagnement du changement & montée en maturité Accompagner les équipes client dans la prise en main des nouveaux modèles Former et coacher les équipes Data et Métiers Contribuer à l’adoption des usages Data & IA Participer à la structuration de centres de compétences Data
Mission freelance
Data Engineer Advanced (Scala / Spark / AWS)
Gentis Recruitment SAS
Publiée le
Apache Spark
AWS Cloud
AWS Glue
1 an
Paris, France
Contexte Nous recherchons un Data Engineer confirmé à senior pour intervenir au sein d’un grand groupe international du secteur de l’énergie . La mission s’inscrit dans un environnement data critique , lié à l’exploitation de données de marché et à la production d’indicateurs et d’alertes à forte valeur métier. Le système cible repose sur une architecture batch Big Data structurée selon une architecture médaillon (Silver / Gold) , avec ingestion multi-sources, normalisation, calculs avancés et distribution des données vers différents consommateurs métiers. Localisation : Paris (hybride) Durée : 12 mois renouvelables (jusqu’à 3 ans) Objectifs de la mission Concevoir et développer des pipelines d’ingestion et de transformation en Scala Spark Traiter, dédoublonner, normaliser et structurer des données de marché Refactoriser des imports existants afin de les rendre conformes à l’architecture médaillon Silver layer : données dédoublonnées, normalisées et structurées Gold layer : génération d’agrégats métiers (carnets d’ordres, best bid/ask, OHLC, etc.) Implémenter et challenger les règles métier en garantissant les performances, la scalabilité et la maîtrise des coûts cloud Mettre en place et maintenir les règles de Data Quality (ex. Great Expectations) et contribuer au data catalog Participer à l’amélioration des frameworks communs : monitoring, CI/CD, tests, performance, résilience et standards de développement Rédiger et maintenir la documentation technique (architecture, flux, schémas, infrastructure) Environnement technique ETL / Compute : Scala, Spark (batch) Cloud AWS : Glue Jobs, S3, Lambda, Step Functions Qualité des données : Great Expectations ou équivalent DevOps / CI-CD : Git, pipelines, bonnes pratiques d’industrialisation Environnement applicatif connexe : API REST, services backend Compétences complémentaires appréciées : Python, React Important : cette mission ne s’appuie pas sur des solutions managées de type Databricks. Compétences requisesIndispensables Minimum 5 ans d’expérience significative en Scala et Spark Expérience confirmée sur des projets Big Data / ETL à forte volumétrie Expérience pratique sur AWS (Glue, S3, orchestration) Bonne culture DevOps Autonomie, rigueur, capacité à être force de proposition Appréciées Python Développement API Connaissances de base en market data / trading (non bloquant) Process de sélection Entretien Teams de 30 minutes axé sur les expériences professionnelles Entretien Teams d’une heure axé sur les compétences techniques avec un Data Engineer de l’équipe Modalités de réponse Merci de transmettre : CV, disponibilité, TJM, localisation et un résumé des expériences Scala / Spark / AWS Glue .
Mission freelance
POT8784 - Un Data Analyste énergie Sur Saint Denis
Almatek
Publiée le
SQL
6 mois
Saint-Denis, Île-de-France
Almatek recherche pour l'un de ses clients, Un Data Analyste énergie Sur Saint Denis. Objectif de la mission: Assurer la mise en qualité de la donnée énergétique et mettre en place les flux de data entre les outils internes de gestion de l’énergie (ConsoNG, eVision, Portail de Management de l’Énergie…). Périmètre opérationnel Le consultant interviendra sur : Définition et documentation des nomenclatures de compteurs et sous-compteurs Intégration de nouveaux objets énergétiques dans ConsoNG : ? sous-compteurs, panneaux photovoltaïques, IRVE Participation aux programmes Linky et Gaspar ? fiabilisation des données et échanges avec les distributeurs Mise en place et contrôle des flux inter-outils data Rédaction des expressions de besoins fonctionnels pour la DSI Mise en œuvre de règles de : contrôle d’accès aux données validation des données supervision du cycle de vie des données gestion des versions et historisation Livrables attendus Flux data inter-outils opérationnels Données énergétiques affichées de manière cohérente dans le Portail de Management de l’Énergie Documents fonctionnels et règles de qualité / gouvernance data Profil recherché Data Analyst expérimenté, idéalement avec expérience dans : la qualité et fiabilisation des données, les flux ETL/ELT ou intégrations multi-sources, le domaine énergie (,compteurs, data énergie bâtimentaire) serait un plus, rédaction d’expressions de besoins, interactions avec DSI, compréhension architectures data. Compétences clés : SQL, ETL/ELT, gouvernance data, structuration et documentation des données, contrôle qualité, architecture fonctionnelle simple.
Offre d'emploi
Chef de projet informatique - Domaine data engineering F/H - Informatique de gestion (H/F)
█ █ █ █ █ █ █
Publiée le
Hadoop
Villeneuve-d'Ascq, Hauts-de-France
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Offre d'emploi
Développeur .NET / Azure
Halian
Publiée le
.NET
.NET CORE
Azure
2 ans
Paris, France
Description de la mission : Vous rejoignez l’équipe Referential pour travailler sur le projet qui consiste à migrer une application existante d’une plateforme On-Premise vers Microsoft Azure . Ce projet inclut également la connexion à un nouveau fournisseur de données , avec la mise en place des flux d’alimentation pour nos référentiels (instruments financiers, émetteurs, données extra-financières, etc.). Vous collaborerez de manière transverse avec les équipes IT et Business. Vos responsabilités : Développer les nouveaux composants applicatifs. Garantir la cohérence technique des modules et appliquer les bonnes pratiques (qualité du code, tests unitaires, modèles de données). Rédiger les spécifications techniques et documents d’architecture en collaboration avec le Business Analyst. Planifier et estimer les travaux, identifier les risques et points de blocage. Travailler avec les équipes Infrastructure pour définir et mettre en place l’environnement Azure. Tester et déployer l’application sur Azure, corriger les anomalies. Accompagner la phase de validation (UAT et production) et assurer la qualité des livrables. Effectuer les tests sur les outils/modules développés. Profil recherché : Formation : Bac+5 (école d’ingénieur ou équivalent). Expérience : 5+ ans en développement informatique. Expertise en Azure , .NET 8 , C# , Blazor WebAssembly/Server App . Développement d’API REST, ETL, batchs et services. Conception et développement de modèles et bases de données. Maîtrise des pratiques DevOps, qualité du code (Sonar), automatisation des tests (un plus). Expérience en environnement agile (SCRUM). Langues : Français et anglais courants. Atouts : Connaissance des produits financiers et des référentiels, intérêt pour la data.
Offre d'emploi
Lead Data Engineer
ANDEMA
Publiée le
Python
60k-80k €
Paris, France
Lead Technique Data Missions En tant que Lead Technique Data , vous collaborez étroitement avec des data engineers , data scientists et des équipes transverses (DevOps, IoT, logiciel). Votre mission principale consiste à concevoir, maintenir et optimiser une plateforme de données au cœur des projets d’IA. 1. Gestion et optimisation de la plateforme de données Normaliser et structurer les données : homogénéisation des formats, conception d’ontologies, mise en place de bonnes pratiques garantissant qualité et cohérence. Améliorer continuellement la plateforme : sécurité, scalabilité, optimisation des coûts, supervision et traçabilité. Mettre en œuvre la gestion de versions des données afin d’assurer une traçabilité complète, indispensable dans un contexte de dispositifs médicaux. 2. Développement de pipelines de transfert de données Concevoir et maintenir des pipelines ETL automatisés pour l’ingestion, le nettoyage et la transformation de données de santé. Garantir le respect des exigences RGPD : anonymisation, pseudonymisation et documentation complète des processus. Collaborer avec les équipes métiers pour intégrer de nouvelles sources de données et faire évoluer les pipelines. 3. Facilitation de l’accès aux données pour les data scientists Créer et gérer des datasets versionnés permettant des expérimentations reproductibles. Assurer des transferts de données volumineuses rapides, sécurisés et fiables. Adapter la plateforme aux besoins des data scientists : formats, structuration, enrichissement des métadonnées et support technique. 4. Automatisation et leadership technique Maintenir et améliorer les pipelines CI/CD pour des déploiements robustes et sécurisés. Déployer des outils de supervision (tableaux de bord, alertes) pour assurer la stabilité des pipelines. Industrialiser les déploiements des infrastructures data. Apporter un leadership technique : cohérence architecturale, accompagnement des profils plus juniors, revues de code et diffusion des bonnes pratiques. L’équipe Data intervient de manière end-to-end : recueil des besoins, architecture, développement, QA, sécurité, déploiement et opérations, avec une réelle liberté technologique. Compétences et expérienceCompétences techniques Programmation : Python (avancé), Git / GitLab CI. Cloud & Big Data : AWS (API Gateway, Cognito, Lambda, S3, SageMaker, Glue, Athena, ECS), Delta Lake, Databricks. Orchestration & Infra : Airflow, Terraform. Bases de données : MongoDB et solutions de stockage à grande échelle. Standards web : API REST, protocoles HTTP/HTTPS. Compétences relationnelles Rigueur scientifique et forte capacité d’analyse. Aptitude à faire le lien entre data science, ingénierie logicielle et opérations. Capacité à produire une documentation technique claire et conforme aux exigences réglementaires. Expérience Minimum 7 ans d’expérience en ingénierie data, dont 2 ans ou plus sur un rôle senior ou de responsabilité technique. Bonne compréhension des enjeux de cybersécurité et de conformité réglementaire , en particulier pour les données de santé. Maîtrise de l’ anglais technique dans un environnement international. Atouts appréciés (optionnel) MLOps : orchestration, déploiement et supervision de pipelines ML. Connaissance des processus de certification CE / FDA pour logiciels ou algorithmes. Expérience avec des données de santé : signaux électrophysiologiques (EEG, ECG, EMG) ou données cliniques. Infrastructure : Linux, conteneurisation (Docker, registres d’images). Lieu de la mission: Paris TT: 3 jours
Offre d'emploi
Chef de projet & Business Analyst Données Bilan Carbone (H/F)
STORM GROUP
Publiée le
Chef
Microsoft Excel
SQL
3 ans
50k-55k €
400-500 €
Île-de-France, France
Pilotage de projets RSE & data Piloter des projets data liés au bilan carbone (collecte, fiabilisation, exploitation et restitution des données) Organiser et suivre les différentes phases projet : cadrage, expression de besoins, conception, réalisation, recette, mise en production Assurer le respect des délais, budgets et engagements qualité Business Analysis & relation métier Recueillir, analyser et formaliser les besoins des métiers RSE Être l’ interlocuteur privilégié du business , avec une forte capacité à traduire les enjeux métiers en besoins data exploitables Rédiger les spécifications fonctionnelles et data (règles de gestion, indicateurs, sources, traitements) Pilotage data & collaboration technique Concevoir et formaliser les modèles de données nécessaires aux indicateurs de bilan carbone Échanger avec les Data Engineers pour définir et prioriser les traitements (ETL, règles de calcul, contrôles qualité) Rédiger et comprendre des requêtes SQL pour analyses, contrôles et recettes Exploiter Excel à un niveau avancé pour le traitement, l’analyse et la restitution des données Reporting & aide à la décision Produire et maintenir des reportings et tableaux de bord La création de rapports Power BI est un plus apprécié Garantir la fiabilité et la traçabilité des indicateurs carbone Responsabilité & coordination RSE Contribuer à la structuration et au pilotage de l’équipe RSE Participer à la définition des priorités et feuilles de route Être force de proposition sur l’ amélioration des processus et outils
Mission freelance
Data Analyst
CAT-AMANIA
Publiée le
Cognos
Microsoft SQL Server
PowerBI
24 mois
100-530 €
Mer, Centre-Val de Loire
Le service Modélisation des Données, dans le cadre de son activité projet et MCO autour de la restitution et l’analyse de données, recherche un Data Analyst. Le service Modélisation des Données est en charge du SI Décisionnel centré sur un Datawarehouse qui est la source de données pour les briques de : - Reporting/dataviz (Power BI, COGNOS) - DataScience : mise en oeuvre de cas d’usage IA Ce Datawarehouse est alimenté par des traitements ETL et des chaînes Change Data Capture (IBM IDR, Kafka). Le service Modélisation des Données intervient : - sur les aspects techniques des projets Décisionnel / Data. - dans la constitution de datamarts métier et la réalisation de dashboards / rapports - sur la gouvernance des données - Sur la mise en place d’outils IA Le prestataire sera placé directement sous la responsabilité du responsable du service Modélisation des Données. Il exécutera les missions suivantes : Projets métier de mise en place de SI Décisionnels : modélisation de données, conception de rapports, accompagnement des utilisateurs finaux (sur la conception de rapport, leur adoption et la prise en main des modèles de données par des publishers métier). Power BI : être le point de contact technique des utilisateurs finaux ou des Publishers de Power BI , réalisation de reporting complexes Intervention sur un projet de migration de dataplatform : refonte de reporting COGNOS/Power BI vers superset, refonte de chaînes ETL TALEND vers Dagster, conception de datamarts. Projet en agilité. Le poste a une dimension technique mais aussi une dimension relationnelle forte autour de l’analyse des besoins, leur recette et le suivi en mode projet. La sensibilité aux problématique de gouvernance des données (contribution au dictionnaire de données d’entreprise, qualité des données) est un enjeu fort du poste.
Offre d'emploi
Data Engineer - CDI
VingtCinq
Publiée le
Azure
Databricks
DBT
Paris, France
L'ENTREPRISE La fabrique Vingtcinq accompagne depuis 2010, les ETI et grands comptes de l’industrie et du service dans leur transformation digitale (Applications web, digitalisation des processus interne, data engineering, .. ). Vingtcinq est aujourd'hui reconnue non seulement pour la qualité d'exécution de ses développements , mais aussi pour le cadre de travail offert à ses collaborateurs . Le bien-être de notre équipe est une priorité , et chacun contribue activement à la vie de l'entreprise et à son développement . Forte de son expertise dans le développement d'outils digitaux, Vingtcinq aspire désormais à se démarquer dans le domaine de la data . Cette nouvelle Business Unit, en pleine expansion, se structure grâce à l'esprit entrepreneurial de ses membres. Pour soutenir cette croissance, nous recherchons des esprits audacieux pour rejoindre cette aventure et faire rayonner Vingtcinq sur ce nouveau secteur, pour cela, nous recherchons un(e) data engineer pour renforcer notre équipe . Tu travailleras en étroite collaboration avec l’équipe Data pour répondre aux enjeux de nos clients et développer l’offre Vingtcinq. LA MISSION Mission Principale : Data Ingestion & Transformation (70%) Créer, maintenir et optimiser des pipelines de traitement des données (ETL/ELT) pour collecter, charger, stocker, nettoyer et transformer les données brutes provenant de différentes sources (bases de données, API, fichiers, etc.). Automatiser l'intégration / l’ingestion de données (data warehouses, data lakes et lakehouses) Administrer et configurer des systèmes de stockage de données (datalake, datawarehouse ou lakehouse)(Assurer la scalabilité et la résilience des systèmes de données Travailler avec des outils et technologies pour la gestion des données à grande échelle. Optimiser la performance des base de données Garantir la qualité et l'intégrité des données Surveiller et optimiser des flux de données Mission secondaire : Visualization & technical guidance (30%) Travailler avec l’équipe Business/PM pour enrichir le brief et créer la traduction technique appropriée, être à l'aise pour parler à l'équipe business Conseils pour la résolution de problèmes : En tant qu'ingénieur de données expérimenté, fournir des conseils sur la bonne méthodologie d'implémentation technique des outils internes en accord avec l’équipe Data office Maintenir les tableaux de bord existants (améliorations) Soutenir l'effort de documentation des données en collaboration avec les responsables des données. COMPÉTENCES REQUISES Maîtrise de l’environnement Azure Environnement Cloud & Data : Azure Data Factory (ingestion, orchestration), Azure Databricks (traitements Spark), Azure Data Lake Storage Gen2 Bases de données & modélisation : Azure SQL Database, Modélisation analytique (schéma en étoile, faits/dimensions) Programmation : SQL avancé, Python (Spark, pandas), Scala (apprécié) Sécurité & gouvernance : Azure AD / IAM, Gestion des accès et des données sensibles, Data Catalog (Purview ou équivalent) Industrialisation & supervision : CI/CD : Azure DevOps ou GitHub Actions, Monitoring : Azure Monitor, Log Analytics Business Intelligence : Power BI LE PROFIL RECHERCHÉ Formation Bac+5 ou équivalent vous justifiez d’une expérience de 3 à 5 ans en tant que Data Engineer . Tu es autonome, proactif et as un excellent sens de la communication . Tu es apte à analyser les problèmes de données et à concevoir des solutions techniques adaptées . Tu recherches une structure à taille humaine , avec un fort esprit d’équipe Niveau d’ anglais avancé attendu LES PLUS DE L'OFFRE Nous avons le goût de la qualité et du travail bien fait Nous t’accompagnerons dans ta montée en compétences Chez VingtCinq, nous accordons une importance particulière à l’esprit d’équipe et au bien être de nos collaborateurs LE PROCESSUS DE RECRUTEMENT Entretien avec le DG de VingtCinq Test technique Entretien avec le Directeur Technique
Mission freelance
DÉVELOPPEUR BACKEND Kotlin / Spring Boot / AWS
Signe +
Publiée le
AWS Cloud
12 mois
450 €
Longpont, Hauts-de-France
CONTEXTE Dans le cadre de la création d’un nouvel outil backend cloud-native, nous constituons une squad backend de 4 développeurs (1 senior, 3 profils mid/junior). L’équipe est chargée de concevoir, développer et déployer une plateforme scalable, observable et sécurisée, intégrée à l’écosystème AWS. L’objectif est de livrer une première version robuste en 3 à 4 mois, avec des standards élevés de qualité, de maintenabilité et de sécurité. Vous intervenez au sein d’une équipe pluridisciplinaire composée de : 1 Architecte 1 DevOps 1 Product Owner 4 Développeurs Backend MISSIONS PRINCIPALES Conception et développement Concevoir et développer un orchestrateur et des APIs backend en Java 21 / Kotlin avec Spring Boot Implémenter une architecture cloud-native orientée microservices Développer et maintenir des services AWS Serverless (Lambda) en TypeScript, Python ou Go Assurer la gestion de la persistance des données via AWS RDS (modélisation, performances, sécurité) Participer à la mise en place et à l’exploitation des flux ETL via AWS Glue Cloud et infrastructure Déployer et exploiter les applications sur un cluster Kubernetes Configurer, maintenir et améliorer les pipelines CI/CD via GitLab Contribuer aux choix d’architecture (scalabilité, résilience, optimisation des coûts) Observabilité et reporting Mettre en place la collecte, l’analyse et l’exploitation des logs via la stack ELK (Elasticsearch, Logstash, Kibana) Intégrer et exploiter Datadog pour le monitoring applicatif et l’alerting Contribuer à la conception et à l’alimentation des dashboards de suivi et de reporting Qualité et collaboration Écrire un code propre, maintenable, testé (tests unitaires) et documenté Participer activement aux revues de code et aux décisions techniques Documenter les choix techniques et fonctionnels dans Confluence Travailler en méthodologie agile (Scrum / Kanban) avec Jira SPÉCIFICITÉS SELON LE NIVEAU Développeur Senior Forte capacité à prendre des décisions techniques et à challenger les choix d’architecture Excellente communication orale et écrite pour échanger avec les parties prenantes (PO, architecte, DevOps) Capacité à accompagner et faire monter en compétences les profils mid/junior Développeur Mid / Junior Participation active au développement et à la qualité du code Montée en compétences progressive sur l’architecture, le cloud AWS et les bonnes pratiques backend ENVIRONNEMENT TECHNIQUE Langages : Kotlin, Java 21, TypeScript, Python, Go Framework : Spring Boot Cloud : AWS (Lambda, RDS, Glue) Conteneurisation / Orchestration : Kubernetes CI/CD : GitLab Observabilité : ELK, Datadog Méthodologie : Agile (Scrum / Kanban) Outils collaboratifs : Jira, Confluence
Offre d'emploi
Consultant MS BI Power BI h/f
MGI Consultants
Publiée le
DAX
Microsoft Power BI
Microsoft SSIS
36 mois
Paris, France
Pour notre client, grand compte dans le secteur de l’immobilier, vous rejoindrez l'équipe BI pour prendre en charge l'évolution et la maintenance de la plateforme décisionnelle, avec une forte composante de migration vers les outils Cloud (Azure Data Factory) et de modernisation des outils de reporting (Power BI).. Vos missions sont donc les suivantes : 1. Développement et Intégration de Données (ETL) · Migration active des packages d'intégration de données existants de SSIS (SQL Server Integration Services) vers la plateforme Cloud Azure Data Factory (ADF). · Conception et développement de nouveaux flux d'intégration de données sur la plateforme ADF. · Assurer la maintenance corrective des flux SSIS existants. 2. Reporting et Visualisation (Power BI) · Analyser et comprendre les besoins métiers détaillés afin de proposer les solutions de reporting adéquates. · Réaliser des maquettes et prototypes pour valider l'expérience utilisateur (UX) et la pertinence des futurs rapports. · Migration et/ou ré-écriture des rapports existants développés sous SSRS (SQL Server Reporting Services) vers l'outil Power BI. · Développer de nouveaux rapports et tableaux de bord performants sous Power BI. · Comprendre le modèle sémantique sous-jacent pour l'écriture de requêtes et de mesures complexes en DAX.
Mission freelance
POT8813 - Un Dev Java /angular/Mlops sur Corbeil-Essonnes
Almatek
Publiée le
TypeScript
6 mois
Corbeil-Essonnes, Île-de-France
Almatek recherche pour l'un de ses clients Un Dev Java /angular/Mlops sur Corbeil-Essonnes Compétences techniques requises: Backend : Java 11+/17, Spring Boot, APIs REST, JPA/Hibernate, microservices, connaissances CI/CD (GitLab, Jenkins, Azure DevOps…). Frontend : Angular (idéalement v12+), TypeScript, HTML/CSS, RxJS. MLOps : Python (pour ingestion/ML), pipelines ML (MLflow, Kubeflow, Airflow ou équivalent), conteneurisation Docker/Kubernetes, gestion et versioning des modèles, notions d’IA/ML (scikit-learn, PyTorch ou TensorFlow). Données : SQL (PostgreSQL, Oracle, MySQL…), connaissances ETL / data pipelines appréciées. Environnement & outils : Git/GitLab, CI/CD, Docker/Kubernetes, Jira/Confluence, méthodologies Agile Scrum. Profil : 3 à 7 ans d’expérience en développement Java/Angular, une première expérience MLOps est un plus. Personne autonome, proactive, avec une bonne communication. Français courant.
Offre d'emploi
Développeur DevSecOps
VISIAN
Publiée le
Ansible
Go (langage)
1 an
40k-45k €
400-500 €
Île-de-France, France
DevSecOps EngineerPrésentation du périmètre d'activité L'équipe de développement conçoit des services permettant de gérer ces orchestrations, notamment : la gestion du code source, la gestion des binaires, l'Intégration Continue (CI), le Déploiement Continu (CD), la qualité du code ainsi que d'autres fonctionnalités associées. Par ailleurs, l'équipe de développement cherche à définir des processus facilitant l'adoption efficace des outils de la banque par les développeurs et leur intégration avec ceux-ci. Le DevSecOps est une équipe globale, avec une équipe de développement basée à Paris et à Londres. Compétences essentielles Maîtrise d'au moins deux des langages suivants et de leurs chaînes d'outils associées : GoLang, Kotlin, Java, C#, C, C++, Julia ou tout autre langage fortement typé (ex. : ADA, Rust). Au moins un langage doit bénéficier d'une gestion automatique de la mémoire. La volonté d'apprendre de nouveaux langages est indispensable. Le poste utilisera principalement GoLang et Kotlin, mais le candidat peut débuter sans connaissance préalable de ces langages. SQL (toute plateforme ou variante) JavaScript / HTML / CSS Intégration et Déploiement Continus (toute solution, Jenkins est utilisé) Bitbucket / Git Bases en réseaux : compréhension de DNS, proxy, pare-feu, SSO/mTLS, TCP, HTTP Connaissances de base de la ligne de commande Linux et du scripting Compétences souhaitables Les compétences suivantes sont appréciées, mais un candidat pertinent peut ne pas les posséder : GoLang / Kotlin Orchestration, télémétrie et traçabilité MS SQL / ETL Ansible Jenkins / TeamCity Kubernetes DPI (technologie interne)
Mission freelance
Architecte Technique Solution (Montpellier) H/F
LeHibou
Publiée le
Architecture
DevOps
3 ans
400-580 €
Montpellier, Occitanie
Notre client dans le secteur Banque et finance recherche un/une Architecte Technique Solution H/F Description de la mission: La prestation s'intègre dans un rôle d'architecture de solutions au sein d’un groupe bancaire, avec un focus spécifique sur le périmètre SI Privatifs, Tiers. Cette mission s'inscrit dans une stratégie de transformation digitale du groupe et vise à structurer l'évolution technologique de ces environnements spécifiques. Le consultant sera accompagné et encadré par un architecte référent interne qui assurera le mentoring et la validation des orientations architecturales. Organisation du projet La prestation vient en renfort des équipes d'architecture existantes et est basée sur la région de Montpellier. Elle s'exécute en collaboration étroite avec les équipes métier et techniques, sous la supervision d'un architecte référent interne, dans une logique de proximité et d'accompagnement au quotidien. La prestation demandée concernera les missions suivantes, sous la supervision et avec l'accompagnement d'un architecte référent interne : 1. Accompagnement des nouveaux projets • Participer à la définition de l'architecture technique des nouveaux projets • Contribuer à la production des livrables d'architecture correspondants • Assister au suivi de l'évolution des architectures au cours de leur mise en œuvre • S'assurer de l'alignement avec les standards internes et les besoins métier 2. Accompagnement de la gestion d'obsolescences • Contribuer à l'identification des composants obsolètes du SI • Participer à l'élaboration des solutions de migration et de modernisation • Accompagner la mise en œuvre des plans de traitement des obsolescences • Veiller à minimiser les impacts sur les services métier 3. Convergence vers le socle technologique groupe • Contribuer à la définition des trajectoires d'évolution vers le socle technologique cible • Participer à la mise en œuvre de la convergence technologique • Promouvoir les offres et services technologiques du groupe • Assurer la cohérence avec la stratégie groupe 4. Contribution à la création d'un embryon de SI Filiales et Privatif • Participer à la conception du système d'information dédié • Contribuer à la définition des principes architecturaux et standards techniques • Assister à la structuration de l'approche méthodologique • Accompagner les phases de prototypage et de validation Compétences requises • Intégration d'applications métier (IAE) – Niveau : Maîtrisé • Architecture technique de solutions – Niveau : Bonnes connaissances générales • Conteneurisation, micro-services, Kubernetes – Niveau : Bonnes connaissances générales • Bases de données relationnelles et NoSQL – Niveau : Bonnes connaissances générales • APIsation, services web – Niveau : Bonnes connaissances générales • Virtualisation (ESX/VM) et réseaux – Niveau : Bonnes connaissances générales • Ansible, outils d'automatisation – Niveau : Bonnes connaissances Compétences comportementales • Concepts DevOps et agilité – Niveau : Bonnes connaissances générales • Bon esprit de synthèse orale et écrite – Niveau : Bonnes connaissances générales • Aisance relationnelle – Niveau : Bonnes connaissances générales • Prise de recul, esprit synthétique et d’alerting – Niveau : Bonnes connaissances générales • Capacité d'apprentissage et d'adaptation – Niveau : Maîtrisé • Esprit d'équipe et collaboration – Niveau : Maîtrisé • Curiosité technique et veille technologique – Niveau : Bonnes connaissances générales Résumé du profil recherché • Minimum 3 ans d'expérience en intégration technique dans un environnement bancaire ou financier • Expérience confirmée sur les technologies d'intégration (ESB, API, ETL, services web) • Appétence pour l'architecture et souhait d'évolution vers ce domaine • Connaissance des environnements techniques complexes et hétérogènes • Capacité à travailler en mode projet et en équipe pluridisciplinaire • Capacité d'apprentissage et d'adaptation aux nouvelles technologies • Autonomie dans l'exécution des tâches avec supervision par un architecte référent
Offre d'emploi
Architecte calcul/Stockage et plateformes DATA
Lùkla
Publiée le
Architecture
Cloud
12 mois
40k-45k €
400-550 €
Maisons-Alfort, Île-de-France
Missions principales Architecture et trajectoire technologique • Concevoir des architectures de calcul, stockage et plateformes DATA (On-premise, Cloud ou hybrides). • Élaborer la cible d’architecture DATA : catalogage, gouvernance, sécurité, interopérabilité. • Formaliser les patterns d’architecture, standards et bonnes pratiques. 1. Collecte et formalisation des besoins métiers et techniques • Animer des ateliers avec les directions métiers et laboratoires pour recueillir et qualifier les besoins. • Réaliser des cartographies techniques et fonctionnelles. • Identifier les contraintes et les gains attendus. 2. Analyse et ingénierie des systèmes existants • Réaliser du reverse engineering sur les systèmes existants, y compris non gérés par la DTI. • Identifier les redondances, obsolescences et pistes d’optimisation. 3. Proposition et priorisation de projets • Construire un plan d’action priorisé des projets techniques. • Appuyer la priorisation stratégique en lien avec la gouvernance DATA et le SDSI 2030 (qui reste à construire). 4. Pilotage et accompagnement technique des projets • Coordonner les travaux techniques, tests de performance et intégration. • Contribuer directement à la mise en œuvre technique et au transfert RUN. 5. Contribution à la gouvernance DATA • Participer aux instances du Programme DATA et du SDSI. • Contribuer à la définition des standards techniques et à la documentation des services. 4. Missions secondaires • Participation à des projets de plateformes mutualisées (MFT, ETL, forges logicielles, calcul). • Étude et éventuel déploiement de solutions cloud ou hybrides selon arbitrages stratégiques. • Veille technologique sur les infrastructures et technologies data. • Capitalisation documentaire et accompagnement à la montée en compétence des équipes. 5. Compétences requises 5.1 Compétences techniques • Architecture des systèmes de stockage : NAS, SAN, Object Storage, archivage. • Environnements de calcul : clusters Linux/Windows, HPC, Slurm, conteneurisation (Docker, Singularity), GPU, orchestration.Systèmes et virtualisation : VMware, Hyper-V. • Réseaux et sécurité : segmentation, performance, supervision, monitoring. • Plateformes DATA/Analytics : architectures DATA, interopérabilité technique, …. • Outils de transfert et d’intégration : MFT, ETL, pipelines CI/CD (GitLab CI, Jenkins). • Cloud et hybridation : connaissance d’Azure, OVHcloud, Scaleway ou équivalents publics. • Outils de supervision et d’observabilité : Grafana, Prometheus. • Documentation technique : rigueur rédactionnelle, utilisation d’outils tels que PlantUML, Mermaid ou Visio. 5.2 Compétences transverses • Gestion de projet technique : planification, suivi, priorisation et reporting. • Capacité d’analyse et d’arbitrage technique, sens de la décision et de la fiabilité opérationnelle. • Aptitude à dialoguer avec des interlocuteurs variés (chercheurs, ingénieurs, équipes métiers, directeurs, CDO, RSSI). • Autonomie, curiosité, rigueur documentaire et esprit de synthèse. • Sens du service public et respect de la confidentialité scientifique.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
188 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois