Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 1 656 résultats.
Offre d'emploi
Tech Lead IAM - Data - Chiffrement (H/F)
5COM Consulting
Publiée le
Grafana
Keycloak
Red Hat
3 ans
Paris, France
Nous recherchons un(e) Tech Lead expérimenté(e) pour piloter la conception et l'évolution des solutions IAM, Data et Chiffrement au sein d'une équipe Engineering Platform. Vous serez le garant de la qualité, de la sécurité et de la conformité des solutions délivrées, tout en accompagnant la transformation technique et organisationnelle. Vos missions principales Management & Organisation Encadrer et faire monter en compétences les équipes (collaborateurs internes et prestataires) Définir la roadmap technique et prioriser les initiatives stratégiques Animer les rituels Agile (Scrum/Kanban) et participer aux comités de pilotage Assurer la coordination transverse avec les équipes projets, production et sécurité Promouvoir les bonnes pratiques DevSecOps et la culture d'amélioration continue Expertise Technique Maîtriser les protocoles d'authentification : SAML v2, OpenID Connect, OAuth2, WebAuthn, FIDO2 Concevoir et superviser l'intégration de solutions IAM dans des environnements Cloud (AWS, Azure, GCP) Définir les standards de chiffrement et de gestion des clés/certificats Orienter les développements en Java/Spring Boot/JEE selon les principes Clean Code Superviser l'optimisation des bases PostgreSQL et garantir la haute disponibilité (PCA/PRA) Contrôler la conformité des pipelines CI/CD (GitHub Actions, Jenkins) Mettre en place l'observabilité (Grafana, Prometheus, Loki)
Offre d'emploi
Développeur Middleware – Intégration & Data (H/F)
WINSIDE Technology
Publiée le
API
Batch
BI
1 an
Lille, Hauts-de-France
Démarrage : ASAP Localisation : Lille (59), avec 2 jours de télétravail/semaine Durée de la mission : longue Contexte Dans le cadre d’une importante transformation de son Système d’Information, notre client recherche un Développeur Middleware / Intégration pour renforcer son pôle dédié aux flux, à la data et à l’interconnexion des applications. Votre mission Concevoir, développer et maintenir des solutions d’intégration (batch, temps réel, API, BI) afin de garantir : la fiabilité des flux , la qualité des données , la continuité opérationnelle , et la modernisation progressive du socle d’intégration. Vos responsabilités 1. Développement & Delivery Conception et réalisation de composants d’intégration (transformations, échanges inter-applicatifs, exposition de services). Développement de traitements ETL/batch , temps réel (ESB/API/event-driven) ou data/BI selon les besoins. Contribution aux estimations, lotissements et préparations des mises en production. 2. Fiabilisation & Continuité opérationnelle Diagnostic et résolution des incidents liés aux flux. Mise en place de pratiques de robustesse : reprise sur erreur, idempotence, gestion de volumétrie, alerting… Contribution à l’industrialisation (logs, supervision, runbooks). 3. Qualité & bonnes pratiques Respect des standards de développement (naming, quality gates, documentation…). Mise en œuvre de tests, validations de données et revues techniques. 4. Données & Modélisation Manipulation de bases SQL (requêtes, performance, modélisation). Prise en compte des enjeux de qualité et cohérence des données. 5. Collaboration transverse Travail avec architectes, experts, Tech Leads et équipes applicatives. Participation aux ateliers techniques, capitalisation et amélioration continue. Force de proposition sur la rationalisation et les patterns d’intégration. Vos compétences Solide culture de l'intégration (patterns, orchestrations, résilience). Maîtrise SQL et environnements bases de données (Oracle apprécié). Compétences dans un ou plusieurs domaines : ETL / batch (DataStage, ODI, Sunopsis…) ESB / API / Event-driven Modélisation & exposition de services (REST) Dév d’intégration (Node.js ou équivalent) BI / décisionnel Adaptabilité, rigueur, documentation, sens de l’exploitabilité. Profil recherché Expérience confirmée en intégration et flux de données . Approche “ingénieur d’intégration” plutôt qu'expert mono-outil. Aisance dans un environnement multi-équipes, orienté performance et continuité de service. Une expérience retail / omnicanal est un plus.
Mission freelance
Data scientist IA + Python + GCP
emagine Consulting SARL
Publiée le
AI
BigQuery
Google Cloud Platform (GCP)
3 ans
Île-de-France, France
Descriptif mission : En coordination avec les différents acteurs du pôle Payment et du Groupe • contribution aux projets décisionnels - Big data, • participation et animation de groupes de travail avec les utilisateurs et les informatiques • collecte des besoins auprès des métiers, • modélisation et développement des reporting : spécification des indicateurs décisionnels (statistique, qualité, facturation) • Exploration de données • rédaction des livrables : spécifications fonctionnelles et techniques, cahiers de recette • participation aux recettes • formation et accompagnement des utilisateurs Connaissances techniques : Maîtrise des architectures et plateforme de l’IA ainsi que du Cloud. • Environnements et outils de Google Cloud Platform : - BigQuery, - Airflow, - Vertex Ai/Notebook Jupyter • Maîtrise des algos ML (notamment classification et NLP) • Langages : SQL, Python (Pandas, Scikit learn, Tensor Flow) • Delivery : Git, Jenkins / Cloud Build • Connaissance du Data Engineering fortement appréciée • Bonne connaissance générale des logiques décisionnelles Connaissances fonctionnelles : Comprendre l’environnement et les métiers de Paiements. Une connaissance préalable des paiements serait un plus.
Mission freelance
Product Manager / Product Owner technique – API & Data Platform (H/F)
TEOLIA CONSULTING
Publiée le
API
API REST
JSON
12 mois
400-550 €
Paris, France
Dans le cadre d’une mission à fort enjeu sur un produit cœur de système d’information , nous recherchons un(e) Product Manager / Product Owner à forte culture technique , capable d’intervenir sur une plateforme transverse exposant des services via API . Vous intégrerez un environnement complexe, structurant et à forte volumétrie de données, impliquant de nombreux consommateurs (équipes internes, produits aval, partenaires). Votre rôle consistera à piloter la vision produit , à structurer les flux de travail et à garantir la valeur délivrée, en étroite collaboration avec les équipes de développement et les parties prenantes techniques. Vous interviendrez notamment sur : Le pilotage produit de services exposés via API REST La gestion et l’évolution de modèles de données complexes Le cadrage, la priorisation et la structuration du backlog Le recueil de besoin via des approches de discovery (interviews, mapping, analyse d’usages) L’amélioration continue de l’organisation produit (flux, indicateurs, visibilité) L’adaptation des pratiques agiles aux contraintes opérationnelles (Kanban, flux continus, feature teams) Ce poste nécessite une forte proximité avec les équipes techniques et une réelle capacité à dialoguer avec des développeurs backend et data sur des sujets structurants.
Offre d'emploi
Data Engineer Cloud & BI (Finance)
Amontech
Publiée le
Azure
Git
Google Cloud Platform (GCP)
1 an
40k-45k €
400-450 €
Île-de-France, France
Contexte Nous recherchons un(e) Data Engineer pour rejoindre un projet stratégique dans le secteur bancaire. La mission vise à améliorer l’exploitation des données métiers à travers la création et la refonte de dashboards et le développement de solutions analytiques sur le cloud. Missions Comprendre l’environnement et les besoins métiers pour proposer des solutions adaptées S’approprier et optimiser les dashboards existants Collecter, transformer et gérer les données en garantissant leur qualité, intégrité et sécurité Participer à la définition et au suivi des KPI métiers Animer des ateliers et groupes de travail avec les utilisateurs pour collecter les besoins Développer et automatiser les traitements de données Former et accompagner les utilisateurs sur les outils et dashboards Contribuer à l’amélioration de l’expérience utilisateur (UX) et du design des tableaux de bord
Offre d'emploi
Développeur C# / .NET/angular F/H - Informatique de gestion (H/F)
█ █ █ █ █ █ █
Publiée le
.NET CORE
ADO.NET
Angular
69009, Lyon, Auvergne-Rhône-Alpes
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Mission freelance
Data Engineer SAP
Mon Consultant Indépendant
Publiée le
SAP
3 mois
800-820 €
Paris, France
Contexte du Projet : Nous recherchons un Data Engineer senior pour un projet stratégique de 14 semaines, visant à développer un système d'aide à la décision de planification Supply Chain chez un acteur de la défense. Le projet implique l'intégration de données provenant de multiples ERP (notamment SAP) et la création d'un moteur de calcul pour analyser l'impact des retards sur les pièces critiques et la disponibilité des systèmes finaux. Missions Principales : Expertise en extraction de données SAP (modules MM, PP, MRP) et modélisation de données industrielles complexes. Maîtrise des tables SAP (MRP, stocks, ordres, nomenclatures) pour structurer un Data Layer robuste et pertinent. Développement de moteurs de calcul (Python, SQL ou autres) permettant d'analyser l'impact des retards sur la Supply Chain. Adaptation à un environnement multi-sites et multi-ERP hétérogène. Interaction directe avec les consultants opérations/supply et les équipes IT SAP. Contribuer à la mise en place d'un outil d'aide à la décision et de planification pour identifier et tracer les risques de rupture. Compétences Techniques Requises : Solide expertise SAP sur l'extraction et la modélisation de données (MM/PP/MRP). Maîtrise des concepts et tables liés à la planification (MRP, stocks, ordres, BOM). Expérience confirmée en développement de moteurs de calcul (Python, SQL). Familiarité avec les environnements Data Analytics. Profil Recherché : Senior, avec une expérience significative dans des projets similaires. Capacité à s'adapter et à évoluer dans un contexte industriel sensible et exigeant. Excellentes compétences en communication et en travail d'équipe. Localisation et Durée : Localisation hybride, préférentielle : Bretagne, Brest, Bordeaux. Démarrage : Janvier (sous réserve de confirmation du projet). Durée : 14 semaines.
Offre d'emploi
Expert Data Référentiels
Management Square
Publiée le
API
Azure DevOps
Azure Synapse
1 an
50k-57k €
500-580 €
Paris, France
Nous sommes à la recherche d'un(e) : Expert Data Référentiels -Se coordonner avec le Business Analyst du sujet pour définir la charge et définir les travaux à mener - Développer l’intégration des flux avec Azure Synapse / PySpark -S’appuyer sur les connaissances fonctionnelles de l’équipe en place - S’assurer de la qualité et de la cohérence de données intégrer pour anticiper les impacts sur les reporting (comparaison de données entre sources. - Expérience dans la mise en place de la qualité du code (Sonar) et l’amélioration continue
Mission freelance
Software Engineer Expert
Codezys
Publiée le
Automatisation
Azure
Azure Data Factory
6 mois
Paris, France
Groupe d'Assurance et de Services est une entité fournissant des produits et services pour le groupe d'assurance. Dans le cadre de l'équipe Data Business Intelligence & Analytics (DBIA), le périmètre inclut la mise en œuvre de nouvelles fonctionnalités pour un nouveau programme (Plateforme de Données Globale). La Plateforme de Données Globale repose sur une infrastructure cloud publique, principalement sur la plateforme de traitement de données en cloud, pour le stockage et la consommation de données (analyse de données, apprentissage automatique, visualisation de données). Cette plateforme couvrira plus de 240 applications de données destinées à plus de 10 000 utilisateurs. Services : Conception, mise en œuvre et support du moteur d’ingestion développé en interne utilisant les workflows de la plateforme de traitement et du code Python ; Support de niveau 3 pour ce moteur d’ingestion. Objectifs et livrables Livrables : Conception et preuve de concept ; Déploiement de nouvelles fonctionnalités/services ; Support de niveau 3 ; Documentation opérationnelle ; Participation aux plannings de l’itération, revues de sprint, réunions quotidiennes et ateliers de conception.
Mission freelance
PM - Product Management Transverse Agile
Byrongroup
Publiée le
Confluence
Data analysis
JIRA
1 an
400-500 €
Île-de-France, France
Vision & stratégie produit • Co-construire la vision produit et décliner la stratégie sur votre périmètre • Déployer et piloter la roadmap en priorisant les initiatives à fort impact • Co-construire les OKR de la value team et piloter leur atteinte Pilotage & priorisation • Traduire les besoins utilisateurs et métiers en problèmes clairs et priorisés • Construire des hypothèses de valeur, orienter les choix via des KPI, ROI et analyses de risques • Arbitrer entre portée, valeur et capacité des équipes, en assurant la cohérence inter-squads Cycle de vie produit • Piloter le discovery : compréhension utilisateur, exploration, tests, faisabilité • Prioriser le backlog, animer les rituels agiles et garantir la qualité fonctionnelle des livrables • Coordonner le go-to-market avec les équipes marketing, change et support Leadership & coordination transverse • Collaborer avec plusieurs value teams, équipes tech transverses et parties prenantes métiers • Contribuer à diffuser une culture produit orientée valeur, expérimentation et mesure d’impact Mesure d’impact & amélioration continue • Mettre en place des KPI d’usage, de valeur et de performance • Monitorer les résultats et piloter les plans d’amélioration continue • Partager régulièrement les apprentissages et next steps à la gouvernance
Mission freelance
BA Data Banque / Crédit - Paris
Net technologie
Publiée le
Data analysis
Reporting
6 mois
Paris, France
🚀 Contexte : Dans le cadre d’un programme international stratégique, nous recherchons un(e) BA pour accompagner la transformation front-to-back de la chaîne de Crédit et renforcer l’équipe Reporting / Data. ❇️ Missions : Le rôle couvre l’analyse des besoins Métiers, la définition des solutions fonctionnelles, la coordination avec des équipes IT internationales, le suivi des phases de build, tests et mises en production, dans un contexte Agile, à forts enjeux Business & IT.
Mission freelance
Proxy Product Owner Data (RUN & BUILD) – Full Remote
Signe +
Publiée le
Snowflake
12 mois
330-340 €
Paris, France
Proxy Product Owner Data – RUN focus / BUILD focus Contexte Mission au sein d’un datalake cybersécurité (Security Analytics) dans un environnement grand compte. Le client a ouvert la possibilité de réaliser la mission en full remote afin d’élargir le sourcing et sécuriser un profil compétent. Durée 6 mois minimum (renouvelable) Mode de travail Full remote Responsabilités – RUN focus Piloter la transition Build → Run et stabiliser l’exploitation Gérer et prioriser le backlog incidents ServiceNow (arbitrage risques / impacts métier) Analyser, coordonner et suivre les incidents avec les équipes de développement Communiquer auprès des utilisateurs et parties prenantes Rédiger des SOP (Standard Operating Procedures) pour les incidents récurrents Mettre en place le monitoring et l’alerting (fraîcheur, qualité, disponibilité des données) Garantir la performance et la fiabilité opérationnelle des solutions data Contribuer au support et à la montée en compétence des utilisateurs (Power BI, modèles de données) Responsabilités – BUILD focus Participer aux cérémonies agiles et assister le Product Owner Enrichir le backlog Jira (spécifications data, règles de transformation, critères d’acceptation) Réaliser les UAT avec les parties prenantes cybersécurité Analyser les sources de données nécessaires à la construction des KPI Optimiser la logique de calcul des indicateurs Concevoir les modèles de données sous Snowflake et Power BI Superviser l’orchestration et les planifications des flux Maintenir la documentation fonctionnelle Gérer et opérer le backlog BUILD Compétences requises Forte expérience sur des projets Data / BI Maîtrise de Azure Data Factory, Snowflake, Power BI Très bon niveau SQL (analyse, contrôle, optimisation) Expérience confirmée en tant que Product Owner / Proxy PO en environnement Agile (Scrum, Jira) Bonne culture IT générale (API, réseaux, protocoles) Anglais courant obligatoire Soft skills Excellente communication et capacité de vulgarisation Forte autonomie (contexte full remote) Capacité d’arbitrage et sens du résultat Aisance avec des environnements complexes et contraints (cybersécurité)
Offre d'emploi
ARCHITECTE FONCTIONNEL DATA (H/F)
GROUPE ALLIANCE
Publiée le
TOGAF
65k-80k €
Le Mans, Pays de la Loire
ACCROCHE SI TU SAIS PARLER ET FAIRE PARLER DE BESOINS METIER, CETTE ANNONCE EST FAITE POUR TOI... CE QUE TU RECHERCHES : Traduire les besoins métier en solutions fonctionnelles optimales Participer à des projets stratégiques et innovants Relever des défis dans l’alignement des processus et du SI Donner un nouveau souffle à ta carrière Alors nous avons la mission idéale pour toi. Au sein d’un acteur majeur du secteur , tu participeras Analyse des besoins métier, tu feras Modélisation des processus, tu réaliseras Cohérence entre SI et enjeux business, tu assureras Bonnes pratiques fonctionnelles, tu instaureras Veille sur les évolutions métier et SI, tu réaliseras Les équipes, tu accompagneras Aux instances de gouvernance, tu participeras QUI TU ES : Diplômé(e) de la formation qui va bien Expérience de ans minimum en architecture fonctionnelle et urbanisation des SI Expert(e) des méthodologies Habile avec les outils Maitrise du domaine fonctionnel AU-DELÀ DES COMPÉTENCES MÉTIERS, TU ES / AS : Créatif(ve) : tu trouves toujours la meilleure solution Pragmatique : tu proposes des solutions adaptées aux besoins Communicant(e) : tu sais vulgariser la technique Structuré(e) : tu aimes organiser et optimiser Dynamique : tu n’aimes pas rester les deux pieds dans le même sabot Autonome : un guide du Routard te suffira Esprit de synthèse : tu sais aller à l’essentiel Rigoureux(se) : tu garantis la cohérence du métier Force de proposition : tu es l’Aladdin de l’informatique Esprit d’équipe : un pour tous et tous pour un !
Mission freelance
Expert Data Streaming Kafka
JobiStart
Publiée le
Apache Kafka
Spark Streaming
3 ans
400-550 €
Paris, France
Expert en systèmes distribués, votre mission est de concevoir, déployer et administrer les clusters Apache Kafka au cœur de l'échange de données en temps réel de la banque. Vous intervenez sur la configuration fine des brokers, la gestion des topics, des schémas (Schema Registry) et des partitions pour garantir une haute disponibilité et une tolérance aux pannes maximale. Vous accompagnez les équipes de développement dans l'implémentation des producteurs et consommateurs, ainsi que dans l'utilisation de Kafka Streams ou ksqlDB pour le traitement de flux. Vous assurez le monitoring proactif des performances (latence, débit), la sécurité des flux (SSL/SASL/ACLs) et le troubleshooting complexe en environnement de production critique. Vous êtes le référent sur les stratégies d'archivage et de réplication inter-sites.
Offre d'emploi
Data Analyst Dataiku/Tableau/Script Python
OBJECTWARE
Publiée le
Dataiku
Python
Tableau Desktop
3 ans
40k-61k €
400-550 €
Île-de-France, France
Prestations demandées Production de dashboards Tableau • Exploration des données et mise en place de KPI pertinents, en concertation avec le Top management d’A3I et les offering managers • Création de dashboards permettant un suivi de l’adoption, de l’usage et de la performance des offres • Optimisation des dashboards existants (lisibilité, structuration). Préparation de données • Transformation et enrichissement des données via Dataiku. • Exploration et manipulation SQL sous PostgreSQL. • Contribution à la gestion de la qualité des données. Compétences techniques requises • Data Visualisation • Expertise Tableau • Très bonne maîtrise de SQL • Bonne maîtrise de Dataiku (préparation, traitements Python, recettes avancées). Soft Skills • Autonomie. • Rigueur et sens de la qualité. • Capacité d’analyse. • Force de proposition • Excellentes compétences de communication (écrite & orale). • Capacité à travailler en transversal, à fédérer et à challenger les parties prenantes. • Capacité à proposer et maintenir des standards dataviz cohérents entre les différentes offres IA.
Mission freelance
Data Engineer - Secteur Assurance et Prévoyance (H/F)
EASY PARTNER
Publiée le
Apache NiFi
Bash
Gitlab
230 jours
420-450 €
Lyon, Auvergne-Rhône-Alpes
Contexte du poste Dans le cadre d'un projet de refonte de son SI, notre Groupe renforce son dispositif Data au sein de la Direction des Systèmes d’Information. L’objectif est de concevoir, développer et maintenir des flux de données fiables et industrialisés au service des équipes métiers Épargne et Services Financiers. Le poste est rattaché au DAS Épargne & Services Financiers et s’inscrit dans un environnement orienté data, qualité et automatisation. Missions Missions principales En tant que Data Engineer, vous interviendrez sur la conception, le développement et l’industrialisation des flux de données, dans un contexte finance / assurance à forts enjeux de qualité, de traçabilité et de performance. Concevoir et implémenter le socle data du Master Data Management (MDM) Intégrer et transformer les données issues de différentes sources Sécuriser et industrialiser les flux dans le respect des standards de qualité et de traçabilité attendus Mettre en œuvre des traitements de données (collecte, transformation, stockage) Garantir la qualité, la fiabilité et la performance des flux Travailler en lien étroit avec les équipes métiers et IT Contribuer aux bonnes pratiques de développement, d’automatisation et de CI/CD Stack technique Compétences requises (niveau confirmé) Data & traitement : Apache NiFi, requêtage et traitement de données (SQL / NoSQL) Connaissance des formats et protocoles : JSON, XML, CSV, REST API Base de données & stockage : PostgreSQL, Stockage objet (S3) DevOps & industrialisation : GitLab, GitLab CI, Pratiques CI/CD Compétences appréciées Langages & scripting : Python, Bash
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
1656 résultats
Contrats
Lieu
1
1
France
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois