Trouvez votre prochaine mission ou futur job IT.

Offre d'emploi
Data Engineer AWS - Data / IA
Contexte de la mission : Dans le cadre du lancement d’une nouvelle plateforme Data & IA dans le cloud, nous recherchons un consultant expérimenté afin d’accompagner le déploiement complet de l’environnement, depuis l’intégration des données jusqu’à la mise en production. Vous interviendrez sur la mise en place et l’optimisation des environnements Data et IA, ainsi que sur le développement de cas d’usage innovants en lien avec la génération et le traitement intelligent de données. Vos missions principales : Finaliser et stabiliser les environnements Data existants (cloud et on-premise interfacés). Mettre en œuvre les services managés Data/IA du cloud (incluant notamment des solutions de génération et de recherche augmentée). Contribuer au développement d’un front applicatif orienté Data/IA (use cases speech-to-speech). Déployer et industrialiser les cas d’usage Data et IA en production. Collaborer avec les équipes projet pour résoudre les problématiques techniques résiduelles.

Mission freelance
Data Engineer Big Data & API – Spark/PySpark/Scala, Hadoop / Starburst, CI/CD, Control-M
Contexte Équipe IT Data Management & BI – Squad Big Data & API. Le data lake “ESG” sert de plateforme de données pour des équipes IT et métiers. La mission peut évoluer vers d’autres squads Data selon les besoins. Missions Assurer le rôle de Data Engineer et développeur d’API au sein de la squad. Exploitation/production : supervision des traitements, corrections, optimisation des performances. Gestion de la dette technique : refactor, qualité, sécurité. Architecture : revue de l’existant et propositions d’évolutions . Développements projets : pipelines de données et APIs d’exposition.

Mission freelance
Data Analyst expert BI ETL
CONTEXTE Experience : 8 ans et plus Métiers Fonctions : Data Management, Data Analyst Spécialités technologiques : BI,ETL MISSIONS Le Data Analyst aura pour mission de structurer les fondations méthodologiques et techniques nécessaires à la diffusion d’indicateurs fiables et exploitables pour le département « Recherche Candidature et Rapprochement ». Il aura pour mission de centraliser les données issues de multiples sources, d’en assurer la transformation, puis d’industrialiser leur traitement au travers de pipelines performants, pour les visualiser dans Power BI, Qlik Sense, etc. Le Data Analyst aura potentiellement la charge de plusieurs domaines de données au sein du département RCR. En lien étroit avec l’architecte/expert data et les métiers, il sera responsable de la chaîne complète de traitement et de valorisation des données, depuis la compréhension du besoin jusqu’à la mise en production et la maintenance des applications décisionnelles. Il jouera un rôle clé dans cette dynamique, en prenant en charge la structuration des flux, l’optimisation des performances. Il devra allier expertise technique et compréhension des enjeux métiers pour garantir la qualité, la cohérence et la disponibilité des données. Appuyé par les standards et les outils mis à disposition par les équipes data transverses, il travaillera en forte autonomie sur les projets qui lui seront confiés. Expertise souhaitée - Recueil et formalisation des besoins métier - Animer des ateliers avec les utilisateurs métiers pour comprendre leurs enjeux et besoins en reporting, datavisualisation et indicateurs. - Rédiger des spécifications fonctionnelles et techniques (cahiers des charges, dictionnaires de données, définitions d’indicateurs). - Identifier et challenger les sources de données disponibles. - Prototypage et maquettes - Concevoir des maquettes d’écrans (wireframes, prototypes Power BI ou Qlik Sense) pour validation métier. - Proposer des choix de visualisation pertinents en fonction des usages (tableaux de bord stratégiques, opérationnels, analytiques). - Conception et modélisation des données - Définir et mettre en oeuvre la modélisation back-end : datamarts, hubs data, modèles dimensionnels (étoile,flocon) ou data vault. - Écrire et optimiser les requêtes SQL ou pipelines (via Dataiku ou autres outils ETL/ELT) pour alimenter les modèles. - Mettre en place des pré-calculs ou agrégations pour optimiser les performances. - Développement des applications décisionnelles - Développer les dashboards et rapports dans Power BI et/ou Qlik Sense en respectant les standards UX/UI et les bonnes pratiques data. - Paramétrer la sécurité des données : ségrégation de données (row-level security), restrictions d.accès en conformité avec la politique RGPD. - Garantir la performance et la fiabilité des restitutions. - Tests et recette - Concevoir et exécuter les tests unitaires et d’intégration. - Préparer et accompagner la recette métier. - Corriger les anomalies détectées. - Maintenance évolutive et corrective - Faire évoluer les applications existantes selon les nouveaux besoins ou changements réglementaires. - Surveiller la qualité des données et les performances. - Rédiger et maintenir la documentation technique et fonctionnelle. - Collaboration et amélioration continue - Travailler en étroite collaboration avec l’architecte data, les autres data analysts et l.équipe métier. - Participer aux rituels d’équipe.
Offre d'emploi
Data Scientist Produit
Vos missions incluront : Définir et suivre les KPIs pour améliorer la performance des produits phares. Concevoir et exécuter des tests A/B, analyser les résultats et proposer des actions concrètes pour améliorer les indicateurs. Analyser à grande échelle des données non structurées (voix et texte) pour en extraire des insights pertinents. Collaborer avec les équipes Tech, Customer Support et Sales pour aligner les améliorations produit avec les besoins des utilisateurs. Apporter de la méthode dans l’optimisation produit.

Mission freelance
Data Analyst Power BI (Freelance)
Pour l'un de nos clients nous sommes à la recherche d'un Data Analyst Power BI ayant des connaissances VBA et une expérience SAP S4. Le profil doit être autonome techniquement et avoir un bon relationnel et une bonne capacité de synthèse pour échanger avec les différentes parties prenantes. Les principales missions sont : TRAITEMENT DES DONNEES POUR LA MIGRATION DANS LE NOUVEL ERP S'approprier l'architecture du système de traitement des données Extraire les données dans l’ERP SAP (S4 Hana) actuel nécessaires à l'analyse Analyser les données : - s’assurer de la complétude, de la qualité et de l’intégrité des données ; - mettre en avant les corrélations, - définir les valeurs aberrantes Contribuer aux ateliers pour la caractérisation des données qui seront utilisées dans SAP S4 et en déduire les données à modifier, compléter ou créer dans l’ERP actuel ; S’assurer que les outils de transcodification sont en cohérence par rapport à l’attendu ; Développer des outils pour transcodifier certaines données ; Réaliser les requêtes de modifications des données dans l’ERP SAP actuel. MISE EN PLACE DES RAPPORTS D’ANALYSE DE DONNEES Identifier les données nécessaires aux analyses des futurs utilisateurs, les traiter et les nettoyer afin d’en extraire des informations permettant de répondre à des enjeux spécifiques et faciliter la prise de décision pour le métier Présenter les résultats des analyses de données afin d’appuyer la prise de décision ; ces résultats pourront être présentés sous forme Excel, PowerBI. Si besoin, des outils statistiques pourront être utilisés. Maintenir les rapports existants et développer les évolutions SUPPORT DES OPERATIONNELS Venir en support des équipes opérationnels et répondre à chacun de leurs besoins Comprendre les problématiques métiers et pouvoir les traduire de manière analytique Structurer la gestion des données et flux de travail du processus Vente et Programme sur les différents outils numériques à notre disposition (SharePoint, Réseau, Teams, SAP, Power BI, etc.) Elaborer les KPI (inclus post-bascule), les tenir à jour et les partager au sein du stream Ventes afin qu’ils soient restitués dans les comités pour le suivi de la préparation à la migration. Pouvoir représenter le stream Vente dans les réunions Data dont les comités du programme en relation avec la data Faire les compte-rendus des réunions Data avec les métiers.

Offre d'emploi
Data Owner
🚀 CITECH recrute ! ✨ Vous souhaitez relever un nouveau défi autour de la Data et de la Gouvernance dans un environnement stimulant et innovant ? Nous avons LA mission qu’il vous faut ! Nous recherchons un(e) Business Data Manager (H/F) pour intervenir sur un projet stratégique de structuration, de qualité et de gouvernance des données. 🙌🔽 Vos missions principales seront les suivantes : 🔽🙌 🔸 Définir, documenter et gérer la connaissance fonctionnelle et métier de vos données. 🔸 Être l’interlocuteur clé sur tout ce qui concerne votre périmètre data (qualité, accessibilité, usages). 🔸 Concevoir et piloter une roadmap et une vision data pour votre domaine. 🔸 Garantir la qualité, l’intégrité et la fiabilité des données entre systèmes. 🔸 Analyser les données (via SQL) de façon autonome afin de répondre aux besoins métier. 🔸 Traduire les besoins des utilisateurs en règles métier et en indicateurs (KPI). 🔸 Animer et coordonner les plans d’action visant à améliorer la qualité et l’accessibilité des données. 🔸 Assurer la disponibilité et la facilité d’usage des données (DataLake, catalogues, etc.). 🔸 Contribuer à la résolution des incidents liés à la disponibilité ou à la qualité de la donnée. 🔸 Sensibiliser, accompagner et former les parties prenantes à l’utilisation et aux bonnes pratiques data. 🔸 Partager et mettre en œuvre les principes de modélisation métier au sein du data catalog. 🔸 Collaborer étroitement avec les Data Owners, Data Stewards, Domain Data Managers et Data Producers.

Offre d'emploi
Data Engineer orienté DevOps
- Gestion de la production - Gestion de la dette technique - Revoir l'architecture actuelle et proposer des évolutions - Développements liés aux projets Concrètement : la mission principale de la prestation aura pour but de : - traiter nos obsolescences de Framework (ex : springboot , spark2 ) - moderniser et industrialiser nos pipelines de build en intégrant les bonnes pratiques devsecops : - migration depuis tfs vers jenkins - création directe sur jenkins Le but étant d'optimiser notre code , d'assainir et d'automatiser nos déploiements via xldéploy. Le code concerne nos apis et nos process de transformation hadoop/spark ( en java , python

Mission freelance
Chef de projet Data / BI
Dans le cadre de la modernisation et de l’industrialisation de la plateforme Data de notre client et de ses applications métier, nous recherchons un chef de projet Senior spécialisé dans la data. Le candidat aura deux principales missions : Mettre en place une démarche de pilotage projet et piloter les projets stratégiques pour en garantir la maîtrise de bout en bout des processus dans une vision consolidée à la fois sur la partie métier et DSI : •Définition et suivi des jalons à respecter pour le bon déroulement du projet • Suivi de la bonne livraison des livrables, ainsi que la vérification de la qualité, de la cohérence et de complétude de ces derniers. • Respect des engagements Cout / Délai/ Qualité/ Charge de l’ensemble des interlocuteurs sur les différents périmètres d’intervention. • Préparation et animation des comités de pilotage stratégique et opérationnels avec les directions métiers et des différentes équipes • Formalisation de la démarche projet, des indicateurs en déclinaison de la démarche groupe adapté au SI de la rémunération • Proposer une démarche agile sur certains projets ou périmètre du chantier et accompagner la transformation agile en coordination avec l’équipe agile. • Aligner la capacité à faire avec les enjeux business et les contraintes internes •Organiser et participer activement aux phases de cadrage et d’études et de conception avec les différentes parties prenantes pour apporter la solution qui réponds aux exigences Adopter une démarche processus puis solution en lien avec les architectes pour apporter la meilleure solution possible et dans le respect du SDSI du périmètre. • Être force de propositions de solutions techniques et fonctionnelles pour répondre aux besoins métiers. • Veiller au maintien des différents référentiels documentaire • Vérifier la qualité des livrables des prestataires internes ou externes. • Travailler en étroite collaboration

Mission freelance
Data ingénieur Python react ou 470 e/j
Data ingénieur Python react ou 470 e/j Concevoir et développer des applications web utilisant Python pour le backend avec des frameworks comme Django ou Flask. • Développer des interfaces utilisateur dynamiques et réactives avec des technologies frontend modernes , React . • Intégrer des API RESTful pour la communication entre le frontend et le backend. • Familiarité avec les outils de versionnèrent de code (Git). • Optimiser les performances des applications et assurer la qualité du code par des tests unitaires et fonctionnels. • Participer à la mise en place de bonnes pratiques de développement et à la documentation des projets. • Minimum 7 à 8 ans d'expériences 470 e par jour HT

Mission freelance
Data Engineer AWS
Kajenthi@RED Global – Recherche Data Engineer AWS – IDF – Freelance – 3 mois + Dans le cadre du déploiement d’un environnement de Data Augmentée (AWS, Dataiku, Starburst, Datasync), alimenté depuis un Data Lake on-premise , RED Global recherche un Ingénieur Data pour accompagner la mise en production d’un nouveau produit sur AWS . Missions : Résolution des problèmes techniques résiduels sur les environnements. Mise en œuvre de services Data et IA (Bedrock, RAG, etc.). Contribution à un front de génération de comptes-rendus en mode speech-to-speech . Compétences requises : Minimum 3 ans d’expérience sur AWS en environnement Data. Bonne maîtrise des services Data AWS . Connaissance de Starburst et Dataiku appréciée. Environnement technique : AWS, Dataiku, Starburst, Datasync, Bedrock, RAG, Data Lake on-premise. Si vous souhaitez recevoir de plus amples informations sur la mission ou si vous pouvez recommander un collègue ou un ami, n’hésitez pas à me contacter via mail avec votre CV à jour :

Offre d'emploi
Tech Lead Data Azure / Databricks
Missions principales : - Conception et développement : Concevoir, développer et maintenir des pipelines ETL/ELT en utilisant PySpark sur Databricks pour traiter de grandes quantités de données. - Leadership technique : Encadrer une équipe de Data Engineers, assurer la qualité du code, la conformité aux bonnes pratiques et participer aux revues de code. - Architecture et innovation : Participer à l’architecture des solutions Big Data sur Azure, proposer des optimisations et innovations techniques. - Gestion de projet : Collaborer avec les Product Owners et autres parties prenantes pour définir les besoins, estimer les efforts et respecter les délais. - Sécurité et conformité : Garantir la sécurité, la confidentialité et la conformité des données en respectant les standards et réglementations (ex : GDPR). - Veille technologique : Se tenir informé des évolutions des technologies Big Data, Azure, Python, Spark.

Mission freelance
Architecte DATA H/F
Tu veux contribuer à la mise en place d’une gouvernance des données efficace et à forte valeur ajoutée ? Rejoins les équipes de notre client. Ta mission En tant qu’Architecte Data, tu auras un rôle clé dans la conception et la mise en œuvre de la gouvernance des données de nos solutions applicatives. Tes principales responsabilités Analyser l’existant et proposer une gouvernance data adaptée aux besoins de l’organisation. Définir l’architecture data et faire évoluer les référentiels (dictionnaires, règles de gestion…). Collaborer avec les équipes métiers, techniques et sécurité pour aligner les pratiques data. Participer à la mise en place d’outils de gouvernance (Data Catalog, Data Quality, MDM, etc.). Accompagner les équipes dans l’adoption des bonnes pratiques de gestion des données. Assurer une veille technologique et réglementaire sur les sujets data

Offre d'emploi
Data Scientist (FH)
Taleo Consulting est un groupe de conseil en management présent à Luxembourg, Paris, Bruxelles, Amsterdam, Genève, Barcelone, Singapour et Lisbonne. Nos valeurs sont : Famille, Fun et Excellence et font partie intégrante de l’ADN de Taleo. Nous comptons aujourd'hui plus de 500 employés à travers nos 8 bureaux internationaux ! Notre expertise financière permet d’apporter à nos clients les meilleures pratiques, des solutions sur mesure et innovantes. Nous intervenons auprès des banques, des assets managers et des assurances. Votre rôle Nous recherchons un(e) Data Scientist pour accompagner l’un de nos clients, acteur majeur du secteur bancaire. Le poste est à pourvoir dès le 15 septembre 2025 jusqu’au 31 décembre 2025 , et est situé à Paris . Ce poste est ouvert dans le cadre d’un contrat CDD ou Freelance. Contexte Dans le cadre du renforcement de ses capacités d’analyse et de restitution des résultats de stress tests au sein de STFS (Stress Testing & Financial Simulations), notre client recherche un profil data scientist spécialisé en Data Visualisation, avec une expertise confirmée sur Power BI, et codage Python. Les entités Finance Groupe, RISK et ALM Treasury ont mis en place une équipe commune en charge du stress testing, de la planification financière et de la synthèse pour le Groupe. Cette équipe, nommée STFS (Stress Testing and Financial Simulations), a pour objectif de coordonner le renforcement des capacités de stress testing (S/T) et de planification, afin de mieux répondre aux besoins des Métiers, des Entités Juridiques et du Groupe, tout en satisfaisant aux exigences des superviseurs dans ces domaines, et ce de manière efficiente. A cet effet, STFS a construit une plateforme centralisée, flexible et industrialisée, accessible aux Métiers et Entités (B/E) du groupe pour répondre à leurs besoins locaux et contribuer aux exercices Groupe. STFS propose un service intégré de stress testing aux B/E pour les aider à tirer parti du cadre commun pour leurs besoins spécifiques. STFS est également responsable de l’exécution de tous les exercices de stress testing à l’échelle du Groupe, qu’ils soient réglementaires ou internes. Prestations demandées : Objectifs mission : · Définir le design de nouveaux dashboards de Stress Tests en collectant les besoins des différentes équipes STFS et en considérant différents objectifs tels que contrôle, analyse, validation et insertion opérationnelle auprès des entités · Concevoir et automatiser ces nouveaux dashboards dans Power BI · Faciliter l’appropriation des outils par les équipes STFS via une implémentation claire et modulaire Compétences attendus : · Minimum 12 ans d’expérience, secteur bancaire privilégié · Maîtrise avancée de Power BI · Expérience significative dans la construction de dashboards financiers complexes · Connaissance des enjeux réglementaires (risque de crédit, CRR3) et stress tests bancaires · Capacité à collaborer avec des équipes pluridisciplinaires (modélisation, finance, risques) · Autonomie, rigueur, sens de la synthèse · Pack office : PPT, EXCEL (maitrise) · Des dashboards dynamiques (Power BI) répondant aux besoins identifiés en amont par les différents consommateurs, automatisés, modulaires et documentés · Un guide d’utilisation et de maintenance · Des supports de restitution pour les parties prenantes

Offre d'emploi
Data Engineer Stambia (F/H)
CDI/ Freelance/ Portage salarial 💼 – 2 jours de télétravail/semaine 🏠 – 📍 Lille (59) – 5 ans d'expérience minimum Vous êtes passionné(e) par la gestion, l’intégration et la qualité des données dans un environnement exigeant comme la banque ? Vous aimez structurer, cartographier et rendre les données fiables et exploitables pour les équipes métiers et Data ? Alors cette opportunité est faite pour vous ! 🚀 Vos missions : - Garantir la mise à disposition qualitative et sécurisée des données aux équipes Data Analysts, Data Scientists et métiers - Participer à la définition de la politique de la donnée et à la structuration de son cycle de vie dans un contexte bancaire (sécurité, conformité, traçabilité) - Superviser et intégrer les données issues de multiples systèmes bancaires et réglementaires , et contrôler leur qualité avant leur intégration dans le Data Lake - Développer, structurer, cartographier et nettoyer les données tout en respectant les exigences réglementaires (ex : BCBS239, GDPR, RGPD bancaire) - Produire les livrables : flux d’intégration sous Stambia, Data Lake partagé, cartographie des données, documentation technique et reporting

Offre d'emploi
Data Analyst / QlikSense - Rennes
Nous recherchons pour le compte de notre client grand compte national un(e) consultant développeur décisionnel . Ses Principales missions : Accompagnement des métiers dans l’expression des besoins et dans les recettes Modélisation décisionnelle Conception, réalisation et maintenance de tableaux de bord ou applications décisionnelles sous QlikView et/ou QlikSense Argain Consulting Innovation est une marque forte spécialisée en performance des projets, des organisations et valorisation de la donnée au sein de l'écosystème Alan Allman Associates implantée à Paris, Nantes, Lyon, Niort. Nous mettons un point d'honneur à maintenir le lien avec chacun de nos talents et mettons tout en œuvre pour développer et entretenir un fort sentiment d'appartenance. Nous rejoindre, c’est intégrer une équipe à taille humaine dont l’humain est l’épicentre, un cabinet où autonomie, confiance et partage sont des principes forts.

Offre d'emploi
Data Engineer (Spark, Hadoop, Scala)
Pour l’un de nos clients grands comptes, nous recherchons un Data Engineer confirmé maîtrisant Spark, Hadoop, Scala , pour intégrer une Squad data transverse. L’objectif de la mission est d'assurer un rôle de Data Engineer & développeur API , avec les responsabilités suivantes : Suivi et gestion de la production Réduction de la dette technique Évolution de l’architecture existante et proposition d’améliorations Développements projets et intégration dans les pipelines Possibilité d’évolution vers d’autres Squad Data selon les besoins Activités principales Acheminement, traitement et mise à disposition des données Industrialisation des traitements data Mise en production de modèles statistiques Suivi de projet, développement de jobs Spark Ingestion multi-format (batch & streaming) Développement de scripts et API de restitution Génération de Dashboard ou fichiers à destination des équipes métier Participation à la conception et administration de solutions Big Data Installation, configuration de clusters Hadoop Intégration Spring Boot pour extraction depuis Teradata → Kafka → Data Lake
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- SASU IR Durée premier exercice comptable
- Le marché de l'IT est complètement déréglé ! STOP à cette mascarade ! Il faut s'unir et résister !
- Vous êtes sans missions ? Manifestez vous et echangez vos expériences
- Quel statut chosir
- Prestataire en développement logiciel: EI en BIC ou BNC ?
- TVA Micro entreprise (1)