L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 3 810 résultats.
Mission freelance
Data engineer Google cloud platform (GCP)
CAT-AMANIA
Publiée le
Apache Kafka
Apache Spark
BigQuery
6 mois
Île-de-France, France
Pour le compte d'un acteur majeur, nous recherchons un(e) Data Engineer confirmé(e) pour concevoir et déployer des chaînes de traitement de données complexes au sein d'un Datalake moderne. Vous intégrerez une équipe évoluant en mode Agile (Scrum/Kanban) avec une forte culture de l'automatisation. Vos responsabilités : Concevoir et mettre en œuvre les chaînes d’ingestion, de validation et de croisement de données. Assurer le déversement et l'enrichissement des données dans le Datalake. Produire automatiquement des agrégats (journaliers à mensuels) via la puissance du Cloud. Développer et documenter les User Stories en collaboration directe avec le Product Owner. Garantir la qualité via l'automatisation des tests fonctionnels et la correction des anomalies. Participer activement à la chaîne de delivery continue et assister les équipes d'exploitation. Profil recherché : Expertise confirmée sur la plateforme GCP (indispensable) . Maîtrise avancée de l'écosystème Spark / Scala / Kafka . Expérience solide sur les environnements conteneurisés ( GKE, Docker ) et l'Infrastructure as Code ( Terraform, Ansible ). Compétences pointues en stockage et requêtage ( BigQuery, SQL, HDFS ). Capacité à orchestrer des workflows complexes avec Airflow / Composer . Esprit collaboratif, curieux des évolutions technologiques et doté d'un excellent relationnel.
Offre d'emploi
Business Analyst Banque
OBJECTWARE
Publiée le
Business Analyst
40k-65k €
Île-de-France, France
Analyse des besoins Recueillir et analyser les besoins métiers Animer des ateliers avec les équipes métiers Formaliser les expressions de besoins et spécifications fonctionnelles Rédiger les User Stories et les critères d’acceptation Conception fonctionnelle Traduire les besoins métiers en spécifications fonctionnelles Participer à la définition des solutions fonctionnelles Réaliser des modélisations de processus et mapping de données Contribuer aux choix de solutions avec les équipes techniques Suivi de projet Assurer l’interface entre métiers, MOA et équipes IT Participer aux cérémonies Agile (sprint planning, backlog, démos) Suivre l’avancement des développements Tests et recette Définir la stratégie de tests Rédiger les cas de tests Participer aux recettes fonctionnelles (UAT) Accompagner la mise en production
Mission freelance
Devops Administrateur / SRE Kubernetes GCP Sénior 530 e /j
BI SOLUTIONS
Publiée le
Google Cloud Platform (GCP)
Kubernetes
2 ans
400-530 €
Île-de-France, France
Devops Administrateur / SRE Kubernetes GCP Sénior 530 e /j ● Maîtriser les technologies cloud GCP (Google Cloud Platform) incluant les services tels que Kubernetes, Cloud Functions, Pub/Sub, PostgreSQL, ArgoCD, KeyCloak, HashiCorp Vault, ● SonarQube CE & EE ● Développer et maintenir des pipelines de données robustes et performants ● Posséder une expertise en développement avec les langages GO ou Python ● Être familier avec les concepts de CI/CD (Intégration Continue et Livraison Continue) et les outils associés comme GitLab CICD ● Avoir une connaissance des bases de données relationnelles, notamment PostgreSQL ● Être capable de gérer et d'optimiser l'infrastructure Cloud GCP ● Maîtriser Helm File pour la gestion et la configuration des déploiements Helm dans Kubernetes. ● Avoir une bonne compréhension des concepts de sécurité et de conformité dans un environnement cloud ● Posséder des compétences en scripting et en automatisation pour la gestion des tâches ● Avoir une excellente communication écrite et orale : Aptitude à produire des livrables et des reportings de haute qualité. 530 e par jour
Mission freelance
Data Scientist Python, Tensorflow Nantes/st
WorldWide People
Publiée le
Python
12 mois
350-370 €
Nantes, Pays de la Loire
Data Scientist Python, Tensorflow Nantes Compétences techniques •Maîtrise des langages comme Python •Connaissance des bibliothèques et frameworks de machine learning (ex : TensorFlow, PyTorch, Scikit-learn, …). •Compétences en gestion des bases de données (SQL et NoSQL) et en manipulation de grandes volumétries de données. •Expertise en algèbre linéaire, en probabilités, et en méthodes statistiques. Prestation de Data Scientist Objectif : •Transformer des données brutes en informations exploitables grâce à des modèles statistiques avancés, des algorithmes de machine learning et des analyses prédictives. •Exploiter, analyser et évaluer la richesse de données, structurées ou non, pour établir des scénarios permettant de comprendre et anticiper de futurs leviers métiers ou opérationnels pour l’entreprise. •Identifier des tendances ou des corrélations cachées dans les données. •Créer des modèles prédictifs ou des solutions automatisées basées sur des algorithmes. •Aider à prendre des décisions stratégiques basées sur les données. Tâches : •Valorise les gisements de données. •Travaille sur des périmètres métiers ciblés (cas d’usage) pour explorer et exploiter des flux de données issus de la data platform ou d’autres sources (dans ce cas il évalue la qualité et la richesse des données, les analyse et en restitue les résultats pour ensuite les intégrer dans le système d’information cible du métier). •Obtient des données adéquates, trouve les sources de données pertinentes, fait des recommandations sur les données à consolider, modifier, rapatrier, externaliser, internaliser. •Intervient de façon plus intégrée en industrialisant ses réalisations dans la chaine technologique de la data platform et/ou les intègre dans le système d’information du métier. •Conçoit des modèles statistiques et/ou d’apprentissage automatisé. •Compare et évalue différents modèles ou méthodes de calcul et anticipe les avantages et inconvénients dans un environnement métier. •Assure la veille en recherche & innovation pour introduire de nouvelles approches d’analyse et de modélisation des données. Compétences techniques •Maîtrise des langages comme Python •Connaissance des bibliothèques et frameworks de machine learning (ex : TensorFlow, PyTorch, Scikit-learn, …). •Compétences en gestion des bases de données (SQL et NoSQL) et en manipulation de grandes volumétries de données. •Expertise en algèbre linéaire, en probabilités, et en méthodes statistiques.
Offre d'emploi
Business Analyst Assurance Vie (F/H)
CELAD
Publiée le
Business Analyst
12 mois
45k-55k €
500-540 €
Paris, France
Envie d’un nouveau challenge… CELAD vous attend ! 🚀 Nous poursuivons notre développement et recherchons actuellement un.e Business Analyst Assurance Vie pour intervenir chez un de nos clients dans le secteur bancaire . 💻💼 Voici un aperçu détaillé de vos missions 🎯 : Analyse et expression des besoins Recueillir, analyser et formaliser les besoins métiers (User Stories, spécifications fonctionnelles) Proposer des axes d’amélioration et des évolutions pour une application de selfcare en assurance vie Contribuer à la priorisation des évolutions Conception et documentation Rédiger et maintenir la documentation fonctionnelle Garantir la cohérence et la qualité des livrables Support aux équipes de développement Clarifier les exigences fonctionnelles et lever les ambiguïtés Participer activement aux rituels Agile (Scrum) Analyse d’incidents et support technique Analyser les logs applicatifs et systèmes pour identifier les causes d’incidents Utiliser des outils d’analyse pour diagnostiquer les anomalies Documenter les incidents et proposer des premières pistes de résolution Aide à la recette Accompagner les équipes de test dans la validation des évolutions Analyser les anomalies et suivre leur correction Participer à la validation des correctifs Communication et coordination Assurer le lien entre les équipes métiers, techniques et projet Échanger quotidiennement en anglais (oral et écrit) avec une équipe de développement basée à l’international
Offre d'emploi
Data Engineer Python / Scala / Cloud
Gentis Recruitment SAS
Publiée le
Apache Kafka
Apache Spark
API REST
12 mois
Paris, France
Contexte Dans le cadre du développement d’une Data Marketplace interne pour un grand groupe international du secteur de l’énergie, nous recherchons un Data Engineer expérimenté afin de renforcer une équipe produit data. La plateforme permet de centraliser l’ensemble du parcours data des utilisateurs : découverte de données, data quality, data governance, transformation de données, monitoring de pipelines et BI. Elle sera progressivement déployée auprès de plusieurs milliers d’utilisateurs dans un environnement international. Le consultant interviendra sur la conception et l’évolution des pipelines de données ainsi que sur l’optimisation de la qualité et de la performance des flux. Missions Développement et maintenance de pipelines de données en Python et Scala Conception et évolution d’une architecture data scalable et modulaire Gestion et optimisation des flux de données Mise en place de processus de data quality et validation des données Optimisation des performances des ingestions de données Participation aux rituels agiles et aux revues de code Documentation des choix techniques et de l’architecture Environnement technique Python Scala / Spark Cloud : AWS et Azure AWS : Lambda, Glue, Redshift, Step Functions, DynamoDB Streaming : Kafka, Kinesis, EventHub, EventGrid API REST Git CI/CD Big Data Architecture Connaissance de Langchain ou Langgraph appréciée.
Offre d'emploi
Dev .net / angular / azure / aws
VISIAN
Publiée le
.NET
Angular
3 ans
40k-45k €
400-590 €
Île-de-France, France
Dans un premier temps, le consultant devra acquérir les connaissances nécessaires auprès de l'équipe afin de se familiariser avec notre parc applicatif et notamment être en mesure de prendre en charge des sujets courants, principalement autour de la Supervision du Trading. Par la suite, le consultant évoluera afin de prendre en charge d'autres sujets. · Digital Onboarding : conformité et intégration des utilisateurs · Org Manager : gestion de la structure organisationnelle · Trading Supervision Platform : gestion des mandats et contrôles associés · Déclaration de l'Expected PnL · Processus Cancel & Modify des deals · Reporting (Power BI) variés selon les Data set (AWS) · Gestion des produits autorisés via Cartool (nouveau projet Q2 2026) Quelques éléments importants qui guideront notre choix : *-Nous exposons de nombreuses données à destination de nos clients sur AWS au travers de Power BI. L'appétence du candidat pour nous accompagner sur ce type de sujet, même sans compétence initiale particulière, sera un plus. *-Les développements sont réalisés avec l'assistance de Github Copilot. Cela nécessite donc d'adopter un nouveau type de fonctionnement hybride qui requiert de la curiosité, un sens critique ainsi qu'un recul important afin de conserver une vue d'ensemble du développement. *- chaque développeur doit être en mesure de participer à la collecte du besoin avec le business Analyst mais également supporter ses applications auprès de la population front office *-Une attention particulière sera portée à l'application des bonnes pratiques d'architecture.
Offre d'emploi
DBA Oracle (H/F)
STORM GROUP
Publiée le
Microsoft SQL Server
MySQL
3 ans
45k-58k €
500 €
Lyon, Auvergne-Rhône-Alpes
Nous recherchons un administrateur base de données, qui intégrera une équipe de 4 internes et 4 externes pour gérer les missions suivantes : Gérer et administrer les infrastructures matérielles et/ou logicielles de l'entreprise, en assure la cohérence, la qualité et la sécurité Participer à la définition et à la mise en œuvre de ces infrastructures retenues par les projets : Prend en charge le maintien en conditions opérationnelles des infrastructures matérielles et logicielles relatives à son périmètre Traiter les incidents et problèmes pouvant survenir sur les plates-formes Fiabiliser et optimiser le fonctionnement des infrastructures en anticipant les évolutions de capacité et de performance Contribuer à la mise en œuvre des solutions de continuité et participer aux tests de résilience Documenter les configurations et rédiger les consignes destinées aux supports niveaux 1 et Réaliser les déploiements des infrastructures dans le cadre des projets techniques et métier Travailler en relation étroite et permanente avec les équipes Etudes et Infrastructures et Sécurité Contribuer aux projets d'évolution des infrastructures sous responsabilité des équipes d'Infrastructures Effectuer un support technique pour l'ensemble des infrastructures de son périmètre Créer, à la demande des domaines ou de l'exploitation, les outils spécifiques d'aide à l'exploitation Mettre en œuvre les outils de surveillance Effectuer un support technique de second niveau pour l'ensemble de son domaine L'esprit d'équipe est impératif ainsi que le sens de la communication. La multi techno est fortement appréciée. Le rythme des astreintes est d'une semaine toutes les 6 à 7 semaines. La plupart des interventions sont réalisées en heures non ouvrées. Du télétravail est envisageable.
Offre d'emploi
Business Analyst - Niveau 2 (Confirmé)
Codezys
Publiée le
Confluence
Gestion des risques
JIRA
38 160-43 500 €
Lyon, Auvergne-Rhône-Alpes
Contexte de la mission L'Hypervision est l'entité responsable de la supervision et de la gestion des incidents concernant plusieurs chaînes communicantes, dans le but d'assurer la performance optimale en production. Le profil sélectionné rejoindra l’équipe de Pilotage de la Production, intégrée à l’Hypervision de la chaîne communicante « Marché de Masse ». Sa mission inclura le suivi des performances en production, la télédistribution des logiciels sur le parc de compteurs Linky et les concentrateurs, ainsi que la conception de tableaux de bord pour l’Hypervision et les opérations de supervision. Le candidat idéal est un data analyste doté d’une forte appétence pour la data, d’une sensibilité métier, d’un excellent relationnel, ainsi que d'une capacité à animer et à présenter. Une expérience préalable dans le traitement et l’analyse de données est indispensable. Le projet requiert une expérience comprise entre 2 et 4 années. Objectifs et livrables Activité principale Le profil retenu sera chargé de : Suivre et analyser un ou plusieurs indicateurs de performance à l’échelle nationale et en région (DR). Expliquer les variations et mettre en œuvre des actions correctives. Concevoir des tableaux de bord de pilotage ou opérationnels pour le suivi de la performance. Consolider les données et produire des rapports analytiques sur les variations de performance. Maîtriser le fonctionnement de la chaîne communicante « Marché de Masse ». Assurer le suivi de tous les événements liés à la production. Préparer, animer et représenter la production du Marché de Masse lors des différents comités. Analyser, préparer et animer des réunions autour des indicateurs de performance, en coordination avec les parties prenantes. Investiguer de manière autonome d’éventuelles anomalies ou signaux faibles dans les données, en proposant des pistes d’analyse non envisagées initialement. Remettre en question les processus existants et proposer des axes d’optimisation basés sur les analyses effectuées. Identifier et activer des leviers d’amélioration en collaboration avec les équipes métiers et techniques. Être référent sur l’indicateur en proposant une évolution de la méthode de calcul, du périmètre ou de sa pertinence. Participer à l’amélioration continue des pratiques d’analyse et de pilotage de la performance au sein de l’équipe. Activité secondaire Assurer le suivi de la performance dans le cadre de pilotes et d’expérimentations. Suivre la performance sur des périmètres spécifiques, en fonction des actualités de la production. Capitaliser et partager les connaissances via la rédaction de documents. Rédiger et diffuser un reporting quotidien transversal à l’ensemble des chaînes.
Mission freelance
Développeur RPG senior
Ipanema Technology
Publiée le
Java
RPG (Report Program Generator)
SQL
1 an
120-600 €
Chartres, Centre-Val de Loire
Besoin Nous sommes à la recherche d'un développeur free RPG senior Nous avons besoin d'un développeur senior : Plus de 7 ans d'XP sur du développement Free RPG La connaissance de l'Assurance de Personne et notamment de la Santé est un plus appréciable Contexte Les développements sont réalisés en Free RPG et en SQL Feature Team TP&Flux Santé composée d'un PO, 1 PPO, 2 BA, 1 tech leader RPG, 6 développeurs RPG et 3 développeurs JAVA Méthodologie Projet = Scrum Conception et Développement : Rédaction des spécifications techniques et développement de nouveaux flux de gestion Santé (Tiers-Payant, télétransmission Noémie/B2). Optimisation : Analyse de la performance des requêtes SQL et modernisation du code legacy. Qualité & Mentorat : Participation aux revues de code et accompagnement technique des développeurs moins expérimentés de la Feature Team. Agilité : Participation active aux rituels Scrum (Daily, Sprint Planning, Retro).
Mission freelance
Data analyst Tableau Software - Secteur automobile
Mon Consultant Indépendant
Publiée le
Data analysis
12 mois
600-640 €
Paris, France
Pour l'un de nos clients leader de la vente de pièces détachées dans le secteur automobile, vous intervenez en tant que DATA Analyst sur l'outil Tableau software. Vous intégrerez une équipe dynamique pour participer à l'analyse des données issues de nos plateformes. Vous contribuerez aux prises de décision stratégiques et à l'amélioration continue de nos canaux de vente et de nos experts marketing. Compétences clés : Vous maitrisez l'outil Tableau Software et d'autres solutions de BI. Vous êtes à l'aise dans la conception de Tableaux de bord et la formation des équipes utilisatrices Missions Principales : Collecter, analyser et interpréter les données des plateformes Participer à la création de rapports détaillés et de tableaux de bord pour identifier les tendances et mesurer les performances. Collaborer avec la responsable Marketing et offre pour explorer des opportunités d'optimisation. Contribuer à la présentation d'insights et de recommandations basées sur les données aux parties prenantes. Participer à une veille concurrentielle pour saisir les tendances du marché et les innovations. Contribuer à des tests & expérimentations Participer à la mise en place de processus d’automatisation, en collaboration avec les équipes commerciales et techniques.
Mission freelance
Contrôleur de Gestion IT Banque
FINAX Consulting
Publiée le
Finance
6 mois
450-940 €
Paris, France
Nous recherchons un consultant senior en contrôle de gestion IT pour le compte d’un de nos clients dans le secteur bancaire dans le cadre d’un projet d’amélioration du pilotage des coûts IT. Contexte La mission s’inscrit dans une démarche d’optimisation des processus financiers liés aux dépenses IT, avec un objectif de meilleure allocation des coûts et de fiabilisation du suivi budgétaire. Rôles et responsabilités Améliorer les outils de reporting financier Participer à la répartition des coûts IT entre entités Suivre et analyser le budget IT Contribuer à l’optimisation des dépenses Mettre en place des dashboards de pilotage (type Power BI) Compétences requises 7 à 10 ans d’expérience en contrôle de gestion, idéalement en banque Bonne compréhension des enjeux financiers IT Maîtrise des reportings et outils de data visualisation Capacité d’analyse et rigueur Détails Durée : 6 mois
Offre d'emploi
AI / Data Engineer – IA Générative & Databricks (Python / ML / AWS) – H/F
SMARTPOINT
Publiée le
IA Générative
Large Language Model (LLM)
Pandas
1 an
50k-60k €
400-550 €
Île-de-France, France
Dans le cadre du développement de projets data innovants, nous recherchons un AI / Data Engineer spécialisé en Intelligence Artificielle Générative (H/F) . Vous interviendrez sur la conception et la mise en œuvre de solutions data avancées , avec un focus sur la plateforme Databricks et sur des cas d’usage en IA Générative (LLM, RAG, fine-tuning) . Votre rôle consistera à accompagner les équipes dans le cadrage, le développement et la mise en production de modèles d’intelligence artificielle , tout en contribuant à l’industrialisation des solutions et à l’évolution des plateformes data. Conseil et cadrage des cas d’usage IA Accompagner les équipes dans l’identification et le cadrage de cas d’usage data et IA Générative Conseiller sur les choix d’architecture, de modèles et de stratégies RAG ou fine-tuning Participer à la définition de solutions innovantes sur la plateforme Databricks Conception et développement de modèles IA Développer des modèles de Machine Learning et Deep Learning Concevoir des solutions basées sur LLM et architectures Transformers Implémenter des cas d’usage d’ IA Générative (RAG, fine-tuning, prompt engineering) Collecte et préparation des données Collecter, nettoyer et transformer les données nécessaires à l’entraînement des modèles Réaliser des analyses exploratoires et préparer les datasets pour l’entraînement Industrialisation et MLOps Mettre en production les modèles d’intelligence artificielle Mettre en place des processus de monitoring et de maintenance des modèles Contribuer à l’industrialisation des pipelines data et des modèles IA
Offre premium
Offre d'emploi
Expert Citrix / NetScaler / WEM H/F
ADONYS
Publiée le
Citrix
Powershell
3 ans
45k-60k €
500-600 €
Paris, France
Dans le cadre d'une régie longue durée pour un acteur bancaire, nous sommes à la recherche d'un Expert Citrix / NetScaler / WEM H/F Contexte Renfort d’une équipe Citrix sur le projet de convergence des fermes VDA/publication et postes de travail virtuel. Objectif de la mission Assister les experts en place et alléger la charge d’exploitation sur NetScaler et WEM. Contribuer au projet de convergence (≈80% build / 20% run) et traiter les incidents N2/N3. Responsabilités principales Participer à la construction et à la mise en œuvre des fermes Citrix dans le cadre du projet de convergence. Administrer et optimiser les solutions NetScaler et WEM sur les versions récentes. Traiter et escalader les incidents de niveau 2 et 3. Rédaction et mise à jour de scripts (PowerShell / Python) et d’API si nécessaire. Travailler en coordination avec les coordinateurs techniques et les équipes sur Paris/Toulouse. Respecter les règles de sécurité et les processus internes du groupe bancaire.
Offre d'emploi
business analyst confirmé F/H - Marketing (H/F)
█ █ █ █ █ █ █
Publiée le
Nouméa, Nouvelle-Calédonie
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Mission freelance
Expert VDI AVD (Azure Virtual Desktop)
Pickmeup
Publiée le
Virtual Desktop Infrastructure (VDI)
6 mois
650-750 €
Paris, France
Dans le cadre d’un programme stratégique de transformation des environnements de virtualisation, notre client engage une migration de son infrastructure VDI historique basée sur Citrix vers une solution Azure Virtual Desktop (AVD) . Nous recherchons un Expert VDI afin de piloter et sécuriser cette transition, tout en garantissant la performance, la stabilité et l’expérience utilisateur. Rattaché aux équipes infrastructures et en interaction avec les équipes cloud, sécurité et production, vous interviendrez sur les missions suivantes : Analyser l’existant Citrix (architecture, usages, dépendances techniques) Définir l’architecture cible AVD en cohérence avec les standards cloud Azure Concevoir et mettre en œuvre la migration (move out Citrix) Industrialiser les déploiements via des outils d’automatisation (Terraform, ARM, etc.) Optimiser les performances des environnements VDI (latence, consommation, UX) Gérer les problématiques de sécurité, d’accès et d’identité (Azure AD, MFA, Conditional Access) Assurer la migration des profils utilisateurs (FSLogix, profils roaming, etc.) Accompagner les équipes internes (transfert de Compétences, documentation, bonnes pratiques) Participer aux phases de tests, recette et mise en production Assurer un support de niveau expert sur les incidents complexes
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
3810 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois