Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 1 513 résultats.
Freelance

Mission freelance
Cloud, Network and Datacenter Solution Consultant(H/F)

Publiée le
Azure
Big Data

3 mois
240-650 €
Puteaux, Île-de-France
Anglais courant obligatoire Fournir une expertise avancée sur les solutions de datacenters directs, hybrides et cloud, ainsi que sur les infrastructures associées, grâce à un support d’ingénierie solide et une direction technique claire. Le rôle garantit que les plateformes technologiques respectent les exigences réglementaires, assurent la sécurité des données, optimisent l’efficacité opérationnelle et permettent une innovation évolutive et des services fiables pour soutenir l’entreprise et ses clients. C’est une excellente opportunité de travailler sur des besoins locaux tout en faisant partie d’une équipe mondiale, au service de l’ensemble de l’organisation. Nous recherchons une personne disposant de solides compétences techniques, organisée, rigoureuse et motivée par un environnement exigeant. Le rôle Évaluer l’infrastructure informatique existante et recommander des stratégies cloud et datacenter conformes aux réglementations du secteur financier (ex. : FCA, PRA, GDPR). Concevoir, architecturer et mettre en œuvre des solutions alignées sur la stratégie technologique régionale tout en répondant aux besoins métiers. Collaborer avec l’équipe de direction sur les feuilles de route et les initiatives stratégiques. Conseiller sur l’optimisation des coûts, la gestion des risques et la résilience des systèmes financiers critiques. Architecturer des solutions sécurisées et évolutives sur les plateformes cloud publiques (Azure) et au sein des datacenters on-premise. Collaborer avec les équipes transverses pour gérer dépendances, priorités, intégrations et impacts du changement sur les personnes, processus et technologies. Travailler avec les équipes techniques (Architectes, Plateformes, Cyber, Cloud Ops, etc.) pour créer des solutions équilibrant besoins métiers et exigences de cybersécurité, en conformité avec les standards et l’appétence au risque de l’entreprise. Mettre en œuvre des stratégies de cloud hybride pour supporter les charges sensibles et les obligations réglementaires. Diriger les migrations d’applications centrales vers les environnements cloud. Contribuer à la création de documents de processus, guides, procédures, outils et modèles favorisant l’efficacité et l’adoption du cloud. Veiller au respect des cadres de conformité financière (ISO 27001, PCI DSS, SOC 2). Mettre en place des contrôles de sécurité avancés, le chiffrement et la gestion des identités pour les données financières sensibles. Supporter les audits et fournir la documentation nécessaire pour les rapports réglementaires. Surveiller les performances et la disponibilité des systèmes critiques. Optimiser l’infrastructure pour garantir haute disponibilité, reprise après sinistre et continuité d’activité. Collaborer avec les équipes risques, conformité et sécurité pour aligner la technologie sur les standards de gouvernance. Compétences requises Diplôme universitaire, idéalement dans un domaine lié au business, à l’IT ou à la sécurité. Expérience avérée en architecture cloud et solutions datacenter dans le secteur financier. Expertise en Microsoft Azure, Hyper-V et forte connaissance des modèles hybrides. Compréhension des réglementations et cadres de conformité financière. Solides connaissances en réseaux, virtualisation et stockage. Certifications telles que Azure Solutions Architect Expert ou équivalent. Minimum 10 ans d’expérience dans les domaines mentionnés. Leadership avéré. Excellentes capacités d’analyse et souci du détail. Qualités de communication exceptionnelles, à l’écrit comme à l’oral (français et anglais indispensables). Capacité à communiquer clairement auprès de différents types d’audiences. Expérience en conseil technologique. Résilience et adaptabilité. Excellentes compétences d’écoute. Compétences souhaitées Expérience avec les systèmes de transaction financière et les traitements de données volumineux. Très bonne maîtrise de l’écosystème technologique Microsoft Azure. Expérience des méthodologies d’architecture. Connaissances en sécurité applicative Azure et déploiements associés. Familiarité avec le DevOps et l’Infrastructure as Code. Standardisation des bonnes pratiques, processus et procédures de sécurité Azure. Capacité à prioriser plusieurs demandes et à communiquer clairement ces priorités aux équipes et au management. Capacité à gérer les demandes complexes, instaurer des relations de confiance sur le long terme avec les parties prenantes internes et gérer les attentes métier.
Freelance

Mission freelance
Data Engineer (F/H) - 56

Publiée le
Apache Kafka
Java
Shell

1 an
Vannes, Bretagne
Télétravail partiel
- Participer à la définition de l’architecture Data avec les architectes et la Squad - Concevoir, affiner et développer des solutions de collecte et de stockage multi-sources (batch et streaming) pour les usages métiers - Mettre en œuvre des tests unitaires et automatisés - Déployer le produit sur les différents environnements - Assurer le bon fonctionnement en production : suivi, assistance, gestion des incidents - Contribuer à l’amélioration continue et à la qualité du code //////////----------))))))))))
CDI

Offre d'emploi
Data Engineer Senior

Publiée le
Apache Kafka
Apache Spark
Hadoop

Paris, France
Télétravail partiel
En tant qu’Ingénieur Data Senior, vous jouerez un rôle clé dans la conception, le développement et l’optimisation de solutions data innovantes pour le secteur bancaire. Vous serez un membre essentiel de l’équipe Data Engineering et collaborerez avec des experts métiers, data scientists et développeurs pour transformer les plateformes digitales de nos clients. Vos missions principales Concevoir, développer et maintenir des solutions big data robustes et évolutives avec Hadoop, Spark, Kafka… Mettre en œuvre des pipelines de données temps réel et batch pour des cas d’usage complexes Garantir la qualité, la sécurité et la conformité des données à chaque étape du cycle de vie Intégrer des solutions de streaming avec Kafka pour des analyses quasi temps réel Développer et maintenir des microservices en Node.js Encadrer les ingénieurs juniors et promouvoir les bonnes pratiques
Freelance

Mission freelance
Data Engineer Senior Secteur Media

Publiée le
Apache Airflow
Apache Spark
BigQuery

6 mois
520-640 €
Île-de-France, France
Télétravail partiel
Contexte et détails de la mission Définition du besoin La Direction Technique du Numérique mène des projets transverses en étroite collaboration avec les autres directions, notamment la direction Data. La Direction Data, au sein de la Direction du Numérique, a été créée avec la volonté de faire de la Data un levier de croissance des offres numériques. La Direction Data a 3 grandes activités : maximiser la collecte de données tout en respectant les réglementations en vigueur, développer la connaissance et l’expérience utilisateurs et mettre à disposition auprès des équipes internes des outils de pilotage et d’aide à la décision. Au sein de l’équipe Bronze, la prestation se déroulera en collaboration avec les autres équipes de la Data, au coeur de la plateforme Data. Cette équipe est composée d’un product owner, d’un data steward et de deux autres data ingénieurs. Notre stack technique est principalement constitué de Python, Spark, SQL pour les traitements de données, Airflow pour l’orchestration et Cloud Storage et Delta lake pour le stockage. La stack inclut aussi les services BigQuery, Dataproc, PubSub et Cloud Storage de la Google Cloud Platform et Terraform et Terragrunt pour la gestion de l’infrastructure. Prestations attendues : Prestation de cette équipe 1. Collecter et centraliser les différentes sources de données non homogènes 2. Assurer la conformité et la sécurité des données 3. Participer aux initiatives de gouvernance des données Prestation en data engineering En interaction avec les membres de l’équipe, la prestation consiste à : • Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l’équipe • Construire et maintenir de pipelines data robustes et scalables • Accompagner les membres de l’équipe dans l’exploitation et le requêtage des données • Organiser et structurer le stockage des données • Mettre en place et maintenir des infrastructures scalables capable de répondre aux besoins et à l’accroissement rapide du volume de données • Construire et maintenir les workflows de la CI/CD • Partager avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur • Assurer l’évolutivité, la sécurité, la stabilité des environnements • Participer aux différentes instances de data engineering • Contribuer et veiller à la mise à jour de la documentation • Faire de la veille technologique active dans le domaine Modalités de la prestation : Présence sur site requise en fonction des besoins de la prestation et a minima équivalente à 50% du temps de la prestation. Astreintes week-end et jours fériés : Non Matériel performant à fournir par le prestataire : Pour ce faire, les postes informatiques utilisés par le prestataire lors des prestations doivent avoir : - Un antivirus à jour et activé - Un mécanisme de chiffrement du disque activé - Un système d'exploitation à jour de ses correctifs de sécurité - Un mécanisme de verrouillage du poste activé - Un moyen de stockage sécurisé des mots de passe. Usage de la langue française : L'exécution de chaque marché spécifique nécessite l'usage principal et permanent de la langue française dans les rapports avec les parties prenantes (documents, réunions, appels téléphoniques, courriers électroniques…). Les personnes en charge de l‘exécution des prestations doivent maîtriser parfaitement le français (et toute autre langue qui serait précisée après information dans le DCE du marché spécifique concerné) dans le contexte et environnement.
CDI
CDD

Offre d'emploi
Administrateur Systèmes / DevOps – Plateformes Applicatives (H/F)

Publiée le
Administration linux
Ansible
Apache

1 an
Saint-Herblain, Pays de la Loire
Contexte Dans le cadre de l’accompagnement DevOps des projets clients , la mission vise à renforcer l’exploitation et l’évolution des plateformes applicatives dans un environnement orienté industrialisation, automatisation et amélioration continue . Objectif de la mission Participer aux projets d’évolution du SI tout en assurant le maintien en condition opérationnelle (MCO) des plateformes applicatives, CI/CD et forges logicielles, dans une démarche DevOps. Missions principales Évolution du SI & DevOps Participer aux projets d’évolution du SI : migrations, mise en place de nouveaux outils . Organiser les environnements en mode DevOps . Développer des scripts pour l’ intégration logicielle et système . Contribuer à l’ amélioration continue des outils et plateformes. Maintien en condition opérationnelle Assurer le MCO des plateformes applicatives de production . Exploiter et maintenir les plateformes CI/CD . Administrer les forges logicielles (Jenkins, Git). Contribuer aux analyses et résolutions d’incidents . Support & assistance Support aux développeurs sur les outils et plateformes utilisés en développement et en production. Support aux chefs de projet sur les plateformes de production. Gestion et analyse des incidents utilisateurs. Documentation & veille Rédiger la documentation technique et les procédures d’exploitation. Assurer une veille technologique et proposer des axes d’amélioration. Environnement technique Systèmes : CentOS, Debian, Ubuntu Serveurs applicatifs & bases : Apache, Tomcat, PostgreSQL, Java DevOps & Cloud : Jenkins, Ansible, Docker, OpenStack Gestion de code & artefacts : Git, Nexus Compétences techniques Impératives : Linux (CentOS, Debian, Ubuntu) – Confirmé Apache, Tomcat, PostgreSQL, Java – Confirmé Jenkins, Ansible, OpenStack, Docker, Git, Nexus – Confirmé
Freelance

Mission freelance
Client Master Data Lead F/H

Publiée le
API
Data governance
Data management

12 mois
600-650 €
La Défense, Île-de-France
Télétravail partiel
Contexte : Dans le cadre de la transformation Data du Groupe , pilotée par le Group Data Office, un référentiel Client Groupe a été mis en place afin de garantir la cohérence, l’interopérabilité et la fiabilité des données clients à l’échelle de l’ensemble des entités. Dans un contexte de forte croissance via des opérations de fusions-acquisitions , chaque entité dispose aujourd’hui de ses propres systèmes d’information et bases clients. L’enjeu stratégique est désormais de déployer et intégrer ce référentiel Client Groupe sur l’ensemble des entités afin de soutenir les processus transverses et les usages analytiques. Nous recherchons un(e) Client Master Data Lead pour piloter cette démarche de déploiement et d’intégration. Missions En tant que Client Master Data Lead , vous serez en charge de : Définir et piloter la stratégie de déploiement du référentiel Client au sein des différentes entités du Groupe Assurer le rôle de coordinateur central entre le Group Data Office, les équipes IT et les équipes métiers Garantir l’alignement sur les modèles de données clients , les règles de gouvernance et les interfaces techniques Piloter la planification, les priorités et la communication auprès des parties prenantes Mettre en place un reporting structuré (KPI, tableaux de bord, suivi des risques) à destination de la Direction Data Groupe et du Comité Exécutif Responsabilités principales1. Stratégie & Gouvernance Définir la roadmap de déploiement (par entité, par domaine, par lots) Contribuer à la définition du Target Operating Model de la gestion des données clients Identifier les risques, dépendances et enjeux de conduite du changement Mettre en place les indicateurs de suivi et de performance du programme 2. Coordination & Pilotage Être le point de contact unique entre l’équipe référentiel et les équipes locales IT/métiers Coordonner les projets d’intégration (mapping, migration, synchronisation des données) Animer les comités de pilotage et groupes de travail Assurer le suivi des décisions, actions et livrables 3. Conduite du changement Promouvoir l’adoption et la valeur du référentiel Client Accompagner les métiers dans l’adaptation de leurs processus Contribuer aux supports de formation, communication et reporting Localisation 📍 Paris – La Défense (hybride, 2 jours de télétravail par semaine) Rattachement Rattaché(e) au Head of Group Data Office , avec des interactions fortes avec les équipes IT, Data Governance, Data Stewards et Architecture.
Freelance
CDI

Offre d'emploi
Data Engineer / Data Analyst Senior – Environnement Cloud & Big Data

Publiée le
Cloud
Data analysis
Microsoft Power BI

3 ans
75017, Paris, Île-de-France
Nous recherchons un expert data capable de concevoir, structurer et optimiser des solutions data modernes pour accompagner la croissance et les enjeux business d’une organisation en pleine transformation numérique. Votre rôle sera central : transformer la donnée en levier stratégique, garantir sa qualité et développer les pipelines, modèles et analyses qui permettront aux équipes métiers de prendre de meilleures décisions. 🎯 Livrables & responsabilités Concevoir et mettre en œuvre des solutions data complètes pour répondre aux besoins business. Analyser, interpréter et valoriser des données complexes pour produire des insights actionnables. Travailler avec des équipes pluridisciplinaires (IT, produit, métier, sécurité…) afin d’identifier et résoudre les problématiques data. Développer et maintenir des pipelines de données , des modèles analytiques et des outils de reporting. Garantir la qualité, l’intégrité et la sécurité des données sur tout leur cycle de vie. Fournir une expertise technique et des recommandations pour soutenir la prise de décision data-driven. 🧩 Expertise requise 5 ans d’expérience minimum en data engineering, data analytics ou poste similaire. Expérience solide dans la livraison de solutions data dans des environnements dynamiques. Maîtrise des architectures et technologies data modernes : plateformes cloud (AWS, Azure, GCP), frameworks Big Data, data warehousing. Excellentes compétences en Python, SQL, Spark . Maîtrise de la modélisation de données , des processus ETL et des pipelines de transformation. Expertise sur les outils de visualisation et de reporting : Power BI, Tableau . Connaissance des bonnes pratiques de gouvernance, sécurité et conformité des données.
Freelance
CDI

Offre d'emploi
Ingénieur Infrastructure & Big Data

Publiée le
Cassandra
Hadoop
Linux

1 an
40k-55k €
400-550 €
Nancy, Grand Est
Télétravail partiel
I. Contexte : Notre client connaît une forte croissance (+1,5 million de clients en un an) et renforce l’équipe Architecture Système/Réseaux (10 personnes) pour assurer la gestion et l’évolution de son infrastructure critique. L’environnement technique est 100% Linux, avec une architecture complexe : · Réseau : 2400 VM, 5-6 Data Centers, 100 applications Open Source · Datalakes : 2 PetaOctets de données · Organisation : Pas de PO, Scrum Master ni DevOps ; 4 équipes de développement (~30 projets) · Répartition des activités : o 1/3 MCO o 1/3 Obsolescence o 1/3 Build / Industrialisation II. Missions : Objectifs de la mission · Assurer la maintenance en conditions opérationnelles (Run 40%) et contribuer à la conception et industrialisation des infrastructures. · Participer à la mise en place d’un socle commun de provisioning, avec un focus sur Data et Sécurité. · Interagir avec les équipes BI pour les besoins de reporting réglementaire et autres. Enjeux techniques · Axes de conception : o Scalabilité o Résilience (site internet = point de contact unique) o Sécurité (chiffrement avancé, PKI, certificats) · Technologies & outils : o Système : Linux o Réseaux : TCP/IP niveau 2, HTTP, SNTP, DNS, zones, reverse proxy o Sécurité : PKI, certificats, chiffrement asymétrique o Containers & IaC : Kubernetes, Ansible (usage limité), Puppet, Terraform o Big Data : Hadoop, Spark, Cassandra, Zeppeli o Autres outils : Kafka, Cognos, Docker, Elasticsearch o Machine Learning : détection de fraude en temps réel · Cloud : utilisation très marginale (Infra as Code majoritairement on-premise)
Freelance

Mission freelance
Data Engineer (F/H)

Publiée le

1 an
380-420 €
Erstein, Grand Est
Télétravail partiel
Freelance OU Portage salarial (TJM : 380-420) - Erstein - Expérience de 3 ans minimum (hors stages / alternance) Envie d’intervenir sur un projet de migration et d’optimisation des flux de données dans le secteur industriel ? Nous poursuivons notre développement et recherchons actuellement un.e Data Engineer pour intervenir chez un de nos clients dans le secteur industriel. Votre rôle : Vous accompagnerez l’équipe dans la conception, la mise en place et l’optimisation des flux de données et du Datawarehouse. - Développer et maintenir les modèles de données : vous assurez l’alimentation de la base pivot et participez à la migration vers SQL Server 2025, en veillant à la performance et à la fiabilité des données. Vous contribuez également à l’intégration de la recherche vectorielle dans les applications existantes - Mettre en place et optimiser les flux de données : vous concevez et développez des pipelines ETL (SSIS), tout en évaluant la transition vers des solutions Open Source (Polars / Pandas sous Airflow) pour moderniser et automatiser les flux - Accompagner la conception et l’architecture des solutions Data : vous rédigez des cahiers des charges, réalisez des études de faisabilité et conseillez les métiers sur le choix des données pivots, les formats et les modèles adaptés, tout en garantissant la qualité et la cohérence des données - Contribuer à l’exploitation du Datawarehouse : vous intervenez sur la base Oracle et développez des scripts Bash pour automatiser les tâches et faciliter la maintenance des données Situation géographique : Erstein (67) – Facile d’accès en transport en commun
CDI

Offre d'emploi
Data Engineer H/F

Publiée le

45k-55k €
Nantes, Pays de la Loire
Télétravail partiel
Nous recherchons un(e) Data Engineer capable de trouver des solutions innovantes et robustes à l'ensemble des problématiques Data. Vous aurez la charge de : • Participer à la conception et réalisation d'une solution Data depuis l'acquisition jusqu'à l'exploitation de la donnée en accompagnant la réflexion des directions métiers • Identifier, collecter et intégrer les données nécessaires à la résolution de problématiques métier et opérationnelles • Garantir la qualité des données en mettant en place les outils de mesure et de suivi adéquats en appliquant les règles de Data Gouvernance et de Data Management • Transcrire des besoins métier en règles de gestion data • Industrialiser le déploiement de vos réalisations à travers l'implémentation de tests unitaires, d'intégration et de non-régression Référence de l'offre : 729z7ixwq0
Freelance
CDI

Offre d'emploi
Support Applicatif

Publiée le
Big Data
DevOps

1 an
40k-45k €
400-500 €
Île-de-France, France
Télétravail partiel
Descriptif du poste Au sein du support applicative dédié à la ferme de calcul et la génération des rapports de PNL & Risk pour les produits dérivés (EQD), la mission consiste à contribuer en plus d'un travail de support de production applicatif, au suivi et à l'amélioration de l'utilisation des applications via un travail sur des données de monitoring et applicatives dans un environnement Big Data. Ratio run/projet: 50%/50% Responsabilités Assurance du bon fonctionnement des applications Monitoring de la grille de calcul Contribution à la mise en place du DEVOPS
Freelance
CDI

Offre d'emploi
Chef de Projet Data / Data Project Manager

Publiée le
Data governance
Data management

1 an
40k-45k €
400-800 €
Paris, France
Télétravail partiel
Description de la mission La mission est au sein du Data Office d'une organisation majeure. Elle a pour objectif de cadrer le stream Data de la plateforme Marketing pour le plan stratégique d'accélération digitale : Besoins en données, modèle de données. Règles d'exposition, de stockage des données. Adhérence avec les uses cases Métiers et les autres chantiers de l'accélération digitale. Planning de construction du stream Data. Organisation du stream data.
Freelance

Mission freelance
Ingénieur Big Data / Infrastructure en Île-de-France

Publiée le
Big Data
Cloud
Infrastructure

6 mois
Île-de-France, France
Télétravail partiel
Au sein d’une DSI ou d’une équipe Data/Cloud en pleine transformation numérique, l’ingénieur Big Data / Infrastructure intervient pour concevoir, déployer et maintenir des plateformes de traitement de données à grande échelle. Il joue un rôle clé dans la fiabilité, la performance et la sécurité des environnements Big Data utilisés par les data engineers, data scientists et équipes métier. Responsabilités principales 1. Conception et mise en place de l’infrastructure Big Data Concevoir des architectures de données distribuées (Hadoop, Spark, Kafka, HDFS, NoSQL, S3…). Participer au dimensionnement des clusters, à la définition des SLA et des bonnes pratiques d’industrialisation. Déployer et configurer les services Big Data dans un contexte On-premise, Cloud (AWS/GCP/Azure) ou hybride. 2. Administration et exploitation des plateformes Assurer l’administration quotidienne des clusters : gestion des ressources, supervision, montée de version, tuning des performances. Implémenter des mécanismes de haute disponibilité, d’équilibrage de charge et d’optimisation du stockage. Réaliser des diagnostics avancés en cas de dysfonctionnement et mettre en place des correctifs durables. 3. Automatisation, CI/CD et industrialisation Développer et maintenir des pipelines d’automatisation (Terraform, Ansible, Jenkins, GitLab CI…). Standardiser les déploiements via Infrastructure as Code. Contribuer à l'amélioration continue de la plateforme, en proposant des optimisations de performance et des outils de monitoring. 4. Sécurité, conformité et gouvernance Intégrer les contraintes de sécurité : gestion des accès (Kerberos, IAM, Ranger), chiffrement, segmentation réseau. Participer à la mise en œuvre de la gouvernance Data (catalogue, lineage, qualité, traçabilité). Veiller au respect des politiques RGPD et des normes internes. 5. Support aux équipes Data et accompagnement technique Accompagner les data engineers, développeurs et data scientists dans l’utilisation des ressources Big Data. Optimiser les jobs Spark/Kafka/Hadoop pour réduire les coûts et améliorer la latence. Participer à la rédaction de documentation technique, guides d’usage et bonnes pratiques.
Freelance

Mission freelance
Data Steward

Publiée le
BigQuery
Data governance
RGPD

3 ans
Paris, France
Télétravail partiel
Nous recherchons un Data Steward expérimenté , opérationnel et proactif, capable de prendre en main la gouvernance data et d’être le lien privilégié entre les métiers et les équipes Data. Nous pouvons valider votre intégration la semaine prochaine, pour un démarrage en Février ✅ Déployer la gouvernance data : qualité, métadonnées, gestion des accès. ✅ Assurer la qualité des données : définition des règles, contrôles, suivi des anomalies, plans de remédiation. ✅ Gérer les métadonnées : glossaire métier, cohérence, respect des standards et bonnes pratiques. ✅ Garantir les accès & la conformité : sécurité, RGPD, gestion des données sensibles, coordination avec les équipes. ✅ Animer la gouvernance : communication, accompagnement, support aux Data Owners & Data Champions. ✅ Piloter le domaine data : suivi des Data Sets, conformité, documentation, gouvernance quotidienne.
CDI
Freelance

Offre d'emploi
Data Engineer H/F

Publiée le
AWS Cloud
Google Cloud Platform (GCP)

6 mois
Rouen, Normandie
Télétravail partiel
Description du poste : Nous recherchons un Data Engineer pour rejoindre une équipe Data moderne et orientée traitement de données volumétriques. Vous participerez au design, à la mise en place et à l’optimisation des pipelines de données. Missions : Développement de pipelines ETL / ELT Modélisation et structuration de data warehouses / data lakes Optimisation des performances et qualité des données Participation à la mise en place de frameworks DataOps Collaboration étroite avec Data Analysts / Data Scientists
Freelance

Mission freelance
Data Business Analyst Finance de Marché

Publiée le
Analyse financière
Market data
Python

1 an
Paris, France
Télétravail partiel
Nous recherchons un Data Business Analyst en comptabilité financière pour un client final sur Paris. Contexte : Au sein de l’équipe Data Finance de marché : ❇️ Gestion de projets ❇️ Recueil des besoins client (département Finance Comptabilité) ❇️ Identification des implémentations adaptées répondant aux besoins client ❇️ Rédaction de spécifications fonctionnelles ❇️ Suivi des développements avec la MOE ❇️ Recettes des livrables ❇️ Accompagnement des utilisateurs sur les UAT ❇️ Suivi et résolution des problèmes de production
1513 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous