L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 260 résultats.
Mission freelance
Développeur Scripting (Python / Shell) – Automatisation & Data – Secteur Bancaire (H/F)
CELAD
Publiée le
API
CI/CD
Python
12 mois
400-460 €
Paris, France
Envie d’un nouveau challenge… CELAD vous attend ! 🚀 Nous poursuivons notre développement et recherchons actuellement un(e) Développeur orienté scripting, automatisation & data pour intervenir chez l’un de nos clients du secteur bancaire . Dans un contexte de transformation, de rationalisation du SI et de pilotage de la performance IT, vous rejoignez une équipe transverse et intervenez sur des sujets à forte valeur ajoutée : automatisation, exploitation de données, conformité, industrialisation et pilotage applicatif. 🎯 Vos missions 🔹 Automatisation & exploitation de la donnée Conception et développement de scripts d’automatisation Collecte, nettoyage, consolidation et historisation de données issues de multiples outils Analyse du planifié vs réalisé et identification des écarts Mise en place de snapshots périodiques et production d’indicateurs de pilotage 🔹 APIs, logs & industrialisation Conception et développement d’APIs (exposition / consommation) Mise en place d’une base de logs centralisée Automatisation des flux de remontée d’information Industrialisation et fiabilisation des traitements 🔹 Conformité & qualité du SI Extraction et exploitation de données issues d’outils d’industrialisation et CI/CD Analyse des normes, détection d’anomalies et d’écarts Construction d’indicateurs de conformité et maturité 🔹 Référentiels & pilotage projet Contribution à la structuration du référentiel projets Études autour des APIs d’outils de gestion de projets Analyse des points de blocage techniques et organisationnels
Offre d'emploi
DATA ANALYSTE DATASCIENCE SENIOR
KEONI CONSULTING
Publiée le
Data analysis
Python
SQL
18 mois
40k-45k €
400-550 €
Gradignan, Nouvelle-Aquitaine
CONTEXTE Nous recherchons pour notre client un profil analyste DATA afin d'intégrer l'équipe Analyse de la Donnée. Le profil aura pour mission de répondre à des cas d'usage métiers, par l'utilisation de la DATA de la phase exploratoire à l'exposition via de la DATAVIZ . Fort d'une expérience DATA, le prestataire devra également montrer une appétance particulière dans le domaine fonctionnel MISSIONS - Mise en oeuvre de cas d'usage métiers par croisement de la donnée ( ciblage , analyse de donnée ou datascience ) - Développement et maintenance de produits DATA réutilisables - Publication des résultats d'analyse avec de la DATAVIZ - Respect des normes et bonnes pratiques au sein de l'équipe - Accompagnement et acculturation des équipes métiers ou autres" Définition des prestations attendues : Prestation d'analyse DATA et DATASCIENCE Préciser la technologie ou les certifications attendues : Python, Pyspark,SQL,Dataviz, Datascience " Livrables attendus "Programme DATA sous plateforme DATA Dataviz Présentation PPT de resultats d'etude Environnement technique - technologique "Plateforme : BIG DATA Hadoop (CLOUDERA) Langages : Python, PySPARK, SQL Restitution : PowerBI (dataset, dataflow, rapports) Compétences techniques attendues Connaissances en environnement BIG DATA ( python , Pyspark) Requêtage SQL Exposition des données par DATAVIZ Experience en analyse DATA et projet de DATAscience
Offre d'emploi
Business Analyst IT Data AML/KYC Automation Luxembourg
Cogniwave dynamics
Publiée le
AML (Anti-Money Laundering)
Big Data
Know your customer (KYC)
1 an
Luxembourg
Pour une mission long terme sur Luxembourg , nous recherchons un BA IT Data compliance Automation Poste en CDI au Luxembourg de préférence : Salaire + Bonus à discuter Ouvert aux freelances (3/4 jours sur site par semaine) -Possible part time sur Paris à discuter Au sein de l’équipe IT Data Compliance Automation, vous intervenez sur un projet stratégique d’automatisation de la révision des dossiers de conformité AML/KYC Vous êtes au cœur de la transformation digitale de la fonction Compliance, en combinant technologies de pointe ( RPA, Intelligence Artificielle, OCR ) et expertise métier pour accélérer et fiabiliser les processus de révision client. MISSION Pilotage projet (Business Analyst) • Étude de l’existant : Analyser les processus existants via des ateliers métiers et de la documentation • Définition de la cible : Concevoir les processus et outils cibles, identifier les écarts fonctionnels • Cadrage fonctionnel : Rédiger les dossiers d’exigences et les expressions de besoins • Support IT : Accompagner les équipes de développement durant les phases techniques • Tests & recette : Concevoir et exécuter les plans de tests, coordonner la recette métier • Conduite du changement : Créer les supports de formation, animer les sessions, accompagner les utilisateurs Support applicatif (Run) • Support N2/N3 : Traiter les incidents et demandes des équipes opérationnelles • Investigation : Reproduire les anomalies, investiguer en base de données, diagnostiquer • Maintenance : Assurer le suivi des maintenances correctives et évolutives • Releases : Coordonner et communiquer les releases applicatifs • Amélioration continue : Proposer et mettre en œuvre des actions d’optimisation
Offre d'emploi
Développeur Big Data sur Lyon
EterniTech
Publiée le
Cloudera
Hadoop
SQL
3 ans
Lyon, Auvergne-Rhône-Alpes
Je recherche pour un de mes client un Développeur Big Data sur Lyon CONTEXTE DE LA MISSION Le client, dans le cadre de son activité Big Data, recherche un profil en développement Data, Python, SQL, Shell, Spark (+ de 5 ans d'expérience) pour l’accompagner dans les actions sur la plateforme Cloudera Hadoop. L'objectif de la prestation est de réaliser et maintenir les développements nécessaires à l'alimentation de la plateforme Hadoop, à la mise en place d'extractions et à l'accompagnement des utilisateurs. DESCRIPTION DE LA MISSION Rattaché au responsable Big Data, le profil aura pour principales missions : - de prendre en charge les évolutions des données à intégrer, reprendre les développements effectués pour l'alimentation du Datalake , de les faire évoluer en fonction des besoins (Stack technique : Hadoop Cloudera, Hive, Impala, Python, Shell, Linux, SQL, VBA, Jupyter) - d'avoir une expertise technique permettant de spécifier techniquement les tâches, fournir les requêtes de référence, effectuer une revue de code, accompagner les potentiels alternants ou stagiaires (une alternante à date) - de mettre en place des extractions à partir de ces données, - d’assurer le support niveau 2, - de faire appliquer les consignes aux utilisateurs, - de garantir la tenue des délais de livraison dans un contexte de production à fortes attentes - de contribuer à garantir la maintenabilité de la plateforme ainsi que ses performances et son exploitabilité Il veillera au respect de l’utilisation des modèles référencés ou à leur évolution en collaboration avec la Direction Technique Informatique et la Gouvernance de la Donnée. Le profil devra posséder des aptitudes et qualités avérées sur sa capacité à communiquer avec diplomatie, à écouter, à s'intégrer et à partager son savoir faire, à documenter ses actions et à accompagner. LIVRABLES ATTENDUS ET ENVIRONNEMENT TECHNIQUE Les principales missions confiées seront les suivantes : - Développement des traitements d'alimentation, forte capacité à structurer l'activité (JIRA), mise en place et description de processus (guides, accompagnement utilisateurs, …), pilotage opérationnel de certains sujets - Développement d'extractions avec SQL (expert) et scripting Shell avancé pour l'automatisation - Capacité à investiguer et faire du reverse engineering dans une architecture héritée complexe - Optimisation des traitements de la plateforme et ceux des utilisateurs - Capacité à expliquer simplement le sujet, à communiquer vers des interlocuteurs type développeur, bureau d'étude, qualifieur et "clients" (Groupes de protection sociale). La connaissance de Power BI et SAS sont des plus. Exemples de livrables attendus : - Code source documenté - Plan de tests / fiches de test - Bilan - Bordereau de livraison - Manuel d’installation - Dossier d’exploitation - JIRA documentée Environnement technique : - Hadoopa Cloudera - Hive - Impala - Python - Shell - Spark - Linux - SQL - VBA - Git - Jupyter Des connaissances de l’écosystème de la protection sociale sont les bienvenues (retraite complémentaire idéalement).
Mission freelance
Consultant – Data Monetization & Snowflake Pricing Strategy
Mon Consultant Indépendant
Publiée le
Data analysis
IA
1 mois
1 050-1 090 €
Courbevoie, Île-de-France
Consultant – Data Monetization & Snowflake Pricing Strategy Mission freelance Contexte : Un éditeur logiciel développe une offre de data sharing permettant à ses clients d’accéder à des données en temps réel via une plateforme data basée sur Snowflake. Dans ce contexte, l’entreprise souhaite structurer le modèle économique de cette offre, en définissant un modèle de pricing cohérent entre : · Les coûts d’infrastructure Snowflake · L’usage réel des données · La valeur business apportée aux clients La mission vise à définir une stratégie de monétisation durable pour l’accès et l’exploitation de ces données. Objectifs de la mission : Le consultant interviendra pour : · Analyser les coûts techniques liés à l’usage de Snowflake · Comprendre les patterns d’usage des données par les clients · Définir un modèle de pricing pour l’accès et l’exploitation des datasets · Identifier les scénarios de monétisation possibles (data sharing, analytics, IA, etc.) L’objectif est de concevoir un modèle économique équilibré entre coût d’infrastructure, valeur client et potentiel de croissance commerciale. Travaux attendus : Le consultant devra notamment : · Analyser le modèle de pricing Snowflake (compute, storage, data sharing) · Modéliser différents scénarios de consommation de data · Définir plusieurs modèles de pricing possibles · Évaluer l’impact économique selon différents niveaux d’usage · Recommander une stratégie de monétisation de la data Exemples de modèles étudiés : · Pricing basé sur l’usage · Packages de données · Accès premium à certaines données · Pricing lié aux capacités analytiques ou IA Profil recherché : Nous recherchons un consultant ayant déjà travaillé sur des problématiques de monétisation de la data dans des environnements SaaS ou data platform. Expériences pertinentes : · Définition de modèles de data monetization · Stratégie de data sharing · Pricing de produits data ou analytics · Plateformes Snowflake / Databricks / data cloud Compétences attendues : · Compréhension des architectures data platform · Connaissance du modèle économique Snowflake · Expérience en usage-based pricing · Capacité à modéliser des scénarios économiques · Capacité à traduire les coûts techniques en modèles commerciaux Profil type : Le consultant peut venir de : · Conseil en stratégie data · Éditeur SaaS utilisant Snowflake · Plateforme data / analytics · Equipes data product ou data monetization
Offre d'emploi
Ingénierie d’Etudes et ou Conception DB2 COBOL
KEONI CONSULTING
Publiée le
COBOL
IBM Db2
IBM i
18 mois
20k-60k €
120-400 €
Paris, France
Contexte : • Applicatif d'aiguillage et de prolongement des flux en provenance ou à destination, d’une part des applications Back-Office traitant les opérations bancaires. MISSIONS • Analyser, réaliser, préparer et effectuer les tests unitaires et d’assemblage, documenter, suivre les autres phases de qualification, livrer, tout ceci dans le respect des besoins exprimés par le Métier, des budgets et délais alloués, des critères de qualité et de performance exigés et des normes en vigueur, • Contribuer à la proposition de solutions, à la pérennisation des connaissances techniques et fonctionnelles, à la haute qualité de service, • Participer à la maintenance corrective, au suivi de production, à l’assistance et au support des utilisateurs et exploitants, au dépannage à chaud, • Assurer le reporting auprès du responsable d’équipe ALISE. RÉSULTATS ATTENDUS • L’analyse des besoins • Les études de solutions, • La rédaction de spécifications et les échanges sur les spécifications avec l’éditeur • L’intégration, la configuration et le paramétrage du progiciel, • Les adaptations et développements nécessaires à l’intégration dans le SI, • Les campagnes de non-régression du progiciel via l’automate de tests, • Le suivi de la qualification, • Le démarrage en production, • Le suivi de production.
Mission freelance
Data Engineer python/ Big Data/ AWS/ Redshift/ Linux / Energie (H/F)
Octopus Group
Publiée le
Amazon Redshift
API
AWS Cloud
6 mois
500-550 €
La Défense, Île-de-France
Nous recherchons pour le compte de notre client dans l'énergie, un data Engineer Objectifs : Participer au développement des assets de la nouvelle plateforme de données. Participer au cadrage et au lancement des projets d'ingénierie et d’intelligence artificielle. Prise en main des sujets pilotes et d’assurer le Run La conception, la modélisation et l’optimisation des requêtes Redshift est un point clé dans cette mission Missions : Vous participer à la construction de la data plateform dans sa deuxième phase permettant de consolider le socle et mettre à disposition les moyens technique pour exploiter la donnée Vous participez à l’étude opérationnelle de cadrage et d’architecture en anticipant les différentes contraintes avec les référents de l’équipe. Vous serez amené à réaliser des POC et de spiker le backlog. Vous complétez l’équipe avec vos compétences en ingénierie de données et en développement (scripting python, d’expertise sur les API, les tests, les bonnes pratiques, etc.) Vous consacrer votre temps à travailler avec un squad Data Métier, de proposer des solutions technique pour les clients associé, d’assurer le Run et de développer la plateforme associée, et, ce, toute en respectant les consignes d’architecture Participer à la mise en place des projets d’AI engineering - Savoir maîtriser les coûts des services est un Must pour ce poste et être force de proposition
Mission freelance
100352/Coach Agile / Scrum (50%)/Data Analyst (50%) Nantes
WorldWide People
Publiée le
Agile Scrum
Data visualisation
Python
10 mois
400 €
Nantes, Pays de la Loire
Coach Agile / Scrum (50%)/Data Analyst (50%) Nantes : Coach Agile - Animer les cérémonies agiles (daily, sprint planning, review, rétrospectives). - Structurer le backlog et prioriser les tâches. - Former et sensibiliser l’équipe aux pratiques Scrum, Kanban et Lean. - Aider à lever les obstacles, améliorer le fonctionnement interne et le delivery. - Mettre en place des outils simples de suivi (tableaux, indicateurs, rituels). - Faciliter la communication entre les équipes techniques, métiers et exploitation Data Analyst (50%) : - Collecter, nettoyer et analyser les données liées aux flux, usages, équipements et services en gare. - Réaliser des tableaux de bord (Power BI ou équivalent) pour les équipes métiers. - Contribuer aux études statistiques (tendances, performances, incidents, utilisation des outils…). - Proposer des indicateurs pour orienter les décisions opérationnelles. - Travailler avec les équipes terrain pour comprendre les besoins utilisateurs et améliorer les visualisations. Compétences Agile : - Bonne maîtrise de Scrum et/ou Kanban. - Savoir animer une équipe, faciliter, cadrer, apaiser les tensions. - Approche pragmatique (pas dogmatique). Compétences Data : - Maîtrise d’un outil de data visualisation (Power BI, Tableau…). - Développement en Python. - Bon niveau en SQL et manipulation de données. - Capacité à vulgariser les analyses.
Mission freelance
Ingénieur d’étude Migration de données (Linux / MVS – Cobol)
Signe +
Publiée le
Multiple Virtual Storage (MVS)
12 mois
300-360 €
Marseille, Provence-Alpes-Côte d'Azur
Contexte Dans le cadre de projets de migration de données vers de nouveaux systèmes d’information, l’ingénieur d’étude intervient sur les phases de spécification, développement, tests et recette. La mission s’inscrit dans un environnement agile orienté migration et modernisation de SI, avec utilisation d’outils internes permettant d’industrialiser les transformations de données. Objectif de la mission Contribuer à la migration de données d’un système source vers un système cible en assurant : l’analyse fonctionnelle des données la génération et la validation du code de transformation la mise en place des tests la communication avec les équipes métiers Missions principales Spécifications et analyse Rédiger les spécifications fonctionnelles des données à migrer Animer des ateliers avec les équipes métiers client Identifier les règles de transformation, fusion, éclatement ou filtrage des données Étudier les structures de fichiers source et cible Développement et transformation Utiliser l’outil interne pour générer du code en pseudo Cobol Implémenter les règles de migration dans l’outil Tester et corriger le code généré Participer aux phases de recette Tests et validation Définir la stratégie de tests Construire les cas de tests et jeux d’essai Suivre les anomalies et assurer les corrections Présenter les résultats à la MOA / équipes métiers Organisation projet Travailler en mode agile et itératif Gérer plusieurs sujets en parallèle Reporter sur l’avancement et les points de blocage Être force de proposition sur les optimisations Compétences obligatoires Maîtrise de Cobol Connaissance Linux ou environnement MVS Bonne compréhension des structures de fichiers (fichiers plats, encodage EBCDIC / ASCII) Expérience en migration ou transformation de données Première expérience en Banque ou Assurance de personnes (santé, prévoyance) Compétences appréciées Connaissance de l’environnement MVS Shell Linux PostgreSQL Méthodes agiles Animation d’ateliers fonctionnels Profil recherché Formation Bac+5 informatique ou scientifique Bonne capacité d’analyse fonctionnelle Autonomie rapide Bon relationnel client Capacité rédactionnelle claire et synthétique Esprit d’équipe et curiosité technique
Mission freelance
Ingénieur d’étude Migration de données (Linux / MVS – Cobol)
Signe +
Publiée le
Multiple Virtual Storage (MVS)
12 mois
300-350 €
Lyon, Auvergne-Rhône-Alpes
Contexte Dans le cadre de projets de migration de données vers de nouveaux systèmes d’information, l’ingénieur d’étude intervient sur les phases de spécification, développement, tests et recette. La mission s’inscrit dans un environnement agile orienté migration et modernisation de SI, avec utilisation d’outils internes permettant d’industrialiser les transformations de données. Objectif de la mission Contribuer à la migration de données d’un système source vers un système cible en assurant : l’analyse fonctionnelle des données la génération et la validation du code de transformation la mise en place des tests la communication avec les équipes métiers Missions principales Spécifications et analyse Rédiger les spécifications fonctionnelles des données à migrer Animer des ateliers avec les équipes métiers client Identifier les règles de transformation, fusion, éclatement ou filtrage des données Étudier les structures de fichiers source et cible Développement et transformation Utiliser l’outil interne pour générer du code en pseudo Cobol Implémenter les règles de migration dans l’outil Tester et corriger le code généré Participer aux phases de recette Tests et validation Définir la stratégie de tests Construire les cas de tests et jeux d’essai Suivre les anomalies et assurer les corrections Présenter les résultats à la MOA / équipes métiers Organisation projet Travailler en mode agile et itératif Gérer plusieurs sujets en parallèle Reporter sur l’avancement et les points de blocage Être force de proposition sur les optimisations Compétences obligatoires Maîtrise de Cobol Connaissance Linux ou environnement MVS Bonne compréhension des structures de fichiers (fichiers plats, encodage EBCDIC / ASCII) Expérience en migration ou transformation de données Première expérience en Banque ou Assurance de personnes (santé, prévoyance) Compétences appréciées Connaissance de l’environnement MVS Shell Linux PostgreSQL Méthodes agiles Animation d’ateliers fonctionnels Profil recherché Formation Bac+5 informatique ou scientifique Bonne capacité d’analyse fonctionnelle Autonomie rapide Bon relationnel client Capacité rédactionnelle claire et synthétique Esprit d’équipe et curiosité technique
Offre d'emploi
Responsable d'études statistiques - SAS, Power BI 2
KEONI CONSULTING
Publiée le
Reporting
Run
SAS
18 mois
20k-60k €
100-550 €
Paris, France
CONTEXTE Nous recherchons un(e) Chargé(e) d'études statistiques et de pilotage. Rejoignez une équipe de 7 collaborateurs au sein de l’équipe Pilotage et Reporting Omnicanaux. MISSIONS : • Prendre en charge la mise à jour du RUN o Assurer la mise à jour ad hoc des chiffres o Apporter des précos sur les optimisations possibles des reportings (compétences SAS, Power BI, rationalisation de la source et de la cible) o Finaliser la mise à jour de la cartographie du RUN et de la normalisation de la documentation • Pour un périmètre défini par le responsable du service : o Prendre en charge le RUN o Faire un état des lieux du périmètre confié o Apporter un ou plusieurs scénarios d’optimisation et refonte o Documenter les sources de données, process de mise à jour et règles de calcul o Mise en œuvre à la mise en place du scénario choisi Vous interviendrez, en collaboration avec l’ensemble de l’équipe sur des sujets variés tels que : • La rationalisation et automatisation des reportings d’activité et de production à destination de nos différentes Direction • La mise en place de process standard visant à développer et livrer les nouveaux suivis dans le respect de la cible définie (compréhension du contexte, sécurisation et validation de l’EDB ergonomie du suivi, documentation, définition des contrôles et back up, analyse des chiffres…) En faisant preuve de proactivité et curiosité, et dans une démarche d’amélioration continue PROFIL & COMPETENCES Une expérience MINIMALE de 5 années dans une fonction similaire est indispensable. SAS, Power BI
Offre d'emploi
Coordinateur Industriel / Interface Bureau d’Études – Production (H/F)
TOHTEM IT
Publiée le
33k-40k €
La Rochelle, Nouvelle-Aquitaine
Contexte Dans le cadre du développement de nos activités industrielles, nous recherchons un Coordinateur Industriel pour assurer l’interface entre le Bureau d’Études et la production, et sécuriser les phases de premiers montages et d’industrialisation. Vos missions Suivi des premiers montages Suivre et piloter le planning des premiers montages sur le périmètre Bureau d’Études Coordonner les équipes internes (Industrialisation, Qualité, Projet, Engineering) Garantir la disponibilité des composants et des ressources (opérateurs, moyens) Participer aux premiers montages et organiser les remontées terrain (FAR Report) Identifier les montages à valider et estimer la charge associée Préparer et organiser les montages (pièces, équipes, logistique) Piloter les indicateurs d’avancement (KPI) Participer aux rituels projet (FMR / SMR) Suivi des modifications (Change Management) Centraliser les retours terrain en lien avec l’Engineering Front Office Identifier et formaliser les besoins de modifications (Change Request) Suivre la maturité des modifications via les instances engineering Vérifier : la disponibilité des composants la complétude des instructions la pertinence des solutions dès leur première mise en œuvre Planifier et suivre les validations en fonction des jalons projet Mettre en place et suivre les KPI d’avancement Coordination technique & industrielle Assurer l’interface entre conception (BE) et production Anticiper les évolutions techniques (jeux, affleurements, etc.) Coordonner les essais prototypes sur site Intervenir sur la résolution de problématiques techniques transverses Identifier les risques liés à des montages non validés Piloter la relation avec les fournisseurs sur les sujets critiques Accompagner les équipes dans l’organisation des handovers Qualité Harmoniser les pratiques entre les différents sites
Mission freelance
Responsable d'études statistiques
Codezys
Publiée le
autonomie
SAS
12 mois
Paris, France
Résumé du poste de Responsable d'études statistiques / Chargé d’études statistiques et de pilotage : Une grande entreprise d'assurance située à Paris recherche un professionnel avec au moins 5 ans d’expérience dans un rôle similaire pour assurer la gestion et l’amélioration du RUN de ses reportings, dans un contexte de transformation numérique et d’optimisation des processus. Objectifs principaux : Gestion et mise à jour du RUN : Mettre à jour les indicateurs et garantir la cohérence des données. Finaliser la cartographie et sécuriser la documentation. Proposer des améliorations pour rationaliser les sources et optimiser les traitements et restitutions. Pilotage d’un périmètre défini : Réaliser un état des lieux, identifier les axes d’amélioration et proposer des scénarios d’optimisation. Documenter les processus et mettre en œuvre la solution choisie, tout en sécurisant le dispositif. Rationalisation et automatisation des reportings : Automatiser et rationaliser les reportings existants. Développer des processus standards pour la création et la livraison des nouveaux suivis, incluant la compréhension métier, la validation des bases, l’ergonomie, la documentation, et les contrôles. Amélioration continue : Proposer des innovations, faire preuve de curiosité analytique, et contribuer à la transformation des pratiques de pilotage. Participer à l’évolution des dispositifs de reporting et d’analyse.
Offre d'emploi
Expert Etudes IARD- SAS
KEONI CONSULTING
Publiée le
JIRA
Pilotage
SAS
18 mois
20k-60k €
100-600 €
Paris, France
Contexte : L'équipe décisionnelle et data a besoin de renforcer sa capacité à faire sur les projets du domaine Indemnisation IARD. Le parc applicatif existant est intégralement développé à l'aide des solutions de l'éditeur SAS Institute. Définition des missions : - Recueil et formalisation des besoins métiers o Compréhension des enjeux métier o Proposition de solutions en maximisant la réutilisation du patrimoine applicatif o Validation et conception fonctionnelle détaillée de la solution o Devis / planning - Conception / développement SAS o Conception technique o Réalisation, suivi et validation des développements o Mise en production o En direct ou après délégation - N2/N3 pour les incidents en production o Traitement des incidents en production et rattrapage de données o Correction des développements et re-livraison en production si nécessaire o Communication de l’avancement et de la résolution o En direct ou après délégation - Contribution au pilotage de l’activité o Reporting opérationnel o Contribution aux points métiers o Contribution au plan de charge de la structure
Mission freelance
Assistance à maitrise d'ouvrage pour la réalisation d'études et le suivi de projet
Mon Consultant Indépendant
Publiée le
Comptabilité
Finance
Gestion de projet
8 mois
470-500 €
Paris, France
Dans le cadre de la migration de son ERP comptable, un acteur majeur de la billettique en Île-de-France recherche un consultant fonctionnel Finance / Comptabilité pour accompagner le chef de projet sur l’ensemble du cycle de transformation. Vous interviendrez de la phase de cadrage jusqu’au passage en RUN, avec un rôle clé d’interface entre la DAF, les équipes métiers et les équipes techniques. Vos principales missions : Analyser l’existant et cadrer les besoins financiers et comptables Définir les scénarios métiers et contribuer aux choix de solutions Rédiger les spécifications fonctionnelles et suivre les développements Organiser et réaliser les phases de tests Piloter les chantiers métiers et la conduite du changement Préparer et sécuriser la mise en production Accompagner les premiers temps en RUN Le périmètre couvre la refonte du SI financier ainsi que des sujets connexes : gestion des impayés, mandats SEPA, dématérialisation des factures, signature électronique, paiements en ligne et optimisation des flux financiers. Profil recherché : Expérience confirmée en comptabilité / finance Expérience en projets ERP ou transformation de SI financier Capacité à dialoguer avec des interlocuteurs métiers et techniques Une connaissance des secteurs transports, billettique et de la vente B2C
Offre d'emploi
Développeur Plateforme actuariel .net C# Azure F/H - Etudes socio-économiques (H/F)
█ █ █ █ █ █ █
Publiée le
.NET CORE
ADO.NET
Angular
Rennes, Bretagne
Offre importée
Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.
Accès restreint à la communauté
Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
260 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois