L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 441 résultats.
Mission freelance
Ingenieur Data RH
Comet
Publiée le
Azure Data Factory
BI
Databricks
12 mois
400-620 €
Île-de-France, France
Compétences techniques : Python / Pyspark / SQL - Expert - Impératif Databricks - Expert - Impératif Datafactory - Confirmé - Important Modélisation BI - Confirmé - Souhaitable Description détaillée Contexte : Le projet Data-RH vise à centraliser et modéliser les données issues des systèmes dans un modèle unifié, permettant des analyses transverses et une exploitation optimale des données métier. Environnement technique : Azure Data Factory, Databricks, Python, PySpark, SQL, Azure DevOps et Power BI. Missions : - Concevoir et développer des pipelines d’ingestion de données via Azure Data Factory. - Créer et optimiser des flux de transformation de données en PySpark/Python. - Maintenir et développer de nouveaux indicateur de qualité de données - Mettre en œuvre et industrialiser les pipelines CI/CD avec Azure DevOps. - Participer au refactoring du code existant pour améliorer sa performance et sa maintenabilité. - Garantir la qualité du code et veiller au respect des normes de développement au sein de l’équipe. - Implémenter des tests unitaires et assurer la fiabilité des solutions. - Mettre en place des solutions de monitoring et de supervision pour l’application Data-RH. Profil recherché : - Maîtrise avérée de SQL, Python, PySpark et Spark. - Expérience confirmée sur l’écosystème Microsoft Azure (Data Factory, Databricks, DevOps). - Bonne connaissance de Git et des pratiques DevOps. - Sens de la communication, force de proposition et capacité à travailler en équipe. - Rigoureux, attaché aux bonnes pratiques de développement et à la qualité du code. Définition du profil : Il est garant du bon fonctionnement et de la disponibilité des données dont il a la responsabilité. Il assure la prévention des dysfonctionnements des données et contribue à la bonne utilisation de celles-ci
Mission freelance
Service Delivery Manager – Plateforme DATA / IA
KatchMe Consulting
Publiée le
SLA
6 mois
500-600 €
Issy-les-Moulineaux, Île-de-France
Le Service Delivery Manager intervient au sein d’une direction informatique en charge des infrastructures, de la production et de la supervision des systèmes d’information. Dans un contexte de transformation numérique et d’intégration d’équipes techniques issues de différentes entités, le poste vise à garantir la qualité, la continuité et la performance des services IT fournis aux métiers. Le Service Delivery Manager joue un rôle central dans la coordination entre les équipes métiers, les équipes techniques et la gouvernance des projets. Il veille à l’alignement des services informatiques avec les besoins opérationnels et s’assure du respect des engagements de service. Dans ce cadre, ses principales responsabilités sont : Garantir le respect des engagements opérationnels (OLA) et veiller au respect des engagements de service (SLA) . Participer à la gestion des incidents majeurs et des crises informatiques . Organiser et piloter les retours d’expérience (REX) suite aux incidents majeurs et assurer le suivi des plans d’actions. Assurer la gestion des problèmes selon les bonnes pratiques ITIL , afin d’identifier les causes racines et réduire la récurrence des incidents. Assurer le suivi des indicateurs de performance et produire les reportings associés. Représenter l’équipe dans les instances de pilotage de la qualité de service lorsque nécessaire. Contribuer au maintien en conditions opérationnelles du système d’information . Participer à la validation et à l’évolution du catalogue de services . Être responsable de la documentation opérationnelle relative à la gestion des incidents. Contribuer à l’ amélioration continue des processus RUN , notamment sur les processus de gestion des incidents, des problèmes et des demandes. Dans son rôle opérationnel, le Service Delivery Manager contribue également à : Définir et formaliser la convention de services de la plateforme. Garantir la qualité et la disponibilité des services IT . Maintenir un haut niveau de satisfaction des utilisateurs et des métiers . Optimiser l’utilisation des ressources techniques et organisationnelles . Favoriser une démarche d’amélioration continue basée sur les retours d’expérience et les indicateurs de performance.
Mission freelance
SENIOR DATA AND AI ENGINEER
CAT-AMANIA
Publiée le
Azure DevOps
CI/CD
Data Lake
1 an
100-390 €
Villeneuve-d'Ascq, Hauts-de-France
Mettre en oeuvre et maintenir la conception, l’industrialisation et l’évolution des solutions data et IA sur la plateforme Lakehouse. Garantir la robustesse, la performance, la sécurité et la qualité des données au service des usages métiers, analytiques et IA. Mission Expertise avancée Databricks & Lakehouse. Concevoir et optimiser des architectures data sur Databricks. Maîtriser Delta Lake, Unity Catalog, Workflows, Jobs et Notebooks. Garantir performance, scalabilité et optimisation des coûts. Définir et appliquer les bonnes pratiques (partitionnement, optimisation, gouvernance, sécurité). Modélisation & conception de la donnée Concevoir des modèles analytiques et décisionnels robustes. Définir faits, dimensions, granularité et historisation (SCD). Assurer cohérence, unicité et maintenabilité des modèles. Traduire les besoins métiers en structures data pérennes. Industrialisation & Data Engineering Développer et fiabiliser des pipelines ELT/ETL. Superviser les tests, validations et mises en production. Contribuer à la démarche CI/CD. Développement augmenté par l’IA Exploiter les outils de développement assisté par l’intelligence artificielle pour accélérer la production tout en maintenant un haut niveau d’exigence (qualité, sécurité, maintenabilité). Qualité & gouvernance des données Implémenter et superviser les contrôles de Data Quality. Structurer la gestion des anomalies et rejets. Garantir la traçabilité et le data lineage. Leadership & contribution transverse Diffuser les standards et collaborer étroitement avec PO, Architectes et Data Stewards.
Mission freelance
Expert/ Tech lead WSO2
Signe +
Publiée le
API
CI/CD
DevSecOps
6 mois
500-600 €
Tours, Centre-Val de Loire
Bonjour, Nous recherchons pour l'un de nos clients un Expert/ Tech lead WSO2. Responsabilités/ rôles : Concevoir et développer des flux d’intégration sécurisés et performants (mediation sequences, Proxy Services) avec WSO2 Enterprise Integrator (EI). Créer et gérer des APIs REST/SOAP robustes via WSO2 API Manager (APIM) : cycle de vie complet, documentation (Swagger), politiques (Throttling, Caching). Mettre en œuvre la gestion des identités et des accès (IAM) avec WSO2 Identity Server (IS) : SSO, OAuth2, OpenID Connect. Développer des connecteurs et extensions en Java pour enrichir l’écosystème API WSO2. Appliquer les principes DevSecOps : intégrer les tests SAST/DAST dans le pipeline CI/CD et sécuriser l’outillage (Git, Jenkins/GitLab CI, Docker/Kubernetes). Garantir la conformité sécurité des échanges et des développements selon les référentiels ministériels (RGS, PDIS). Participer activement aux cérémonies SAFe (PI Planning, Daily Scrum, Démo Système) et estimer les User Stories en Story Points pour respecter les engagements PI.
Mission freelance
Data Architect
Codezys
Publiée le
API
Azure
Azure Data Factory
12 mois
Lyon, Auvergne-Rhône-Alpes
Nous recherchons un Data Architect qui intégrera l'équipe stable dédiée à la Business Intelligence (BI) et à l'Analyse, avec un focus particulier sur le domaine Achats. Objectifs et livrables Ce que vous aurez à réaliser : En tant que Data Architect, vous veillerez à ce que les produits délivrés par votre équipe soient conformes à notre architecture cible globale. Pour soutenir cette fonction, nous cherchons un Data Architect spécialisé dans Azure, possédant une bonne compréhension des services disponibles dans la stack analytique Azure. Vous collaborerez avec le DPO, les Data Analysts, Data Engineers & Data Scientists de l'équipe, ainsi qu'avec la communauté d'architectes, afin de définir une architecture de qualité, apportant une valeur métier pertinente et assurant la maintenabilité à long terme. De plus, vous devrez faire preuve de compétences en leadership pour prendre en charge le rôle de lead technique et participer aux discussions avec les parties prenantes métier et l’architecture d’entreprise. Vous apportez un leadership technique, participez aux efforts de développement et représentez l’ensemble des capacités internes et externes de la plateforme. Vous êtes un membre actif de la guilde des architectes, chargé de superviser le processus de gestion des données et de fournir guidance et orientation aux équipes de développement. Vous êtes responsable de la conception et de la documentation des solutions dans votre domaine. Vous avez une expérience avec Databricks, ADLS Storage, SQL Database, Azure Data Factory (ADF) et Power BI. Vous avez l’expérience de la définition et de la gestion d’une architecture de données évolutive de bout en bout, en tenant compte de l’architecture d’entreprise et des normes du secteur. Vous maîtrisez le développement, la documentation et la maintenance de modèles de données logiques et physiques. Votre futur équipe Dans le cadre du domaine Achats, vous devrez relever de nombreux défis et aborder des sujets passionnants : Mettre en place des Data Products pour soutenir l’approche CAST (produits réutilisables partagés), conformément à notre stratégie. Contribuer à la définition de la feuille de route des initiatives BI & Analytics. Définir le Modèle de Données EDM et le mettre en œuvre en respectant les directives existantes. Participer à l’équipe de maintenance afin d’assurer la continuité des processus métier.
Offre d'emploi
TECH LEAD FULLSTACK JAVA
Kleever
Publiée le
Architecture
Java
React
62k-75k €
Villejuif, Île-de-France
VOS RESPONSABILITÉS Rattaché au responsable du pôle Ingénierie logicielle, vos missions se décomposent en trois piliers : Conception & Vision Technique : Vous pilotez l'architecture globale des projets de développement de bout en bout (Fullstack). Vous déterminez les socles techniques, rédigez les spécifications et garantissez que les solutions choisies sont scalables et résilientes. Industrialisation & DevOps : Vous insufflez une culture de qualité en mettant en place des processus de déploiement automatisés et des standards de production modernes (CI/CD, conteneurisation). Pilotage & Accompagnement : Véritable interface technique, vous aidez les équipes métiers à formaliser leurs besoins. Vous supervisez la livraison des projets, garantissez le maintien en conditions opérationnelles et accompagnez la montée en compétences des collaborateurs. Innovation : Vous contribuez à la modernisation des outils de traitement de données et à la digitalisation des processus internes. Environnement & Outils : Bases de données relationnelles (Oracle, PostgreSQL). Architecture Microservices et outils de versioning (Git). Maîtrise des environnements conteneurisés (Docker, Kubernetes) et des chaînes de build. Usage courant d'ateliers de développement et d'outils de suivi de tickets. QUALITÉS REQUISES Au-delà de la technique, vous possédez un excellent relationnel et savez faire preuve de pédagogie face à des interlocuteurs non-techniques. Votre rigueur et votre curiosité intellectuelle vous permettent de mener à bien des projets ambitieux dans un environnement exigeant.
Offre d'emploi
Chef de Projet IT – Data & MDM (H/F) - Marseille
VISIAN
Publiée le
Master Data Management (MDM)
3 ans
40k-45k €
400-450 €
Marseille, Provence-Alpes-Côte d'Azur
Contexte Vous intervenez au sein d’un programme international dédié à la gestion des données de référence (Master Data Management), dans un environnement IT complexe et structurant pour les activités métiers. Le projet s’inscrit dans une démarche d’amélioration de la qualité des données, notamment via l’intégration de sources externes certifiées, dans un contexte de conformité réglementaire forte. L’environnement est international, avec des équipes distribuées et une communication majoritairement en anglais. La méthodologie projet est principalement en cycle en V, avec des adaptations agiles. Missions Piloter un projet IT de bout en bout (cadrage → déploiement → clôture) Coordonner une équipe projet internationale de grande envergure (>50 contributeurs) Assurer l’alignement entre les équipes métiers, techniques et les parties prenantes Suivre le planning, le budget, les risques, les dépendances et les indicateurs projet Garantir la qualité des livrables et le respect des engagements (coût / délai / qualité) Piloter les activités de migration de données et assurer leur intégrité et traçabilité Superviser les aspects techniques liés à l’infrastructure (environnements hybrides) Produire les livrables projet (reporting, comités, documentation, plans d’action) Gérer les risques, incidents et plans de mitigation avec escalade adaptée Assurer la communication projet dans un contexte international (anglais courant) Conduire le changement et organiser le transfert de connaissances vers les équipes Garantir la conformité aux standards IT, sécurité et gouvernance des données Environnement technique Data Management / Master Data Management (MDM) Data Migration & Data Quality Architectures hybrides (Cloud / On-Premise) Outils de gestion de projet (type Jira, MS Project, etc.) Environnements internationaux multi-systèmes
Mission freelance
Data Engineer Confirmé – Environnement industriel (H/F)
Pickmeup
Publiée le
Dataiku
Numpy
Pandas
2 ans
350-370 €
Saint-Paul-Trois-Châteaux, Auvergne-Rhône-Alpes
Missions principalesConception et architecture des solutions data Concevoir et développer des pipelines de données robustes pour des environnements industriels. Cartographier et documenter les sources de données . Concevoir des solutions permettant le traitement de volumes importants de données . Définir la structure des bases de données et des métadonnées . Participer à la mise en place et à l’évolution d’un Data Lake . Intégration et gestion des données Collecter et intégrer des données provenant de sources multiples (applications, capteurs industriels, systèmes externes) . Garantir la qualité, la sécurité et la fiabilité des données . Mettre en place des mécanismes de contrôle, nettoyage et validation des données . Assurer la supervision et la maintenance des pipelines de données en production. Collaboration et animation Collaborer avec les équipes métier et IT afin de comprendre les besoins en données. Participer à l’animation de la communauté technique autour des sujets data . Contribuer à la veille technologique sur les solutions data et proposer des améliorations. Livrables attendus Dossier de spécification et d’architecture des solutions data mises en œuvre. Catalogues et cartographie des données . Mise en place d’un Data Lake adapté aux besoins métier . Documentation et outils permettant de garantir la qualité des données .
Mission freelance
Data ingénieur Databricks & Power BI Full remote ASAP (4-5 ans d'exp Databricks)
WorldWide People
Publiée le
Databricks
6 mois
320-340 €
France
Data ingénieur Databricks & Power BI Full remote ASAP (4-5 ans d'exp Databricks) Profil avant tout Data ingénieur Databricks avec des connaissances Power BI idéalement Python - SQL Data ingénieur Databricks & Power BI Full remote ASAP Profil avant tout Data ingénieur Databricks avec des connaissances Power BI idéalement Python - SQL Data ingénieur Databricks & Power BI Full remote ASAP Profil avant tout Data ingénieur Databricks avec des connaissances Power BI idéalement Python - SQL Data ingénieur Databricks & Power BI Full remote ASAP Profil avant tout Data ingénieur Databricks avec des connaissances Power BI idéalement Python - SQL
Offre d'emploi
Ingénieur Conception Électronique - Tech Lead (H/F)
Link Consulting
Publiée le
Eagle
45k-50k €
Toulouse, Occitanie
Notre client, acteur technologique développant des produits et solutions embarquées pour environnements exigeants, recherche son futur Ingénieur Conception Électronique – Tech Lead (H/F) pour son site de Toulouse, dans le cadre d’un renforcement de son bureau d’études et d’une montée en cadence industrielle. Vos missions : Intégré au bureau d’études, vous devrez : \- Concevoir l’architecture électronique des produits : schémas, routage PCB, choix composants, contraintes CEM/thermiques. \- Piloter l’industrialisation électronique : intégration, contraintes physiques. \- Encadrer techniquement une équipe jeune (revues de design, bonnes pratiques, structuration). \- Gérer les sous‑traitants et partenaires pour les développements spécifiques (capteurs, modules vidéo, encodeurs). \- Contribuer au maintien en conditions opérationnelles (diagnostic, correctifs, fiabilisation). \- Collaborer étroitement avec les pôles systèmes embarqués pour garantir la cohérence globale. \- Participer à l’amélioration continue et à la montée en cadence de la production. Les compétences techniques \- Conception électronique avancée (analogique, numérique, alimentation). \- Routage PCB (Eagle ; transition vers Altium prévue – formation assurée). \- Contraintes CEM, gestion thermique, fiabilité et intégration produits \- Pilotage technique de sous‑traitants et validation de développements. \- Bonne compréhension des systèmes embarqués, vidéos et communications en environnements perturbés.
Offre d'emploi
DATA ANALYSTE DATASCIENCE SENIOR
KEONI CONSULTING
Publiée le
Data analysis
Python
SQL
18 mois
40k-45k €
400-550 €
Gradignan, Nouvelle-Aquitaine
CONTEXTE Nous recherchons pour notre client un profil analyste DATA afin d'intégrer l'équipe Analyse de la Donnée. Le profil aura pour mission de répondre à des cas d'usage métiers, par l'utilisation de la DATA de la phase exploratoire à l'exposition via de la DATAVIZ . Fort d'une expérience DATA, le prestataire devra également montrer une appétance particulière dans le domaine fonctionnel MISSIONS - Mise en oeuvre de cas d'usage métiers par croisement de la donnée ( ciblage , analyse de donnée ou datascience ) - Développement et maintenance de produits DATA réutilisables - Publication des résultats d'analyse avec de la DATAVIZ - Respect des normes et bonnes pratiques au sein de l'équipe - Accompagnement et acculturation des équipes métiers ou autres" Définition des prestations attendues : Prestation d'analyse DATA et DATASCIENCE Préciser la technologie ou les certifications attendues : Python, Pyspark,SQL,Dataviz, Datascience " Livrables attendus "Programme DATA sous plateforme DATA Dataviz Présentation PPT de resultats d'etude Environnement technique - technologique "Plateforme : BIG DATA Hadoop (CLOUDERA) Langages : Python, PySPARK, SQL Restitution : PowerBI (dataset, dataflow, rapports) Compétences techniques attendues Connaissances en environnement BIG DATA ( python , Pyspark) Requêtage SQL Exposition des données par DATAVIZ Experience en analyse DATA et projet de DATAscience
Mission freelance
Data Engineer Snowflake (Lyon)
SQLI
Publiée le
Snowflake
1 an
400-500 €
Lyon, Auvergne-Rhône-Alpes
Bonjour, Pour le compte de l'un de mes clients dans le secteur de l'électroménager, je suis à la recherche d'un Data Engineer Snowflake. Son rôle : Participer à des ateliers d’analyse des besoins avec les partenaires commerciaux (finances, ventes, achats, etc.) Suggérer & construire des architectures techniques adaptées, en se concentrant sur la fiabilité ainsi que les performances Développer & maintenir des flux de données, notamment dans le contexte de migration vers Snowflake Optimiser les performances des applications existantes et assurer une documentation approfondie
Offre d'emploi
Business Analyst IT Data AML/KYC Automation Luxembourg
Cogniwave dynamics
Publiée le
AML (Anti-Money Laundering)
Big Data
Know your customer (KYC)
1 an
Luxembourg
Pour une mission long terme sur Luxembourg , nous recherchons un BA IT Data compliance Automation Poste en CDI au Luxembourg de préférence : Salaire + Bonus à discuter Ouvert aux freelances (3/4 jours sur site par semaine) -Possible part time sur Paris à discuter Au sein de l’équipe IT Data Compliance Automation, vous intervenez sur un projet stratégique d’automatisation de la révision des dossiers de conformité AML/KYC Vous êtes au cœur de la transformation digitale de la fonction Compliance, en combinant technologies de pointe ( RPA, Intelligence Artificielle, OCR ) et expertise métier pour accélérer et fiabiliser les processus de révision client. MISSION Pilotage projet (Business Analyst) • Étude de l’existant : Analyser les processus existants via des ateliers métiers et de la documentation • Définition de la cible : Concevoir les processus et outils cibles, identifier les écarts fonctionnels • Cadrage fonctionnel : Rédiger les dossiers d’exigences et les expressions de besoins • Support IT : Accompagner les équipes de développement durant les phases techniques • Tests & recette : Concevoir et exécuter les plans de tests, coordonner la recette métier • Conduite du changement : Créer les supports de formation, animer les sessions, accompagner les utilisateurs Support applicatif (Run) • Support N2/N3 : Traiter les incidents et demandes des équipes opérationnelles • Investigation : Reproduire les anomalies, investiguer en base de données, diagnostiquer • Maintenance : Assurer le suivi des maintenances correctives et évolutives • Releases : Coordonner et communiquer les releases applicatifs • Amélioration continue : Proposer et mettre en œuvre des actions d’optimisation
Mission freelance
Développeur Scripting (Python / Shell) – Automatisation & Data – Secteur Bancaire (H/F)
CELAD
Publiée le
API
CI/CD
Python
12 mois
400-460 €
Paris, France
Envie d’un nouveau challenge… CELAD vous attend ! 🚀 Nous poursuivons notre développement et recherchons actuellement un(e) Développeur orienté scripting, automatisation & data pour intervenir chez l’un de nos clients du secteur bancaire . Dans un contexte de transformation, de rationalisation du SI et de pilotage de la performance IT, vous rejoignez une équipe transverse et intervenez sur des sujets à forte valeur ajoutée : automatisation, exploitation de données, conformité, industrialisation et pilotage applicatif. 🎯 Vos missions 🔹 Automatisation & exploitation de la donnée Conception et développement de scripts d’automatisation Collecte, nettoyage, consolidation et historisation de données issues de multiples outils Analyse du planifié vs réalisé et identification des écarts Mise en place de snapshots périodiques et production d’indicateurs de pilotage 🔹 APIs, logs & industrialisation Conception et développement d’APIs (exposition / consommation) Mise en place d’une base de logs centralisée Automatisation des flux de remontée d’information Industrialisation et fiabilisation des traitements 🔹 Conformité & qualité du SI Extraction et exploitation de données issues d’outils d’industrialisation et CI/CD Analyse des normes, détection d’anomalies et d’écarts Construction d’indicateurs de conformité et maturité 🔹 Référentiels & pilotage projet Contribution à la structuration du référentiel projets Études autour des APIs d’outils de gestion de projets Analyse des points de blocage techniques et organisationnels
Offre d'emploi
Data engineer Azure
UCASE CONSULTING
Publiée le
Azure
Azure Data Factory
Databricks
1 an
50k-55k €
450-500 €
Lyon, Auvergne-Rhône-Alpes
Mission basée à Lyon. Pour l'un de nos clients, nous recherchons un(e) Data Engineer expérimenté(e) pour intervenir sur des environnements cloud Microsoft et participer à la conception de plateformes data modernes et performantes. Missions Concevoir et développer des pipelines de données robustes sur Azure Mettre en place et maintenir les flux via Azure Data Factory Développer et optimiser les traitements de données dans Databricks Participer à la modélisation des données (Data Lake / Data Warehouse) Garantir la qualité, la performance et la fiabilité des données Collaborer avec les équipes métiers et BI pour faciliter l’exploitation des données (notamment via Power BI )
Offre d'emploi
Développeur Big Data sur Lyon
EterniTech
Publiée le
Cloudera
Hadoop
SQL
3 ans
Lyon, Auvergne-Rhône-Alpes
Je recherche pour un de mes client un Développeur Big Data sur Lyon CONTEXTE DE LA MISSION Le client, dans le cadre de son activité Big Data, recherche un profil en développement Data, Python, SQL, Shell, Spark (+ de 5 ans d'expérience) pour l’accompagner dans les actions sur la plateforme Cloudera Hadoop. L'objectif de la prestation est de réaliser et maintenir les développements nécessaires à l'alimentation de la plateforme Hadoop, à la mise en place d'extractions et à l'accompagnement des utilisateurs. DESCRIPTION DE LA MISSION Rattaché au responsable Big Data, le profil aura pour principales missions : - de prendre en charge les évolutions des données à intégrer, reprendre les développements effectués pour l'alimentation du Datalake , de les faire évoluer en fonction des besoins (Stack technique : Hadoop Cloudera, Hive, Impala, Python, Shell, Linux, SQL, VBA, Jupyter) - d'avoir une expertise technique permettant de spécifier techniquement les tâches, fournir les requêtes de référence, effectuer une revue de code, accompagner les potentiels alternants ou stagiaires (une alternante à date) - de mettre en place des extractions à partir de ces données, - d’assurer le support niveau 2, - de faire appliquer les consignes aux utilisateurs, - de garantir la tenue des délais de livraison dans un contexte de production à fortes attentes - de contribuer à garantir la maintenabilité de la plateforme ainsi que ses performances et son exploitabilité Il veillera au respect de l’utilisation des modèles référencés ou à leur évolution en collaboration avec la Direction Technique Informatique et la Gouvernance de la Donnée. Le profil devra posséder des aptitudes et qualités avérées sur sa capacité à communiquer avec diplomatie, à écouter, à s'intégrer et à partager son savoir faire, à documenter ses actions et à accompagner. LIVRABLES ATTENDUS ET ENVIRONNEMENT TECHNIQUE Les principales missions confiées seront les suivantes : - Développement des traitements d'alimentation, forte capacité à structurer l'activité (JIRA), mise en place et description de processus (guides, accompagnement utilisateurs, …), pilotage opérationnel de certains sujets - Développement d'extractions avec SQL (expert) et scripting Shell avancé pour l'automatisation - Capacité à investiguer et faire du reverse engineering dans une architecture héritée complexe - Optimisation des traitements de la plateforme et ceux des utilisateurs - Capacité à expliquer simplement le sujet, à communiquer vers des interlocuteurs type développeur, bureau d'étude, qualifieur et "clients" (Groupes de protection sociale). La connaissance de Power BI et SAS sont des plus. Exemples de livrables attendus : - Code source documenté - Plan de tests / fiches de test - Bilan - Bordereau de livraison - Manuel d’installation - Dossier d’exploitation - JIRA documentée Environnement technique : - Hadoopa Cloudera - Hive - Impala - Python - Shell - Spark - Linux - SQL - VBA - Git - Jupyter Des connaissances de l’écosystème de la protection sociale sont les bienvenues (retraite complémentaire idéalement).
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
2441 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois