L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 443 résultats.
Mission freelance
Tech Lead Dynamics
Codezys
Publiée le
API
Azure
Power Apps
12 mois
Maisons-Alfort, Île-de-France
Poste : Tech Lead / Architecte Dynamics Expérience : minimum 10 années Démarrage : ASAP Localisation : Maison Alfort. 2 jour de présentiel fixes et obligatoires (lundi et jeudi) + 3 jours de TT Mission longue Contexte Nous renforçons l’équipe technique. Nous cherchons des profils qui combinent : • Une solide expertise en configuration et développement Dynamics 365 Sales (entités, champs, règles, Sales Accelerator, Power Automate, etc.) • La capacité à analyser les besoins métiers et à proposer d’abord des solutions standards avant d’aller vers le développement. • Une maîtrise des développements spécifiques (plug-ins C#, JavaScript, APIs) quand c’est nécessaire. • Une aptitude à travailler en proximité avec les PO, BA et le Tech Lead pour garantir la cohérence globale. Ce rôle est donc {*}technique, très concret, mais avec une vraie dimension de collaboration et de co-construction avec les métiers{*}. Missions *Missions principales :* Configurer et adapter Dynamics 365 Sales aux besoins exprimés (entités, vues, formulaires, règles métiers, BPF, séquences, etc.) Analyser les besoins des PO/BA et proposer des solutions standard Dynamics avant toute personnalisation Participer aux rituels d’équipe, cadrer les US techniquement (chiffrage, faisabilité, solution design) Réaliser les développements nécessaires (C#, JS, Power Automate, Plugins…) Contribuer aux revues techniques avec l'équipe, garantir la cohérence des livrables Assurer un support technique niveau 2 lors des phases de run Piloter et accompagner l'équipe technique composée de développeurs Porter la vision produit auprès des équipes.
Mission freelance
Tech Lead Fullstack React / Next JS / Express
BLOOMAYS
Publiée le
Express
Next.js
React
1 an
400-500 €
Courbevoie, Île-de-France
🏢 Description de lʼentreprise Acteur majeur des services d’information et de contenus à forte valeur ajoutée, l’entreprise évolue dans un environnement en pleine transformation digitale, avec des enjeux forts autour de l’accès, de la structuration et de la diffusion de contenus documentaires complexes. Dans ce contexte, les équipes produits développent des plateformes à destination de professionnels exigeants, avec un haut niveau d’attente en matière de performance, d’ergonomie et de fiabilité. L’environnement est tech-driven , collaboratif et orienté amélioration continue, avec une vraie volonté d’investir dans des architectures modernes et des pratiques d’ingénierie solides. 💼 Description du poste Votre mission En tant que Tech Lead Fullstack, vous prenez un rôle clé dans le développement et l’évolution d’un portail documentaire stratégique. Vous intervenez à la fois sur le delivery technique et sur l’accompagnement des développeurs, dans une logique de qualité, de scalabilité et de transmission. Contexte Vous rejoignez une équipe produit à taille humaine (PO + développeurs + Tech Lead) et intervenez sur un produit existant en constante évolution, avec des enjeux de maintenance, de refonte et d’enrichissement fonctionnel. Stack principale : React / Next.js / Express / TypeScript Vos responsabilités principales Accompagner et encadrer techniquement les développeurs (coaching, montée en compétences) Participer activement au développement sur le périmètre applicatif Concevoir et faire évoluer l’architecture applicative en lien avec les équipes techniques (architecture, sécurité, infrastructure) Traduire les besoins fonctionnels en solutions techniques robustes Garantir la qualité du code et des pratiques (revues de code, SonarQube, standards) Collaborer étroitement avec les différentes parties prenantes (produit, technique, transverse) Environnement & pratiques Méthodologies Agile Scrum & DevOps Culture de l’amélioration continue et de la responsabilité collective Forte autonomie et capacité d’impact sur les choix techniques Ce que vous allez construire Un portail à forte valeur métier, avec des problématiques concrètes de performance, d’accessibilité à l’information et de scalabilité, dans un contexte de transformation digitale structurant.
Offre d'emploi
Tech Lead Java/Angular H/F
VIVERIS
Publiée le
55k-70k €
Boulogne-Billancourt, Île-de-France
Contexte de la mission : Viveris est un groupe de conseil et d'ingénierie spécialisé dans la conduite et la réalisation de projets dans les domaines de l'informatique et de l'électronique. S'engager avec Viveris, c'est l'assurance de relever des défis techniques et humains tout en travaillant sur des projets innovants dans un environnement collaboratif et solidaire. VIVERIS est à la recherche d'un(e) Tech Lead Java Angular. Responsabilités : - Développer et faire évoluer les backs et fronts de l'application - Mettre en place au sein de la Feature Team les bonnes pratiques de développement, en vue d'avoir un code efficace, évolutif et maintenable - Être proactif et force de proposition sur la réalisation du point de vue technique et fonctionnel - Aider les autres développeurs à monter en compétence (peer coding, code reviews etc...)
Offre d'emploi
Data base administrateur (DBA) MongoDB
Sijo
Publiée le
AWS Cloud
Azure
Mongodb
3 ans
55k-75k €
500-700 €
Île-de-France, France
Nous recherchons un Data base administrateur (DBA) MongoDB dynamique et motivé pour rejoindre le cabinet Sijo. Sijo est un cabinet de conseil en IT spécialisé dans le secteur de la banque et de la finance. Nous accompagnons nos clients dans leurs réalisations de projets techniques, ainsi que nos consultants dans leurs projets de carrière. Nous sommes un cabinet référencé auprès de la Société Générale, la BNP, la Banque Postale, le Crédit Agricole, Engie Trading et Natixis. Nous sommes référencé « Top vendeur » auprès de la Société Générale, ce qui signifie que nous faisons partie de leurs 40 1er fournisseurs. Le candidat idéal aura une expertise en gestion de base de données avec la technologie MongoDB et une bonne connaissance sur Azure et AWS.
Offre d'emploi
Data Scientist Senior - Veille & Développement Modèles
TS-CONSULT
Publiée le
Azure
Scikit-learn
1 an
Île-de-France, France
Bonjour a tous ,actuellement je suis a la recherche d'un profil , Data Scientist Senior - Veille & Développement Modèles Profil recherché : Data Scientist Senior avec expérience banking/finance, expert en ML/DL et maîtrisant le vibe coding, capable d'évaluer rapidement la faisabilité technique des use cases IA, de développer des POCs et de rester à la pointe des avancées technologiques. Compétences requises Hard Skills : • 7 ans d'expérience minimum en Data Science / Machine Learning • Expérience confirmée dans le secteur banking/finance (compréhension des enjeux métier) • Expérience démontrée en vibe coding avec utilisation productive d'outils IA pour prototypage rapide • Expertise en ML/DL : apprentissage supervisé, non-supervisé, deep learning, NLP, séries temporelles • Maîtrise des frameworks Python : scikit-learn, TensorFlow, PyTorch, XGBoost, LightGBM • Connaissance approfondie des LLMs et techniques modernes (fine-tuning, RAG, prompt engineering, agents) • Expertise en feature engineering et sélection de variables • Maîtrise de l'analyse exploratoire de données et statistiques • Expérience en évaluation et optimisation de modèles (hyperparameter tuning, cross-validation) • Connaissance des plateformes Cloud ML (AWS SageMaker, Azure ML, GCP Vertex AI) • Maîtrise de SQL et manipulation de grands volumes de données • Connaissance des outils de versioning (Git) et notebooks (Jupyter, Databricks) • Un plus : Expérience en Computer Vision, Reinforcement Learning ou Graph ML Soft Skills : • Curiosité intellectuelle insatiable et veille technologique active • Capacité de synthèse et de recommandation (traduire la complexité technique en insights actionnables) • Esprit critique face aux résultats de modèles et au code généré par IA • Pragmatisme : capacité à évaluer rapidement le ROI d'une approche technique • Rigueur scientifique dans l'expérimentation et la validation • Excellente communication technique et métier • Capacité à travailler dans l'incertitude et l'ambiguïté • Esprit d'initiative et force de proposition • Pédagogie et mentorat (accompagnement du Data Scientist junior) • Esprit agile et adaptatif Anglais courant.
Mission freelance
Data Analyst - confirmé - freelance - Rouen H/F
GROUPE ARTEMYS
Publiée le
1 mois
76000, France
Qui sommes-nous ? ESN : +35 ans d’existence. Expertise ARTEMYS AGIL-IT : Ingénierie logicielle | BDD | BI | Big Data. 800 collaborateurs | 80M€ CA (2024). Entreprise humaine : ProximITé, ConvivialITé, SolidarITé, EsprIT d’équipe, Partage, Respect et Accompagnement. Engagement responsable : Adhésion Global Compact, Planet Tech’Care, Label SILVER EcoVadis Sustainability, Charte de la Diversité. En savoir plus : | L’ IT chez ARTEMYS AGIL-IT combine la technologie et l’humain ! Nous sommes convaincus que les compétences, le savoir-être et l’épanouissement de nos Talents sont les clés de notre réussite . Avant tout, nous recherchons chez ARTEMYS AGIL-IT des personnalITés passionnées. Contexte de la mission : Le pôle Data & BI de notre client est engagé dans une dynamique de renforcement pour 2026, avec des enjeux forts autour de la structuration des usages BI, de la consolidation des données et de la mise à disposition de la donnée aux métiers dans une logique de self-BI. Les travaux portent à la fois sur la refonte de l’existant et sur la construction de nouvelles briques data, avec une volonté claire de professionnaliser les pratiques et de sortir progressivement d’un fonctionnement trop orienté production. Objectif de la mission : En tant que Data Analyst / BI Engineer, vous intervenez comme profil de construction au cœur de l’ingénierie data : Concevoir et structurer les modèles de données analytiques Fiabiliser les chaînes de traitement de données Mettre à disposition une donnée exploitable et autonome pour les métiers Contribuer à la mise en place de process data robustes (build / run / fiabilisation) Votre mission (si vous l’acceptez) : Build Conception et développement des pipelines d’ingestion et de transformation Construction de bases de données analytiques Modélisation décisionnelle (modèle en étoile) Conception de cubes pour la mise à disposition de la donnée métier Développement orienté Python, avec une approche code-first et versionnée (Git) Run Maintien et évolution des traitements existants Supervision et optimisation des flux de données Contribution à la stabilité de la plateforme data Fiabilisation (enjeu clé du poste) Mise en place de contrôles de qualité de données Sécurisation et structuration des process Contribution à la réduction des interventions directes en production Vous, notre perle rare : Compétences techniques Expérience confirmée en Data / BI Maîtrise de la conception de bases de données analytiques Solide pratique de la modélisation décisionnelle Expérience en Python appliqué au traitement de données Sensibilité forte aux bonnes pratiques de développement logiciel Compétences fonctionnelles Capacité à comprendre les enjeux métiers et à les traduire en modèles data Appétence pour les sujets de construction et de structuration Intérêt marqué pour la qualité et la fiabilité de la donnée Soft skills Esprit structurant et pragmatique Capacité à travailler dans un contexte en transformation Goût pour les environnements techniques exigeants et évolutifs Environnement technique : Cloud : Azure / Data Fabric Ingestion & orchestration : outils Azure, usage orienté code (non low-code) Langage : Python Modélisation : data marts, modèles en étoile, cubes Méthodologie : pratiques issues du développement logiciel (Git, traçabilité, structuration) Le process pour nous rejoindre : simple et clair ! Échange RH : On discute de vos motivations et de l’adéquation avec nos valeurs (promis, pas de robotisation ici). Entretien opérationnel : Un échange approfondi pour clarifier vos missions. Proposition d'embauche : Si tout colle, on vous accueille officiellement chez Artemys ! Rémunération et conditions : TJ en fonction de votre expertise sur un poste similaire Prise de poste ASAP Freelance / Portage 3 mois renouvelable Mode de travail hybride, 1 journée de télétravail par semaine Bienvenue dans l’aventure ARTEMYS Chez nous, chaque talent compte. Peu importe votre âge, vos origines, votre identité, votre religion ou votre orientation : ce qui nous intéresse, c’est vous et ce que vous avez à apporter. On s’engage à répondre à toutes les candidatures sous 72 heures, parce qu’on sait combien l’attente peut être stressante. Et ici, l’inclusion n’est pas qu’un mot : tous nos postes sont ouverts aux personnes en situation de handicap, et on fait tout pour créer un environnement où chacun peut s’épanouir. Prêt, feu, candidatez !
Mission freelance
DevOps GCP Senior (3 jours/semaine) – Data Platform & Industrialisation
HOXTON PARTNERS
Publiée le
DevOps
Google Cloud Platform (GCP)
6 mois
Paris, France
Description de la mission : Nous recherchons un consultant DevOps GCP senior pour intervenir au sein d’une Data Factory orientée Digital Marketing. La mission s’inscrit dans un environnement data à fort enjeu, avec pour objectif de sourcer des données issues de plateformes Social & Marketing, interfacer des solutions SaaS de Data Connector avec une plateforme Data sur GCP, et industrialiser la création ainsi que le cycle de vie des connecteurs. Le consultant interviendra sur la structuration et l’industrialisation de l’infrastructure et des environnements, avec une forte composante automatisation et fiabilisation des déploiements. Responsabilités : Mettre en place et maintenir l’infrastructure via Terraform (Infrastructure as Code) Structurer et optimiser les pipelines CI/CD (GitHub Actions) Superviser les environnements via Cloud Logging et Cloud Monitoring Gérer la sécurité des accès (IAM, Secret Manager) Déployer et maintenir des services sur GKE et Cloud Run Contribuer à l’industrialisation des flux data et des connecteurs Participer à la rédaction de la documentation technique et fonctionnelle
Mission freelance
SAP MASTER DATA
KUBE Partners S.L. / Pixie Services
Publiée le
SAP
6 mois
Paris, France
Je cherche activement un consultant SAP Master Data,côté production, dans le cadre de la construction d'un core modele. Pour la phase de cadrage, design et conception : démarrage ASAP Tâches Base article et non article Fiche info achats Fiche info fournisseurs Nomenclature production Gamme de production Costing Migration avec interfaces PLM vers SAP basées sur des Idocs et LSMW Lien avec metier Leadership Compétences requises : Master Data SAP (min 5 ans exp) Expérience conception générale indispensable, paramétrage, custo Orienté best practice Langues : français et anglais mandatory
Mission freelance
DATA SCIENTIST
Geniem
Publiée le
Data science
Dataiku
Google Cloud Platform (GCP)
6 mois
Lille, Hauts-de-France
Mission détaillée : Accompagner les projets de Data Science / Data Ingénierie de l’équipe Big Data sur des projets d’entreprise existant ou à développer : NLP, Deep Learning... Comprendre la problématique métier Imaginer les solutions / algorithmes pour y répondre Développer les algorithmes dans le respect des normes de développement de l’entreprise (GitHub) Contribuer à l’industrialisation de ces algorithmes Monitorer leur run Documenter les algorithmes SON ACTIVITE : Applique des techniques (statistiques, text mining, comportementale, géolocalisation, ) d’extraction et d’analyse d’informations, obtenues à partir de gisements de données (Big Data) Obtient des données adéquates, trouve les sources de données pertinentes, fait des recommandations sur les bases de données à consolider, modifier, rapatrier,externaliser, internaliser, conçoit des datamarts, voire des entrepôts de données (data warehouses). Évalue la qualité et la richesse des données, les analyse et en restitue les résultats pour ensuite les intégrer dans le système d’information cible du Métier. Analyse les données pour traduire une problématique Métier en problème mathématiques/statistiques et réciproquement. Environnements techniques Google Cloud Platform (GCS, BigQuery) Github Python Machine Learning Les livrables sont : Algorithmes ML Dashboards Explicabilités d’algorithmes
Mission freelance
DATA ANALYST
Geniem
Publiée le
Python
6 mois
Lille, Hauts-de-France
Data Analyste Le domaine Search& et Publication recherche un/une data analyst pour mener à bien des projets de data analyse et de dashboarding Objectif global du projet : Accompagner le métier Search& Publication en réalisant des études statistiques, des explorations de données et en construction des Dashboards Contrainte forte du projet GCP + PowerBI + Connaissance Web Les livrables sont Analyses statistiques Compétences techniques : Python, SQL - Confirmé - Impératif Dashboards (Power BI + Data Studio) - Confirmé - Impératif Connaissance données Web - Confirmé - Impératif Google Cloud Platform - Confirmé - Impératif Connaissances linguistiques Français Courant (Impératif) Anglais Professionnel (Impératif) Mission : - accompagner et challenger le métier - être force de proposition sur des solutions adéquats et innovantes pour répondre aux problématiques métiers - réaliser des analyses statistiques préparatoires - réaliser des dashboards clairs et synthétiques - être pédagogue & autonome - communiquer, partager avec les autres interlocuteurs de la direction IT (data scientists, chef de projets et data ingénieurs) - savoir communiquer & restituer des résultats concrets SA MISSION : Mettre en œuvre des outils informatiques, des techniques et des méthodes statistiques pour permettre d’organiser, synthétiser et traduire efficacement des données. SES LIVRABLES : - Modèle et structuration des données - Algorithme / Méthode statistique
Mission freelance
Data Analyst Confirmé H/F
AGH CONSULTING
Publiée le
Data visualisation
Hadoop
MySQL
6 mois
200-400 €
Bordeaux, Nouvelle-Aquitaine
Nous recherchons pour l'un de nos clients, un Data Analyst Confirmé afin d'accompagner la mise en oeuvre de cas d'usage métiers à forte valeur ajoutée, dans un environnement Big Data. A ce titre, vos missions principales seront les suivantes : -Identifier, concevoir et implémenter des cas d'usage métiers basés sur le croisement et l'analyse de données (ciblage, analyses exploratoires, datascience). -Développer et maintenir des produits DATA réutilisables (pipelines, scripts, datasets). -Exploiter les données via des traitements distribués sous environnement Hadoop. -Concevoir et publier des reportings et dashboards Power BI (datasets, dataflows, rapports). -Produire des présentations synthétiques (PPT) des résultats d'analyses. -Garantir le respect des standards, bonnes pratiques et normes DATA. -Accompagner les équipes métiers dans l'exploitation et l'acculturation à la donnée. Livrables attendus : -Programmes DATA industrialisés sous plateforme Big Data -Jeux de données et dataflows Power BI -Tableaux de bord et rapports de datavisualisation -Supports de restitution et présentations des études réalisées Environnement technique : -Plateforme : Hadoop (Cloudera) -Langages : Python, PySpark, SQL -Outils de restitution : Power BI
Mission freelance
POT8991 - Un Data Analyst Sur Massy
Almatek
Publiée le
Python
6 mois
270-400 €
Massy, Île-de-France
Almatek recherche pour l'un de ses clients, Un Data Analyst Sur Massy. Maîtrise parfaite du SQL et d'au moins un langage de programmation (Python, R). Maîtrise d'outils de datavisualisation avancés (Tableau, Looker Studio). Maîtrise des bonnes pratiques de code: test de cohérence, commentaires, documentation, etc Excellente rigueur: capacité à gérer une tâche détaillée et cadrée dans un ticket Jira de A à Z en respectant tous les points spécifiés capacité à documenter l’ensemble de ses rendus: périmètre d’analyse (période, type d'agrégation, etc), documentation technique et fonctionnelle de façon à ce que toute personne dans l’équipe puisse reprendre facilement ses analyses Expérience avec l’environnement GCP préférable (BigQuery notamment) Expérience avec des bases de données volumineuses (Big Data) et des outils associés (Hadoop, Spark) est un plus. Connaissance des techniques de machine learning est un plus Compétences analytiques : Excellente rigueur et capacité à gérer des projets complexes: capacité à prendre du recul sur la cohérence des analyses et sur les ordres de grandeurs Excellentes capacités analytiques, de résolution de problèmes et de pensée critique Capacité à construire des plans d'analyse détaillés et à gérer des tâches de A à Z incluant une proactivité dans la résolution de problèmes rencontrés Capacité à interpréter les résultats d'analyses complexes
Offre d'emploi
Tech Lead SAS
R&S TELECOM
Publiée le
Microsoft Access
12 mois
40k-48k €
400-480 €
Île-de-France, France
Contexte de la mission Dans le cadre de l'équipe décisionnelle et data Levallois a besoin de renforcer sa capacité à faire sur les projets du domaine Indemnisation IARD Le parc applicatif existant est intégralement développé à l'aide des solutions de l'éditeur SAS Institute. Objectifs et livrables La Société devra fournir les prestations suivantes : Recueil et formalisation des besoins métiers Conception / développement SAS N2/N3 pour les incidents en production Contribution au pilotage de l’activité Profil / compétences : Expérimenté Connaissances du domaine Indemnisation IARD Capacité à faire exprimer et formaliser un besoin métier Capacité à piloter un portefeuille de demandes et suivre leur réalisation Capacité à comprendre la logique applicative et l’articulation avec le métier Capacité à rédiger des spécifications Capacité à prendre ou charge ou piloter les développements Capacité à comprendre l’architecture du SID et le faire évoluer en fonction des besoins métiers Expérience avérée dans la réalisation d’application décisionnelle SAS en environnement « industriel » de l’intégration des données à la restitution. La qualité industrielle couvre les aspects supervision des traitements, reprise des traitements, sauvegarde des données, instructions de travail … nécessaires à une exploitation « industrielle ». Capacité à prendre en charge des incidents et/ou coordonner leur résolution Expertise SAS (SAS Base, SAS Macro, SAS SQL, SAS DB2, …. ), maitrise des outils SVN, Confluence, JIRA et ServiceNow Définition des missions : Recueil et formalisation des besoins métiers o Compréhension des enjeux métier o Proposition de solutions en maximisant la réutilisation du patrimoine applicatif o Validation et conception fonctionnelle détaillée de la solution o Devis / planning Conception / développement SAS o Conception technique o Réalisation, suivi et validation des développements o Mise en production o En direct ou après délégation N2/N3 pour les incidents en production o Traitement des incidents en production et rattrapage de données o Correction des développements et re-livraison en production si nécessaire o Communication de l’avancement et de la résolution o En direct ou après délégation Contribution au pilotage de l’activité o Reporting opérationnel o Contribution aux points métiers o Contribution au plan de charge de la structure
Offre d'emploi
Tech Lead Java
KLETA
Publiée le
Java
Springboot
3 ans
Paris, France
Dans le cadre d’un programme de transformation applicative, nous recherchons un Tech Lead Java pour piloter techniquement des équipes de développement et garantir la qualité des solutions livrées. Vous analyserez les besoins métiers et techniques, proposerez des architectures adaptées et accompagnerez leur mise en œuvre en vous appuyant sur Java et les frameworks modernes (Spring, Spring Boot, API REST). Vous serez responsable des choix structurants en matière de conception logicielle, de performance, de maintenabilité et de testabilité des applications. Vous animerez des revues de code, définirez des standards de développement et veillerez à leur bonne application au sein de l’équipe. Vous travaillerez étroitement avec les équipes DevOps pour intégrer les développements dans des pipelines CI/CD fiables et exploitables en production. Vous interviendrez également en support lors d’incidents critiques, en analysant les causes racines et en proposant des améliorations durables. Enfin, vous jouerez un rôle clé dans la montée en compétence des développeurs et dans la diffusion des bonnes pratiques techniques.
Mission freelance
Service Delivery Manager – Plateforme DATA / IA
KatchMe Consulting
Publiée le
SLA
6 mois
500-600 €
Issy-les-Moulineaux, Île-de-France
Le Service Delivery Manager intervient au sein d’une direction informatique en charge des infrastructures, de la production et de la supervision des systèmes d’information. Dans un contexte de transformation numérique et d’intégration d’équipes techniques issues de différentes entités, le poste vise à garantir la qualité, la continuité et la performance des services IT fournis aux métiers. Le Service Delivery Manager joue un rôle central dans la coordination entre les équipes métiers, les équipes techniques et la gouvernance des projets. Il veille à l’alignement des services informatiques avec les besoins opérationnels et s’assure du respect des engagements de service. Dans ce cadre, ses principales responsabilités sont : Garantir le respect des engagements opérationnels (OLA) et veiller au respect des engagements de service (SLA) . Participer à la gestion des incidents majeurs et des crises informatiques . Organiser et piloter les retours d’expérience (REX) suite aux incidents majeurs et assurer le suivi des plans d’actions. Assurer la gestion des problèmes selon les bonnes pratiques ITIL , afin d’identifier les causes racines et réduire la récurrence des incidents. Assurer le suivi des indicateurs de performance et produire les reportings associés. Représenter l’équipe dans les instances de pilotage de la qualité de service lorsque nécessaire. Contribuer au maintien en conditions opérationnelles du système d’information . Participer à la validation et à l’évolution du catalogue de services . Être responsable de la documentation opérationnelle relative à la gestion des incidents. Contribuer à l’ amélioration continue des processus RUN , notamment sur les processus de gestion des incidents, des problèmes et des demandes. Dans son rôle opérationnel, le Service Delivery Manager contribue également à : Définir et formaliser la convention de services de la plateforme. Garantir la qualité et la disponibilité des services IT . Maintenir un haut niveau de satisfaction des utilisateurs et des métiers . Optimiser l’utilisation des ressources techniques et organisationnelles . Favoriser une démarche d’amélioration continue basée sur les retours d’expérience et les indicateurs de performance.
Mission freelance
Ingenieur Data RH
Comet
Publiée le
Azure Data Factory
BI
Databricks
12 mois
400-620 €
Île-de-France, France
Compétences techniques : Python / Pyspark / SQL - Expert - Impératif Databricks - Expert - Impératif Datafactory - Confirmé - Important Modélisation BI - Confirmé - Souhaitable Description détaillée Contexte : Le projet Data-RH vise à centraliser et modéliser les données issues des systèmes dans un modèle unifié, permettant des analyses transverses et une exploitation optimale des données métier. Environnement technique : Azure Data Factory, Databricks, Python, PySpark, SQL, Azure DevOps et Power BI. Missions : - Concevoir et développer des pipelines d’ingestion de données via Azure Data Factory. - Créer et optimiser des flux de transformation de données en PySpark/Python. - Maintenir et développer de nouveaux indicateur de qualité de données - Mettre en œuvre et industrialiser les pipelines CI/CD avec Azure DevOps. - Participer au refactoring du code existant pour améliorer sa performance et sa maintenabilité. - Garantir la qualité du code et veiller au respect des normes de développement au sein de l’équipe. - Implémenter des tests unitaires et assurer la fiabilité des solutions. - Mettre en place des solutions de monitoring et de supervision pour l’application Data-RH. Profil recherché : - Maîtrise avérée de SQL, Python, PySpark et Spark. - Expérience confirmée sur l’écosystème Microsoft Azure (Data Factory, Databricks, DevOps). - Bonne connaissance de Git et des pratiques DevOps. - Sens de la communication, force de proposition et capacité à travailler en équipe. - Rigoureux, attaché aux bonnes pratiques de développement et à la qualité du code. Définition du profil : Il est garant du bon fonctionnement et de la disponibilité des données dont il a la responsabilité. Il assure la prévention des dysfonctionnements des données et contribue à la bonne utilisation de celles-ci
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
2443 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois