L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 878 résultats.
Mission freelance
Data Engineer Nantes /st
WorldWide People
Publiée le
Python
12 mois
340-390 €
Nantes, Pays de la Loire
Data Engineer Nantes •Langages de programmation et scripting (ex : SQL, Python, Java, Bash/Shell scripting, …) •Bases de données (ex : Base, Data Warehouse, Data Lake, Data Platform / Lakehouse, …). •Traitement des données (Frameworks Big Data, comme Apache Spark, Pipelines ETL/ELT, Streaming, …) •Cloud Computing (ex : Azure, Concepts cloud, stockage et calcul distribués, …) •Modélisation des données et architecture (ex : Modélisation des données relationnelles et dimensionnelles, modèle en étoile, en flocon, compréhension des architectures Data Lake, Data Warehouse, et Data Platform / Lakehouse, …) •Gestion et optimisation des schémas pour les performances. •DevOps et ingénierie logicielle (ex : outils CI/CD, conteneurs et orchestration, versionnement via Git/GitHub pour le suivi du code source, surveillance et journalisation, …) •Outils de gestion des données et gouvernance (Qualité des données : Vérification des duplications, gestion des erreurs, validation… Gouvernance des données : Connaissance des politiques comme le RGPD, gestion des catalogues, Sécurité des données…) 07/04/2026 Mission longue Ce poste est ouvert à la pre-embauche Le Data Engineer est un expert en gestion des données, qui est chargé de la conception et de la maintenance de l’infrastructure data du périmètre en responsabilité Tâches : Infrastructures de données : •Cartographie et documente les sources de données. •Assure la maintenance des différentes applications données (Data) déployées en production et des infrastructures. •Conçoit les solutions permettant le traitement de volumes importants de flux de données et ceci en toute sécurité. •Structure les bases de données (sémantique, format, etc.). •Contribue à la gestion des référentiels de données. Intégration des données : •Capte et stocke, en toute sécurité, les données (structurées ou non) produites dans les différentes applications ou venant de l’extérieur de l’entreprise. •Assure la supervision et l’intégration des données de diverses nature qui proviennent de sources multiples. Vérifie la qualité des données qui entrent dans la Data Platform et s’assure de leur sécurité. •Nettoie la donnée (élimination des doublons…) et la valide pour une utilisation aval. •Animation des communautés : •Anime la communauté technique qui met en oeuvre les dispositifs prévus ou nécessaires à l’application de la politique de la donnée de l’entreprise. Veille technologique : •Reste en alerte sur les technologies liées au traitement de la manipulation de la donnée et identifie les solutions utilisables. •Propose des évolutions pour les infrastructures et solutions de données en place. Compétences Technique : •Langages de programmation et scripting (ex : SQL, Python, Java, Bash/Shell scripting, …) •Bases de données (ex : Base, Data Warehouse, Data Lake, Data Platform / Lakehouse, …). •Traitement des données (Frameworks Big Data, comme Apache Spark, Pipelines ETL/ELT, Streaming, …) •Cloud Computing (ex : Azure, Concepts cloud, stockage et calcul distribués, …) •Modélisation des données et architecture (ex : Modélisation des données relationnelles et dimensionnelles, modèle en étoile, en flocon, compréhension des architectures Data Lake, Data Warehouse, et Data Platform / Lakehouse, …) •Gestion et optimisation des schémas pour les performances. •DevOps et ingénierie logicielle (ex : outils CI/CD, conteneurs et orchestration, versionnement via Git/GitHub pour le suivi du code source, surveillance et journalisation, …) •Outils de gestion des données et gouvernance (Qualité des données : Vérification des duplications, gestion des erreurs, validation… Gouvernance des données : Connaissance des politiques comme le RGPD, gestion des catalogues, Sécurité des données…) Compétences Métier : •Compétences analytiques et mathématiques (Compréhension des statistiques pour interpréter les données et aider les équipes de Data Science, Familiarité avec les bases de l’apprentissage automatique et des modèles d’IA, …). •Résolution de problèmes : Capacité à identifier des inefficacités et à proposer des solutions. •Communication : Présentation claire des concepts techniques à des publics non techniques. •Adaptabilité : Apprendre rapidement de nouvelles technologies dans un domaine en constante évolution
Mission freelance
Data Mesh Platform Manager (h/f)
emagine Consulting SARL
Publiée le
1 mois
550-650 €
92400, Saint-Germain-en-Laye, Île-de-France
Le rôle de Data Mesh Platform Manager est à la fois stratégique et opérationnel, visant à concevoir, construire, déployer et exploiter la plateforme Data Mesh du groupe. L'objectif principal de ce poste est d'assurer la livraison technique, de garantir l'adoption par les domaines métiers, d'atteindre l'excellence opérationnelle et de favoriser l'amélioration continue. Responsabilités : Architecture et construction de la plateforme : data products, pipelines, gouvernance, observabilité, accès self-service Gestion cloud/hybride : AWS, Azure, intégration on-premise, sécurité, automatisation et Infrastructure as Code Gestion de la livraison : backlog, priorisation, releases, suivi SLA, performance et fiabilité Déploiement et adoption par les domaines métiers : onboarding, enablement, formation et métriques d’usage Product management et amélioration continue : vision produit, KPIs, feedback utilisateurs et roadmap évolutive Documentation, standardisation et gouvernance : compliance, bonnes pratiques, catalogue et métadonnées Communication et reporting : dashboards, présentations exécutives, suivi décisions/risques Promotion interne : valorisation de la plateforme, animation de la communauté et démonstrations Must Haves : 15+ ans d'expérience en data platform, data engineering ou architecture, avec expérience pratique Data Mesh Compétences techniques en architecture distribuée, systèmes distribués, DevOps/DataOps Expérience en pipelines et orchestrations, gouvernance, observabilité Maîtrise des cloud AWS/Azure Nice to Have : Soft skills : leadership technique et opérationnel Pragmatisme et communication cross-fonctionnelle Pensée stratégique et influence sans autorité D'autres détails : Indicateurs de succès : adoption et usage de la plateforme, qualité et nombre de data products, fiabilité, performance, satisfaction utilisateurs et réduction du time-to-market
Mission freelance
IT Network Project Manager
STHREE SAS pour HUXLEY
Publiée le
12 mois
France
Contexte de la mission La mission de l'organisation est de permettre aux personnes de vivre une vie meilleure en évoluant d'un rôle de simple payeur de services vers celui de véritable partenaire du quotidien. Dans ce cadre, la fonction Operations a pour vocation de soutenir et d'accompagner l'ensemble des équipes en mettant l'accent sur deux leviers majeurs : l'Innovation et l'Exécution . L'objectif est de : Créer les conditions nécessaires au développement de solutions innovantes répondant aux besoins actuels et futurs des clients. Offrir un environnement permettant aux équipes de concrétiser leurs idées et de tenir la promesse faite aux clients. Renforcer la création de valeur, encourager l'innovation, simplifier les pratiques quotidiennes et contribuer efficacement à la stratégie globale. Le département Network Global Products (NGP) a pour mission de moderniser, standardiser et sécuriser l'infrastructure réseau à travers un portefeuille d'initiatives couvrant : la connectivité utilisateur, la connectivité data center & cloud, les services de sécurité & réseau, l'excellence opérationnelle réseau. Présentation du rôle Au sein du NGP PM Office , le service IT Project Management pilote un ensemble d'initiatives du portefeuille NGP en lien étroit avec les Network Products Services. La mission consiste à assurer la livraison sécurisée de projets réseau variés : initiatives technologiques, programmes de refresh IT, évolutions produits, et projets transverses, en garantissant une maîtrise totale du périmètre, du planning, du budget et de la qualité. Le rôle agit comme facilitateur de delivery pour les Product Lines, en veillant à ce que les standards, la gouvernance et les jalons Network Global Products soient respectés, tout en anticipant les risques et en assurant un reporting clair et régulier.
Mission freelance
Devops IA - Bordeaux
Signe +
Publiée le
Docker
IA
Kubernetes
6 mois
370-400 €
Bordeaux, Nouvelle-Aquitaine
Vous serez notamment charge de : - Conception et gestion de la plateforme IA: Administrer et optimiser les clusters (Kubernetes) et les ressources de calcul (GPU/CPU). - Industrialiser le déploiement des environnements hors prod et prod via de l'infrastructure as code. - Mise en place de CI/CD pour les applicatifs de l'IA. - Monitoring et Observabilité: Déployer des outils de supervision avancés pour garantir la haute disponibilité des services IA et le suivi des performances système. - Optimisation et FinOps: Piloter la consommation des ressources cloud/on-premise pour rationaliser les coûts liés à IA. - Expertise technique: Accompagner les MLOps de l'équipe dans l'adoption des meilleures pratiques DevOps et assurer une veille technologique.
Mission freelance
Développeur API - Expert Python / FastAPI
Codezys
Publiée le
Angular
API
Azure
12 mois
Paris, France
Principales missions Collaborer avec les équipes d'infrastructure en tant qu' expert en développement Python et FastAPI , pour concevoir, développer, et déployer des APIs de gestion des infrastructures. Participer à la migration vers des solutions cibles API et mettre en œuvre des mesures pour garantir la stabilité et la performance des services. Intégrer des outils DEVOPS tels que XLR, Jenkins, Bitbucket et Artifactory dans le processus de développement. Réaliser des tests unitaires et de non-régression pour assurer la qualité et la fiabilité des APIs développées. Contribuer à l' amélioration continue des pratiques de développement, notamment en matière de performance et de disponibilité. Ce que nous attendons de vous Nous recherchons des experts passionnés disposant d'une solide expérience en développement Python et FastAPI . La connaissance d'outils tel qu' Ansible et Angular sera considérée comme un plus. La maîtrise des concepts CI/CD et une sensibilité à la sécurité des développements sont essentielles. Vous devrez faire preuve d' adaptabilité et d' esprit collaboratif pour travailler efficacement avec diverses équipes. Une expertise approfondie en tests (unitaires, non-régression) et une approche orientée résultats seront fondamentales. Enfin, votre capacité à communiquer et à transmettre vos connaissances sera cruciale pour aider nos équipes à atteindre leur autonomie dans le développement d'APIs. Objectifs et livrables Réaliser des APIs permettant d'accéder aux services internes, tout en respectant les exigences de performance et de sécurité . Définir les nouvelles APIs en collaboration avec les équipes métiers et d'architecture . Développer et maintenir des APIs utilisant des technologies telles que Java, Maven, RAML, Anypoint . Créer les tests unitaires et d' intégration associés à chaque API. Déployer les APIs sur différents environnements , en assurant leur fiabilité et leur conformité aux normes en vigueur.
Offre d'emploi
Développeur Python / IA
CAT-AMANIA
Publiée le
Agent IA
DevOps
Python
40k-60k €
Levallois-Perret, Île-de-France
AI Delivery accompagne les métiers et les pays dans leurs projets de Data science, depuis la génération de use case jusqu’à la mise en production. Notre équipe, dynamique et internationale, au profil « start-up » intégrée à un grand groupe, regroupe des profils de Data scientist experts en Machine Learning (computer vision, NLP, scoring), un pôle ML engineering capable d'accompagner les DataScientists lors de l'industrialisation des modèles développés (jusqu'à la mise en production) ainsi qu’une équipe AI Projects. AI Delivery met aussi à disposition des lignes de métiers Personal Finance la plateforme de Datascience « Sparrow », qui comporte * une plateforme d'exploration et de développement Python, Sparrow Studio, développée in-house par une équipe dédiée * un framework d'industrialisation des modèles de Datascience, Sparrow Flow, ainsi qu'une librairie InnerSource “pyPF” facilitant les développements des Data Scientist. * une plateforme d'exécution des modèles de Datascience, Sparrow Serving * et un outil de Community Management, Sparrow Academy L’équipe Technical Office, composée principalement de MLOps Engineers, a pour principale mission d’être garante de la qualité des livrables de l’ensemble de la direction, de les déployer sur le cloud privé du Groupe, « dCloud » et enfin d’assurer la haute disponibilité de l’ensemble de nos assets. Cette équipe conçoit, développe et maintient des plateformes et des frameworks de data science. PF fait appel a une prestation en AT pour assurer l’évolution et la haute disponibilité de l'ensemble de nos assets. Le prestataire aura la charge de la disponibilité et de la stabilité de nos différentes plateformes data avec un focus particulier sur notre asset Sparrow. Le prestataire intègrera l’équipe du Technical Office. DevOps, MLOps, Data Science, Cloud sont les moteurs de son quotidien. Les sujets traités par l’équipe sont variés : • Participer à la maintenance/l’évolution des frameworks de data science existants (Python) ; • Participer à la maintenance/l’évolution des pipelines de CI/CD (Gitlab CI, GitOps) ; • Participer à la maintenance/l’évolution de l’Observabilité des plateformes (logging, monitoring, traçabilité) ; • Participer à la mise en production des outils et des solutions IA déployées sur la plateforme ; • Être force de proposition et participer aux POCs. Stack Technique de l’équipe : • Langages : Python, Golang, Bash • GNU/Linux • Kubernetes • DevOps tooling : Docker, Buildkit, Gitlab, GitlabCI, Artifactory, ArgoCD, Helm, Kustomize • Cloud services : Certmanager, Redis, Grafana, Jaeger, Prometheus, ELK, MinIO, Postgres Pre requis : • Expérience dans la prestation en python ; • Maîtrise de GitLab et des processus de CI/CD ; • Bonnes connaissances des infrastructures Cloud (système distribué et Object Storage) ; • Connaissance en machine learning et data science ; • Très bonnes connaissances en Intelligence Artificielle ; • Connaissances en Kubernetes sont un plus ; • Orienté clients, capacité à collaborer et communiquer à l’oral et à l’écrit ; • Niveau d’anglais correct à l’écrit et à l’oral ; • Méthodique et autonome • Intéressé par le monde open source
Mission freelance
Lead Plateforme MLOps / LLMOps
Cherry Pick
Publiée le
Apache Airflow
AWS Cloud
Azure AI
12 mois
500-600 €
Paris, France
Mission de pilotage de socle industriel IA Contexte Dans le cadre de sa stratégie Data & IA, notre client en secteur d'assurance engage un programme structurant visant à industrialiser et accélérer le déploiement des cas d’usage de Data Science, Machine Learning et IA Générative (LLM) . Ce programme repose sur la mise en place de socles technologiques mutualisés, robustes, sécurisés et scalables , notamment : une plateforme MLOps , un socle LLMOps , un environnement Python standardisé . Ces socles doivent permettre aux équipes Data & IA de concevoir, entraîner, déployer et superviser des modèles d’IA de bout en bout, dans des conditions industrielles. Dans ce contexte, notre client recherche un Responsable Plateforme MLOps , en charge du pilotage, de la conception, de la mise en œuvre et de l’exploitation du socle MLOps . Responsable Plateforme MLOps (Mission pilote de socle IA) Rattachement fonctionnel Data Office / Direction Data & IA En collaboration étroite avec : équipes Data Scientists & ML Engineers équipes IT / DSI / Production équipes Architecture et Sécurité SI 🎯 MISSIONS PRINCIPALES1. Conception & Architecture Définir, maintenir et faire évoluer l’ architecture cible de la plateforme MLOps en cohérence avec les standards du client. Sélectionner et intégrer les outils MLOps les plus pertinents (orchestration, versioning, CI/CD IA, monitoring…), sur la base du cadrage réalisé. Garantir l’ interopérabilité avec les socles LLMOps existants et l’environnement Python à venir . Valider les choix techniques avec les instances d’architecture et de sécurité. 2. Mise en œuvre & Déploiement Piloter et contribuer activement à la mise en œuvre technique du socle MLOps. Compléter le socle CI/CD existant avec les composants spécifiques à l’IA et au ML. Définir et implémenter les processus de déploiement, de versioning et de mise à jour des modèles en production . Travailler en coordination avec les équipes DSI / Production Data. 3. Exploitation, RUN & Monitoring Garantir la disponibilité, la performance, la sécurité et la scalabilité de la plateforme. Mettre en place un monitoring proactif des modèles (qualité, dérive, performance) et de l’infrastructure. Définir et suivre les KPIs, SLAs et indicateurs de service . Gérer les incidents et problèmes selon les pratiques ITIL. 4. Standardisation & Bonnes pratiques Définir et diffuser les bonnes pratiques MLOps auprès des équipes Data & IA. Mettre en place des standards de développement, de test, de packaging et de déploiement des modèles. Produire et maintenir une documentation technique et fonctionnelle complète. 5. Accompagnement & Support Accompagner les Data Scientists et ML Engineers dans l’appropriation de la plateforme. Fournir un support technique expert . Contribuer aux actions de formation, de conduite du changement et de partage de connaissances , en lien avec les équipes Change du Data Office. 6. Veille & amélioration continue Assurer une veille technologique active sur les outils et pratiques MLOps / LLMOps. Proposer des évolutions continues du socle en fonction des besoins métiers et des innovations du marché.
Mission freelance
Software Engineer Expert
Codezys
Publiée le
Automatisation
Azure
Azure Data Factory
6 mois
Paris, France
Groupe d'Assurance et de Services est une entité fournissant des produits et services pour le groupe d'assurance. Dans le cadre de l'équipe Data Business Intelligence & Analytics (DBIA), le périmètre inclut la mise en œuvre de nouvelles fonctionnalités pour un nouveau programme (Plateforme de Données Globale). La Plateforme de Données Globale repose sur une infrastructure cloud publique, principalement sur la plateforme de traitement de données en cloud, pour le stockage et la consommation de données (analyse de données, apprentissage automatique, visualisation de données). Cette plateforme couvrira plus de 240 applications de données destinées à plus de 10 000 utilisateurs. Services : Conception, mise en œuvre et support du moteur d’ingestion développé en interne utilisant les workflows de la plateforme de traitement et du code Python ; Support de niveau 3 pour ce moteur d’ingestion. Objectifs et livrables Livrables : Conception et preuve de concept ; Déploiement de nouvelles fonctionnalités/services ; Support de niveau 3 ; Documentation opérationnelle ; Participation aux plannings de l’itération, revues de sprint, réunions quotidiennes et ateliers de conception.
Offre d'emploi
Développeur PHP/Symfony Senior (H/F)
Link Consulting
Publiée le
PHP
Symfony
1 mois
45k-50k €
400-500 €
Toulouse, Occitanie
Notre client, acteur du secteur Digital, recherche son futur Développeur PHP/Symfony Senior (H/F) pour son site de Toulouse, dans le cadre d'une mission longue en renfort de l'équipe existante. Vos missions : Intégré à une équipe, vous interviendrez sur les activités suivantes : • Concevoir, développer et optimiser des applications PHP/Symfony à forte volumétrie. • Structurer et faire évoluer une architecture hexagonale robuste et scalable. • Appliquer les principes DDD pour renforcer la cohérence du domaine métier. • Participer aux décisions techniques et aux orientations d’architecture. • Contribuer à la qualité du code : tests, revue, documentation, bonnes pratiques. • Collaborer avec les équipes produit, QA et infrastructure pour fluidifier les livraisons. • Assurer une veille active et proposer des améliorations continues. Compétences techniques attendues : • PHP moderne (niveau expert). • Symfony et son écosystème. • Architecture hexagonale, DDD, conception orientée domaine. • Tests automatisés, CI/CD, qualité logicielle. • Connaissance des environnements conteneurisés ou cloud (souhaitée).
Offre d'emploi
DevSecOps - Editeur de logiciel - Montpellier
Talents Finance
Publiée le
CI/CD
DevOps
DevSecOps
40k-45k €
Montpellier, Occitanie
Contexte du poste : Nous développons et exploitons une plateforme technologique SaaS utilisée par des organisations publiques et privées pour piloter des opérations terrain à grande échelle. Notre solution repose sur une architecture cloud moderne, orientée microservices, traitant des volumes de données significatifs et intégrant des contraintes fortes de disponibilité, de performance et de sécurité. Dans un contexte de croissance continue et d’évolution de notre roadmap produit, nous renforçons l’équipe infrastructure afin de : • Industrialiser et fiabiliser les déploiements • Structurer les pratiques DevOps existantes • Intégrer pleinement les enjeux de cybersécurité dans le cycle de développement • Accompagner la montée en maturité vers un modèle DevSecOps avancé Le poste s’inscrit dans une dynamique de transformation technique : il ne s’agit pas uniquement de maintenir l’existant, mais de contribuer activement aux choix d’architecture et à l’amélioration continue de la plateforme. Avantages du poste : • Environnement technique stimulant et moderne •Télétravail partiel (2 à 3 jours par semaine) • Autonomie réelle dans les choix techniques Pourquoi nous rejoindre : • Participer activement à la structuration des pratiques DevSecOps • Avoir un impact concret sur les décisions d’architecture • Évoluer dans un environnement technique exigeant
Offre d'emploi
DevSecOps - Editeur de logiciel - Lyon
Talents Finance
Publiée le
CI/CD
DevOps
DevSecOps
40k-45k €
Lyon, Auvergne-Rhône-Alpes
Contexte du poste : Nous développons et exploitons une plateforme technologique SaaS utilisée par des organisations publiques et privées pour piloter des opérations terrain à grande échelle. Notre solution repose sur une architecture cloud moderne, orientée microservices, traitant des volumes de données significatifs et intégrant des contraintes fortes de disponibilité, de performance et de sécurité. Dans un contexte de croissance continue et d’évolution de notre roadmap produit, nous renforçons l’équipe infrastructure afin de : • Industrialiser et fiabiliser les déploiements • Structurer les pratiques DevOps existantes • Intégrer pleinement les enjeux de cybersécurité dans le cycle de développement • Accompagner la montée en maturité vers un modèle DevSecOps avancé Le poste s’inscrit dans une dynamique de transformation technique : il ne s’agit pas uniquement de maintenir l’existant, mais de contribuer activement aux choix d’architecture et à l’amélioration continue de la plateforme. Avantages du poste : • Environnement technique stimulant et moderne •Télétravail partiel (2 à 3 jours par semaine) • Autonomie réelle dans les choix techniques Pourquoi nous rejoindre : • Participer activement à la structuration des pratiques DevSecOps • Avoir un impact concret sur les décisions d’architecture • Évoluer dans un environnement technique exigeant
Offre d'emploi
DevSecOps - Editeur de logiciel - Bordeaux
Talents Finance
Publiée le
CI/CD
DevOps
DevSecOps
40k-45k €
Bordeaux, Nouvelle-Aquitaine
Contexte du poste : Nous développons et exploitons une plateforme technologique SaaS utilisée par des organisations publiques et privées pour piloter des opérations terrain à grande échelle. Notre solution repose sur une architecture cloud moderne, orientée microservices, traitant des volumes de données significatifs et intégrant des contraintes fortes de disponibilité, de performance et de sécurité. Dans un contexte de croissance continue et d’évolution de notre roadmap produit, nous renforçons l’équipe infrastructure afin de : • Industrialiser et fiabiliser les déploiements • Structurer les pratiques DevOps existantes • Intégrer pleinement les enjeux de cybersécurité dans le cycle de développement • Accompagner la montée en maturité vers un modèle DevSecOps avancé Le poste s’inscrit dans une dynamique de transformation technique : il ne s’agit pas uniquement de maintenir l’existant, mais de contribuer activement aux choix d’architecture et à l’amélioration continue de la plateforme. Avantages du poste : • Environnement technique stimulant et moderne •Télétravail partiel (2 à 3 jours par semaine) • Autonomie réelle dans les choix techniques Pourquoi nous rejoindre : • Participer activement à la structuration des pratiques DevSecOps • Avoir un impact concret sur les décisions d’architecture • Évoluer dans un environnement technique exigeant
Mission freelance
IT Risques Expert
Deodis
Publiée le
ISO 27005
1 an
550-600 €
Île-de-France, France
La mission vise à renforcer la gouvernance de la TI et des cyberrisques en évaluant, surveillant et alignant les pratiques en matière de risque, y compris la gestion de l’informatique souterraine pour assurer un contrôle uniforme et la conformité aux normes organisationnelles. Principales responsabilités : - Performance des évaluations des risques informatiques et informatiques couvrant les applications, services, infrastructures et initiatives de transformation. - Identification des écarts de risque et contribution à la planification de la remédiation conformément aux normes de gouvernance des risques informatiques. - Participation aux projets IT en tant que partie prenante des risques IT, et garantie que les risques sont identifiés, évalués et suivis. - Gestion des situations de Shadow IT, y compris l’identification, l’enregistrement, l’évaluation des risques et le suivi de la remédiation, assurant une maintenance précise dans ServiceNow. - Contribution aux évaluations de la gestion des risques technologiques tiers (TPTRM) et aux activités de diligence raisonnable. - Suivi des plans d’actions de remédiation en collaboration avec les équipes IT, Cyber Security et Business. - Participation aux campagnes de contrôle, aux exercices de gouvernance et au reporting structuré des risques. - Contribution à l’amélioration continue des risques informatiques et des processus GRC. - Informatique, cybersécurité ou domaine connexe. - Gestion des TI et des cyberrisques, audit informatique ou sécurité informatique. - Fondation informatique, architecture d’application, infrastructure, environnements cloud et contrôles de sécurité - ISO 27005, ISO 27001, NIST, frameworks COBIT. - Outils GRC (ServiceNow). - Défis de gouvernance informatique de l’ombre. - Environnement international multipartite. - anglais et français.
Mission freelance
Consultant SAP supervision run et support (H/F)
ALLEGIS GROUP
Publiée le
SAP
12 mois
Hauts-de-Seine, France
TEKsystems recherche pour l'un de ses clients grand compte un(e) Consultant SAP run et support (H/F) Aperçu du poste Le consultant SAP Supervision Run & Support est un rôle mondial responsable de garantir la stabilité opérationnelle, la continuité et la qualité des paysages SAP, couvrant à la fois le support SAP S/4HANA Public Cloud Run et le support technique externalisé SAP ECC 6.0 (TMS ). Pour SAP S/4HANA Public Cloud , ce rôle est responsable des opérations Run and Support et soutient activement l'entreprise lors des phases de déploiement, garantissant que les pays nouvellement implantés sont intégrés en douceur au support en régime permanent et pleinement intégrés au modèle Run. Pour SAP ECC 6.0 , le rôle est responsable de la gouvernance et de la supervision du support technique externalisé , agissant comme point unique de responsabilité pour la qualité du service et la stabilité opérationnelle. Cela inclut la coordination des fournisseurs externes de soutien de base et technique, la garantie de la disponibilité des systèmes, la bonne exécution de la maintenance, l'alignement des fenêtres d'arrêt avec les parties prenantes nationales, ainsi que la conformité aux niveaux de service et normes de gouvernance convenues. Ce rôle agit comme point unique de responsabilité pour les activités Run , coordonnant la résolution d'incidents, les opérations de service, la gouvernance et la performance entre les équipes internes, les fournisseurs AMS, SAP et les intégrateurs systèmes. Elle joue un rôle crucial dans la protection des opérations commerciales après la mise en service et dans la garantie que les niveaux de service sont respectés de manière constante dans un paysage SAP complexe et mondial. Portée et environnement • Portée : Global • SAP Landscape : SAP S/4HANA Public Cloud (Exécution/Support) • SAP ECC 6.0 (Support technique de maintenance – TMS) • Couverture géographique : S/4Hana cloud public : 2 pays (+ possiblement 27 pays prévus au cours des 4 prochaines années) • Modèle de fonctionnement : Hybride (équipes internes et fournisseurs AMS) Responsabilités clés Gestion de l'exécution et du support – SAP S/4HANA Public Cloud : Diriger et coordonner le fournisseur SAP S/4HANA AMS, agissant en tant que principal pendant opérationnel Posséder et gérer la résolution d'incidents L2/L3 pour SAP S/4HANA Public Cloud. Assurez-vous d'une gestion efficace des problèmes, y compris l'analyse des root cause et la prévention des incidents récurrents. Coordonnez les demandes de service et post-mise en service de la gestion des défauts. Soutenez les activités de transition et les phases d'hypercare lors des déploiements pays. Assurez la disponibilité du système, la stabilité opérationnelle et la continuité des activités. Coordonnez les versions SAP S/4HANA Public Cloud, en assurant une exécution correcte des tests, une communication avec les parties prenantes et l'alignement avec les intégrateurs IT et SAP. SAP ECC 6.0 – Soutien technique à la maintenance (TMS) : Assurer la stabilité opérationnelle et la disponibilité des systèmes SAP ECC 6.0 pour plusieurs pays. Gouverner et coordonner les fournisseurs externes de soutien de base et technique, garantissant l'exécution efficace des activités TMS externalisées. Planifier, valider et communiquer les activités de maintenance système, y compris les fenêtres d'arrêt, en accord avec les parties prenantes informatiques des pays. Établir, maintenir et faire respecter la gouvernance technique pour les environnements ECC. Agir comme point de contact unique pour les sujets liés à la base et à l'infrastructure ECC6, garantissant une communication efficace avec les équipes informatiques nationales. Gouvernance et performance du service : Surveillez, analysez et rapportez les SLA, KPI et indicateurs de performance des services. Assurez-vous de la conformité aux processus ITSM, aux normes opérationnelles et aux cadres de gouvernance. Agir comme interface principale avec les fournisseurs AMS, garantissant la qualité du service, la gestion de l'escalade et la conformité contractuelle. Favoriser l'amélioration continue des processus Run, des modèles de support et de l'efficacité opérationnelle.
Mission freelance
DevOps
Codezys
Publiée le
Ansible
Docker
Git
12 mois
350-420 €
Lyon, Auvergne-Rhône-Alpes
Présence sur site requise 3 jours par semaine. Au sein du pôle Système d'Information Chaînes Communicantes de la Département des Systèmes d'Information , l'équipe rassemble des briques applicatives et data essentielles à la supervision, la résilience, l’intelligence du réseau électrique. En intégrant des outils de visualisation de crise, des capteurs Internet des Objets (IoT) , des dataproducts, un socle DevOps mutualisé, l'équipe incarne une approche unifiée et opérationnelle de la donnée réseau. IndusML est une équipe DevOps rattachée à une unité dédiée, œuvrant pour un département spécifique. Elle est en charge de la mise en place et du maintien en condition opérationnelle des éléments d’infrastructure et outillage pour les DataScientists et développeurs de ce département. Le projet met à disposition des équipes Data une plateforme de travail structurée autour de 3 axes : des Environnements de Développement Intégrés (IDE) complets pour développer, s'interfacer avec les partenaires du projet et explorer la donnée dans les meilleures conditions des environnements applicatifs sécurisés et scalables pour permettre aux éléments produits par les utilisateurs d'atteindre un haut niveau de performance et de résilience de l'outillage CI/CD clé en main pour uniformiser et fiabiliser ce processus Objectifs et livrables Activité principale : Construire et faire évoluer les outils nécessaires au déploiement continu et automatisé des applications web et traitements de données produits par les analystes de données / scientifiques de données Assurer l’évolution des éléments d’infrastructure, middleware et outillage en fonction des contraintes d’obsolescence, de sécurité et de fonctionnalité Echanger avec l’ensemble des acteurs du Système d'Information (Développeurs, Sécurité, Architectes, Exploitants, etc.) pour s'assurer de la bonne adéquation de la solution avec le cadre d'entreprise Créer et maintenir la documentation qui doit accompagner les changements mis en place Participer aux cérémonies d’équipe Activité secondaire : Étudier l'intégration vers l’analyse de données future en lien avec le pôle Système d'Information DATA (cloud / on-premise) pour assurer aux équipes analytiques une continuité d'activité dans un nouveau contexte Système d'Information .
Mission freelance
Data Platform Engineer
Cherry Pick
Publiée le
AWS Cloud
Python
12 mois
600-650 €
Paris, France
Objectifs Votre mission est de responsabiliser et de faire monter en compétence notre communauté de plus de 50 data engineers et data scientists. Agissant comme le lien essentiel entre les feature teams et les ingénieurs de la plateforme, vous serez le garant de l’adoption et de l’évolution de notre plateforme data en fournissant un support technique opérationnel, en partageant les bonnes pratiques et en animant des initiatives de partage de connaissances. Grâce à un engagement proactif, un support direct et une collecte continue de feedback, vous favoriserez un environnement collaboratif, innovant et à fort impact — garantissant que notre plateforme s’adapte en permanence et délivre une valeur maximale à ses utilisateurs. Missions principales 1. Support technique : Accompagner les data engineers et data scientists dans leurs problématiques techniques en fournissant des solutions opérationnelles, des conseils, des bonnes pratiques et un support via des interactions directes au sein de leurs équipes. S’assurer que la dette technique est identifiée, comprise et gérée via des plans d’actions, et participer aux tâches sous-jacentes. Fournir des outils pour aider à gérer cette dette (tests, automatisation, agents IA, …). Collaborer avec les équipes data platform et support afin de garantir que les problèmes au sein des pipelines data et de la plateforme data sont identifiés et résolus, améliorant ainsi l’expérience développeur globale. 2. Évangélisation : Promouvoir l’adoption de la plateforme data par une utilisation quotidienne, en démontrant sa valeur auprès des utilisateurs existants. Partager avec la communauté de pratique et les équipes internes les tendances du marché, outils et technologies liés aux plateformes data. 3. Montée en compétences des équipes : Évaluer le niveau actuel des équipes sur les outils et pratiques de la Data Platform et l’améliorer via des formations, des exercices et la résolution de problématiques réelles. Promouvoir et animer une communauté de pratique afin de construire des parcours de formation d’amélioration, des ateliers internes et des webinaires mettant en valeur les capacités de notre Data Platform. Créer du contenu technique tel que des articles de blog, tutoriels, projets exemples et documentation afin d’aider les développeurs à comprendre et utiliser efficacement notre plateforme. 4. Boucle de feedback : Collecter activement les retours de la communauté des développeurs afin de fournir des analyses et suggestions d’amélioration produit aux équipes d’ingénierie de la plateforme. Fournir des tests pertinents pour les actifs techniques produits par les ingénieurs de la Data Platform et s’assurer qu’ils correspondent aux usages actuels des feature teams. Représenter les data engineers et data scientists au sein de l’entreprise, en veillant à ce que leurs besoins et défis soient compris et pris en compte. Qualifications / Compétences requises Maîtrise du développement Python et de la conception d’applications scalables et de haute qualité. Expérience avec des frameworks de traitement de données tels que Pandas ou Spark. Expérience pratique dans le développement et la maintenance de pipelines data de bout en bout. Expertise approfondie sur AWS, complétée par des certifications ou une expérience équivalente. Expérience des frameworks d’Infrastructure as Code (idéalement AWS CDK en Python). Connaissance des pratiques DevOps et des pipelines CI/CD afin d’améliorer les processus de déploiement. Excellentes compétences en communication et en présentation, capables d’expliquer des concepts techniques complexes à des publics variés. Forte appétence pour l’animation de communautés de développeurs et la création d’un impact positif. Bon niveau d’anglais, la documentation étant rédigée en anglais et une partie des utilisateurs de la Data Platform ne parlant pas français. Atouts supplémentaires : Expérience en développement produit agile et en méthodologie Scrum. Expérience de migration de pipelines data vers le cloud. Compréhension des bonnes pratiques de sécurité et de conformité dans des environnements cloud. Environnement technologique : AWS : S3, EMR, Glue, Athena, Lake Formation, Cloud Formation, CDK, Lambda, Fargate, … Data engineering : Airflow, Parquet, Apache Iceberg DevOps : Jenkins, SonarQube, Conda Logiciels : Python, Ruff
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
878 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois