L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 5 653 résultats.
Mission freelance
[SCH] Développeur Python – Redéveloppement de Modèle Industriel Stratégique - 1391
ISUPPLIER
Publiée le
10 mois
350-400 €
Dunkerque, Hauts-de-France
Dans le cadre du traitement de l’obsolescence d’un modèle industriel stratégique, notre client recherche un Développeur Python afin de prendre en charge la réécriture complète d’un existant vers un socle Python moderne. L’objectif est de conserver le périmètre fonctionnel et les niveaux de performance actuels, tout en produisant un code robuste, documenté et aligné avec les standards techniques internes. La mission s’inscrit dans un environnement mêlant informatique industrielle, data et systèmes distribués, avec une forte interaction avec des outils comme Azure DevOps, Azure Pipelines, Kafka et RabbitMQ. Une appétence pour les mathématiques appliquées et la compréhension d’anciens socles techniques, notamment Fortran, seront particulièrement appréciées. Missions : -Réécrire un modèle industriel existant en Python -Garantir le maintien du périmètre fonctionnel et des performances actuelles -Produire un code documenté, maintenable et conforme aux standards internes -Participer à l’analyse de l’existant et à la compréhension du modèle source -Intégrer les développements dans un environnement Azure DevOps / Azure Pipelines -Mettre en œuvre les échanges de données et de messages avec Kafka et RabbitMQ -Contribuer aux phases de tests, validation et optimisation -Participer à l’amélioration de la qualité, fiabilité et traçabilité du code -Interagir avec les équipes projet dans un contexte industriel et technique exigeant -Comprendre et exploiter, si nécessaire, des briques techniques plus anciennes comme Fortran Profil attendu : -Expérience confirmée en développement Python -Bonne maîtrise des environnements Azure DevOps et Azure Pipelines -Expérience avec des systèmes de messaging comme Kafka et RabbitMQ -Bonne compréhension des problématiques de performance et de maintenabilité du code -Appétence pour les mathématiques appliquées et les modèles techniques complexes -Expérience ou capacité à appréhender des environnements industriels / scientifiques -Connaissance d’un ancien socle comme Fortran appréciée -Capacité à produire de la documentation technique claire -Rigueur, autonomie et capacité d’analyse -Très bon niveau de français requis
Mission freelance
Consultant KELIA Actuariat / Data – Validation des calculs et migration SI Épargne / Retraite
CAT-AMANIA
Publiée le
kelia
Python
2 ans
400-700 €
Île-de-France, France
Dans le cadre d’un programme stratégique de transformation du système d’information Épargne, nous recherchons un Consultant Actuariat / Data pour intervenir sur la validation et la certification des calculs actuariels dans un contexte de migration vers un nouvel outil de gestion. Ce programme vise à moderniser l’écosystème Épargne, notamment à travers le lancement de nouvelles offres et la convergence des systèmes existants vers une plateforme cible. Vous interviendrez au sein du programme de migration, en lien étroit avec les équipes actuariat, data et IT. Vos missions Vous aurez un rôle clé dans la fiabilisation et la validation des calculs actuariels et financiers : Analyser et comparer les résultats calculatoires entre les systèmes existants et la nouvelle plateforme cible Réaliser les recettes calculatoires et valider la cohérence des résultats Identifier, analyser et documenter les écarts observés Proposer des solutions pour corriger ou minimiser les impacts techniques et fonctionnels Participer à la certification des données migrées Produire des rapports d’analyse et des supports de suivi (tableaux de bord, synthèses, indicateurs) Contribuer à la fiabilisation des données et à la sécurisation du processus de migration Vous interviendrez sur des sujets tels que : tables de mortalité provisionnement calculs actuariels validation de modèles et de paramètres Environnement technique et métier Environnement métier : Assurance Épargne et Retraite Migration de systèmes d’information Validation actuarielle et certification des données Environnement technique : Python, R ou SAS Analyse statistique et modélisation Outils analytiques et data Outil de gestion Kelia (un plus)
Offre d'emploi
Ingénieur R&D - 2/3 ans d'expériences
Codezys
Publiée le
Lyon, Auvergne-Rhône-Alpes
Contexte de la mission Le présent appel d'offres concerne une mission confiée à un prestataire dans le cadre d’un client confidentiel. La mission requiert une présence physique sur site, situé en périphérie lyonnaise, afin d'intervenir au sein du département R&D. Objectifs et livrables Les prestations confiées au prestataire incluent notamment : Organiser, planifier et réaliser des expériences biologiques en laboratoire ; Assurer la traçabilité de ces expérimentations via un cahier de laboratoires électronique ; Analyser, interpréter et synthétiser les résultats obtenus ; Communiquer régulièrement lors de réunions techniques les résultats des expérimentations ; Rédiger des protocoles d'études ainsi que des comptes-rendus de résultats ; Veiller au respect des bonnes pratiques de laboratoire (BPL), des normes qualité et sécurité en vigueur. Le prestataire s’engage également à fournir les livrables suivants : Documents techniques tels que protocoles, cahiers de laboratoires et comptes-rendus de résultats. Contraintes relatives aux livrables Les livrables doivent respecter les exigences suivantes : Rédaction en anglais ; Fourniture sous forme numérique modifiable (format Word, Excel) ; Compatibilité avec les standards informatiques en pratique chez le client (formats Word 2000 et 2007) ; Conformité aux procédures et standards en vigueur chez le client.
Offre d'emploi
Pilote de la Feuille de Route Sécurité Data
CAT-AMANIA
Publiée le
Agile Scrum
12 mois
40k-45k €
400-550 €
Niort, Nouvelle-Aquitaine
Nous recherchons un Pilote de la Feuille de Route Sécurité Data pour le compte de notre client, acteur majeur dans le secteur des assurances. Au sein du Data Office , vous intervenez sur une mission stratégique visant à renforcer durablement la sécurité du patrimoine data, aussi bien sur les environnements On-Premise que Cloud . Dans un contexte de transformation et de forte exigence réglementaire, vous êtes garant(e) du pilotage global de la feuille de route Sécurité Data Office 2025–2026 . Vos principales responsabilités portent sur la coordination, le pilotage et l’amélioration continue de la posture de sécurité data, avec une approche à la fois opérationnelle, structurante et proactive. À ce titre, vous assurez notamment : Le pilotage opérationnel de la feuille de route sécurité (jalons, budgets, qualité des livrables) L’animation de la gouvernance sécurité data (comités, coordination RSSI, DDSI, Data Managers) La production de reportings et tableaux de bord de suivi (KPIs sécurité, avancement des recommandations d’audit) L’identification des risques, points de blocage et la proposition de plans de remédiation Vous pilotez également les chantiers structurants issus de la roadmap, notamment : Les stratégies de sauvegarde et de résilience des données La gestion des accès et des habilitations L’application des règles de sécurité et de conformité (PSSI, RGPD) sur les domaines Data Au-delà de l’exécution, vous jouez un rôle de conseil en évaluant la pertinence de la feuille de route existante face aux nouveaux enjeux (IA générative, nouveaux usages data, data virtualisation) et en proposant des actions complémentaires. Enfin, vous contribuez à la mise en place d’un processus d’amélioration continue de la sécurité data, en sortant d’une logique purement réactive post-audit : Standardisation des pratiques “Security by Design” Sensibilisation et montée en compétence des équipes data Mise en place de dispositifs d’auto-évaluation et d’audits flasht personnel.
Mission freelance
Chef de projet data migration (H/F)
Cherry Pick
Publiée le
Coupa
Gestion de projet
Migration
9 mois
600-650 €
Paris, France
En quelques mots Cherry Pick est à la recherche d'un Chef de projet data migration(H/F) , pour le compte de l'un de ses clients qui opère dans le domaine pharmaceutique. Description 🏢 Le Contexte : Programme de Transformation "Nexus" Vous rejoignez le programme international, au sein de l'équipe Performance Opérationnelle Finance . Ce programme vise à harmoniser les outils et processus sur l'ensemble du cycle Source-to-Pay (S2P) et Source-to-Settle à l'échelle mondiale. Après le déploiement en France, le projet s'attaque à un morceau d'envergure : le déploiement aux États-Unis , incluant une transition vers SAP S/4HANA et l'harmonisation des outils de CLM ( Sirion ) et d'e-Procurement ( Coupa ). 🎯 Vos Missions : Pilotage et Coordination de la Migration Sous la responsabilité du responsable Data Model et Data Migration, vous portez une stratégie de migration spécifique basée sur l'agilité et l'ajustement tardif des données. Définition du Scope : Mettre autour de la table des acteurs internes ultra-challengeants pour arrêter le périmètre de reprise (attributs, historique, périmètres géographiques). Stratégie de Migration par "Templates" : Contrairement à une migration technique classique, vous pilotez une approche par gabarits permettant d'ajuster et de transformer la donnée manuellement jusqu'au dernier moment pour garantir une fiabilité maximale au Go-Live. Intégration MDM : Assurer la mise en conformité et l'entrée des données dispersées dans le référentiel maître ( Master Data Management ) du groupe. Coordination Internationale : Aligner les besoins de la France et les spécificités du déploiement américain. Gouvernance et Documentation : Documenter les processus de transition pour assurer la continuité du "Run" après la migration.
Offre d'emploi
Architecte Solutions OpenShift
Lùkla
Publiée le
Cisco
ELK
F5
2 ans
60k-65k €
550-650 €
Guyancourt, Île-de-France
Au sein de l’équipe Architecture, vous interviendrez sur la conception globale d'une plateforme d'envergure. Vous serez le garant de la cohérence technique, de la qualité de l'architecture cible et du respect des contraintes. 1. Conception et architecture (HLD/LLD) Définir et faire évoluer l’architecture cible OpenShift (HLD). Valider les LLD techniques et concevoir des architectures multi-AZ en haute disponibilité. Définir les patterns pour applications stateful et stateless. Orienter les choix structurants : stockage (NetApp), réseau (F5, Cisco), sécurité (Vault, Keycloak). Standardiser la chaîne CI/CD / GitOps (GitLab CI, ArgoCD, Jenkins). Intégrer les exigences de sécurité critiques (segmentation, PCI DSS, gestion des secrets). 2. Gouvernance technique Produire et maintenir la documentation d’architecture de référence. Définir les standards et bonnes pratiques pour les équipes Build et Run. Animer les comités d’architecture et challenger les designs techniques des différents streams. Identifier et piloter les risques techniques (capacité, dette technique, dépendances). 3. Leadership et accompagnement Animer des ateliers d’architecture et accompagner la montée en compétences des équipes. Argumenter et formaliser les décisions structurantes via des ADR (Architecture Decision Records).
Mission freelance
Workday Data Analyst (FINS & PSA)
INVESTIGO
Publiée le
450-500 £GB
Angleterre, Royaume-Uni
We are seeking an experienced Workday Finance & PSA Data Analyst to support the implementation of Workday Financials (FINS) and Professional Services Automation (PSA). The role will be responsible for end-to-end data analysis, validation, reconciliation, and reporting, ensuring the accuracy, consistency, and quality of financial and PSA data throughout the implementation lifecycle. Required Skills & Experience Demonstrated experience in a Workday Finance Data Analyst, Workday PSA Data Analyst, or comparable role. Strong hands-on expertise with Workday Financials and Workday PSA. Solid understanding of financial and PSA data structures, including customers, suppliers, projects, transactions, revenue, and costs. Proven ability to perform detailed data analysis, validation, and reconciliation. Experience supporting data conversion activities and testing phases within Workday implementations. Exceptional attention to detail, paired with strong analytical and problem-solving skills. Ability to thrive in fast-paced, delivery-driven environments and manage competing priorities effectively. At Investigo, we make recruitment feel easy. Let’s keep this simple. We’re all about your success, as your success is our business. We are part of The IN Group, a collection of six award-winning specialist brands that supply the globe with end-to-end talent solutions. With recruitment at the core of our business, we’ve been connecting people since 2003. Data & Privacy By applying, you consent to Investigo collecting and processing your data for the purpose of recruitment and placement, in accordance with applicable data protection laws. For more information, please refer to our Privacy Notice at weareinvestigo.com.
Offre d'emploi
Machine Learning/ML Engineer
WINSIDE Technology
Publiée le
Python
3 ans
40k-52k €
400-540 €
Lille, Hauts-de-France
Bonjour et merci d'avoir cliqué sur cette offre 😊 Nous recherchons un.e ML Engineer confirmé.e pour une grande entreprise sur Lille ! 🚀 Ce poste est fait pour toi si : tu as 3 ans à minima en tant ML Engineer. tu es expert.e en conception et industrialisation de modèles. tu sais automatiser les entraînements et les déploiements de modèles. tu as 5 ans d'expérience professionnelle en Python. tu as des bases solides sur MLflow ou Kubeflow ou Vertex. tu es familier avec l'environnement GCP et ses services. tu as des excellentes connaissances DevOps et de bases de données SQL et NoSQL. Idéalement tu as eu une expérience dans le retail. Les bénéfices du poste : 🤖 Un terrain de jeu technologique de pointe Le poste offre une exposition complète aux technologies les plus recherchées du marché : LLM, RAG, MLOps, GCP, Kubernetes — avec une ownership réelle du cycle de vie complet des modèles, du prototype à la production. 🚀 Un environnement d'innovation structuré L'entreprise combine l'agilité (Scrum/SAFe) d'une culture innovation avec la solidité d'un grand groupe, offrant ainsi stabilité et dynamisme pour progresser vite. Tes missions : Concevoir, développer et industrialiser des modèles de Machine Learning et d'IA, de la phase de prototypage jusqu'à la mise en production. Construire et maintenir les pipelines de données et de MLOps pour automatiser l'entraînement, l'évaluation et le déploiement des modèles. Participer activement à l'architecture et au développement des produits du domaine, notamment la plateforme MLOps et les solutions basées sur les LLM. Assurer la scalabilité, la robustesse et la performance des solutions IA déployées, en collaboration avec les équipes Ops et Data. Garantir la qualité du code et des modèles via des revues, des tests automatisés (unitaires, intégration) et des stratégies de monitoring. Participer à l'élaboration de la CI/CD selon les pratiques DevOps et MLOps sur la Google Cloud Platform et Github. Assurer une documentation complète des modèles, des pipelines et des configurations au sein du référentiel documentaire (Github / Gitbook). Être responsable du cycle de vie complet des modèles (build et run), incluant le monitoring et la maintenance en production. Démarrage : mi-mars, début avril. TT: 3 jours par semaine. Durée : 3 ans. 👉 Tu as envie d’un nouveau défi, entouré(e), valorisé(e), écouté(e) ? Postule et parlons-en. Même si ce n’est pas pour cette mission, on trouvera peut-être celle qui te correspond parfaitement. Les étapes à venir après avoir postulé : nous étudierons ta candidature avec attention. si elle nous intéresse, tu recevras un appel pour un premier échange de préqualification. On t’enverra un mail si on n’arrivera pas à te joindre. Si elle ne nous intéressera pas (ça sera certainement pour une autre mission 😉), on t’enverra un mail. Merci de ton attention et à très vite pour une aventure épanouissante chez Winside 🙂
Mission freelance
Ingénieur IVVQ Logiciel / Ingénieur Test & Validation Logicielle
Signe +
Publiée le
DOORS
12 mois
400 €
La Ferté-Saint-Aubin, Centre-Val de Loire
La mission porte sur des activités d’IVVQ logiciel (Intégration, Vérification, Validation, Qualification) réalisées dans le cadre de projets industriels. Elle consiste principalement à concevoir les moyens de test et à participer aux campagnes de validation des logiciels développés pour ces projets. Les activités s’inscrivent dans un cadre méthodologique structuré et sont menées conformément aux référentiels d’ingénierie définis pour le projet, notamment le Plan de Développement Logiciel (PDL) et le Plan d’Intégration et de Vérification (PIV). Missions principales Préparation des tests Rédaction des exigences de test à partir des spécifications logicielles disponibles dans DOORS Définition et structuration des cas de test Création des procédures de test à l’aide de l’outil Vivaldi Exécution des campagnes de test Participation aux campagnes de test logiciel Exécution des procédures de test et analyse des résultats Enregistrement et documentation des résultats de tests Déclaration et suivi des anomalies via JIRA Environnement technique DOORS (gestion des exigences) Vivaldi (gestion des procédures de test) JIRA (suivi des anomalies) Environnement Qt Systèmes embarqués STM32 Compétences attendues Expérience en IVVQ logiciel, validation ou test logiciel Bonne connaissance des outils d’ingénierie pour la validation logicielle Expérience avec des outils de gestion des exigences et de suivi des anomalies Connaissance de l’environnement Qt Connaissance des environnements embarqués STM32 Profil recherché Ingénieur ou équivalent Expérience : 5 à 10 ans Profil expérimenté, autonome et rigoureux Bonne capacité d’analyse et de formalisation Expérience dans un environnement industriel structuré Localisation La Ferté-Saint-Aubin (45) Mission majoritairement sur site (télétravail non prévu sauf validation spécifique) Conditions Démarrage : ASAP Nationalité française obligatoire (contraintes d’accès)
Mission freelance
Architecte Infrastructures _ Production Informatique
CAT-AMANIA
Publiée le
API
Docker
Kubernetes
1 an
600-700 €
Paris, France
Je suis à la recherche pour un de nos clients d'un Architecte Infrastructures _ Production Informatique. Les missions de l'architecte technique auront pour objet de : - Réaliser la conception technique des architectures pour le périmètre des applications Métier qui lui seront confiées. - Réaliser la conception techniques des architectures pour le périmètre du SI Interne. - Contribuer à leur mise en oeuvre en produisant le matériel nécessaire (DATs, dossiers d'implémentation, matrices de flux...). Le dernier point est important car il suppose que le candidat devra produire des dossiers LLD (Low level Design) et donc participer à l'implémentation des solutions. Il a un rôle important dans l'intégration des solutions et sait par conséquent accompagner les implémentations. Cette mission est centrée sur des compétences spécifiques d'infrastructure technique, la connaissance des infras Réseaux/Sécu, serveurs, middleware java, environnement conteneurisés...est nécessaire. La mission est à la frontière de problèmatiques d'infrastructure mais aussi de Production. La connaissance des métiers de la production et des exigences de l'exploitation est attendue fortement. Afin de lever toute ambiguïté, les profils d'architecture fonctionnelle Urbaniste ou architecture logicielle ne seront pas étudiés et déclarés non conformes. Nous n'attendons pas un spécialiste du cloud, d'AWS ou de tout autre fournisseur. Ce n'est pas le sujet. Les hors sujets ne seront pas évalués. Avoir exercé sur des environnements conteneurisés sous la distribution kubernetes de Redhat, à savoir Redhat OpenShit est attendue. Redhat Openshift consitute désormais le socle de nos applications. Le profil devra également être en capacité de contribuer à la rédaction d'appels d'offres pour la sélection de solutions du marché (progiciels, outils techniques...). Les compétences rédactionnelles sont essentielles dans l'exercice de la mission. Toujours dans son rôle Intégrateur. D'autre part, le(a) profil(e) devra faire état d'une forte expérience dans les sujets de modélisation d'architecture technique (sur la base de solutions type Archimate), de rédaction de dossiers d'architecture technique (expérience de plus de 5 ans) et de la capacité à présenter/argumenter ses dossiers dans des intances de type comité d'architecture. Il sera apprécié en complément des nécessaires compétences techniques, de disposer de capacités à s'approprier le fonctionnel des sujets abordés. Au-delà de cette compétence, le candidat pourra participer à toutes missions d'architecture relative à l'activité du pôle qui comprend 8 architectes techniques.
Offre d'emploi
Ingénieur de production
OBJECTWARE
Publiée le
Production
3 ans
Île-de-France, France
Nous recherchons pour le compte de notre client un.e ingénieur.e de production senior. Vos missions seront : Piloter et réaliser les mises en production applicatives (MEP, CAB, déploiements sur les différents environnements). Garantir l’ exploitabilité des applications et des environnements techniques (production et hors production). Mettre en place et faire évoluer les mécanismes de monitoring, supervision et pilotage applicatif . Participer à la définition de l’architecture technique et veiller au respect des standards d’infrastructure, de sécurité et de production. Identifier les points de blocage d’exploitation (flux, sécurité, réseau, performances) et proposer des plans d’actions. Contribuer à la gestion des incidents, problèmes et à l’amélioration continue des services de production . Accompagner les équipes de développement afin de sécuriser et accélérer la livraison des projets dans un environnement DevOps / Agile. Participer à l’ automatisation et l’industrialisation des déploiements (Infrastructure as Code, Toolchain CI/CD). Garantir la résilience des solutions (backup, restore, continuité applicative, plans de bascule). Représenter la Production au sein des équipes projets (squad) et assurer la coordination avec les équipes d’infrastructure. 🛠 Environnement technique Systèmes : Linux, Windows, AIX Containers / Cloud : Docker, Kubernetes Automatisation / DevOps : Ansible, GitLab CI, Jenkins, XL Release, Artifactory, Ansible Tower, Ansible Galaxy Bases de données : Oracle, MongoDB Ordonnancement / Middleware : Control-M, Liberty Core, WebSphere Monitoring : Dynatrace Langages : YAML, Python, Shell ☁ Connaissances attendues Architecture Cloud (IaaS, PaaS, SaaS) et environnements hybrides. Concepts de conteneurs, micro-services et virtualisation . Infrastructure as Code et automatisation des déploiements. Administration et exploitation d’environnements Kubernetes / Docker (déploiement, gestion des containers, configmap, secrets, volumes persistants, troubleshooting).
Offre d'emploi
Administrateur Infrastructures HDP/CDP
VISIAN
Publiée le
Apache Airflow
Apache Spark
Hortonworks Data Platform (HDP)
1 an
40k-45k €
400-540 €
Paris, France
Descriptif du poste Le bénéficiaire souhaite une prestation d'accompagnement pour assurer le MCO des Infrastructures HDP et CDP, administration des Clusters. Les consultants retenus auront pour mission : Administration et optimisation de clusters HDP/CDP Installation, configuration et maintenance des clusters Gestion des mises à jour et des patchs de sécurité Surveillance des performances et optimisation des ressources Gestion/administration de clusters Kubernetes Automatisation des déploiements avec Operators Sécurisation et monitoring des environnements conteneurisés Orchestration des workflows avec Apache Airflow Développement et optimisation des DAGs pour la gestion des pipelines de données Gestion des dépendances et optimisation des temps d'exécution Intégration avec les autres outils de l'écosystème Traitement et analyse des données avec Apache Spark Développement et optimisation des jobs Spark (batch et streaming) Gestion des performances et tuning des jobs Intégration avec les systèmes de stockage distribués Optimisation des requêtes et accès aux données avec Starburst Configuration et administration de Starburst Optimisation des requêtes SQL distribuées Sécurisation et gestion des accès aux différentes sources de données
Mission freelance
Ingénieur Projet Automatisme & Informatique Industrielle
STHREE SAS pour COMPUTER FUTURES
Publiée le
12 mois
350-450 €
Chartres, Centre-Val de Loire
🛠️ Missions principales Automatisme / Informatique Industrielle Création et modification de programmes automates et SCADA selon les besoins de production. Remplacement ou ajout de matériels (automates, cartes d'E/S, équipements terrain). Gestion des versions, traçabilité, documentation technique. Conception et programmation d'IHM. Participation au déploiement des politiques IT/OT et de cybersécurité. Support et résolution de problématiques techniques. Interface technique avec les fournisseurs. Documentation & Validation Rédaction et mise à jour des livrables projet : URS, FS, DS, TRM, IFA, DRR… Création et revue des IT Risk Assessment, Design Review, Design Qualification. Préparation des Change Control & VPL. Préparation, exécution et rédaction des protocoles IQ/OQ/PQ. Mise à jour des SOP, O&M, CIL, documents techniques divers. Suivi et challenge des fournisseurs externes. Reporting Rapport d'activité hebdomadaire au Work Package Owner. Participation aux revues techniques et réunions projet. 📅 Informations pratiques Démarrage : début avril 2026 Durée : jusqu'au 31/12/2026 (env. 180 jours), extension possible 2027 Proposition attendue avant le 20 mars 2026 : Nombre de jours + TJM Frais éventuels Montant total estimatif CV daté et signé du consultant
Offre d'emploi
FINOPS CLOUD
CyberTee
Publiée le
FinOps
40k-70k €
Paris, France
🚀 Vos missions Définir et piloter la stratégie FinOps Mettre en place un modèle de gouvernance FinOps (rôles, processus, outils, KPIs) Surveiller, analyser et optimiser les coûts Cloud : Amazon Web Services (AWS), Microsoft Azure, Google Cloud Platform (GCP) Contribuer à la définition du budget Cloud et assurer le suivi des prévisions Identifier les anomalies, gaspillages et leviers d’optimisation (right-sizing, réservations, spot instances, etc.) Concevoir des rapports et tableaux de bord de suivi des dépenses Cloud (Power BI, Tableau, Looker, Grafana) Accompagner et conseiller les clients sur les meilleures pratiques, outils et technologies adaptés à leur contexte Réaliser des présentations, démonstrations, POC et pilotes pour valoriser les recommandations Assurer le transfert de compétences aux équipes techniques clientes Réaliser une veille technologique et financière sur les offres Cloud et les tendances FinOps 👤 Votre profil Formation Bac+5 (école d’ingénieur, informatique, finance ou équivalent) Expérience confirmée (3 à 8 ans) en environnement Cloud ou gestion financière IT Solide expertise technique dans les domaines suivants : Cloud computing (IaaS, PaaS, SaaS, AWS, Azure, GCP) Modèles de tarification et de facturation Cloud Administration systèmes (Linux, Windows, virtualisation, web, hardening, scalability) Sécurité et gouvernance Conteneurisation : Docker, Kubernetes Capacité à travailler en équipe avec d’excellentes compétences en communication et présentation Dynamique, curieux(se), organisé(e), rigoureux(se) et force de conviction Volonté d’intervenir sur des projets stratégiques et innovants Anglais professionnel à l’écrit comme à l’oral
Mission freelance
Technicien Poste de travail
CS Group Solutions
Publiée le
Microsoft Windows
Routing & Switching (R&S)
Réseaux
6 mois
Nice, Provence-Alpes-Côte d'Azur
Nous recherchons un Technicien Poste de travail / Helpdesk / Assistant utilisateurs-Confirmé Lieu de travail : Nice avec déplacements à Toulon 1 à 2 fois par semaine (Mise à disposition d'un véhicule de service) Description En tant que technicien Support Utilisateurs de proximité vous aurez comme missions : - Interventions sur sites Clients - Résolution des incidents techniques sur site, - Gestion des tickets sur ITSM - Gestion des demandes et incidents postes de travail, réseaux et contrôle de salle visio. - Gestion du stock et Mise à jour du parc.
Offre d'emploi
Développeur Data Python SQL Shell Spark
KEONI CONSULTING
Publiée le
JIRA
Jupyter Notebook
Python
18 mois
20k-60k €
100-500 €
Lyon, Auvergne-Rhône-Alpes
CONTEXTE : Le client dans le cadre de son activité Big Data, recherche un profil en développement Data, Python, SQL, Shell, Spark (+ de 5 ans d'expérience) pour nous accompagner dans les actions sur la plateforme Cloudera Hadoop. L'objectif de la mission est de réaliser et maintenir les développements nécessaires à l'alimentation de la plateforme Hadoop, à la mise en place d'extractions et à l'accompagnement des utilisateurs MISSIONS Rattaché au responsable Big Data, le profil aura pour principales missions : - de prendre en charge les évolutions des données à intégrer, reprendre les développements effectués pour l'alimentation du Datalake , de les faire évoluer en fonction des besoins (Stack technique : Hadoop Cloudera, Hive, Impala, Python, Shell, Linux, SQL, VBA, Jupyter) - d'avoir une expertise technique permettant de spécifier techniquement les tâches, fournir les requêtes de référence, effectuer une revue de code, accompagner les potentiels alternants ou stagiaires (une alternante à date) - de mettre en place des extractions à partir de ces données, - d’assurer le support niveau 2, - de faire appliquer les consignes aux utilisateurs, - de garantir la tenue des délais de livraison dans un contexte de production à fortes attentes - de contribuer à garantir la maintenabilité de la plateforme ainsi que ses performances et son exploitabilité Il veillera au respect de l’utilisation des modèles référencés ou à leur évolution en collaboration avec la Direction Technique Informatique et la Gourvernance de la Donnée. Le profil devra posséder des aptitudes et qualités avérées sur sa capacité à communiquer avec diplomatie, à écouter, à s'intégrer et à partager son savoir faire, à documenter ses actions et à accompagner. Dans le même ordre d'idée, quelques attendus : - Développement des traitements d'alimentation, forte capacité à structurer l'activité (JIRA), mise en place et description de processus (guides, accompagnement utilisateurs, …), pilotage opérationnel de certains sujets - Développement d'extractions avec SQL (expert) et scripting Shell avancé pour l'automatisation - Capacité à investiguer et faire du reverse engineering dans une architecture héritée complexe - Optimisation des traitements de la plateforme et ceux des utilisateurs Livrables attendus "Code source documenté Plan de tests / fiches de test Bilan Bordereau de livraison Manuel d’installation Dossier d’exploitation JIRA documentée" Environnement technique - technologique "• Cloudera Hadoop • Hive, impala • Python • SQL • Shell • Spark • VBA • GIT • Jupyter • Linux • JIRA" Compétences techniques Connaisance Cloudera Hadoop, Hive, Impala Développement Python Requêtage SQL Développement Shell Développement Spark (Scala) Utilisation de GIT Agilité (méthodes Kanban et/ou Scrum) Compétence liée à l'environnement Connaissance de l'écosystème de la protection sociale
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
5653 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois