Trouvez votre prochaine offre d’emploi ou de mission freelance Google Dashboard
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php
Mission freelance
Ingénieur Cloud & DevSecOps
Pour l'un de nos clients grand compte situé en Ile-de-France, dans le cadre d'une mission de longue durée permettant du télétravail, nous recherchons un Ingénieur Cloud & DevSecOps senior . Ses missions : déployer et migrer solutions Industrialiser et automatiser (CI/CD) Sécurité dans les déploiements (tests de code source) Aide à la définition d'architectures Cloud complexes avec un haut niveau de disponibilité et de sécurité Réaliser des mises en production Mise en œuvre de la sécurité opérationnelle Animation d'ateliers techniques Profil recherché : Vision Infrastructure as a Code » et CI/CD Bon niveau d'anglais Approches micro-services et containers Compétences techniques souhaitées Google Cloud Platform et/ou Microsoft Azure (Iaas, PaaS), Packer, Docker, Ansible, Kubernetes et CI/CD (Jenkins, GitLab, ...)
Offre d'emploi
DataOps
Chez K-LAGAN & Kereon, nous parions sur vous ! 🚀 🔊 Vous êtes à la recherche d'un projet stable et durable ? Vous cherchez à vous épanouir professionnellement jour après jour ? N'hésitez pas à rejoindre notre équipe ! Vous êtes intéressé ? Alors, je vous laisse l’opportunité d’en lire plus... 🔍 Nous sommes à la recherche d'un(e) DataOps , qualifié(e) et motivé(e) pour rejoindre nos équipes et travailler chez un de nos clients du secteur assurances, basé en Nouvelle-Aquitaine, Niort. 💻 Technologies : DevOps, CI/CD, Terraform, GCP. 😉 Conditions : 📝 CDI, ASAP. 📍 Niort, Nouvelle-Aquitaine (France). 💰 Rémunération et conditions intéressantes, selon profil. 🚀 Projet et missions au sein d'une équipe et d'une société international en évolution ! 🎓 Formations personnalisées et suivies de carrières. 💻 Télétravail (mi-temps) 2-3 jours possible, selon intégration et projet client. 👌 Nous offrons : 🤝Contrat à durée indéterminée. 🤝Teambuilding. 🤝Rtt. 🤝Événements festifs organisés par l'entreprise (repas d'été, repas de Noël, journée de solidarité, BBQ, cafés technologiques …). 🤝Suivi régulier. 🤝Formation (technologie, langues, cours de formation, certifications...). Chez K-LAGAN & Kereon, l'égalité des chances fait partie de nos valeurs. Cela vous semble intéressant ? Postulez ! 📩 GROWING UP WITH YOU 🦾🤖🦿
Mission freelance
Data engineer PYTHON / GCP
Nous recherchons un Data engineer pour une mission chez notre client qui active dans le secteur du retail : Le projet est divisé en 2 modules techniques : une API qui fournit une décision de contrôle à tous les utilisateurs du système informatique (WMS), basée sur notre algorithme, un ensemble de pipelines de données alimentés à partir de jeux de données BigQuery, alimentant un magasin de fonctionnalités. Ce feature store est ensuite utilisé par notre API et pour entraîner notre modèle prédictif. Le prochain collaborateur aura pour mission de développer et maintenir ces deux modules. Responsabilités : Travailler avec l'équipe de développement pour concevoir et mettre en œuvre des solutions de données modernes et évolutives en utilisant une gamme de nouvelles technologies émergentes. Travailler avec des techniques Agile et DevOps ainsi que des approches d'implémentation dans la livraison. Concevoir et documenter des modèles de données qui soutiennent les produits d'IA. Orchestrer les pipelines de données. Gérer et être responsable de la qualité des données. Concevoir et documenter des API qui soutiennent les produits d'IA. Travailler en étroite collaboration avec les scientifiques des données, les ingénieurs en ML et les équipes DevOps/SRE.
Mission freelance
Data Engineer GCP Scala Spark
Principales responsabilités : - Collecte de données provenant de sources externes - Exploitation des capacités du Datalake (GCP) - Implémentation de la chaîne de traitement - Développement en conformité avec les normes architecturales établies - Élaboration et documentation des user stories - Création de scripts de déploiement - Priorisation de la résolution des anomalies - Contribution à la mise en place de la chaîne de livraison continue - Automatisation des tests fonctionnels - Encadrement et supervision des travaux des ingénieurs de données de l'équipe Environnement technique : GCP, Spark, Kafka, Scala
Offre d'emploi
Tech Lead MLOPS (H/F)
• Mettre en place l’outillage Datascience et MLOPS et identifier les patterns et normes pour un usage par 40 caisses régionales • Évaluer et adopter de nouvelles technologies et méthodologies pour améliorer les processus MLOps et l'efficacité de l'équipe • Diriger l'élaboration et la mise en œuvre des pipelines / solutions MLOps pour l'entraînement, le déploiement et la surveillance des modèles ML • Superviser et encadrer une équipe technique, en fournissant une orientation technique, en fixant des objectifs et en assurant la montée en compétence des équipes internes • Participer à l'exploration continue (étude d'opportunité, cadrage) et aider à estimer l'effort et la valeur délivrée par les choix de designs éligibles pour favoriser la priorisation par le Product Owner et le Pôle Utilisateur (évolutivité, testabilité, déployabilité...) • Collaborer avec les parties prenantes internes pour comprendre les besoins métier et fournir des solutions ML efficaces et évolutives • Décliner le cadre d’Architecture d’Entreprise(processus, normes, patterns …) et contribuer à son évolution • Faciliter la prise de décision de manière collaborative sur la meilleure architecture (conformité, sécurité, risques...), avec un juste équilibre entre le respect de la cible d'entreprise et la réponse pragmatique au besoin • Maitrise les objectifs visés par le cadre d'Architecture d’Entreprise et décrit des solutions qui s'y conforment et sont implémentables sous forme incrémentale dans les sprints • Suivre et facilite la visibilité de la conformité des solutions de son périmètre par rapport à la stratégie d'entreprise • Responsable de la documentation produit(s) en veillant à sa pertinence, fiabilité et sa cohérence avec les cadres de référence de l'architecture (processus, guides, patterns...).
Mission freelance
Data Engineer
Dans le cadre de la plateforme de chaîne d’approvisionnement numérique du client, nous sommes responsables d’un service d’apprentissage automatique en production dans 6 BU pour l’instant. L’objectif de ce produit est d’optimiser les contrôles de réception des commandes en ciblant les colis / palettes à auditer à l’entrée des sites logistiques. Le projet est divisé en 2 modules techniques : une API qui délivre une décision de contrôle, basée sur notre algorithme, à tous les consommateurs du système informatique (WMS), un ensemble de pipelines de données provenant de jeux de données BigQuery, alimentant un magasin de fonctionnalités. Ce magasin de fonctionnalités est ensuite utilisé par notre API et pour entraîner notre modèle prédictif. Nous recherchons un/une Data Engineer pour développer et maintenir ces deux modules. Responsabilités : En tant qu’ingénieur de données, vos responsabilités sont les suivantes : ● Travailler avec l’équipe de développement pour concevoir et mettre en œuvre des solutions de données modernes et évolutives en utilisant une gamme de nouvelles technologies émergentes. ● Travailler avec des techniques Agile et DevOps et des approches de mise en œuvre dans la livraison ● Concevoir et documenter des modèles de données qui soutiennent les produits IA ● Orchestrez des pipelines de données ● Gérer et être responsable de la qualité des données ● Concevoir et documenter l’API qui prend en charge les produits IA ● Travailler en étroite collaboration avec les data scientists, les ingénieurs ML, DevOps/SRE
Mission freelance
Data Engineer
API Python Data Pipeline DBT Documentation Compétences techniques Python - Expert - Impératif DBT - Confirmé - Impératif Github - Confirmé - Impératif Terraform - Confirmé - Souhaitable Anglais Professionnel (Impératif) The aim of this product is to optimise order reception checks by targeting the parcels/pallets to be audited at the logistics sites's entrance. The project is divided into 2 technical modules: - an API that delivers a control decision, based on our algorithm, to all consumers from ADEO IT system (WMS), - a set of data pipelines sourced from BigQuery datasets, supplying a feature store. This feature store is then used by our API and to train our predictive model. We are looking for a Data Engineer to develop and maintain these two modules. Responsibilities : As a data Engineer, your responsibilities are the following : ● Work with the dev team to design and implement modern, scalable data solutions using a range of new and emerging technologies. ● Work with Agile and DevOps techniques and implementation approaches in the delivery ● Design and document data models that support AI products ● Orchestrate data pipelines ● Manage & responsible of data quality ● Design and document API that supports AI products ● Work closely with data scientists, ML engineer, DevOps/SRE Qualifications : ● Experience working with GCP ● Experience in Python development ● Experience in API development. Good knowledge of FastAPI is required. ● Experience in Docker. ● Experience in data pipeline orchestration. Good knowledge of DBT. ● Experience in CI/CD. Knowledge of Github & Github actions is required. ● Fluency in english is required
Mission freelance
SecOps
En tant que SecOps, vous ferez partie des équipes IT qui ont pour mission de faire évoluer le modèle IT et bâtir les écosystèmes digitaux utiles et modulaires du groupe. En tant que SecOps DIT, vous intégrerez le domaine Hosting avec pour objectif de porter le développement du groupe en simplifiant la sécurité dans les services digitaux, mais également en proposant des solutions permettant de réduire la dette. Vous serez également en charge de traiter les incidents de sécurité, mais également de l'accompagnement des équipes Network, DevOps et Réseaux en apportant votre vision et votre expertise technique. Vos missions principales seront: - Mettre en place une solution permettant de réduire le nombre de faille de sécurité, - Participer à la construction de la roadmap des évolutions techniques en prenant en compte les contraintes et les opportunités, - Vous proposerez des solutions techniques en adéquation avec le besoin des équipes, - Vous participez au cadrage et à la rédaction des dossier d'architecture techniques, - Vous participez à l'industrialisation des opérations (prise en compte des incident rencontrés afin de continuellement améliorer la qualité de service), - Vous accompagnez la montée en compétences des équipes, - Vous participez au run transverse des solutions, - Vous participez au tests des solutions SOC Environnement technique: - Azure, GCP, Oracle Cloud, OVH - EDR - Proxy - Linux, Windows - Produits de monitoring - Astreintes
Offre d'emploi
Product Owner Data
Rattaché(e) à la Direction Digital, Data & IS, la Data Factory du client œuvre pour rendre les données accessibles, les valoriser à travers des produits data métiers à base d’IA et d’Advanced Analytics, et transformer le groupe orientée data (« Data-driven ») où tous les collaborateurs connaissent les enjeux de la data. La création des produits Data s’appuie sur une « plateforme Data» centrale, cloud-native, sécurisée et performante avec les technologies les plus avancées. Le client a établi un partenariat stratégique de cinq années avec Google Cloud, lui donnant accès à des technologies innovantes et des liens privilégiés avec ses experts, et permettant de disposer d’une puissance de calcul augmentée, d’accélérer l’analyse et de développer l’innovation sur de nombreux défis business et technologiques. - Collaboration étroite avec les parties prenantes pour comprendre les besoins et les objectifs: - Recueil du besoin auprès des utilisateurs - Entretiens individuels - Workshop - Ateliers de conception détaillée avec les différentes parties prenante - Définition des KPI pour la réalisation des dashboards - Déclinaisons des parcours et rédaction des users stories - Respect de la méthode INVEST - Utilisation de l'outil JIRA - Gestion du backlog de produits et définition des exigences du produit - Planification et priorisation des fonctionnalités du produit - Coordination des équipes de développement et suivi de l'avancement du projet - Acculturer les métiers autour des enjeux de la data et de l'IA - Validation et acceptation des fonctionnalités développées - Réalisation de la recette et des tests fonctionnels en collaboration avec le métier - Participation aux réunions de planification, de rétrospective et de revue de sprint - Production de supports de communication Environnement technique : PowerBI, Python, GCP et ses services, SQL, IA / NLP
Mission freelance
Service Delivery Manager
Le client est le leader mondial des cosmétiques, avec des marques innovantes et accessibles pour tous. Au sein de l'équipe Consumer le client recherche une expertise SDM afin de gérer la maintenance en condition opérationnelle et les évolutions techniques et fonctionnelles d'une application permettant la planification et la gestion des dépenses média. Cette application est identifiée comme une des applications prioritaires du groupe. Utilisée dans plus de 40 pays et intégrée avec plus de 15 plateformes SAP. Elle est utilisée par plus de 3000 personnes (responsables média ou agences média). Elle est développée et développée par l'éditeur. Missions attendues : - Coordination avec le chef de projet/PO de l'application. En charge des évolutions et de la maintenance en condition opérationnelle d'une application fortement intégrée dans l'écosystème du client (ERP SAP ECC, SAP4HANA, Middleware, GCP, Azure...). - Responsable de l'organisation des travaux de maintenance, développements et évolutions du SI avec l'éditeur, les métiers et l'ensemble des applications connectées. Les évolutions peuvent être techniques (ex. optimisation des performances, mise en place d'API, gestion des archives) ou fonctionnelles (ex. mise en place SSO, changement de norme média, optimisation UX). Tâches à réaliser : * Assurer la coordination et l'orchestration des actions des différentes équipes * Animer les hebdomadaires de l'équipe et suivre le backlog d'activité * Echanger avec l'équipe de partenaires afin de comprendre et de challenger les solutions proposées. * définir et rédiger le cahier de tests pour un livrable technique et/ou fonctionnel de l'application * Organiser, contribuer et valider les tests avec les parties prenantes. * Suivre les KPI et mettre en place les actions nécessaires avec l'éditeur pour respecter les SLA * Gérer les tickets L3 (incidents, problèmes) avec l'équipe support de l'éditeur * Contribuer à l'identification des améliorations, solutions avec les Différentes équipes de l'écosystème (intégration, référentiels, SAP). Assurer le respect des règles de fonctionnement et d'utilisation du SI en conformité avec les normes et standards du métier et de l'entreprise, et en accord avec les contrats de service définis (interopérabilité, sécurité, coûts, qualité). Livrables : * Post mortem des incidents (analyse, statut, reporting) * Documentation de la solution, des améliorations, des développements (analyse d'impacts et évaluation de la charge) * Rédiger les comptes rendus des réunions * Définition des chronogrammes, tests, plan de coordination des différentes équipes * Assurer la documentation du projet avec l'éditeur et les équipes des autres solutions (spécifications, cahier de tests, chronogramme, release note, manuel utilisateurs, descriptions produits /services/composants, ...) * Gestion de la communication orale et écrite avec les utilisateurs (Product Owner, utilisateurs finaux dans les zones et les pays).
Offre d'emploi
Consultant(e) Cloud Security - Risk Manager
Contexte de la mission : Notre client a mis en place en 2020 une Cloud Platform Engineering afin de construire des fondations solides pour ses divers services digitaux. La plateforme cloud est transverse à l’ensemble des domaines et pays du groupe. Elle est constituée d’équipes centrées sur l’Expérience du Développeur, la mise à disposition de solutions techniques pour accélérer le développement et la stabilité/scalabilité de nos applications, les Réseaux, l’Observabilité, le FinOps. Ses objectifs principaux sont de rationaliser le catalogue de produits techniques référencés au sein du groupe et de fournir des services “clé en main” pour les équipes applicatives, qui pourront ainsi se concentrer sur le développement de features à valeur ajoutée. Le fait d’avoir moins d’outils va permettre de mettre plus de monde sur chacun et d’approfondir l’usage de ceux-ci. Il sera aussi plus simple de basculer d’équipe en équipe grâce à des compétences communes. Les missions sont : · Définir la stratégie d’analyse de risques de nos composants d’infrastructures · Accompagner les Security Engineers du domaine dans la réalisation d’analyse de risque basé sur Ebios RM (définition de la démarche incluant les livrables et les ateliers nécessaires, définition des templates d’analyses de risque, définition des plans de remédiations) · Proposer une solution de définition d’une risk heat map du domaine de la plateforme cloud basé sur les remontées des analyses de risques ainsi que des audits et test d’intrusion · Définir la stratégie DRPs des composants d’infrastructures (définir les étapes de réalisation d’un DRP global, définir une roadmap d’implémentation de cette stratégie, définir les templates de DRP et de test DRP) · Animer la planification trimestrielle du domaine afin d’identifier l’ensemble des actions de remédiations à charger par chacune des équipes · Construire et jouer un exercice de gestion de crise du domaine · Animez la définition et la communication des politiques de sécurité; · Proposer et animer un processus de gestion des incidents de sécurité; · Animer le suivie des actions de sécurité · Portez la sensibilisation sécurité, risque et conformité au sein de votre périmètre, et favorisez les bonnes pratiques au sein du collectif sécurité de votre BU;
Mission freelance
DevSecOps Remediation Manager
Neotrust est une société d'innovation en matière de sécurité qui aide les dirigeants, CISO, CIO et CTO à mener à bien leur transformation en matière de sécurité et à intégrer la cyber innovation dans leur stratégie de sécurité à long terme. Un grand client avec une empreinte internationale recherche un DevSecOps Remediation Manager . Il/elle sera est chargé(e) de gérer et d'accompagner les équipes métiers dans la remédiation des vulnérabilités applicatives (AppSec) dans un contexte où la Cybersécurité est nommée comme une composante obligatoire du système d'information.
Mission freelance
Chef de Projet Data Warehouse
Nous recherchons un Chef de Projet Data Warehouse pour rejoindre notre client dans le cadre d'un projet SIRH ambitieux visant à implémenter une data platform utilisant Power BI. Ce projet a pour objectif de permettre une communication fluide entre différentes entités, en offrant une vision globale et intégrée des données RH (performance, rémunération, recrutement,..) à travers des dashboards communs. Vos missions : Identifier et prioriser les sujets techniques avec les parties prenantes du projet Encadrer les aspects techniques et architecturaux, en assurant l'intégration et le transfert de données avec les équipes IT Animer des ateliers avec les parties prenantes métiers, IT, et la squad agile Suivre les développements pour garantir leur alignement avec les besoins Agir en tant que référent IT pour le projet, couvrant l'écosystème SIRH et les autres projets au sein de l'équipe IT RH
Offre d'emploi
Consultant BI (H/F)
💼 Missions pour le Consultant BI : Développement et optimisation : Concevoir et déployer des solutions BI en utilisant Tableau, Power BI, SQL , Python, et plus, pour répondre aux besoins des clients. Analyse de données : Utiliser AWS, DBT, Databricks, GCP ( BigQuery ), pour l'analyse et la transformation des données. Automatisation des processus : Mettre en place des pipelines de données automatisés avec Docker, Airflow, et Git. Surveillance et optimisation : Utiliser Datadog, Looker, SAP BO, Cognos , pour surveiller les performances et optimiser les systèmes. Expertise technique : Fournir des conseils d'expert sur SQL Server, Cubes , SSIS, SSRS, SSAS , pour améliorer les processus et les performances.
Mission freelance
DevSecOps Manager (M/F)
Vous serez responsable de la gestion et du soutien des équipes commerciales dans la correction des vulnérabilités des applications (AppSec) Le Responsable de la Remédiation sera en charge au niveau DevOps / AppSec de : Contribuer à la conception de l’architecture de l’application (expert en cybersécurité) Embarquer et animer l’équipe produit sur les tests de sécurité Soutenir les clients pour intégrer la sécurité dès le début de leurs projets Conception et livraison de sessions de sensibilisation/formation dédiées à la cybersécurité Former et sensibiliser les équipes de développement et les utilisateurs finaux aux bonnes pratiques de sécurité (Cyber par Design) Identifier, évaluer et corriger les vulnérabilités des applications Soutien pour la correction des vulnérabilités et aide à la capitalisation au niveau de l’entreprise Contribuer à l’amélioration continue de l’offre DevSecOps et à la mise en œuvre de nouvelles activités DevSecOps Soutenir et collaborer avec les équipes produit Définir les bonnes pratiques de développement Examiner les User Stories Effectuer l’analyse des risques du produit Donner aux équipes produit le pouvoir de déclencher des audits de sécurité Outils disponibles pour l’équipe produit et procédures associées (SAST, DAST, SCA, scan de dépôt, etc.). Déterminer les impacts de l’action de remédiation sur le produit État d’avancement sur le précédent plan d’action de sécurité et priorités Déploiement, configuration fonctionnelle, réglage fin des outils, automatisation, centralisation des résultats Définition des indicateurs de cybersécurité (prérequis : réglage fin) Contribuer de manière significative à l’amélioration de ces indicateurs pour démontrer la valeur de l’approche d’un point de vue sécurité
Mission freelance
Business Analyst RPA (Robotic Process Automation)
En tant qu'Analyste Métier RPA et Process Mining, vous serez responsable de l'identification, de l'analyse et de l'optimisation des processus métier de l'entreprise, en particulier avec la plateforme UiPath. Vous travaillerez en étroite collaboration avec les équipes métier, les développeurs RPA, les experts en Process Mining et les gestionnaires de projet pour concevoir, développer et déployer des solutions RPA et Process Mining efficaces qui améliorent l'efficacité opérationnelle et la productivité de l'entreprise. Responsabilités : Analyser les processus métier existants pour identifier les opportunités d'automatisation et d'optimisation. Collaborer avec les équipes métier pour comprendre leurs besoins et leurs objectifs, et traduire ces besoins en solutions RPA. Concevoir et documenter les solutions, en incluant la modélisation des processus, la conception des robots, et la création des workflows. Tester et assurer la qualité et la fiabilité des solutions. Fournir un soutien technique aux équipes métier et aux utilisateurs finaux, en répondant aux questions, en résolvant les problèmes. Collaborer avec les développeurs RPA pour intégrer les solutions automatisées avec d'autres systèmes et technologies de l'entreprise. Suivre les performances des solutions RPA déployées, en identifiant les opportunités d'amélioration continue et en proposant des ajustements et des mises à jour au besoin. Assurer une communication transparente et efficace avec toutes les parties prenantes impliquées dans les initiatives d'automatisation RPA.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Offres par villes